atp edition Automatisierung mit FASA (Vorschau)
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
12 / 2012<br />
54. Jahrgang B3654<br />
DIV Deutscher Industrieverlag GmbH<br />
<strong>Automatisierung</strong>stechnische Praxis<br />
Virtualisierung im Kontext<br />
eines Prozessleitsystems | 28<br />
Integriertes Engineering <strong>mit</strong><br />
Automation Service Bus | 36<br />
Feldgeräte und semantische<br />
Informationsmodell | 44<br />
<strong>Automatisierung</strong> <strong>mit</strong> <strong>FASA</strong> | 52<br />
Effizienz durch ergonomische<br />
Benutzungsschnittstelle | 62<br />
Semantikvielfalt <strong>mit</strong><br />
AutomationML beherrschen | 72
Danke!<br />
<strong>atp</strong> <strong>edition</strong> ist vom Verband Deutsche<br />
Fachpresse als Fachmedium des Jahres<br />
2012 in der Kategorie Industrie/Produktion/<br />
Design ausgezeichnet worden. <strong>atp</strong> <strong>edition</strong><br />
ist eine Gemeinschaftsleistung aus der<br />
Branche für die Branche. Hinter der hochwertigen<br />
Publikation für <strong>Automatisierung</strong>stechnik<br />
stecken viele kluge Köpfe. Nicht<br />
nur Chefredakteur, Herausgeber und Beiräte<br />
tragen <strong>mit</strong> ihrem Agenda-Setting dazu bei,<br />
dass <strong>atp</strong> <strong>edition</strong> in ihrer seit über 50-jährigen<br />
Tradition die maßgeblichen Themen der<br />
<strong>Automatisierung</strong>stechnik bestimmt. Auch<br />
die Fachredaktion leistet <strong>mit</strong> einem Peer-<br />
Review-Verfahren für wissenschaftlich<br />
fundierte Veröffentlichungen einen unverzichtbaren<br />
Beitrag. Nicht möglich wäre dies<br />
ohne unsere zahlreichen Fach-Autoren. Ein<br />
großes Dankeschön an alle, die hinter <strong>atp</strong><br />
<strong>edition</strong> stehen und das Fachmagazin zu<br />
einem Erfolg machen – und nicht zuletzt<br />
an Sie, unsere Leser.<br />
Ihre Entscheidung für die hochwertige<br />
Publikation <strong>atp</strong> <strong>edition</strong> stärkt die Bedeutung<br />
wissenschaftlicher Forschungsarbeiten<br />
in der <strong>Automatisierung</strong>stechnik.
Print wirkt<br />
„<strong>atp</strong> <strong>edition</strong>“ ist ein Printtitel auf höchster<br />
Qualitätsstufe und <strong>mit</strong> Nachhaltigkeit im<br />
Sinne wiederkehrender Nutzung. Der Titel<br />
erfüllt den selbstgestellten Anspruch eines<br />
anspruchsvollen und seriösen Magazins für<br />
Top-Entscheider zwischen Wissenschaft<br />
und Praxis konsequent.<br />
Entsprechend der journalistischen Konzeption<br />
ist Online hintenangestellt. Die Jury<br />
sah hier „die beispielhafte Umsetzung einer<br />
wissenschaftlich ausgerichteten Fachzeitschrift<br />
<strong>mit</strong> Magazincharakter“.
EDITORIAL<br />
Die Wettbewerbsfähigkeit sichern<br />
<strong>mit</strong> den Architekturen der Zukunft<br />
Warum haben Sie zu diesem Magazin gegriffen? Aus Neugier? Aus Interesse?<br />
Zur Weiterbildung? Und wann lesen Sie es? Gleich nach dem Posteingang?<br />
Schnell noch kurz vor Feierabend? Nach Hause <strong>mit</strong>genommen? Oder schon gut<br />
abgelegen auf dem Eingangsstapel? Vielleicht sogar <strong>mit</strong> etwas schlechtem Gewissen,<br />
weil Ihr Job Ihnen eigentlich keine Zeit mehr für Fachzeitschriften lässt?<br />
Nur Mut: Mit der Lektüre steigern Sie Ihre Kompetenz. Sie wissen mehr als<br />
andere, Sie wissen es eher. Und: Kompetenz ist kein Selbstzweck, sondern sie<br />
steigert Ihre Wettbewerbsfähigkeit und vielleicht auch die Ihres Unternehmens.<br />
Im Deutschen sind die Worte „Kompetenz“ und „Wettbewerbsfähigkeit“ sehr<br />
unterschiedlich, das Englische hilft: Nur „competence“ erhält die „competitiveness“,<br />
steigert Ihre Chance im Wettbewerb, der „competition“.<br />
Das vorliegende Heft widmet sich dem Schwerpunkt „Zukünftige Architekturen<br />
von <strong>Automatisierung</strong>ssystemen“ und enthält sechs spannende Beiträge zu<br />
diesem Thema, wobei der Begriff „Architektur“ nicht nur auf die Hardware,<br />
sondern auch auf das Engineering bezogen ist. Da werden zukünftige Technologien<br />
für <strong>Automatisierung</strong>ssysteme vorgeschlagen und bewertet. Da geht es um<br />
Verbesserungen im Dialog des Menschen <strong>mit</strong> dem Prozess. Und es werden verschiedene<br />
Möglichkeiten zur Integration in heterogenen Systemlandschaften<br />
präsentiert. Zugegeben: Das sind nicht die Themen, die dem Projekt- oder Betriebsingenieur<br />
ab sofort das Leben erleichtern. Aber es ist ein Blick auf die<br />
Zukunft, auf neue Möglichkeiten, auf das, was wir in drei oder fünf Jahren für<br />
unsere Projekte und Betriebe kennen und bewerten können müssen.<br />
Und neben den eigentlichen Themen gibt es auch noch Impulse zu entdecken,<br />
die über den im Beitrag genannten Fall hinaus interessant sind. So zum Beispiel<br />
die Beobachtung von Draht et al., dass Standardisierung und praktischer Einsatz<br />
sich gegenseitig bedingen – und gleichzeitig behindern: Eine gute Standardisierung<br />
setzt praktische Einsatzerfahrung und da<strong>mit</strong> Verbreitung voraus – und die<br />
Verbreitung setzt häufig erst ein, wenn ein Standard existiert. Der Lösungsansatz<br />
eines gemischten Datenmodells, in dem sowohl standardisierte als auch noch<br />
proprietäre Daten übertragen und ausgewertet werden können, hat etwas Geniales.<br />
Vielleicht ist eine solche Idee auf andere Deadlock-Situationen von Standarisierung<br />
und Einsatz übertragbar und verhindert jahrelanges Warten auf „den<br />
perfekten Standard“.<br />
Wenn Sie also dieses Heft lesen und Ihr Chef oder Ihr Controller fragt, warum<br />
Sie sich denn die Zeit nehmen, die „gute alte <strong>atp</strong>“ zu lesen, geben Sie ihm dieses<br />
Editorial oder gleich das ganze Heft zu lesen. Auch Chefs oder sogar Controllern<br />
kann es nicht schaden, Kompetenz und Wettbewerbsfähigkeit zu steigern – dafür<br />
werden sie sogar bezahlt.<br />
DR. THOMAS<br />
TAUCHNITZ<br />
Leiter Technik am Standort<br />
Frankfurt Pharma, Sanofi-<br />
Aventis Deutschland GmbH,<br />
Mitglied des Namur-Vorstands<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
3
INHALT 12 / 2012<br />
VERBAND<br />
6 | IEC würdigt 22 deutsche von insgesamt<br />
139 Normungsexperten <strong>mit</strong> dem IEC 1906 Award<br />
Umsätze der Elektroindustrie gehen um sechs Prozent zurück<br />
7 | GMA wählt Beirat neu und bestätigt seinen Vorsitzenden<br />
8 | <strong>Automatisierung</strong>sanwender der Prozessindustrie<br />
wagen mehr Internationalisierung<br />
10 | Goldene Namur-Ehrennadel für Gerhard Rehn und Martin Schwibach<br />
11 | Bouaswaig und Yin ausgezeichnet<br />
BRANCHE<br />
12 | AALE 2013: Mehr über Energieeffizienz, Systeme und<br />
Lehre&Forschung in der Automation erfahren<br />
Die IEC 61508 richtig anwenden<br />
Dechema-Preis 2012 für Prof. Dr. Joachim Groß<br />
13 | Neue Richtlinie VDI/VDE 2632 Blatt 2 vereinfacht<br />
Kommunikation zwischen Anbietern und Anwendern<br />
FORSCHUNG<br />
14 | PENG erzeugt Energie aus minimalen Temperaturunterschieden<br />
Modularisierung fördert schnellere Produktion<br />
Mikrochips sollen Raubkopien verhindern<br />
15 | Flinker Modulator: Baustein für effiziente<br />
Datenübertragung gelangt zur Marktreife<br />
Roboter Hytaq fliegt oder fährt je nach Bedarf<br />
Call for Experts: Digitale Anlage im Lebenszyklus<br />
4<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
PRAXIS<br />
16 | Vernetzte Sicherheitscontroller überwachen<br />
die komplette Montage von Flugzeugrumpf-Schalen<br />
20 | Punktschweißen von Aluminium-Türen des<br />
Porsche Panamera prozesssicher automatisiert<br />
24 | Energiekonzern ENI setzt erstmals in neuer<br />
italienischer Raffinerie auf Foundation Fieldbus<br />
HAUPTBEITRÄGE<br />
28 | Virtualisierung im Kontext eines Prozessleitsystems<br />
S. RUNDE, M. SCHNEIDER, M. GLASER UND S. THIEME<br />
36 | Integriertes Engineering <strong>mit</strong> Automation Service Bus<br />
S. BIFFL, R. MORDINYI UND T. MOSER<br />
44 | Feldgeräte und semantische Informationsmodelle<br />
S. HODEK, M. LOSKYLL UND J. SCHLICK,<br />
52 | <strong>Automatisierung</strong> <strong>mit</strong> <strong>FASA</strong><br />
M. WAHLER, T. GAMER, M. ORIOL, A. KUMAR UND M. NAEDELE<br />
62 | Effizienz durch ergonomische Benutzungsschnittstelle<br />
L. GLATHE UND S. KEMPF<br />
72 | Semantikvielfalt <strong>mit</strong> AutomationML beherrschen<br />
R. DRATH UND M. BARTH<br />
RUBRIKEN<br />
3 | Editorial: Die Wettbewerbsfähigkeit sichern<br />
<strong>mit</strong> den Architekturen der Zukunft<br />
82 | Impressum, <strong>Vorschau</strong><br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
5
VERBAND<br />
IEC würdigt 22 deutsche von insgesamt<br />
139 Normungsexperten <strong>mit</strong> dem IEC 1906 Award<br />
EINIGE DER PREIS-<br />
TRÄGER und Michael<br />
Teigeler, Mitglied der<br />
Geschäftsführung<br />
der DKE Deutsche<br />
Kommission Elektrotechnik<br />
Elektronik<br />
Informationstechnik<br />
im DIN und VDE<br />
(VDE|DKE). Bild: DKE<br />
Unter insgesamt 139 Preisträgern des IEC 1906 Awards<br />
können sich in diesem Jahr 22 deutsche Normungsexperten<br />
über die internationale Auszeichnung freuen.<br />
Die Internationale Elektrotechnische Kommission würdigt<br />
<strong>mit</strong> dem Award jährlich besondere Verdienste bei<br />
der Bearbeitung aktueller Normungsprojekte.<br />
Geehrt wurden Dr. Reinhard Salffner (TC 1 „Terminology“),<br />
Dr. Gabriela Fleischer, (TC 3 „Information structures,<br />
documentation and graphical symbols“), Dr.-Ing. Egid<br />
Schneider, (TC 9 „Electrical equipment and systems for<br />
railways“), Dr.-Ing. Volker Rees (TC 17 „Switchgear and<br />
controlgear“), Dr. rer. nat. Ulrich Spindler, (TC 17 „Switchgear<br />
and controlgear“), Hubert Knapp (TC 27 „Industrial<br />
electroheating and electromagnetic processing“, Dr. Martin<br />
Thedens (TC 36 „Insulators“), Thomas Schmid (TC 46<br />
„Cables, wires, waveguides, R.F. connectors, R.F. and microwave<br />
passive components and accessories“), Leo Stuehler<br />
(TC 47 „Semiconductor devices“ ), Dr.-Ing. Hubert Becker<br />
(TC 56 „Dependability“), Thierry Dufaure (TC 57 „Power<br />
systems management and associated information exchange“),<br />
Dr. Bernd Jäkel (TC 65 „Industrial-process mea-<br />
surement and control“ ), Eckehardt Klemm (TC 65 „Industrial-process<br />
measurement and control“), Eckhard Schwendemann,<br />
(TC 72 „Automatic controls for household use“),<br />
Frank Jetzschmann (TC 77 „Electromagnetic compatibility“),<br />
Prof. Dr.-Ing. Werner Daum (TC 86 „Fibre optics“), Arno<br />
Bergmann (TC 96 „Transformers, reactors, power supply<br />
units and combinations thereof“), Werner Menger (TC 96<br />
„Transformers, reactors, power supply units and combinations<br />
thereof“), Hermann Ruoss (TC 104 „Environmental<br />
conditions, classification and methods of test“), Matthias<br />
Meier (TC 106 „Methods for the assessement of electric,<br />
magentic and electromagnetic fields associated with human<br />
exposure“), Prof. Dr. Werner Bergholz (TC 113 „Nanotechnology<br />
standardization for electrical and electronic products<br />
and systems“), Dr.-Ing. Stephan Kloska (CISPR „International<br />
Special Com<strong>mit</strong>tee on Radio Interference“).<br />
VDE VERBAND DER ELEKTROTECHNIK<br />
ELEKTRONIK INFORMATIONSTECHNIK E.V.<br />
Stresemannallee 15, D-60596 Frankfurt am Main,<br />
Tel. +49 (0) 69 630 84 61, Internet: www.vde.com<br />
6<br />
Umsätze der Elektroindustrie gehen<br />
um sechs Prozent zurück<br />
Sechs Prozent unter Vorjahresniveau blieben die Umsätze<br />
der deutschen Elektroindustrie im September.<br />
Nach bis zuletzt sehr solider Entwicklung haben die<br />
Elektroexporte da<strong>mit</strong> jetzt einen Dämpfer erhalten, der<br />
Rückgang war der stärkste seit Oktober 2009“, sagte<br />
ZVEI-Chefvolkswirt Dr. Andreas Gontermann. „Aber in<br />
den ersten drei Quartalen 2012 sind die Branchenausfuhren<br />
insgesamt um drei Prozent auf 119,8 Mrd. Euro<br />
gestiegen und steuern so weiter ein neues Jahresallzeithoch<br />
an.“ Der Exportumsatz belief sich im September<br />
2012 auf 12,6 Milliarden Euro.<br />
Die Einfuhren von Elektroerzeugnissen nach Deutschland<br />
gaben um vier Prozent gegenüber Vorjahr auf 11,2<br />
Milliarden Euro nach. Von Januar bis September hatten<br />
sie um zwei Prozent auf 102,7 Mrd. Euro zugelegt. Entsprechend<br />
haben die Ausfuhren die Einfuhren in den<br />
ersten neun Monaten 2012 um 17,1 Mrd. Euro übertroffen.<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
Der Exportüberschuss lag so drei Prozent<br />
höher als vor einem Jahr.<br />
Eine gute Nachricht kommt von<br />
den Exporten außerhalb Europas. Sie<br />
stiegen um acht Prozent auf 42,1 Milliarden<br />
Euro. 13 Prozent der Branchenunternehmen<br />
gehen von insgesamt<br />
anziehenden Ausfuhrgeschäften<br />
in den nächsten drei Monaten<br />
aus. 64 Prozent der Firmen erwarten<br />
ANDREAS<br />
GONTERMANN:<br />
Dämpfer für<br />
Elektroexporte.<br />
Bild: ZVEI<br />
stabile Exporte, zwölf Prozent rückläufige. Elf Prozent der<br />
Unternehmen sind derzeit unentschieden.<br />
ZVEI – ZENTRALVERBAND ELEKTROTECHNIK- UND<br />
ELEKTRONIKINDUSTRIE E.V.,<br />
Lyoner Straße 9, D-60528 Frankfurt/Main,<br />
Tel. +49 (0) 69 630 20, Internet: www.zvei.org
GMA wählt Beirat neu und<br />
bestätigt seinen Vorsitzenden<br />
Für weitere drei Jahre im Amt bestätigt wurde Dr.-Ing.<br />
Kurt Dirk Bettenhausen. Der Vorsitzende der VDI/<br />
VDE-Gesellschaft Mess- und <strong>Automatisierung</strong>stechnik<br />
(GMA) wurde am 20. November auf der konstituierenden<br />
Beiratssitzung für die Amtsperiode 2013 bis 2015 wiedergewählt.<br />
„Das Projekt ‚Industrie 4.0’ aktiv vorantreiben,<br />
die GMA als Forum für Wissens- und Informationsaustausch<br />
sowie den Kongress Automation weiter ausbauen“,<br />
so Bettenhausen nach seiner Wahl, „darauf<br />
kommt es in den drei nächsten drei Jahren an.“ Außerdem<br />
sei es wichtig, die Fachgebiete der GMA der breiten<br />
Öffentlichkeit noch näher zu bringen. Bettenhausen ist<br />
hauptberuflich in der Corporate Technology von Siemens<br />
verantwortlich für die Region USA sowie weltweit für<br />
das Technologiefeld Automation & Control.<br />
Die neuen Beirats<strong>mit</strong>glieder wurden von den GMA-Mitgliedern<br />
für die Amtsperiode 2013 bis 2015 gewählt. Der<br />
Beirat setzt sich aus den Leitern der GMA-Fachbereiche<br />
und acht gewählten Vertretern zusammen. Zu den acht<br />
gewählten Vertretern gehören Prof. Dr.-Ing. Dirk Abel<br />
(RWTH Aachen), Prof. Dr.-Ing. Jürgen Beyerer (Fraunhofer<br />
IOSB), Prof. Dr.-Ing. habil. Gerald Gerlach (TU Dresden),<br />
Dipl.-Ing. Martin Müller (Phoenix Contact Electronics<br />
GmbH), Dr. rer. nat. Günter Reusing (Bosch Rexroth Mechatronics<br />
GmbH), Dr.-Ing. Eckardt Roos (Festo AG&Co KG),<br />
Prof. Dr.-Ing. Klaus-Dieter Sommer (PTB Braunschweig)<br />
und Dipl.-Inf. Christoph Winterhalter<br />
(ABB AG). Die acht Fachbereiche der GMA werden<br />
in der kommenden Amtsperiode geleitet<br />
von Prof. Dr.-Ing. Frank Allgöwer (Universität<br />
Stuttgart, Fachbereich 1, „Grundlagen und Methoden“),<br />
Prof. Dr.-Ing. Werner Daum (BAM<br />
Berlin, Fachbereich 2 „Prozessmesstechnik<br />
und Strukturanalyse“), Prof. Dr.-Ing. Robert<br />
Sch<strong>mit</strong>t (RWTH Aachen, Fachbereich 3 „Fertigungsmesstechnik“),<br />
Prof. Dr.-Ing. Klaus Janschek (TU<br />
Dresden, Fachbereich 4 „Mechatronik, Robotik und Aktorik“),<br />
Dipl.-Ing. Heiko Adamczyk (Knick Elektronische<br />
Messgeräte GmbH & Co. KG, Fachbereich 5 „Industrielle<br />
Informationstechnik“), Prof. Dr.-Ing. Alexander Fay (HSU<br />
Hamburg, Fachbereich 6 „Engineering und Betrieb“), Prof.<br />
Dr.-Ing. Dr. med. Steffen Leonhardt (RWTH Aachen, Fachbereich<br />
7 „Anwendungsfelder der Automation“) und Dr.-<br />
Ing. Michael Thomas Kramer (LED Linear GmbH, Fachbereich<br />
8 „Optische Technologien“).<br />
(ahü)<br />
VDI/VDE-GESELLSCHAFT MESS UND<br />
AUTOMATISIERUNGSTECHNIK (GMA),<br />
VDI-Platz 1, D-40468 Düsseldorf,<br />
Tel. +49 (0) 211 621 40, Internet: www.vdi.de<br />
DR. KURT D.<br />
BETTENHAUSEN<br />
bleibt an der Spitze<br />
der VDI/VDE-GMA.<br />
Foto: VDI<br />
Freelance Leitsystem.<br />
So einfach ist Prozessautomatisierung.<br />
Freelance kombiniert den günstigen Preis einer SPS <strong>mit</strong> der höheren Funktionalität eines Prozessleitsystems.<br />
Eine komfortable und intuitive Bedienung und nur ein Werk zeug für das gesamte<br />
Engineering von Inbetriebnahme bis zur SystemDiagnose senken Kosten und sparen Zeit. Dieses<br />
LeitsystemKonzept bewährt sich in weltweit mehr als 14.000 Applikationen in sehr vielen Industriebereichen.<br />
www.abb.de/controlsystems<br />
ABB Automation GmbH<br />
Email: marketing.controlproducts@de.abb.com<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
7
NAMUR-HAUPTSITZUNG 2012<br />
<strong>Automatisierung</strong>sanwender der Prozessindustrie<br />
wagen mehr Internationalisierung<br />
Heinrich Engelhard wird neuer Namur-Geschäftsführer/Arbeitskreis „Automation Security“ gegründet<br />
WILHELM OTTEN,<br />
Namur-Vorsitzender,<br />
eröffnete die Namur-<br />
Hauptsitzung 2012<br />
<strong>mit</strong> einem Vortrag<br />
über die Arbeitsergebnisse<br />
des Jahres.<br />
JÖRG KIESBAUER,<br />
Vorstands<strong>mit</strong>glied<br />
der Samson AG, des<br />
Hauptsponsors der<br />
Namur-Hauptsitzung<br />
2012, stellte einen<br />
historischen Abriss<br />
der Aktorik vor.<br />
Mit rund 550 Teilnehmern fand am 8. und 9. November<br />
die Namur-Hauptsitzung 2012 unter dem Motto<br />
„Aktorik – von der Handdrossel zum smarten Stellgerät“<br />
statt. Die Namur, der Verband von <strong>Automatisierung</strong>sanwendern<br />
in der Prozessindustrie, hatte Experten<br />
der <strong>Automatisierung</strong> nach Bad Neuenahr geladen.<br />
Auf der Sitzung wurde bekannt, dass Heinrich Engelhard<br />
(Bayer Technology Services) Dr. Wolfgang Morr<br />
als Namur-Geschäftsführer ablösen wird. Ab Januar<br />
2013 startet der 49-Jährige in dem Amt. Dr. Peter Zgorzelski<br />
(Bayer Technology Services) wird als technischer<br />
Referent in der Namur tätig. Bislang war er Geschäftsstellenleiter<br />
der Namur-Projektgruppe „Merkmalleisten“<br />
und Obmann des Arbeitskreises 1.2 sowie<br />
Leiter in Arbeitskreisen von IEC und DKE. Dr. Ulrich<br />
Christmann (Bayer Technology Services) übernimmt<br />
das Arbeitsfeld „Planen und Errichten“<br />
ab 1. Januar 2013. Bei den<br />
Arbeitsfeldern wurde ebenfalls<br />
neu sortiert. Das Arbeitsfeld 4<br />
wird zukünftig „Betrieb und<br />
Instandhaltung“„Operation Support<br />
und Maintenance“ heißen. In<br />
diesem Arbeitsfeld wird der Arbeitskreis<br />
„Automation Security“<br />
gegründet. Diskutiert wird derzeit<br />
die Einberufung eines fünften Arbeitsfeldes<br />
<strong>mit</strong> Arbeitskreisen, die<br />
nicht technik- oder prozessorientiert<br />
sind. Dazu gehören etwa<br />
Hochschulkontakte oder Normenbeobachtung<br />
und -beeinflussung.<br />
Zur Eröffnung der Veranstaltung,<br />
die von Aktorik-Anbieter<br />
HEINRICH<br />
ENGELHARD<br />
wird ab 1. Januar<br />
2013 Namur-<br />
Geschäftsführer.<br />
Er löst Wolfgang<br />
Morr ab. Bild: Namur<br />
Samson gesponsert wurde, berichtete der Namur-Vorsitzende<br />
Dr. Wilhelm Otten über die Ergebnisse der<br />
Verbandsarbeit des vergangenen Jahres. Die Namur, die<br />
die Interessen der Betreiber in der Prozessindustrie vertritt,<br />
will den Dialog <strong>mit</strong> Herstellern weiter internationalisieren.<br />
Dazu gab es im September diesen Jahres eine<br />
erste konstituierende Sitzung <strong>mit</strong> den Verbänden Wib,<br />
Eemura, Exera und Isa. Schon lange tauschen diese Verbände<br />
untereinander Experten in einzelnen Arbeitskreisen<br />
aus. Mit der Isa sei darüber hinaus eine intensivere<br />
Zusammenarbeit angedacht. Die Verbände erfassen<br />
derzeit die Aktivitäten, die Potenzial für mehr<br />
Kooperation bieten. Außerdem sind gegenseitige Besuche<br />
bei Veranstaltungen geplant. Gemeinsame Arbeitsgruppen<br />
sind überdies <strong>mit</strong> den europäischen Verbänden<br />
für die Bereiche Funktionale Sicherheit, Wireless Automation,<br />
IT-Security, Auswahl<br />
von Durchflussmessern und<br />
Alarm-Management angedacht. Zu<br />
dem Thema fand ebenfalls auf der<br />
Namur-Hauptsitzung ein Workshop<br />
unter dem Titel „Internationale<br />
Kooperation“ statt.<br />
Otten wies auf die Neuerscheinungen<br />
unter den Namur-Empfehlungen<br />
und -Arbeitsblättern hin.<br />
PETER<br />
ZGORZELSKI<br />
wird als<br />
technischer<br />
Refernt bei der<br />
Namur tätig.<br />
Bild: Namur<br />
Die NE 139 (Informationsschnittstellen<br />
in der Prozessautomatisierung<br />
Betriebliche Eigenschaften),<br />
NE 140 (Vorgehensweise zur Steigerung<br />
der Energieeffizienz in<br />
chemischen Anlagen – Beitrag der<br />
<strong>Automatisierung</strong>stechnik), NE 141<br />
(Schnittstelle zwischen Batch-<br />
8<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
ETWA 550 TEILNEHMER waren der Einladung auf die Namur-Hauptsitzung 2012 gefolgt. Bilder: Anne Hütter<br />
und MES-Systemen), NE 142 (Funktionale Sicherheit<br />
elektrotechnischer Elemente) und die NE 144<br />
sind neu im Portfolio des Verbandes. Überarbeitet<br />
wurden die NE 21, NA 82, NA 101 und NE 112.<br />
In China traf sich die Namur am 21. November<br />
2012. Das Sponsoring übernahm ABB. Im kommenden<br />
Jahr versammeln sich die <strong>Automatisierung</strong>sanwender<br />
in Bad Neuenahr am 7. und 8. November.<br />
Hauptsponsor der Veranstaltung, die dann unter<br />
dem Motto „Integriertes Engineering“ steht, ist die<br />
Siemens AG.<br />
AUTORIN<br />
ANNE HÜTTER<br />
ist verantwortlich für<br />
die Redaktion und das<br />
Programmmanagement<br />
der <strong>atp</strong> im Deutschen<br />
Industrieverlag.<br />
DIV Deutscher Industrieverlag GmbH,<br />
Arnulfstraße 124, D-80636 München,<br />
Tel. +49 (0)89 203 53 66 58,<br />
E-Mail: huetter@di-verlag.de,<br />
Internet: www.di-verlag.de<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
9
NAMUR-HAUPTSITZUNG 2012<br />
Goldene Namur-Ehrennadel für<br />
Gerhard Rehn und Martin Schwibach<br />
MARTIN SCHWIBACH (li., BASF) erhält die<br />
Auszeichnung von Wilhelm Otten und Monika Reek<br />
(Assistentin der Namur-Geschäftsführung).<br />
GERHARD REHN (li.)<br />
freut sich über die<br />
Namur-Ehrennadel, die<br />
Wilhelm Otten (re.)<br />
überreicht. Bilder: Anne Hütter<br />
Gerhard Rehn (Bayer Technology Services) und Martin<br />
Schwibach (BASF) sind <strong>mit</strong> der Goldenen Ehrennadel<br />
der Namur (Verband von <strong>Automatisierung</strong>sanwendern<br />
in der Prozessindustrie) für ihre besonderen<br />
Verdienste in den Arbeitskreisen des Verbandes<br />
ausgezeichnet worden.<br />
Der Namur-Vorsitzende Dr. Wilhelm Otten überreichte<br />
die Auszeichnungen auf der Namur-Hauptsitzung<br />
2012 Anfang November in Bad Neuenahr. Martin<br />
Schwibach erhielt die Auszeichung für seine Unterstützung<br />
bei der Wireless-Thematik. Er ist Obmann der Arbeitskreise<br />
2.6 (Feldbus) und 4.15 (Wireless) sowie Initiator<br />
der Heathrow-Gruppe. Schwibach schloß 1991 sein<br />
Duales Studium an der Berufsakademie Mannheim ab<br />
und begann im selben Jahr bereits bei der BASF. Er leitete<br />
ab 2001 die Fachgruppe IT-Lösungen in der PLT und<br />
fünf Jahre später die Gruppe „Industrielle Kommunikationstechnik“.<br />
Seit 2011 ist er verantwortlich für IT- und<br />
Automation-Security am Standort Ludwigshafen.<br />
Gerhard Rehn ist Mitglied in den Arbeitskreisen 2.6<br />
(Feldbus) und 2.8 (Internettechnologien in der Prozessautomatisierung).<br />
Seit 2004 ist er als Koordinator<br />
für das Arbeitsfeld 1 (Planung und Errichtung) verantwortlich.<br />
Rehn hat bis 1976 an der TU Ilmenau Informationstechnik<br />
studiert. 1989 begann er bei der Bayer<br />
AG und war dort zuständig für die „Systemwelt Prozessleitsysteme“.<br />
Seit 2000 verantwortet er die prozessleittechnische<br />
Planung im Pharma-Bereich und ist derzeit Leiter der<br />
PCT-Planung für die Werke Elberfeld und Bergkamen.<br />
<br />
(ahü)<br />
NAMUR-GESCHÄFTSSTELLE,<br />
c/o Bayer Technology Services GmbH,<br />
Gebäude K 9, D-51368 Leverkusen,<br />
Tel. +49 (0) 214 307 10 34,<br />
Internet: www.namur.de<br />
10<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
Bouaswaig und Yin<br />
ausgezeichnet<br />
Dr.-Ing. Ala Eldin Bouaswaig<br />
und Dr.-Ing. Shen Yin wurden<br />
auf der Namur-Hauptsitzung<br />
2012 <strong>mit</strong> dem Namur-<br />
Award ausgezeichnet. Bouaswaig<br />
erhielt die Auszeichnung<br />
für seine Doktorarbeit an der<br />
TU Dortmund zum Thema „Simulation,<br />
control, and inverse<br />
problems in particulate processes“.<br />
Nach seinem Studium<br />
an der Bright Star University of<br />
Technology (1993-1997) und<br />
dem Master an der TU Dortmund<br />
(2004-2006) sowie der<br />
dortigen Promotion (2009-2011)<br />
arbeitet Bouaswaig heute in<br />
Ludwigshafen als Automation<br />
Engineer bei BASF.<br />
Dr.-Ing. Shen Yin erhielt die Auszeichnung für<br />
seine Promotion „Data-driven design of fault diagnosis<br />
system“, die er zwischen 2007 und 2012 an<br />
der Universität Duisburg-Essen verfasst hat. Der<br />
Dozent am Harbin Institut of Technology konnte<br />
die Arbeit nicht entgegen nehmen. Sein betreuender<br />
Professor Ding nahm sie an seiner Stelle in<br />
Empfang. Yin hat einen Bachelorstudiengang am<br />
Harbin Institut of Technology (2000-2004) absolviert.<br />
Anschließend blieb er für ein Jahr an der<br />
Technischen Universität Bergakademie Freiberg,<br />
um danach bis 2007 seinen Master an der Universität<br />
Duisburg-Essen in Control and Information<br />
Systems zu absolvieren. Seit 2012 hat er die Dozentur<br />
am Harbin-Institut inne.<br />
(ahü)<br />
NAMUR-GESCHÄFTSSTELLE,<br />
c/o Bayer Technology Services GmbH,<br />
Gebäude K 9, D-51368 Leverkusen,<br />
Tel. +49 (0) 214 307 10 34,<br />
Internet: www.namur.de<br />
SHEN YIN wurde<br />
ebenfalls <strong>mit</strong> dem<br />
Namur-Award<br />
ausgezeichnet. Er<br />
konnte den Preis<br />
jedoch nicht<br />
persönlich in<br />
Empfang nehmen.<br />
ALA ELDIN<br />
BOUASWAIG<br />
stellte seinen<br />
ausgezeichneten<br />
Beitrag „Simulation,<br />
control, and inverse<br />
problems in<br />
particulate<br />
processes“ vor.<br />
Bild: Anne Hütter<br />
Mit Sicherheit<br />
kompetent<br />
Mit den Stellventilen Typ 3241 von<br />
SAMSON sind Sie immer auf der<br />
sicheren Seite. Dank ihrer hohen<br />
MTBF brauchen Sie sich um einen<br />
Ausfall nicht zu sorgen.<br />
Noch mehr Sicherheit garantieren die<br />
Stellungsregler der Bauarten 3730 und<br />
3731. Mit ihrem zertifizierten Magnetventil<br />
und dem induktiven Grenzkontakt<br />
führen sie die Sprung antworttests<br />
automatisch durch und dokumentieren<br />
die Ergebnisse.<br />
Gehen Sie auf Nummer sicher <strong>mit</strong><br />
SAMSON.<br />
SIL<br />
SIL SIL<br />
A01039DE<br />
SAMSON AG · MESS- UND REGELTECHNIK<br />
Weismüllerstraße 3 · 60314 Frankfurt am Main<br />
Telefon: 069 4009-0 · Telefax: 069 4009-1507<br />
E-Mail: samson@samson.de · www.samson.de<br />
SAMSON GROUP · www.samsongroup.net
BRANCHE<br />
AALE 2013: Mehr über Energieeffizienz, Systeme,<br />
Lehre und Forschung in der Automation erfahren<br />
EXPERTENFORUM: Studenten und Praktiker der<br />
<strong>Automatisierung</strong>stechnik tauschen sich in Stralsund zur<br />
AALE-Fachtagung 2013 aus. Bild: Sebastian Bernhard/pixelio.de<br />
Ans Meer geht es im kommenden Jahr <strong>mit</strong> der Angewandten<br />
<strong>Automatisierung</strong>stechnik in Lehre und Entwicklung<br />
an Fachhochschulen (AALE). Die 10. AALE-<br />
Konferenz findet vom 28. Februar bis 1. März 2013 an der<br />
Fachhochschule Stralsund statt. Sie wird vom Fachbereich<br />
Elektrotechnik und Information organisiert und<br />
vom Verein der Freunde und Förderer der Angewandten<br />
<strong>Automatisierung</strong>stechnik an Fachhochschulen (VFAALE<br />
e.V.) unterstützt. Themen wie Trends der <strong>Automatisierung</strong>stechnik,<br />
Forschungs- und Entwicklungsarbeiten,<br />
Kooperationen in der Automation zwischen Hochschule<br />
und Industrie sowie Lehre und Ausbildung, Didaktik und<br />
MINT-Projekte stehen auf dem Programm. Am 28. Febru-<br />
ar beginnt der Expertentreff bereits um 9 Uhr <strong>mit</strong> der<br />
Begrüßung durch Veranstaltungsleiter Prof. Bernd Büchau<br />
(FH Stralsund). Es folgt ein Grußwort von Stefan<br />
Sagert vom VDMA Robotik+Automation. Ab 9.40 Uhr<br />
starten dann die Plenarvorträge unter Vorsitz von Prof.<br />
Büchau. Nach der ersten Pause starten drei Sessions zum<br />
Thema Lehre und Ausbildung, <strong>Automatisierung</strong>ssysteme<br />
I und Robotik I. Steuerungstechnik und die Forführung<br />
der Sessions <strong>Automatisierung</strong>ssysteme und Robotik<br />
stehen danach auf dem Plan. In den Sessions 7, 8 und 9<br />
befassen sich die Vortragenden <strong>mit</strong> Energieeffizienz, Modellbasierten<br />
Entwürfen und Adaptiven Systemen. Ab<br />
15.45 Uhr wird dann der AALE Student Award 2031 verliehen.<br />
Den Vorsitz führt hier Prof. Viktorio Malisa. Gesponsert<br />
wird der Preis von Bayer Technology Services<br />
und GmbH und Evonik Industries AG. Die besten drei<br />
Abschlussarbeiten erhalten die Chance sich kurz vorzustellen.<br />
Am Ende wird der Gewinner bekannt gegeben.<br />
Zur Abendveranstaltung geht es dann auf einen Exkurs<br />
in die Tiefsee. Am nächsten Tag starten die Teilnehmer<br />
<strong>mit</strong> der Postersession. Weitere Sessions sind bis kurz nach<br />
12 Uhr geplant. Um 12.30 Uhr werden dann alle <strong>mit</strong> einem<br />
gemütlichen Ausklang verabschiedet. <br />
(ahü)<br />
ANGEWANDTE AUTOMATISIERUNGSTECHNIK<br />
IN LEHRE UND ENTWICKLUNG (AALE) ,<br />
c/o Fachhochschule Düsseldorf,<br />
Fachbereich Elektrotechnik,<br />
Josef-Gockeln-Straße 9, D-40474 Düsseldorf,<br />
Tel. +49 (0) 211 435 13 08,<br />
Internet: www.aale2013.fh-stralsund.de<br />
Die IEC 61508<br />
richtig anwenden<br />
Eine Tagung zur funktionalen Sicherheit<br />
bietet der Verband der Elektrotechnik<br />
Elektronik und Informationstechnik (VDE)<br />
am 12. und 13. März 2013 in Erfurt an. Die<br />
Sicherheitsgrundnorm für funktionale Sicherheit<br />
IEC 61508 erschien erstmalig<br />
1998, <strong>mit</strong>tlerweile liegt die zweite Ausgabe<br />
SICHERHEIT IN DER vor. Etliche fachspezifische Normen, die<br />
INDUSTRIE definiert die diese umsetzen, sind erschienen. Literatur<br />
IEC 61508. Bild: Katharina und zahlreiche Veranstaltungen befassen<br />
Bregulla / pixelio.de<br />
sich bereits <strong>mit</strong> ihrer Auslegung. Die Erfahrungen<br />
des GK 914, das bei der DKE für<br />
die IEC 61508 zuständig ist, zeigen, dass die Lücke zwischen<br />
dem Text der Norm und dem konkreten Anwendungsfall<br />
noch groß ist. Das DKE-Ko<strong>mit</strong>ee GK 914 wird zu<br />
diversen Fragen am 12. und 13. März 2013 in Erfurt Rede<br />
und Antwort stehen. Erstmalig werden auch VDE-Experten<br />
aus der Medizintechnik ihre Sicht einbringen. (ahü)<br />
VDE-VERBANDSGESCHÄFTSSTELLE,<br />
Stresemannallee 15, D-60596 Frankfurt am Main,<br />
Tel. +49 (0) 69 630 80, Internet: www.vde.com<br />
Dechema-Preis 2012 für<br />
Prof. Dr. Joachim Groß<br />
Prof. Dr. Joachim Groß von der<br />
Universität Stuttgart erhält den<br />
diesjährigen Dechema-Preis der<br />
Max-Buchner-Forschungsstiftung<br />
für seine guten Forschungsarbeiten<br />
zur Thermodynamik von Gemischen.<br />
Dank seiner Erkenntnisse<br />
ist es Verfahrenstechnikern möglich,<br />
Eigenschaften von Stoffgemischen<br />
<strong>mit</strong> polaren Wechselwirkungen<br />
oder am kritischen Punkt<br />
vorauszu erechnen. Die Verleihung<br />
des <strong>mit</strong> 20.000 Euro dotierten<br />
Preises fand am 30. November 2012,<br />
im Rahmen eines Festkolloquiums,<br />
in Frankfurt am Main statt. (ahü)<br />
DECHEMA E.V.,<br />
Theodor-Heuss-Allee 25,<br />
D-60486 Frankfurt,<br />
Tel. +49 (0) 69 756 40,<br />
Internet: www.dechema.de<br />
PROF. DR.<br />
JOACHIM GROSS<br />
forschte zu<br />
Thermodynamik<br />
von Gemischen.<br />
Bild: Dechema<br />
12<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
Neue Richtlinie VDI/VDE 2632 Blatt 2 vereinfacht<br />
Kommunikation zwischen Anbietern und Anwendern<br />
Die soeben als Entwurf veröffentlichte Richtlinie VDI/<br />
VDE 2632 Blatt 2 „Industrielle Bildverarbeitung –<br />
Leitfaden für die Erstellung eines Lastenhefts und eines<br />
Pflichtenhefts“ unterstützt Anwender und Anbieter von<br />
Machine-Vision-Systemen bei der Kommunikation <strong>mit</strong>einander,<br />
um Missverständnisse und eine unvollständige<br />
Aufgabenbeschreibung zu vermeiden. Die Richtlinie<br />
hilft, Bildverarbeitungsprojekte im vollen Funktionsumfang<br />
und innerhalb des geplanten Zeit- und Kostenaufwands<br />
zu realisieren. Viele Methoden, die für die<br />
industrielle Bildverarbeitung entwickelt wurden, sind<br />
längst in den Alltag eingezogen. Moderne Fotoapparate<br />
erkennen das Lächeln von Personen und wählen automatisch<br />
den optimalen Aufnahmezeitpunkt für das<br />
Bild. Handykameras nehmen Fotos einer Plakatwand<br />
auf, finden und lesen den dort abgedruckten Text, erkennen,<br />
dass der Text eine Internet-Seite angibt und<br />
bieten dem Benutzer an, die entsprechende Website zu<br />
öffnen. 2-D-Codes <strong>mit</strong> Informationen von Flugtickets<br />
werden nicht mehr ausgedruckt, sondern direkt vom<br />
Handy-Display gelesen.<br />
Die hier aufgeführten Beispiele könnten bei den Anwendern<br />
der industriellen Bildverarbeitung den Eindruck<br />
erwecken, dass die modernen bildgestützten Positionier-,<br />
Prüf- und Messeinrichtungen quasi von alleine ihre Aufgaben<br />
erfüllen. Das ist aber nicht so. Eine veränderte<br />
Oberflächenrauheit kann beispielsweise für ein Produkt<br />
nicht qualitätsrelevant sein, ein anderer Farbton dagegen<br />
schon. Bei anderen Produkten können die Qualitätskriterien<br />
genau umgekehrt definiert sein. Daher ist in der<br />
industriellen Bildverarbeitung genau festzulegen, was die<br />
Prüfaufgabe ist, wie die Prüfobjekte aussehen, und wie<br />
die Umgebungsbedingungen sind, um zum Beispiel die<br />
Verständnisschwierigkeiten hinter folgenden Anwenderaussagen<br />
zu vermeiden:<br />
Wir hatten spezifiziert, dass das größte zu inspizierende<br />
Produkt 15 mm lang ist. Unsere neue Produktgeneration<br />
ist 17,5 mm lang. Das ist doch kein Problem,<br />
oder?<br />
Bei der Anlagenreinigung am Schichtende wird<br />
Staub aufgewirbelt. Was dachten Sie denn?<br />
Das war doch von vorne herein klar, dass die Anlage<br />
nach dem erfolgreichen Probelauf hier bei uns im<br />
Werk anschließend nach Indonesien geschickt werden<br />
soll. Wussten Sie das nicht?<br />
Diese frei erfundenen, aber realitätsnahen Aussagen können<br />
ein komplettes Anlagenkonzept infrage stellen:<br />
Wenn telezentrische Objektive in dem Bildverarbeitungssystem<br />
eingesetzt werden, kann das sichtbare<br />
Objektfeld nicht ohne weiteres vergrößert werden: Es<br />
werden andere Objektive <strong>mit</strong> anderen Einbaumaßen<br />
für größere Produkte gebraucht.<br />
Nicht berücksichtigte Staubeinwirkungen können<br />
zusätzliche Einhausungen und Filter erforderlich<br />
machen.<br />
Der Betrieb bei extrem hohen Temperaturen und hoher<br />
Luftfeuchtigkeit kann zusätzliche Kühlvorrichtungen<br />
und Luftentfeuchter erfordern.<br />
LASTEN UND PFLICHTEN beim Anlagenmagement in der industriellen<br />
Bildverarbeitung erläutert die Richtlinie VDI/VDE 2632 Blatt 2.<br />
Bild: Fraunhofer IOSB/Manfred Zentsch.<br />
In allen Beispielen verlängert die nachträgliche Änderung<br />
der Anforderungen die Lösungserstellung für die Bildverarbeitungsaufgabe<br />
und macht das System teurer. Daher<br />
ist es wichtig, die Anforderungen an ein Bildverarbeitungssystem<br />
möglichst früh, präzise und umfassend zu<br />
beschreiben, da<strong>mit</strong> das fertige System zur vollen Zufriedenheit<br />
aller Beteiligten arbeitet.<br />
Die Richtlinie VDI/VDE 2632 Blatt 2 gibt Hinweise zur<br />
Erstellung eines Lastenheftes und führt detailliert Einflussgrößen<br />
auf, die bei der Spezifikation einer Bildverarbeitungsaufgabe<br />
vom Anwender berücksichtigt werden<br />
sollen. Die hier aufgeführten Aspekte lassen sich auf fast<br />
alle Bildverarbeitungsaufgaben anwenden, seien es Sortier-,<br />
Positionier-, Prüf- oder Messaufgaben. Die Richtlinie<br />
schlägt zudem mögliche Inhalte eines Pflichtenheftes vor,<br />
in dem ein Anbieter dem Anwender seinen Lösungsvorschlag<br />
unterbreitet. Da<strong>mit</strong> erleichtert sie es den Anbietern,<br />
den Leistungs- und Funktionsumfang der angebotenen<br />
Lösung vollständig und für den Anwender transparent zu<br />
beschreiben. Die als Entwurf veröffentlichte Richtlinie<br />
VDI/VDE 2632 Blatt 2 ergänzt die Richtlinienreihe zur<br />
„Industriellen Bildverarbeitung“ des Fachausschusses<br />
3.51 im GMA-Fachbereich 3 „Fertigungsmesstechnik“.<br />
Einsprüche zur Richtlinie können bis zum 28. Februar<br />
2013 über das VDI-Richtlinien-Einspruchsportal (www.<br />
vdi.de/einspruchsportal) eingereicht werden. Das bereits<br />
veröffentlichte Blatt 1 dieser Richtlinie behandelt die<br />
Grundlagen und Begriffe der industriellen Bildverarbeitung.<br />
Weitere Blätter sind in Planung.<br />
VDI/VDE-GESELLSCHAFT MESS- UND<br />
AUTOMATISIERUNGSTECHNIK (GMA),<br />
Dr.-Ing. Erik Marquardt,<br />
VDI-Platz 1, D-40468 Düsseldorf,<br />
Tel. +49 (0) 211 621 43 73,<br />
E-Mail: marquardt@vdi.de,<br />
Internet: www.vdi.de/2632<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
13
FORSCHUNG<br />
PENG erzeugt Energie aus minimalen<br />
Temperaturunterschieden<br />
Schon Temperaturunterschiede durch einen Luftzug<br />
oder einen Sonnenstrahl können Strom erzeugen.<br />
Doch reicht dieser, um ganze Komponenten dauerhaft<br />
zu versorgen? Forscher des Georgia Institute of Technology<br />
haben einen solchen PENG, einen pyroelektrischen<br />
Nanogenerator, erfunden. Er ist halb so groß wie eine<br />
Briefmarke und kann nach Angaben der Wissenschaftler<br />
Elektronik-Kompontenten <strong>mit</strong> ausreichend Strom<br />
versorgen. Der pyroelektrische Effekt erlaubt die Erzeugung<br />
von Strom aus zeitlichen Temperaturänderungen,<br />
ist bisher aber kaum erforscht. Bisherige Generatoren<br />
auf dieser Grundlage haben lediglich Spannungen unter<br />
0,1 Volt geliefert. Der PENG besteht aus einer 175<br />
Mikrometer dicken Folie aus Blei-Zirkonat-Titanat. Ein<br />
Stück <strong>mit</strong> den Maßen 21 x 12 Millimeter liefert bei einer<br />
Temperaturänderung um 45 Kelvin <strong>mit</strong> einer Geschwindigkeit<br />
von 0,2 Kelvin pro Sekunde bis zu 22 Volt Spannung<br />
bei 430 Nanoampere. Die Stromdichte beträgt 171<br />
Nanoampere pro Quadratzentimeter. Das reicht aus, um<br />
ein kleines LCD <strong>mit</strong> Energie zu versorgen, wie die Forscher<br />
bewiesen. Auch zum Laden eines Lithium-Ionen-<br />
Akkus kann der erzeugte Storm genutzt werden, allerdings<br />
muss der Output hier für einen sinnvollen Einsatz<br />
noch erhöht werden.<br />
(ahü)<br />
GEORGIA INSTITUTE OF TECHNOLOGY,<br />
North Ave., Atlanta, Georgia 30332, USA,<br />
Tel. +1 404 894 20000,<br />
Internet: www.gatech.edu<br />
Modularisierung fördert schnellere Produktion<br />
Könnte die Lösung für einen schnelleren Martkeintritt<br />
für ein Produkt der Verfahrenstechnik in der Modularisierung<br />
liegen? Ja, sie könnte, erklärte Norbert Kockmann,<br />
anlässlich der Namur-Hauptsitzung Anfang November<br />
in Bad Neuenahr. Der Treffpunkt für Anwender<br />
von <strong>Automatisierung</strong>stechnik in der Prozessindustrie<br />
stellte in seinem Vortragsprogramm einige Lösungen für<br />
die effiziente Prozesstechnik vor. Dazu gehört auch das<br />
europäische Forschungsprojekt F3 (Fast Flexible Future)<br />
Factory. Das Projekt modularisiert Anlagen in Containern.<br />
Invite heißt das Projekt, das von der Bayer Technology<br />
Services und der TU Dortmund realisiert wurde.<br />
Bei Evonik ist ein ähnliches Projekt, der Evotrainer, im<br />
Einsatz. Er entstand aus dem Forschungsprojekt Copiride.<br />
Dieser 3 x 12 Meter große Container enthält, was für<br />
die Produktion benötigt wird: Reaktoren, Prozessleittechnik,<br />
IT-Module, Lagerfläche für die Einsatzstoffe,<br />
Elemente für konstruktiven Brandschutz, Fluchttüren<br />
und Auffangwannen nach dem Wasserhaushaltsgesetz.<br />
Die Verfahrenstechnik gibt hier also eine neue Marschrichtung<br />
vor; die <strong>Automatisierung</strong>stechnik muss <strong>mit</strong> den<br />
Anforderungen Schritt halten. „Die <strong>Automatisierung</strong>stechnik<br />
darf die Entwicklung nicht bremsen, sie soll sie<br />
unterstützen“, fordert Stephan Bleuel von Sanofi-Aventis.<br />
Die Branche ist sich sicher: Modularisierung hat Potenzial,<br />
die Time-to-Market zu verkürzen.<br />
(ahü)<br />
TECHNISCHE UNIVERSITÄT DORTMUND,<br />
Fakultät Bio- und Chemieingenieurwesen,<br />
Emil-Figge-Strasse 70, D-44227 Dortmund,<br />
Tel. +49 (0) 231 755 30 30,<br />
Internet: www.bci.tu-dortmund.de<br />
Mikrochips sollen Raubkopien verhindern<br />
Verschiedene Möglichkeiten, Maschinenbauer vor dem<br />
Kopieren ihrer Ware zu schützen, schlägt das Fraunhofer-Institut<br />
für Angewandte und Integrierte Sicherheit<br />
AISEC vor. Um das illegale Kopieren von vornehmlich<br />
Textilmaschinen, Kompressoren oder Anlagen für Kunststoffverarbeitung<br />
besser zu kontrollieren, bieten die Wissenschaftler<br />
zahlreiche Verfahren an.<br />
Besonders die integrierten Steuerungprogramme der<br />
Maschinen sind ein beliebtes Angriffsziel für Kopierer.<br />
Ein ganzer Auftragsmarkt hat sich, laut AISEC, darum<br />
gebildet. Dienstleister bieten <strong>mit</strong>tlerweile das "Reverse<br />
Engineering" an. Zunächst analysieren sie den Aufbau<br />
der Hardware und fertigen Schaltpläne des Originalproduktes<br />
an. Dann lesen sie die Software aus und rekonstruieren<br />
daraus die Steuerung und Funktionen der Maschine,<br />
den Kern des Apparats. Sicherheitskritische<br />
Ersatzteile, wie bereits in der Luftfahrtindustrie eingesetzt,<br />
können <strong>mit</strong> nicht kopierbaren Hologrammen gekennzeichnet<br />
werden.<br />
Effektiver ist es dagegen bereits bei der Entwicklung<br />
der Hardware den Produktschutz einzubeziehen. Auf<br />
Mikrochips können die Daten der Maschine so verschlüsselt<br />
hinterlegt werden. AISEC geht davon aus, dass<br />
eine Prophylaxe dieser Art Maschinenbauer bis zu fünf<br />
Jahre vor Produktpiraterie schützen kann. (ahü)<br />
FRAUNHOFER-INSTITUT FÜR ANGEWANDTE UND<br />
INTEGRIERTE SICHERHEIT AISEC,<br />
Parkring 4, D-85748 Garching b. München,<br />
Tel. +49 (0) 89 3229986-128,<br />
Internet: www.aisec.fraunhofer.de<br />
14<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
Flinker Modulator: Baustein für effiziente<br />
Datenübertragung gelangt zur Marktreife<br />
Wissenschaftlern aus Berlin und Frankfurt/Oder ist<br />
es gelungen, den bisher kleinsten Hochgeschwindigkeitsmodulator<br />
der Welt zu entwickeln. Der Modulator<br />
<strong>mit</strong> einer Länge von weniger als 10 Mikrometern<br />
ist für photonisch integrierte Schaltkreise geeignet.<br />
Modulatoren werden in der Nachrichtentechnik zur<br />
Übertragung von Informationen eingesetzt. Bei hohen<br />
Modulationsgeschwindigkeiten von bis zu 25 Gigabaud<br />
besitzt er eine sehr hohe Temperaturstabilität<br />
und einen äußerst geringen Energieverbrauch von nur<br />
200 Femtojoule/Bit. Die Herausforderung bleibt die<br />
effiziente Zusammenführung der Basiselemente zu<br />
einem leistungsstarken marktfähigen Produkt. Siliconon-Insulator<br />
(SOI) Chip stellt sich als technisch besonders<br />
anspruchsvoll dar. Hier gilt es, eine effiziente<br />
Kombination aus Laserquelle, elektro-optischem<br />
Modulator und Treiberelektronik zu entwickeln. Bisher<br />
konnte für dieses Modul keine optimale Lösung<br />
aufgezeigt werden, welche gleichzeitig alle Anforderungen<br />
an die Schaltgeschwindigkeit, Baugröße,<br />
Zuverlässigkeit und den Energieverbrauch für die<br />
Implementierung in einen optischen Transceiver, der<br />
als Schnittstelle zwischen optischer und elektrischer<br />
Übertragungsstrecke fungiert, erfüllt. (ahü)<br />
TECHNISCHE UNIVERSITÄT BERLIN,<br />
Straße des 17. Juni 135, D-10623 Berlin,<br />
Tel. +49 (0) 30 31 40, Internet: www.tu-berlin.de<br />
KLEINER ABER OHO:<br />
Der Silicon-on-Insulator<br />
(SOI)-Chip ist 26×11<br />
Quadratmillimeter klein<br />
und hat über 700<br />
verschiedene optische<br />
Bauelemente.<br />
Foto: TU Berlin<br />
Roboter Hytaq fliegt oder<br />
fährt je nach Bedarf<br />
Ein Automat, der fahren<br />
und fliegen kann. Forschern<br />
am Robotics Lab<br />
des Illinois Institut of<br />
Technology (IIT) ist es gelungen,<br />
einen solchen Hybrid<br />
Terrestrial and Aerial<br />
Quadrotor, kurz Hytaq,<br />
zu entwickeln. Der Flugroboter<br />
besteht aus einem<br />
QUADROTOR: Umgeben von robotischen Hubschrauber<br />
<strong>mit</strong> vier Rotoren, um<br />
einem runden Schutzkäfig kann<br />
Hytaq auch fahren. Bild: IIT den herum die Entwickler<br />
einen Schutzkäfig angelegt<br />
haben. Dieser ist aus Polykarbonat und Kohlenstofffaser.<br />
Im Inneren auf einer Achse sitzt der Flugroboter.<br />
Man nennt ein solches Konstrukt auch Quadrokopter.<br />
Zum Fahren benutzt der Automat dann den<br />
runden Käfig. Durch die Abrundung muss nur der<br />
Rollwiderstand überwunden werden. Die Erfinder hoffen,<br />
dass es Hytaq gelingt, einfacher an schwierig zu<br />
erreichende Orte zu gelangen. Außerdem kann die Effizienz<br />
seiner Fortbewegung angepasst werden. Die<br />
Batterie von Hytaq reiche zwar nur fünf Minuten, an<br />
alternativen Energieversorgungsmethoden werde jedoch<br />
noch gearbeitet. Hytag kann viermal so lange<br />
Strecken zurücklegen und fast sechs Mal so lang im<br />
Einsatz sein, weie in reines fliegendes System. (ahü)<br />
ILLINOIS INSTITUT OF TECHNOLOGY,<br />
3300 South Federal Street, Chicago, IL 60647, USA<br />
Internet: www.iit.edu<br />
Digitale Anlage im Lebenszyklus<br />
AUSGABE 55 (6) DER ATP EDITION im Juni 2013 greift das Thema der<br />
Digitalen Anlage im Lebenszyklus auf. Die Digitale Anlage ist der Oberbegriff<br />
für ein umfassendes Netzwerk von digitalen Modellen, Methoden<br />
und Werkzeugen die durch ein durchgängiges Datenmanagement<br />
integriert werden. Ihr Ziel ist die ganzheitliche Planung, Evaluierung<br />
und laufende Verbesserung aller wesentlichen Strukturen, Prozesse<br />
und Ressourcen der realen Anlage in Verbindung <strong>mit</strong> dem Produkt – sie<br />
ist ein essenzielles Element für die Umsetzung der Vision Industrie<br />
4.0. Gesucht sind praxisorientierte Beiträge zur Beschreibung, Modellierung,<br />
Umsetzung, Einführung und Nutzung der Digitalen Anlage bei<br />
Anlagenplanung, Inbetriebsetzung und Prozessführung. Beiträge, die<br />
die Nutzung der Digitalen Anlage im Zusammenhang <strong>mit</strong> CPS darstellen,<br />
sind ebenfalls willkommen.<br />
Die <strong>atp</strong> <strong>edition</strong> ist die hochwertige Monatspublikation für Fach- und<br />
Führungskräfte der <strong>Automatisierung</strong>sbranche. In den Hauptbeiträgen<br />
werden die Themen <strong>mit</strong> hohem wissenschaftlichem und technischem<br />
Anspruch und vergleichsweise abstrakt dargestellt. Im Journalteil<br />
werden praxisnahe Erfahrungen von Anwendern <strong>mit</strong> neuen Technologien,<br />
Prozessen oder Produkten beschrieben.<br />
Alle Beiträge werden von einem Fachgremium begutachtet. Sollten<br />
Sie sich selbst aktiv an dem Begutachtungsprozess beteiligen wollen,<br />
bitten wir um kurze Rückmeldung. Für weitere Rückfragen stehen wir<br />
Ihnen selbstverständlich gerne zur Verfügung.<br />
Ihre Redaktion der <strong>atp</strong> <strong>edition</strong>: Leon Urbas, Anne Hütter<br />
CALL FOR<br />
Aufruf zur Beitragseinreichung<br />
Thema: Die Digitale Anlage im Lebenszyklus<br />
Kontakt: urbas@di-verlag.de<br />
Termin: 28. Januar 2013<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
15
PRAXIS<br />
Vernetzte Sicherheitscontroller überwachen die<br />
komplette Montage von Flugzeugrumpf-Schalen<br />
Premium Aerotec erreicht <strong>mit</strong> Lösung von ABB Jokab Safety Performance Level PL e und SIL 3<br />
DIE SCHUTZUMHAUSUNG QUICK-GUARD<br />
besteht aus einem Minimum an Komponenten.<br />
Die Computer-Software SafeCAD erstellt<br />
automatisch 3D-Zeichnungen sowie Komponentenund<br />
Schnittlisten. Der Sicherheits-Lichtvorhang<br />
Focus schützt vor unbefugtem Zutritt.<br />
Bild: ABB Jokab Safety<br />
DIE VOLLAUTOMATISIERTE FLÄCHENNIETANLAGE<br />
NOR ist durch eine Sicherheits-Komplettlösung von<br />
Jokab Safety rundum geschützt. Bild: Premium Aerotec<br />
Der Luftfahrtzulieferer Premium Aerotec wählte für<br />
den Personen-, Maschinen- und Anlagenschutz an<br />
den Flächennietern und seiner Pulse-Motion-Montagelinie<br />
eine Sicherheits-Komplettlösung von ABB Jokab<br />
Safety. Sämtliche Sicherheitsfunktionen an den<br />
neuen Fertigungslinien in der Schalenmontage im<br />
niedersächsischen Nordenham werden von zehn <strong>mit</strong>einander<br />
vernetzten Sicherheitscontrollern Pluto<br />
B46 v2 überwacht und gesteuert. Diese sind über sechs<br />
Protokollumsetzer Gate-P1 <strong>mit</strong> der übergeordneten<br />
Profibus-DP-Steuerung vernetzt. Mit Erweiterungsund<br />
Sicherheitsrelais, Zustimmungsschaltern, Lichtvorhängen,<br />
Schutzumhausungen sowie Sicherheitsschlössern<br />
<strong>mit</strong> Zuhaltung erreicht das Unternehmen<br />
durchgängig den höchsten Performance Level PL e<br />
gemäß EN ISO 13849-1 und SIL 3 gemäß EN IEC 61508<br />
sowie EN IEC 62061.<br />
5000 RUMPFSCHALEN PRO JAHR<br />
Jährlich verlassen rund 5000 Schalen das Werk Nordenham,<br />
die unter anderem auf dem Seeweg zum<br />
Hauptkunden Airbus nach Hamburg transportiert<br />
werden. Aus Nordenham erhält der Flugzeughersteller<br />
Schalen für den A380 und zukünftig die komplette<br />
Sektion 13/14 der Rumpfstruktur für den A350 XWB.<br />
Neben der Fertigung von Flugzeugstrukturen für die<br />
gesamte Airbus-Flotte produziert das Werk Nordenham<br />
auch Bauteile für andere Luftfahrtkunden sowie<br />
branchenfremde Unternehmen, wie Komponenten für<br />
den Triebkopf des chinesischen Hochgeschwindigkeitszuges<br />
CRH3.<br />
VOLLAUTOMATISIERTE FLÄCHENNIETANLAGE<br />
Der Sondermaschinenbauer Brötje-Automation GmbH<br />
aus Wiefelstede bei Oldenburg ist als Generalunternehmer<br />
der verantwortliche Lieferant der drei Montagelinien<br />
für die A350 XWB-Rumpfschalen in Nordenham,<br />
Stade und Augsburg. Dies beinhaltet neben einem in der<br />
Flugzeugmontage einzigartigen Förderkonzept auch<br />
vollautomatisierte Bohr- und Nietmaschinen.<br />
Sowohl die vollautomatisierte Flächennietanlage in<br />
Nordenham als auch die Multi-Panel-Assembly-Cell<br />
(MPAC) in Augsburg sind zur Herstellung von Nietverbindungen<br />
und zur Montage von Rumpf-Bauteilen für<br />
den Airbus A 350 bestimmt. Der Bohr- und Nietprozess<br />
erfordert eine beidseitige und geregelte Krafteinleitung,<br />
um die Flugzeugschale vor Beschädigungen zu schützen.<br />
Der eingesetzte Bohr- und Nietendeffektor ist daher zwei-<br />
16<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
DAS SICHERHEITSSCHLOSS KNOX verhindert,<br />
dass Menschen in die Nähe gefährlicher Maschinenteile<br />
gelangen können, bevor die Maschine<br />
vollständig stillsteht. Bild: ABB Jokab Safety<br />
DER SICHERHEITSCONTROLLER PLUTO B20<br />
unterstützt durchgängig den höchsten Performance<br />
Level PL e und SIL 3. Die Erweiterungsrelais BT51<br />
bieten zusätzliche Ausgangskontakte, und das<br />
Gateway Gate P1 ermöglicht die Kommunikation<br />
<strong>mit</strong> der übergeordneten Profibus-DP-Steuerung.<br />
Bild: ABB Jokab Safety<br />
geteilt. Das sogenannte Oberwerkzeug beherbergt diverse<br />
einzelne Werkzeuge wie Bohrer, Nieteinsetzer sowie<br />
Spanabsaugung und kommt ohne Hydraulik aus. Es wird<br />
über ein Portal in die jeweils gewünschte Position verfahren.<br />
Das Unterwerkzeug ist steuerungsseitig gekoppelt<br />
und kann so automatisch in die dazugehörige Gegenhalterposition<br />
verfahren werden. Eine Vielzahl von<br />
Achsen erlaubt auch das Bearbeiten von komplexen Bauteilen<br />
und Strukturen.<br />
SICHERHEITSZELLE SCHÜTZT MITARBEITER<br />
Die Pulse Motion Line (PML) für die Schalenproduktion<br />
ist ein in der Flugzeugmontage weltweit erstmalig eingesetztes<br />
Montagelinienkonzept. Die Taktung des Bauteils<br />
erfolgt in vorab festgelegten Abständen, hier alle 7<br />
Spanten. Die Bauteilträger werden <strong>mit</strong> einem Transportgestell<br />
in die PML be- und entladen. Ein durchgängiges<br />
Transportsystem in der PML sorgt für den Weitertransport<br />
der Bauteile durch alle Arbeitsbereiche.<br />
Die Anlage ist aus Sicherheitsgründen <strong>mit</strong> einem<br />
Schutzzaun für den Arbeitsbereich der Nietanlage ausgerüstet.<br />
Die Sicherheitszelle ist <strong>mit</strong> mehreren Türen<br />
ausgerüstet. Jede Tür verfügt über eine Türverriegelung<br />
Knox von Jokab Safety. Der Eintritt in die Sicherheitszelle<br />
wird erst freigegeben, wenn sich das Positioniersystem<br />
und die Nietmaschine in einem sicheren Zustand<br />
befinden.<br />
Zur Durchführung mehrerer Bohrungen am Testblech<br />
kann der Bediener den Positionierer eingeschränkt<br />
verfahren. Zum Schutz des Bedieners in der<br />
Zelle bewegt sich der Positionierer nur, wenn der Bediener<br />
eine Zustimmtaste betätigt hält. Die Bewegung<br />
des Positionierers ist auf „sichere Geschwindigkeit“<br />
begrenzt. Wenn der Bediener die Zustimmtaste während<br />
eines Zyklus loslässt, stoppt der Zyklus an Unterbrechungspunkten<br />
in der Prozessschrittkette, eine<br />
Bohrvorschubbewegung wird sofort abgebrochen und<br />
der Bohrer zurückgezogen.<br />
Alle diese übergeordneten sicherheitsrelevanten<br />
Steuerungsprozesse sind durch mehrere <strong>mit</strong>einander<br />
vernetzte Sicherheitscontroller des Typs Pluto B46-2<br />
realisiert. Die von der Sicherheitstechnik geforderte<br />
Flexibilität ließ sich <strong>mit</strong> dem freiprogrammierbaren<br />
Sicherheitscontroller Pluto problemlos verwirklichen.<br />
Pluto ist ein Controller, der den Entwurf von Sicherheitssystemen<br />
vereinfacht und die höchste Sicherheitskategorie<br />
4 nach EN 954-1 beziehungsweise PL e nach<br />
EN 13849-1 erreicht.<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
17
PRAXIS<br />
EINFACHER AUSBAU DANK MODULSYSTEM<br />
Für das Projekt benötigte man sowohl eine flexible <strong>Automatisierung</strong>ssteuerung<br />
als auch ein zuverlässiges Sicherheitssystem.<br />
Die Wahl fiel hier auf die SPS Pluto von<br />
ABB Jokab Safety, die beide Anforderungen erfüllen<br />
konnte. Pluto ermöglichte eine leichte und unkomplizierte<br />
sicherheitstechnische Vernetzung der Fertigungslinie.<br />
Mithilfe des Pluto-Systems wurde die Berechnung<br />
des PL stark erleichtert.<br />
Die modulare Architektur des Systems erlaubt einen<br />
einfachen Ausbau falls die Kapazität erhöht werden<br />
muss. Für Brötje-Automation war wichtig, dass die Sicherheitsfunktionen<br />
von Anfang an in das Anlagenkonzept<br />
integriert werden konnten. Schließlich ist es nicht<br />
ganz einfach, ein System im Nachhinein an die zahlreichen<br />
erforderlichen Sicherheitsfunktionen anzupassen.<br />
Eine rein Hardware-technische Realisierung <strong>mit</strong> dem<br />
da<strong>mit</strong> verbundenen enormen Installationsaufwand und<br />
möglicherweise einem zusätzlichen Schaltschrank wäre<br />
zu aufwendig geworden.<br />
DEZENTRALE AUTOMATISIERUNGSLÖSUNG<br />
Alle Fäden der dezentral strukturierten <strong>Automatisierung</strong>slösung<br />
für das Transportsystem laufen in einem<br />
zentralen Controller zusammen, der neben den konventionellen<br />
SPS-Aufgaben die gesamte Sicherheitstechnik<br />
des Transportsystems auswertet und steuert. Das Ergebnis<br />
sind mehrere kompakt montierte, dezentrale Schaltschränke,<br />
die über Profibus DP <strong>mit</strong> dem zentralen Controller<br />
verbunden sind.<br />
Durch den Mischbetrieb der Baugruppen ist es möglich,<br />
in einer dezentralen Station sowohl Standard- als<br />
auch sicherheitsrelevante Prozess-Signale zu verarbeiten.<br />
Der sichere Datenaustausch ist über herkömmliche<br />
Profibus-Kabel und das Protokoll Profisafe realisiert.<br />
Dies erspart einen separaten Sicherheitsbus und den da<strong>mit</strong><br />
verbundenen Installationsaufwand.<br />
LICHTVORHANG SORGT FÜR FLEXIBILITÄT<br />
Die Roboter-Anlage ist aus Sicherheitsgründen <strong>mit</strong> einer<br />
Zelleneinhausung für den Arbeitsbereich ausgerüstet.<br />
Die Sicherheitszelle soll verhindern, dass sich während<br />
des Automatikbetriebs ein Mitarbeiter im Gefahrenbereich<br />
des Roboters aufhält. Die Sicherheitszelle wird <strong>mit</strong><br />
mehreren Türen ausgerüstet. Jede Tür hat eine Türsicherung<br />
Knox von Jokab Safety. Der Eintritt in die Sicherheitszelle<br />
wird erst freigegeben, wenn der Roboter <strong>mit</strong><br />
dem Endeffektor sicher steht.<br />
Da<strong>mit</strong> der Bediener oder das Wartungspersonal an den<br />
Endeffektoren am Ablageplatz arbeiten kann, ist der Bereich<br />
zwischen Ablageplatz und Sicherheitszelle <strong>mit</strong><br />
einem Jokab-Safety-Lichtvorhang Focus gesichert. Wenn<br />
mehr als ein Roboter in der Zelle arbeitet, wird <strong>mit</strong> zusätzlichen<br />
Lichtvorhängen des Typs Focus die Zelle in<br />
Arbeitsbereiche aufgeteilt. Durch diese Querteilung der<br />
Sicherheitszelle wird es möglich, dass sich Bediener oder<br />
Wartungspersonal in einem Teilbereich der Zelle aufhalten<br />
können, ohne dass der zweite Roboter seine Arbeit<br />
stoppen muss.<br />
PROJEKTÄNDERUNGEN OHNE UMVERDRAHTUNG<br />
Ausgezahlt hat sich die fehlersichere SPS-Technik bereits<br />
in der Entwicklungsphase insofern, als im Sondermaschinenbau<br />
immer wieder Änderungen in der Projektphase<br />
vorgenommen werden müssen, die sonst einen<br />
erheblichen Umverdrahtungsaufwand <strong>mit</strong> sich gebracht<br />
hätten. Die Sicherheitsfunktionalität der fehlersicheren<br />
Steuerung Pluto basiert auf vorgefertigten Funktionsbausteinen.<br />
Diese lassen sich aber auch an individuelle Anforderungen<br />
anpassen. Zum Austausch nicht sicherheitsrelevanter<br />
Daten zwischen den Pluto-Steuerungen wird<br />
das Profibus-Gateway Gate-P1 von ABB Jokab Safety<br />
eingesetzt.<br />
Der bei Premium Aerotec <strong>mit</strong> der Instandhaltungsplanung<br />
und -steuerung betraute technische Leiter, Peter<br />
Janßen und sein Mitarbeiter Thomas Karges sowie Brötje-Projektleiter<br />
<strong>Automatisierung</strong>stechnik, Rainer Weber,<br />
schätzen vor allem die hohe Anpassungsfähigkeit des<br />
Sicherheitscontrollers Pluto sowie die leichte Ausrichtung<br />
der Unfallschutz-Lichtvorhänge Focus.<br />
Die drei <strong>Automatisierung</strong>sspezialisten loben auch den<br />
übersichtlichen modularen Aufbau und die leichte Programmierbarkeit<br />
von Pluto <strong>mit</strong> der kostenlosen Software<br />
Pluto Manager sowie das durchgängige Erreichen des<br />
höchsten Performance Levels PL e.<br />
AUTOR<br />
ANDREAS STRANGFELD<br />
ist Leiter Produktmarketing<br />
Safety bei ABB Stotz-<br />
Kontakt in Spaichingen.<br />
ABB Stotz-Kontakt GmbH,<br />
Max-Planck-Straße 21, D-78549 Spaichingen,<br />
Tel. +49 (0) 7424 958 65 24,<br />
E-Mail: andreas.strangfeld@de.abb.com<br />
18<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
Herausforderung<br />
<strong>Automatisierung</strong>stechnik<br />
Mit dem <strong>atp</strong>-award werden zwei Autoren der <strong>atp</strong> <strong>edition</strong><br />
für hervorragende Beiträge ausgezeichnet. Ziel dieser<br />
Initiative ist es, Wissenschaftler und Praktiker der<br />
<strong>Automatisierung</strong>stechnik anzuregen, ihre Ergebnisse<br />
und Erfahrungen in Veröffentlichungen zu fassen und<br />
die Wissenstransparenz in der <strong>Automatisierung</strong>stechnik<br />
zu fördern.<br />
Teilnehmen kann jeder Autor der zum Zeitpunkt<br />
der Veröffentlichung nicht älter als 35 Jahre ist. Nach<br />
Veröffentlichung eines Beitrags ist der Autor, wenn er<br />
die Bedingung erfüllt, automatisch im Pool. Die Auswahl<br />
des Gewinners übernimmt die <strong>atp</strong>-Fachredaktion.<br />
Derjenige Autor, der im Autorenteam der jüngste ist,<br />
erhält stellvertretend für alle Autoren die Auszeichnung.<br />
Der Preis wird in zwei Kategorien ausgelobt:<br />
Industrie und Hochschule. Die Kategorien er<strong>mit</strong>tlung<br />
ergibt sich aus der in dem Beitrag angegebenen Adresse<br />
des jüngsten Autors.<br />
Veröffentlichungen – Beitrag zum Wissenspool<br />
im Fachgebiet <strong>Automatisierung</strong>stechnik<br />
Die Entwicklung eines Wissensgebietes erfolgt durch<br />
einen kooperativen Prozess zwischen wissenschaftlicher<br />
Grundlagenforschung, Konzept- und Lösungsentwicklung<br />
und Anwendung in der Praxis. Ein solcher<br />
Prozess bedarf einer gemeinsamen Informationsplattform.<br />
Veröffentlichungen sind die essentielle Basis<br />
eines solchen Informationspools.<br />
Der <strong>atp</strong>-award fördert den wissenschaftlichen Austausch<br />
im dynamischen Feld der Automationstechnik.<br />
Nachwuchsingenieure sollen gezielt ihre Forschungen<br />
präsentieren können und so leichter den Zugang zur<br />
Community erhalten. Der Preis ist <strong>mit</strong> einer Prämie<br />
von jeweils 2000 € dotiert.<br />
Die Auswahl erfolgt in zwei Stufen:<br />
Voraussetzung für die Teilnahme ist die Veröffentlichung<br />
des Beitrags in der <strong>atp</strong> <strong>edition</strong>. Jeder Aufsatz,<br />
der als Hauptbeitrag für die <strong>atp</strong> <strong>edition</strong> eingereicht<br />
wird, durchläuft das Peer-Review-Verfahren. Die<br />
letzte Entscheidung zur Veröffentlichung liegt beim<br />
Chefredakteur. Wird ein Beitrag veröffentlicht, kommt<br />
er automatisch in den Pool der <strong>atp</strong>-award-Bewerber,<br />
vorausgesetzt einer der Autoren ist zum Zeitpunkt<br />
der Veröffentlichung nicht älter als 35 Jahre. Ausgezeichnet<br />
wird der jüngste Autor stellvertretend für alle<br />
Autoren der Gruppe. Eine Jury aus Vertretern der <strong>atp</strong>-<br />
Fachredaktion und des -Beirats er<strong>mit</strong>telt schließlich<br />
den Gewinner in den jeweiligen Kategorien Hochschule<br />
und Industrie. Der Rechtsweg ist ausgeschlossen.<br />
Beiträge richten Sie bitte an:<br />
Prof. Dr.-Ing. Leon Urbas<br />
Chefredakteur<br />
c/o Technische Universität Dresden<br />
Institut für <strong>Automatisierung</strong>stechnik<br />
Professur für Prozessleittechnik<br />
01062 Dresden<br />
Tel. +49 351 463-39614, Fax -39681<br />
M +49 177 466-5201<br />
E-Mail: urbas@di-verlag.de<br />
Beachten Sie die Autorenhinweise der <strong>atp</strong> <strong>edition</strong> für<br />
Hauptbeiträge unter folgendem Link:<br />
http://www.<strong>atp</strong>-online.de<br />
Vom Wettbewerb ausgeschlossen sind Mitarbeiter des Deutschen Industrieverlags. Wird ein Beitrag von mehreren Autoren eingereicht, gelten die Bedingungen für den Erstautor. Der Preis<br />
als ideeller Wert geht in diesem Fall an die gesamte Autorengruppe, die Dotierung geht jedoch exklusiv an den jüngsten Autor. Grundlage der Teilnahme am Wettbewerb ist die Einsendung<br />
eines Hauptaufsatz-Manuskriptes an die <strong>atp</strong>-Chefredaktion.<br />
www.<strong>atp</strong>-online.de
PRAXIS<br />
Punktschweißen von Aluminium-Türen des<br />
Porsche Panamera prozesssicher automatisiert<br />
Georg Fischer Automotive steuert das Schweißverfahren DeltaSpot <strong>mit</strong> der Software Xplorer<br />
„DER WECHSEL DES<br />
PROZESSBANDES wird<br />
erst nach rund 5000<br />
Punkten erforderlich,<br />
das heißt, wir schweißen<br />
ohne Unterbrechung<br />
rund 300 Porsche-<br />
Panamera-Türen“,<br />
erläutert Gießerei-<br />
Fachmann Alois Edtbauer.<br />
AUF DEN ZIRKA 3 MM DICKEN RAHMEN der Fahrzeugtüren für<br />
den Porsche Panamera aus Aluminium-Druckguss ist ein 2 mm<br />
dickes Versteifungsblech zu fügen, das gleichfalls aus einem<br />
Aluminium-Werkstoff besteht.<br />
DIE VORRICHTUNG zum exakten Positionieren der Gussstege<br />
entwickelten Experten von Georg Fischer in Kooperation <strong>mit</strong> ABB.<br />
DIE ANLAGE ZUM<br />
WIDERSTANDS-<br />
PUNKTSCHWEISSEN<br />
<strong>mit</strong> DeltaSpot läuft<br />
in Altenmarkt seit dem<br />
Start der Serienproduktion<br />
im Jahre<br />
2008 prozesssicher.<br />
Bilder: Fronius<br />
Widerstandspunktschweißen ist das Fügeverfahren<br />
<strong>mit</strong> der längsten automatisierungstechnischen Tradition.<br />
Sind jedoch Aluminiumteile zu punkten, ist dies<br />
<strong>mit</strong> dem konventionellen Widerstands-Punktschweißen<br />
nur sehr eingeschränkt realisierbar. Experten des Automobil-Zulieferers<br />
Georg Fischer Automotive (GF) haben<br />
gemeinsam <strong>mit</strong> denen des Schweißsystempartners Fronius<br />
eine prozessfähige Automationslösung entwickelt.<br />
Sie wird am österreichischen Standort Altenmarkt in der<br />
Fertigung von Rahmen der Türen für den Porsche<br />
Panamera genutzt. Zum Einsatz kommen die <strong>Automatisierung</strong>ssoftware<br />
Xplorer und das Widerstands-Punktschweißverfahren<br />
DeltaSpot.<br />
Das Gießen von Metall, zum Beispiel Aluminium- und<br />
Magnesium-Druckgießen, bildet bei Georg Fischer eine<br />
Kernkompetenz. Alois Edtbauer, der gelernte Werkzeugmacher,<br />
Gießerei-Fachmann und jetzige Facheinkäufer<br />
für Gießereiausstattung und -material, beschreibt den<br />
Aufgabenbereich des Werks <strong>mit</strong> rund 600 Mitarbeitern:<br />
„Hier an unserem österreichischen Standort Altenmarkt<br />
fertigen wir Strukturbauteile wie Federbein-Aufnahmen<br />
und Türrahmen.“ So ist auf den rund 3 mm dicken Rahmen<br />
von vier Fahrzeugtüren aus Aluminium-Druckguss<br />
für den Porsche Panamera ein 2 mm dickes Versteifungsblech<br />
zu fügen, das gleichfalls aus einem Aluminium-<br />
Werkstoff besteht.<br />
VERSCHIEDENE FÜGEVERFAHREN IM VERGLEICH<br />
Um die fertigungstechnischen Optionen zu erkunden,<br />
untersuchten die Fachleute mehrere Fügeverfahren auf<br />
ihre Eignung und ihre Wirtschaftlichkeit – darunter das<br />
konventionelle Widerstandspunktschweißen, das Rührreibschweißen,<br />
das Clinchen, das Stanznieten, einen Klebeprozess<br />
sowie DeltaSpot, ein von Fronius entwickeltes,<br />
spezielles Widerstands-Punktschweißverfahren.<br />
Vier verschiedene Fahrzeugtüren eines Satzes sind per<br />
Punktschweißverbindung <strong>mit</strong> der Innen-Versteifung zu<br />
versehen. Die Teile aus Aluminium-Druckguss überzieht<br />
eine Anti-Oxidationsschicht. Dafür wird in vorgelagerten<br />
Arbeitsgängen die bestehende Oxidschicht abgebeizt<br />
20<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
Die Referenzklasse für die<br />
<strong>Automatisierung</strong>stechnik<br />
Erfahren Sie auf höchstem inhaltlichem Niveau,<br />
was die <strong>Automatisierung</strong>sbranche bewegt. Alle<br />
Hauptbeiträge werden im Peer-Review-Verfahren<br />
begutachtet, um Ihnen maximale inhaltliche<br />
Qualität zu garantieren.<br />
Genießen Sie ein einzigartiges Lektüreerlebnis,<br />
das ausgezeichnete Layout und die exklusive<br />
Produktausstattung.<br />
MIT EINEM AUTOMATISIERTEN SYSTEM<br />
werden im Takt von etwa 100 Sekunden pro<br />
Fahrzeugtür 16 Punkte von exakt je 5 mm im<br />
Durchmesser geschweißt.<br />
und eine dünne Lage Titan-Zirkon (TiZrSiO4) aufgetragen.<br />
Dies verhindert das Entstehen der natürlichen Aluminiumoxidschicht.<br />
„Beim fertigen Teil liegt eine Hauptdichtung zwischen<br />
Tür und Rahmen an der zu fügenden Stelle. Hier muss<br />
es deshalb möglichst spritzerfrei zugehen. Der wärmebedingte<br />
Verzug am Werkstück muss in engen Grenzen<br />
bleiben, und wir müssen ihn durch nachträgliches Richten<br />
ausgleichen können“, erläutert Ingenieur Wolfgang<br />
Hintsteiner, Leiter Beschichtung, die Aufgabe.<br />
PROZESSBAND SICHERT KONSTANTE VERHÄLTNISSE<br />
Herkömmliches Widerstandspunktschweißen sei für die<br />
Aufgabe ungeeignet, erläutert Hintsteiner. Es verursache<br />
zu viele Spritzer und wegen der unkontrollierbaren,<br />
punktuell starken Wärmeeinbringung im angeschweißten<br />
Blech entstehe die gefürchtete Kurzwelligkeit, die sich<br />
nicht mehr korrigieren lasse. Das eigentlich für Aluminium<br />
und seine Legierungen prädestinierte Rührreibschweißen<br />
sei ausgeschieden, weil es stark von der Wand-<br />
Wählen Sie einfach das Bezugsangebot,<br />
das Ihnen zusagt!<br />
· Das Heft als gedrucktes, zeitlos-klassisches Fachmagazin<br />
· Das e-Paper als modernes, digitales Informationsmedium<br />
für Computer, Tablet oder Smartphone<br />
· Das Heft + e-Paper als clevere Abo-plus-Kombination<br />
ideal zum Archivieren<br />
Alle Bezugsangebote und Direktanforderung<br />
finden Sie im Online-Shop unter<br />
www.<strong>atp</strong>-online.de<br />
www.<strong>atp</strong>-online.de<br />
<strong>atp</strong> <strong>edition</strong> erscheint in: DIV Deutscher Industrieverlag GmbH, Arnulfstraße 124, 80636 München
PRAXIS<br />
dicke der Teile abhängig sei. Wegen der Gusstoleranzen<br />
hätte daher vor jedem Schweißvorgang die Dicke der zu<br />
verbindenden Teile er<strong>mit</strong>telt und berücksichtigt werden<br />
müssen. Die anderen Alternativen schieden aus prozesstechnischen<br />
Gründen aus und die Wahl fiel auf DeltaSpot.<br />
Zwischen Elektrode und Werkstück läuft bei diesem<br />
Verfahren ein Prozessband im Rhythmus der Punktschweißungen.<br />
Das Aluminium legiert auf das nach jedem<br />
Schweißpunktieren weiter geförderte Band statt auf die<br />
fixe Elektrode. Der „gebrauchte“ Abschnitt verlässt jeweils<br />
den Kontaktbereich. Für jeden Schweißpunkt herrschen<br />
so<strong>mit</strong> die gleichen Bedingungen. Die Prozessbänder<br />
schützen da<strong>mit</strong> Elektrode und Werkstück vor Verunreinigungen,<br />
Auflegieren oder anderen werkstückseitigen<br />
Einflüssen. Dies stabilisiert den Schweißprozess und erhöht<br />
die Elektrodenstanddauer. Sie verbessern außerdem<br />
die Kontaktsituation. Das Prozessband hilft, Oberflächenspritzer<br />
zu vermeiden und vergrößert das Prozessfenster.<br />
16 SCHWEISSPUNKTE IN 100 SEKUNDEN<br />
Nachdem sich DeltaSpot in der Fertigungspraxis seit dem<br />
Jahr 2008 bewährt, sehen sich Alois Edtbauer und Wolfgang<br />
Hintsteiner in ihrer Entscheidung bestätigt. „Wir<br />
haben den Prozess jetzt im Griff. Mit dem Prozessband<br />
erzeugen wir wiederholgenau einen gleichmäßigen Punkt<br />
– exakt 5 mm im Durchmesser und 16 Punktverbindungen<br />
in jedem Werkstück. Wir schweißen im Takt von zirka 100<br />
Sekunden eine dieser Türen und brauchen die Oberfläche<br />
hinterher nicht nachzuarbeiten“, führt Hintsteiner aus.<br />
„Optisch zeigt sich ein sehr sauberer Punkt. Der Wechsel<br />
des Prozessbandes dauert weniger als 15 Minuten und<br />
wird erst nach rund 5000 Punkten erforderlich, das heißt<br />
wir schweißen ohne Unterbrechung rund 300 Porsche-<br />
Panamera-Türen“, ergänzt Edtbauer.<br />
Nur einmal pro Band sind auch die Elektroden auszutauschen.<br />
Unter adäquaten Bedingungen könnten Anwender<br />
<strong>mit</strong> dem konventionellen Widerstands-Punktschweißen<br />
nur 20 Punkte setzen. Das würde praktisch<br />
eine Elektrodennacharbeit pro Tür bedeuten.<br />
Die gefügten DeltaSpot-Verbindungen bestehen die<br />
Zug-Scherprüfung. Eventuell entstehender geringfügiger<br />
Formverzug ist durch Richten leicht korrigierbar. Alois<br />
Edtbauer: „Das Verfahren DeltaSpot hat sich in unserer<br />
Anwendung dank der gelungenen <strong>Automatisierung</strong>slösung<br />
auch als kostengünstig erwiesen.“ Die Experten in<br />
Altenmarkt sehen die Perspektive positiv. „Die Anlage<br />
läuft prozesssicher“, freut sich Gießereifachmann Edtbauer.<br />
Und Ingenieur Hintsteiner erklärt: „Für Anwendungsfälle<br />
wie den unseren <strong>mit</strong> schweißbarem Guss,<br />
definierter Oberfläche, Antikorrosionsbeschichtung und<br />
gegebener Zugänglichkeit ist DeltaSpot erste Wahl.“<br />
XPLORER VERKNÜPFT ALLE SCHWEISSSYSTEME<br />
Ein Schlüssel für das <strong>Automatisierung</strong>skonzept liegt in<br />
der Steuerung <strong>mit</strong> der Software Xplorer. Sie sorgt für den<br />
einwandfreien Ablauf des gesamten Prozesses inklusive<br />
des Erstellens der variablen Parameter. Dazu gibt der<br />
Anwender den Sollwert des Stromes <strong>mit</strong> einem analogen<br />
Spannungssignal vor. Die Funktion der Bedienoberfläche<br />
inklusive Visualisieren von Anlagenstatus und Parametern<br />
übernimmt der Xplorer. Er erleichtert per grafischer<br />
Visualisierung das Erstellen der Parameter und den intuitiven<br />
Umgang <strong>mit</strong> der Anlage just in time. Der Xplorer<br />
verknüpft alle Schweißsysteme am Standort, das heißt<br />
zum Beispiel auch die in Schweißzellen installierten<br />
Lichtbogenstromquellen. So können die Produktionsexperten<br />
jederzeit deren Daten, Ergebnisse und Dokumente<br />
über den Bildschirm verfolgen.<br />
Die Schweißmanagementsoftware Xplorer steht als<br />
Freeware allen Nutzern kostenfrei zur Verfügung. Ihre<br />
Funktionen: Sie vernetzt automatisierte Schweißsysteme<br />
und erzeugt einen virtuellen Leitstand. Ihre grafische<br />
Benutzeroberfläche und selbsterklärende Symbole erleichtern<br />
dem Anwender das übersichtliche Verwalten<br />
von beliebig vielen Schweißsystemen in seiner Produktion.<br />
Deren Standort und Status erkennt er auf einen<br />
Blick. Bewährte Einstellungen (Jobs) kann er einfach von<br />
einem Schweißsystem auf ein anderes kopieren, zum<br />
Beispiel in der Darstellung beider Systeme nebeneinander<br />
auf einem geteilten Bildschirm.<br />
NUTZER KÖNNEN SICH MOBIL EINLOGGEN<br />
Den Xplorer kann der User auch per Touchscreen bedienen.<br />
Mit der mehrplatzfähigen Software können Nutzer<br />
von verschiedenen PC auf die Daten zugreifen. Der Ort<br />
für die Datenspeicherung ist frei wählbar, beispielsweise<br />
ein Serverlaufwerk oder eine Harddisk. Der Xplorer ist<br />
WLAN-tauglich und steht in 13 Sprachen zur Verfügung.<br />
Wählen kann der Anwender auch zwischen vier aufeinander<br />
aufbauenden Xplorer-Funktionspaketen. Jedes<br />
Paket enthält als Basis den Xplorer sowie die <strong>mit</strong> den<br />
entsprechenden Schnittstellen und der aktuellen Firmware<br />
ausgestatteten Schweißsysteme. Hinzu kommen bei<br />
Paket 2 der JobExplorer und beim dritten Paket zusätzlich<br />
die Software zur Dokumentation. Die Funktionen des<br />
JobExplorer und zur Dokumentation übernimmt beim<br />
vierten Paket die Fernbedienung RCU 5000i. Unabhängig<br />
vom Funktionspaket kann der Anwender die Zugriffsrechte<br />
regeln. Identifiziert sich der Nutzer <strong>mit</strong> seinem<br />
Passwort, erhält er die ihm zustehenden Ansichts- und<br />
Eingriffsoptionen. Jeder Benutzer kann seine Rechte auf<br />
einen USB-Stick speichern und sich da<strong>mit</strong> bei Bedarf<br />
mobil einloggen. So erschließt der Xplorer dem Schweißen<br />
die moderne <strong>Automatisierung</strong>swelt.<br />
AUTOREN<br />
CHRISTOPH PANGERL und MARTIN EIERSEBNER<br />
sind Produktexperten Widerstandsschweißen bei<br />
Fronius International.<br />
Fronius International GmbH,<br />
Froniusplatz 1, A-4600 Wels,<br />
E-Mail: eiersebner.martin@fronius.com,<br />
Tel. +43 7242 241 39 75,<br />
E-Mail: pangerl.christoph@fronius.com,<br />
Tel. +43 7242 241 85 17<br />
22<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
KNOWLEDGE<br />
for the FUTURE<br />
Qualified reading<br />
for automation<br />
experts<br />
Process Control Systems Engineering<br />
Process Control Systems (PCS) are distributed control systems<br />
(DCS) that are specialized to meet specific requirements of the<br />
process industries.<br />
The text book focuses on PCS engineering basics that are common<br />
to different domains of the process industries. It relates to an<br />
experimental research plant which serves for the exploration<br />
of the interaction between process modularization and process<br />
automation methods. This per<strong>mit</strong>s to capture features of highly<br />
specialized and integrated mono-product plants as well as<br />
application areas which are dominated by locally standardized<br />
general-purpose apparatus and multi-product schemes. While<br />
the text book’s theory is applicable for all PCS of different<br />
suppliers, the examples refer to Siemens’ control system PCS 7.<br />
Focusing on a single PCS enables readers to use the book in basic<br />
lectures on PCS engineering as well as in computer lab courses,<br />
allowing students to gain hands-on experience.<br />
Editor: L. Urbas<br />
1 st <strong>edition</strong> 2012, 204 pages, content in English * , hardcover<br />
*<br />
German language version coming soon<br />
Order now by fax: +49 201 / 8 20 02 34 or detach and send in a letter<br />
<br />
Yes, I place a firm order for the technical book. Please send me<br />
Company/Institution<br />
___ copies of Process Control Systems Engineering<br />
1 st <strong>edition</strong> 2012 (ISBN: 978-3-8356-3198-4)<br />
at the price of € 49,80 (plus postage and packing)<br />
First name and surname of recipient<br />
Street/P.O. Box, No.<br />
Reply / Antwort<br />
Vulkan-Verlag GmbH<br />
Versandbuchhandlung<br />
Postfach 10 39 62<br />
45039 Essen<br />
GERMANY<br />
Country, postal code, town<br />
Phone<br />
E-Mail<br />
Line of business<br />
Fax<br />
Date, signature<br />
Please note: According to German law this request may be withdrawn within 14 days after order date in writing to Vulkan Verlag GmbH, Versandbuchhandlung, Postfach 10 39 62, 45039 Essen, Germany.<br />
In order to accomplish your request and for communication purposes your personal data are being recorded and stored. It is approved that this data may also be used in commercial ways<br />
by mail, by phone, by fax, by email, none. This approval may be withdrawn at any time.<br />
PAPCSE2012
PRAXIS<br />
Energiekonzern ENI setzt erstmals in neuer<br />
italienischer Raffinerie auf Foundation Fieldbus<br />
Verteilte Leittechnik, Sicherheitstechnik und Brandschutz sind in einem System zusammengefasst<br />
Die Eni Slurry Technology (EST) ist ein in Italien entwickeltes<br />
Verfahren zur Umwandlung von Abfallstoffen<br />
aus dem Raffinationsprozess in Produkte <strong>mit</strong> viel<br />
höherer Qualität sowie in ökologische Materialien. Für<br />
die erste EST-Anlage in Sannazzaro dè Burgondi wurde<br />
eine zuverlässige Architektur gewählt, die mehrere Leitstände<br />
und mehr als 15 000 Signale umfasst. Eni kombiniert<br />
in dieser Anlage Foundation Fieldbus von Yokogawa<br />
<strong>mit</strong> Infrastrukturkomponenten von Pepperl+Fuchs,<br />
um höchste Verfügbarkeit und günstige Wartungskosten<br />
zu erreichen.<br />
Eni, eines der größten integrierten Energieunternehmen,<br />
ist in den Bereichen Öl und Gas, Exploration und<br />
Produktion, Gasleitung und Marketing, Energieerzeugung,<br />
Raffinerie und Vermarktung von Chemikalien und<br />
Dienstleistungen im Bereich Ölfelder tätig. Die EST-Anlage<br />
wird von Saipem, einem großen auf Öl und Gas spezialisierten<br />
Anlagenbauer errichtet. Es ist das bisher<br />
größte Projekt dieser Art in Italien. Die Bauarbeiten begannen<br />
im Mai 2011, der Produktionsbeginn ist für Ende<br />
2012 geplant.<br />
PROBLEMATISCHE RESTSTOFFE AUFGEWERTET<br />
Die Anlage in Sannazzaro wird auch für Versuche und<br />
Forschung bei Eni eingesetzt. Das Verfahren beruht<br />
auf einer Entdeckung italienischer Wissenschaftler,<br />
die ein sehr wichtiges Kapitel im Bereich der Öl- und<br />
Gasverarbeitung schreiben wird. EST ermöglicht die<br />
Verwertung und Aufwertung von Rohöl <strong>mit</strong> unüblichen<br />
Eigenschaften oder sehr schwerem Rohöl, Bitumen<br />
und Sumpf.<br />
Erstmalig setzt Eni in einer Raffinerie in Italien<br />
Foundation Fieldbus-Technologie (FF) ein, um die Feldinstrumentierung<br />
und Messtechnik <strong>mit</strong> dem Leitsystem<br />
(DCS) zu verbinden. Betreiber Eni und Anlagenbauer<br />
Saipem wählten digitale Übertragungstechnik<br />
bis zum Feldgerät, weil diese Status-, Alarm und Diagnosefunktion<br />
anlagenweit ermöglicht. Mit Yokogawa<br />
wurde ein starker Partner gewählt, der die Prozessdaten<br />
vollständig in einem System integrieren kann. Hinzu<br />
kommen die Diagnose für Feldgeräte und die Feldbusphysik<br />
selbst.<br />
VOLLE SYSTEMINTEGRATION<br />
Die verteilte Leittechnik (distributed control system,<br />
DCS), Sicherheitstechnik (emergency shut down, ESD)<br />
und der Brandschutz (F&G) sind in einem System zusammengefasst.<br />
Rund 15 000 E/A-Signale wurden fest verdrahtet.<br />
5500 Feldbusinstrumente werden über 650 Segmente<br />
bedient. Trotz der über mehrere Anlagenbereiche<br />
verteilten Installation sollte eine umfassende Integration<br />
sichergestellt werden.<br />
Alessandro Malberti, Produktmanager bei Yokogawa<br />
Italien, erläutert: „Die Lösung umfasst alle Systeme: DCS,<br />
ESD und F&G. Sie ermöglichen den direkten Informationsaustausch<br />
innerhalb der Architektur, wobei nur ein<br />
redundanter Bus verwendet wird, der alle Systeme <strong>mit</strong>einander<br />
verbindet. Die von Yokogawa vorgeschlagene<br />
Topografie beruht auf der Integration des Distributed-<br />
Control-System Centum VP <strong>mit</strong> dem ESD-System ProSafe<br />
RS und deckt alle Steuerungs- und Sicherheitsfunktionen<br />
ab“. Das Plant Asset Management wird <strong>mit</strong> dem<br />
Modul PRM realisiert.<br />
Das Gigabit-Kommunikationsnetz Vnet-IP erlaubt<br />
einen Datenaustausch zwischen Leitsystemen und der<br />
Bedienerstation. Durch die Integration des Systems<br />
MIT ZUBEHÖR UND VORVERDRAHTET IM EDELSTAHLGEHÄUSE:<br />
Die Feldbusverteiler „Segment Protektor“ für die Zone 2 und<br />
Explosionsschutzart Eigensicherheit „Ex ic“.<br />
ADVANCED DIAGNOSTIC<br />
MODULE auf dem<br />
kompakten Power Hub:<br />
acht Segmente <strong>mit</strong><br />
Überwachung der<br />
Feldbusphysik.<br />
Wartungsteams erhalten<br />
Meldungen in Klartext<br />
über die Feldbusinstallation.<br />
Bilder: Pepperl+Fuchs<br />
24<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
erhält der Bediener homogene Daten für die Steuerung<br />
der Anlage. Alle Systeme sind vollständig redundant<br />
in den folgenden Komponenten aufgebaut: CPU, Stromversorgung,<br />
E/A- und Kommunikationskarten. Dies<br />
sorgt dafür, dass die Anlage ausgesprochen zuverlässig<br />
ist. Malberti ergänzt: „Beide Systeme erlaubten uns<br />
dank ihrer Modularität die Gestaltung der Foundation<br />
Fieldbus-Architektur entsprechend den Anforderungen<br />
der Anlage, wodurch alle Kundenwünsche erfüllt<br />
wurden.“<br />
WARTUNG NUR NACH BEDARF UND PROAKTIV<br />
Die große Anzahl von über 5000 Messstellen soll intelligent<br />
instrumentiert werden. Die Feldgeräte über<strong>mit</strong>teln<br />
via Foundation Fieldbus H1 (FF) Status- und Wartungsdaten.<br />
Es ist vollständig in das Gesamtsystem integriert<br />
und kann alle Konfigurationen der Feldgeräte erfassen,<br />
die <strong>mit</strong> dem FF-Segment verbunden sind.<br />
„Wir fühlen uns verpflichtet, über einen langen Zeitraum<br />
eine ordnungsgemäße Funktion der FF-Segmente<br />
zu garantieren, und das hat den Ausschlag für die<br />
Lösung von Pepperl+Fuchs gegeben“, so der Produktmanager<br />
von Yokogawa. „Das von Pepperl+Fuchs hergestellte<br />
Advanced Diagnostic Module (ADM) ermöglicht<br />
uns eine kontinuierliche Überwachung sogar der<br />
Installationstechnik integriert im Asset-Management-<br />
System.“<br />
Das ADM erlaubt die Prüfung des Physical Layers, und<br />
überwacht kontinuierlich Messwerte der Versorgungsspannung<br />
sowie Erdfehler oder Störpegel im Netzwerk.<br />
Die Kontrolle all dieser Parameter wird unterstützt<br />
durch ein Expertensystem, das die hohe Zahl von Messungen<br />
in Meldungen <strong>mit</strong> Klartext übersetzt. Verringert<br />
sich beispielsweise der Signalpegel aller Feldgeräte<br />
schlagartig, liegt das daran, das ein Terminator häufig<br />
ungewollt zugeschaltet wurde. Das ADM lässt den Wartungsfachmann<br />
in diesem Fall nicht <strong>mit</strong> vielen Meldungen<br />
über falsche Signalpegel allein. Das Expertensystem<br />
interpretiert und meldet in verständlichen Worten und<br />
bietet einen Lösungsvorschlag an: „Termination des<br />
Netzwerkes überprüfen.“ Durch rechtzeitige Wartung<br />
kann die volle Funktionsfähigkeit des Feldbus-Segments<br />
dauerhaft sichergestellt werden. Auf diese Weise werden<br />
Wartungsarbeiten nicht mehr vorbeugend, sondern wenn<br />
notwendig und proaktiv durchgeführt.<br />
SYSTEMINTEGRATION AUCH IM DETAIL<br />
Die Foundation-Fieldbus-Technologie erlaubt den Einsatz<br />
von Geräten und Instrumenten von Drittherstellern,<br />
die die vom FF-Konsortium geforderten Funktionsmerkmale<br />
besitzen. In der Anlage befinden sich<br />
Instrumente der Hersteller: Metso, Emerson, Vega, Biffi<br />
und Auma.<br />
Bei einem gedachten Gang entlang des Netzwerks gerät<br />
zunächst die neue Generation des kompakten Power Hub<br />
für acht Feldbussegmente in den Blick. Über einen Systemstecker<br />
erfolgt die Verbindung zu den Leittechnikkarten.<br />
Das spart Kosten bei der Installation und Überprüfung.<br />
Der Power Hub kann im explosionsgefährdeten<br />
Bereich „Zone 2“ installiert werden.<br />
Im Feld befinden sich Edelstahl-Verteilerboxen, in denen<br />
sich jeweils zwei 8-Kanal-Segment-Protektoren befinden.<br />
An deren Ausgänge sind Füllstand-, Temperaturund<br />
Drucktrans<strong>mit</strong>ter sowie Aktoren angeschlossen. Der<br />
Segment-Protektor bietet einen Kurzschlussschutz, sodass<br />
Arbeiten an Feldgeräten auf den Rest des in Betrieb<br />
befindlichen Segmentes rückwirkungsfrei bleiben.<br />
Über feldbusfähige, eigensichere Ventilsteuerbausteine<br />
werden Druckluftventile angesteuert. Sie erfassen<br />
neben den Ein- und Ausgangssignalen auch Losbrechund<br />
Laufzeiten – eine für die bedarfsorientierte Instandhaltung<br />
unerlässliche Information.<br />
Signale von Temperatursensoren und Thermoelementen<br />
finden den Weg in die Leittechnik über das Temperaturinterface<br />
(TI). Kostengünstig teilen sich jeweils bis<br />
zu acht Sensoren eine Feldbusadresse. Der Messwert<br />
liegt digital vor, und die elektrischen Leitungen zu den<br />
Sensoren werden ebenfalls überwacht.<br />
Mit leistungsstarker Feldbustechnologie erreicht Eni<br />
seine Ziele höchster Verfügbarkeit und hält Wartungskosten<br />
im Griff. Denn Instandhaltungsarbeiten an Feldgeräten<br />
und Installation werden nur dann durchgeführt,<br />
wenn es einen Wartungsbedarf gibt. Der Feldbus<br />
ist der digitale Highway, der die Informationsschätze<br />
der Anlage hebt und vorausschauenden, reibungslosen<br />
Betrieb ermöglicht.<br />
AUTOR<br />
ANDREAS HENNECKE<br />
ist Produktmarketingmanager<br />
im Geschäftsbereich<br />
Prozessautomation<br />
bei Pepperl+Fuchs.<br />
Pepperl+Fuchs GmbH,<br />
Lilienthalstraße 200,<br />
D-68307 Mannheim,<br />
Tel. +49 (0) 621 776 16 01,<br />
E-Mail: ahennecke@de.pepperl-fuchs.com<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
25
www.di-verlag.de<br />
Die neue Adresse für<br />
das Wissen der Industrie:<br />
Deutscher<br />
Industrieverlag<br />
Ein neues Kapitel beginnt:<br />
Aus Oldenbourg Industrieverlag wird Deutscher Industrieverlag<br />
Neue Zeiten erfordern neues Denken. In einer Welt des rasanten Wandels erwarten<br />
Sie von Ihrem Fachverlag, dass er Sie schneller und umfassender als je zuvor <strong>mit</strong> allen<br />
relevanten Informationen versorgt, die Sie für Ihre berufliche Praxis benötigen.<br />
Wir nehmen diese Herausforderung an: Wir entwickeln uns für Sie zu einem integrierten<br />
Medienhaus, das neben der Zeitschriften- und Buchproduktion künftig immer stärker<br />
auch das Wissen des Fachs digital für alle Online-Kanäle auf bereitet.<br />
Unser neuer Name unterstreicht diesen Wandel. Er verbindet unsere mehr als 150-jährige<br />
Geschichte nahtlos <strong>mit</strong> der Zukunft.<br />
Was sich nicht ändert: Im Mittelpunkt stehen weiterhin Sie und das Praxiswissen<br />
Ihrer Branche. Ihre Fachkompetenz zu stärken – das ist für uns auch unter dem neuen<br />
Namen Deutscher Industrieverlag Anspruch und Verpflichtung.<br />
WIssEn Für DIE<br />
ZuKunft
HAUPTBEITRAG<br />
Virtualisierung im Kontext<br />
eines Prozessleitsystems<br />
IT-Einfluss auf die Architektur der Prozessautomatisierung<br />
Durch die Verwendung der Technologie Virtualisierung im Kontext eines Prozessleitsystems<br />
(PLS) resultiert ein gewisser Nutzen. Demgegenüber stehen Herausforderungen, die,<br />
wie der Nutzen, in diesem Beitrag beschrieben werden Der Nutzen und die Herausforderungen<br />
sind unabhängig von einer herstellerspezifischen Lösung eines PLS in virtueller<br />
Umgebung. Sie wurden im Rahmen der Vorfeldarbeiten zur Virtualisierung von Teilen<br />
des Siemens-Leitsystems Simatic PCS 7 er<strong>mit</strong>telt.<br />
SCHLAGWÖRTER IT / PLS / Virtualisierung<br />
Virtualization in the context of a Distributed Control System –<br />
IT influence on the architecture of process automation<br />
On the one hand, through the use of the IT technology virtualization with regard to distributed<br />
control systems (DCS) results a certain benefit. On the other hand, different<br />
challenges have to be taken in account, which are also shown within this paper. The<br />
benefits and challenges are independent of a provider-specific virtualization-solution for<br />
DCS. They were identified at the work to virtualize parts of the Siemens DCS – Simatic<br />
PCS 7. The specific results achieved are also outlined in this review.<br />
KEYWORDS IT /DCS /virtualization<br />
28<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
STEFAN RUNDE, MARTIN SCHNEIDER, MARTIN GLASER, STEFFEN THIEME, Siemens AG<br />
D<br />
ie Laufzeit von automatisierten technischen<br />
Systemen in der Prozessindustrie beträgt im<br />
Gegensatz zur Fertigungsindustrie durchaus<br />
mehrere Jahrzehnte. Dies ist ein Grund, warum<br />
in der Prozessindustrie mehr Zeit benötigt<br />
wird, bis technische Innovationen in den entsprechenden<br />
Komponenten (zum Beispiel Feldgeräte) und Systemen<br />
(beispielsweise Prozessleitsystem) Einzug halten.<br />
Maßgeblicher Treiber für technische Neuerungen ist<br />
die Notwendigkeit der Kostenreduzierung. Das gilt auch<br />
für Prozessleitsysteme (PLS). Seitens der Anwender wie<br />
BASF, Bayer und Merck werden unter anderem geringere<br />
Investitionskosten gewünscht sowie eine möglichst<br />
schnelle Inbetriebnahme und ein optimierter Betrieb<br />
verbunden <strong>mit</strong> geringeren Kosten. Bei PLS ist die Kernfunktionalität<br />
Prozessführung und -kontrolle seit ihrer<br />
Einführung nahezu identisch – verschiedene Aufgaben,<br />
wie Datenarchivierung, Prozessvisualisierung und<br />
Alarmmanagement, sind jedoch hinzugekommen oder<br />
komplexer geworden.<br />
Daher handelt es sich bei den Neuerungen häufig um<br />
Optimierungen der bereits existierenden PLS im Produktfolio<br />
der einzelnen Hersteller. Viele dieser Optimierungen<br />
gehen auf Technologien aus der IT zurück. Zu<br />
diesen Technologien zählen beispielsweise Feldbusse,<br />
Visualisierungen und Rechnersysteme. Bei letzteren stehen<br />
derzeit die beiden Technologien Virtualisierung und<br />
Cloud Computing im Fokus. In diesem Beitrag geht es um<br />
die Technologie Virtualisierung, die eng <strong>mit</strong> dem Cloud<br />
Computing verzahnt ist.<br />
Nachfolgend skizzieren die Autoren die für den Beitrag<br />
notwendigen Grundlagen der Architektur eines automatisierten<br />
technischen Systems in der Prozessindustrie,<br />
danach werden die Grundlagen der Virtualisierung beschrieben.<br />
Einen Schwerpunkt bildet die Darstellung der<br />
erzielten Ergebnisse bei der Anwendung eines nichthochverfügbaren<br />
PLS (nicht-H-PLS) auf Basis von Virtualisierung.<br />
Während dieser Use-Case bereits in der Praxis<br />
Einzug gehalten hat, ist die Realisierung eines hochverfügbaren<br />
PLS (H-PLS) unter Verwendung von Virtualisierung<br />
untypisch. Die Umsetzung eines H-PLS <strong>mit</strong><br />
Hilfe von Mitteln der Virtualisierung adressiert eine<br />
nächste PLS-Generation.<br />
1. ARCHITEKTUR IN DER PROZESSAUTOMATISIERUNG<br />
In Bild 1 ist die <strong>Automatisierung</strong>s-Pyramide im Zusammenhang<br />
<strong>mit</strong> der Business-Pyramide dargestellt [3].<br />
Die Feldebene <strong>mit</strong> ihren Sensoren und Aktoren bildet<br />
die Schnittstelle zwischen physikalischem Prozess und<br />
<strong>Automatisierung</strong>ssystem. Die Aufnahme von Messgrößen<br />
eines physikalischen Prozesses erfolgt <strong>mit</strong> Sensoren und<br />
der Eingriff <strong>mit</strong>tels der Stellgrößen in den physikalischen<br />
Prozess <strong>mit</strong> Aktoren. Die Feldgeräte werden beispielsweise<br />
an Remote-IOs, welche wiederum an <strong>Automatisierung</strong>sstationen<br />
(AS) angeschlossen sind, und/oder direkt an die<br />
AS auf der Steuerungsebene angebunden. In dieser Steuerungsebene<br />
erfolgt nach Empfang der Messgröße (Absender:<br />
Sensoren) die Verarbeitung – Steuerung und Regelung<br />
– durch die AS. Anschließend läuft die Vorgabe der aus<br />
der Verarbeitung hervorgegangenen Stellgrößen (Adressaten:<br />
Aktoren). Die einzelnen AS sind eingebettet in ein<br />
anlagenbezogenes PLS auf der Betriebsführungsebene. Im<br />
Fokus dieses Beitrags steht die Betriebsführungsebene der<br />
<strong>Automatisierung</strong>s-Pyramide <strong>mit</strong> dem PLS.<br />
Die für die Ausführung der PLS-Kernfunktionalität<br />
–Prozessführung und -kontrolle – notwendigen Informationen<br />
auf dieser Ebene werden durch die prozessnahen<br />
Komponenten auf der Feld- und Steuerungsebene bereitgestellt.<br />
Zu diesen Komponenten zählen beispielsweise<br />
die Sensoren, Aktoren, Remote-IOs, sowie <strong>Automatisierung</strong>sstationen<br />
(AS) und Bedien-Stationen (OS) bestehend<br />
aus der entsprechenden Hard- und Software [13].<br />
Weiterhin verdeutlicht Bild 1 die Verbreitung der x86-<br />
Technologie von der Ebene des Personalmanagements<br />
(Business-Pyramide) bis in die Betriebsführungsebene<br />
(<strong>Automatisierung</strong>s-Pyramide). x86 ist die Abkürzung einer<br />
Mikroprozessor-Architektur und der da<strong>mit</strong> verbundenen<br />
Befehlssätze. Ursprünglich entwickelt von Intel, finden die<br />
Befehlssätze (<strong>mit</strong> Erweiterungen) beispielsweise Anwendung<br />
in den Prozessoren AMD Opteron, VIA C7 und Intel<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
29
HAUPTBEITRAG<br />
Core i7. Bei genauerer Betrachtung hat die x86-Technologie<br />
zudem bereits in der Steuerungsebene Einzug gehalten.<br />
Beispiel: AS ausgeführt als Soft-SPS auf Basis der x86-Technolgie.<br />
Die bestehenden Virtualisierungslösungen für Clients<br />
und Server fußen mehrheitlich ebenso auf der x86-<br />
Technologie und sind im Kontext der Ebenen der Business-<br />
Pyramide bis hin zur Betriebsführungsebene der <strong>Automatisierung</strong>s-Pyramide<br />
bereits Stand der Technik.<br />
2. GRUNDLAGEN DER VIRTUALISIERUNG<br />
2.1 Einführung<br />
Die Technologie Virtualisierung umfasst Methoden, die es<br />
erlauben, Ressourcen wie CPU-Leistung und Speicherplatz<br />
effizient zu verwenden und so<strong>mit</strong> Kosten zu sparen. Virtualisierung<br />
ist heute in der IT etabliert und hat dort ihren<br />
Nutzen unter Beweis gestellt. Die überwiegende Zahl der<br />
Rechenzentren von Unternehmen nutzen diese Technologie<br />
zur Konsolidierung der Ressourcen. Weiterhin ist die<br />
Virtualisierung ein stark expandierender Markt, wie Gartner<br />
festhält: „The […] virtualization software market will<br />
grow at a compound annual rate of 46% from 2008 through<br />
2013.“ Es ist daher naheliegend, dass Firmen <strong>mit</strong> großen<br />
IT-Abteilungen, ausgehend von den IT-Applikationen, die<br />
Technologie Virtualisierung perspektivisch in ihren Rechenzentren<br />
dazu einsetzen, ebenfalls Teile der <strong>Automatisierung</strong>stechnik<br />
in virtueller Umgebung zu realisieren.<br />
2.2 Ansätze<br />
Bei einem konventionellen Rechnersystem (Server, Client)<br />
bestehend aus Hardware (zum Beispiel Prozessoren,<br />
Speicher, Netzwerkkomponenten) und Software (Betriebssystem,<br />
Applikationen) ist das Betriebssystem direkt<br />
auf der Hardware installiert. Das Betriebssystem<br />
bildet die Schnittstelle zwischen der Hardware und den<br />
Applikationen (beispielsweise Tabellenkalkulation).<br />
Bei der Virtualisierung [1] werden das Betriebssystem<br />
und alle darauf ablaufenden Applikationen eines Rechners<br />
von der Hardware entkoppelt und in einer virtuellen<br />
Maschine (VM) zusammengefasst. Zwischen der Hardware<br />
und dem Betriebssystem beziehungsweise den Betriebssystemen<br />
befindet sich ein weiteres, schlankes Minibetriebssystem,<br />
welches als Hypervisor bezeichnet<br />
wird. Durch den Hypervisor wird es möglich, mehrere<br />
VM – zum Beispiel <strong>mit</strong> unterschiedlichen Betriebssystemen<br />
wie Microsoft Windows und Linux – parallel auf<br />
einer Hardware zu betreiben. Ein Rechner <strong>mit</strong> einer Hardware<br />
kann so<strong>mit</strong> wie eine Vielzahl von Rechnern agieren.<br />
Bild 2 zeigt die drei grundsätzlichen Virtualisierungsansätze<br />
<strong>mit</strong> Hypervisor Typ 1, Hypervisor Typ 1/Paravirtualization<br />
und Hypervisor Typ 2 im Vergleich zu<br />
einem konventionellen System. Der Virtualisierungsansatz<br />
<strong>mit</strong> Hypervisor Typ 1 wird auch als Stand Alone<br />
Approach, Bare host, Bare Metal Hypervisor oder Native<br />
Host bezeichnet, der Virtualisierungsansatz Hypervisor<br />
Typ 2 als Host, Hosted Virtualization, Hosted Hypervisor<br />
oder Host-Guest Approach.<br />
Beim Virtualisierungsansatz <strong>mit</strong> Hypervisor Typ 1<br />
läuft dieser direkt auf der Hardware, weshalb sie auch<br />
als Hardwarevirtualisierung bezeichnet wird. Der Hypervisor<br />
ist vollständig unabhängig von weiterer Software<br />
und hat direkten Zugriff auf die Ressourcen der<br />
Hardware. Auf dem Hypervisor sind die VM <strong>mit</strong> verschiedenen<br />
Betriebssystemen lauffähig und darin wiederum<br />
die Applikationen, wie es beim Virtualisierungsansatz<br />
<strong>mit</strong> Hypervisor Typ 1/Paravirtualization ebenfalls der<br />
Fall ist. Diese Variante des Virtualisierungsansatzes <strong>mit</strong><br />
Hypervisor Typ 1/Paravirtualization ist jedoch nicht vollständig<br />
unabhängig von weiterer Software, sondern wird<br />
<strong>mit</strong> Hilfe der Parent-Virtual-Machine konfiguriert. Beim<br />
Virtualisierungsansatz <strong>mit</strong> Hypervisor Typ 2 läuft dieser<br />
auf Basis eines Host-Betriebssystems wie Microsoft Windows<br />
oder Linux. Auf dem Hypervisor wiederum sind<br />
die verschiedenen Gast-Betriebssysteme lauffähig, und<br />
basierend darauf, die verschiedenen Applikationen.<br />
Ein Nachteil der Virtualisierungslösung <strong>mit</strong> Hypervisor<br />
Typ 1 ist, dass die Rechner-Hardware für den Hypervisor<br />
Typ 1 kompatibel und vom Hersteller der Virtualisierungslösung<br />
zertifiziert sein muss. Beim Ansatz <strong>mit</strong> Hypervisor<br />
Typ 2 lässt sich jegliche vom Host-Betriebssystem unterstützte<br />
Hardware verwenden. Vorteile der Lösungen <strong>mit</strong><br />
Hypervisor Typ 1 und Hypervisor Typ 1/Paravirtualization<br />
sind jedoch die Effizienz und die Performance aufgrund<br />
des direkten Zugriffs auf die Hardware im Gegensatz zum<br />
Ansatz <strong>mit</strong> Hypervisor Typ 2.<br />
2.3 Virtualisierungslösungen<br />
Die Firmen Citrix, Microsoft und VMware sind die derzeit<br />
bedeutendsten Hersteller von Virtualisierungslösungen.<br />
Die beiden Produkte XenServer und Hyper-V der<br />
Firmen Citrix beziehungsweise Microsoft basieren auf<br />
dem Virtualisierungsansatz Hypervisor Typ 1/Paravirtualisierung.<br />
Neben den ohnehin notwendigen Lizenzen<br />
für die Gast-Betriebssysteme ist eine zusätzliche Lizenz<br />
für das zu installierende Host-Betriebssystem in der<br />
Parent-Virtual-Machine zu erwerben. Es ist jedoch aus-<br />
Personalmanagement<br />
Finanzmanagement<br />
Materialwirtschaft<br />
und Controlling<br />
Produktionsplanung<br />
und -steuerung<br />
Produktionsführungsebene<br />
Betriebsführungsebene<br />
(SCADA / Leitsystem<br />
Steuerungsebene<br />
Feldebene<br />
Software<br />
SAP – HR<br />
SAP – FI<br />
SAP – CO<br />
SAP – MM<br />
SAP – PP<br />
WinCC PCS 7<br />
BILD 1: <strong>Automatisierung</strong>s-Pyramide<br />
im Gesamtkontext<br />
Hardware<br />
x86-basierende Technologien<br />
30<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
eichend, dass die verwendete Hardware vom Host-Betriebssystem<br />
unterstützt und zertifiziert sein muss. Microsoft<br />
stellt explizit Anforderungen an die Hardware,<br />
wie beispielsweise, dass der verwendete 64-Bit-Prozessor<br />
Virtualisierungstechnik unterstützen muss. VMware<br />
unterstützt zudem die 32-Bit-Technik. Von Nachteil ist<br />
weiterhin, dass die Gast-Betriebssysteme modifiziert<br />
werden müssen (zum Beispiel Austausch der Treiber).<br />
Bei dem Produkt ESXi von VMware handelt es sich um<br />
eine Lösung basierend auf dem Ansatz <strong>mit</strong> Hypervisor Typ<br />
1. Da<strong>mit</strong> die verwendete Hardware von diesen Produkten<br />
unterstützt wird, ist diese von der Firma VMware zu zertifizieren.<br />
Ein Vorteil dieser Lösungen ist, dass, anders als<br />
beim Hypervisor Typ 1/Paravirtualization, kein zusätzlicher<br />
Verwaltungsbedarf (unter anderem Konfiguration,<br />
Parametrierung) resultierend aus dem Gast-Betriebssystem<br />
notwendig ist. Die Lösungen von VMware sind etabliert. Sie<br />
werden heute typischerweise in den Rechenzentren der IT-<br />
Abteilungen von Unternehmen zur Server-Virtualisierung<br />
eingesetzt und nehmen nach eigenen Angaben des Unternehmens<br />
einen Gesamt-Marktanteil von mehr als 80 % ein.<br />
Aufgrund der etablierten Basis und der weiten Verbreitung<br />
– auch bei Unternehmen der Prozessindustrie –<br />
wurde im Rahmen der prototypischen Validierung (Realisierung)<br />
des Siemens-Leitsystems PCS 7 in einer virtuellen<br />
Umgebung zunächst die Lösung ESXi der Firma<br />
VMware gewählt.<br />
2.4 Nutzen<br />
Mögliche Motive für den Einsatz von Virtualisierung im<br />
Kontext der PLT:<br />
Verringerung der PLS-Investitions- und Betriebskosten<br />
Eine Herausforderung stellen die unterschiedlichen <strong>mit</strong>tleren<br />
Lebenszyklen von PC-Hardware dar, auf der die Betriebssystem-Software<br />
sowie die PLS-Software laufen [5].<br />
Die PC-Hardware besitzt im Mittel eine Lebenszeit von<br />
etwa 8 Jahren, das Betriebssystem von zirka 4 Jahren und<br />
die Versionen des PLS im Mittel von ungefähr 5 Jahren. Die<br />
<strong>mit</strong>tleren Lebenszeiten divergieren so<strong>mit</strong> im Vergleich zur<br />
etwa 20-jährigen Lebenszeit und Betriebsphase von Anlagen<br />
in der Prozessindustrie [6]. Um die Kompatibilität zwischen<br />
PC-Hardware und Leittechnik-Komponenten über<br />
die gesamte Betriebsphase sicherzustellen, werden oft bei<br />
der Erstellung einer Anlage die entsprechend notwendige<br />
Anzahl an PC-Hardware und Betriebssystem-Lizenzen für<br />
die gesamte Betriebsphase beschafft – verbunden <strong>mit</strong> zusätzlichen<br />
Investitionskosten. Virtualisierung ermöglicht<br />
es, die Lebenszyklen voneinander zu entkoppeln und so<strong>mit</strong><br />
diese höheren Investitionen obsolet werden zu lassen.<br />
Virtualisierung kann so<strong>mit</strong> zu einem erhöhten Investitionsschutz<br />
beitragen [6], vorwiegend für die Unternehmen<br />
der Prozessindustrie, die eigene IT-Abteilungen <strong>mit</strong><br />
Rechenzentren haben und bereits Virtualisierungs-Technologien<br />
verwenden. Diese Unternehmen können die<br />
PLT in die bestehende IT-Infrastruktur integrieren. Es<br />
sind so<strong>mit</strong> Kosteneinsparungen möglich, zum Beispiel<br />
durch den Wegfall von ansonsten notwendigem Platzbedarf<br />
im Produktionsbereich für die Industrie-Server,<br />
durch Minimierung des Aufwandes für Heizen/Lüften/<br />
Kühlen sowie durch zentralisierte Wartung.<br />
Erhöhung der Effizienz des PLS<br />
Aufgrund zentraler Recheneinheiten lässt sich die Effizienz<br />
des PLS steigern – Verbesserung der Skalierbarkeit<br />
und Verfügbarkeit sowie Steigerung der Produktivität.<br />
Eine verbesserte Skalierung und Verfügbarkeit wird erreicht,<br />
da beispielweise die bestehenden Ressourcen (wie<br />
Prozessoren, Speicher) im Rechenzentrum eines Unternehmens<br />
gezielt ausgelastet werden. Der Wechsel der<br />
Hardware und gegebenenfalls die Installation beziehungsweise<br />
Konfiguration des Betriebssystems aus Sicht<br />
der <strong>Automatisierung</strong> entfällt, wo<strong>mit</strong> Stillstandszeiten<br />
reduziert werden. Die Produktivität kann ebenfalls erhöht<br />
werden, da für das Aufsetzen einer neuen VM bestehende<br />
Templates verwendet werden können.<br />
Virtuelle Maschine (VM)<br />
Applikatiokatiokatiokatiokation<br />
Appli-<br />
Appli-<br />
Appli-<br />
Appli-<br />
Applikation<br />
…<br />
…<br />
Applikation<br />
Applikation<br />
……<br />
Applikation<br />
…<br />
Applikatiokation<br />
Appli-<br />
Applikation<br />
……<br />
…<br />
Applikation<br />
Guest-Betriebssystem<br />
Guest-Betriebssystem<br />
…<br />
…<br />
Applikation<br />
Applikation<br />
Applikatiokation<br />
Appli-<br />
Applikation<br />
Applikation<br />
Betriebssystem<br />
Betriebssystem<br />
…<br />
Gast-Betriebssystem<br />
Gast-Betriebssystem<br />
Hypervisor<br />
Hypervisor<br />
…<br />
Applikation<br />
Hypervisor<br />
Appli-kation<br />
Hypervisor<br />
Host-<br />
Host-<br />
Betriebssystem<br />
Betriebssystem<br />
Host-<br />
Host-<br />
Betriebssystem<br />
Betriebssystem<br />
Gast-Betriebssystem<br />
Gast-Betriebssystem<br />
…<br />
Hypervisor<br />
Hypervisor<br />
…<br />
…<br />
Hardware<br />
Hardware<br />
Hardware<br />
Hardware<br />
Hardware<br />
Hardware<br />
Hardware<br />
Hardware<br />
Konventionelles System<br />
BILD 2: Virtualisierungsansätze<br />
Virtualisierungsansatz:<br />
Hypervisor Typ 1<br />
Virtualisierungsansatz:<br />
Hypervisor Typ 1/<br />
Paravirtualization<br />
Virtualisierungsansatz:<br />
Hypervisor Typ 2<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
31
HAUPTBEITRAG<br />
Einsatz in bestehenden Anlagen<br />
Eine Erweiterung und Modernisierung der PA erfordert<br />
häufig einen nur schwer realisierbaren Ausbau der bestehenden<br />
Hardware. Daher ist die Hemmschwelle zur<br />
Erweiterung und Modernisierung von vorhandenen PLS<br />
hoch. Ausgehend von dem im Beitrag vorgestellten Ansatz,<br />
das PLS in virtueller Umgebung zu betreiben, wird<br />
die Hemmschwelle hinsichtlich einer Erweiterung und<br />
Modernisierung gesenkt. Es ist einfacher möglich, die<br />
verschiedenen Teile wie Engineering Station(s), Operator<br />
Station(s) und Maintenance Station(s) im Kontext einer<br />
VM zu modernisieren und zu erweitern.<br />
Hochverfügbarkeit auf Basis verbreiteter Technologien<br />
Sobald ein hochverfügbares PLS notwendig ist, kommen<br />
heutzutage proprietäre, firmenspezifische Redudanzlösungen<br />
für die jeweiligen PLS-Server zum Einsatz. In<br />
IT-Rechenzentren wird Virtualisierung häufig zur Erreichung<br />
von Hochverfügbarkeit eingestzt. Die Verwendung<br />
von der in der IT weit verbreiteten Virtualisierung zur<br />
Realisierung von PLS-Server-Redundanz ermöglicht gegebenenfalls<br />
die Fokussierung auf weitere zukünftige<br />
PLS-Herausforderungen (zum Beispiel Security [13]).<br />
Weiterhin könnte eine solche allgemeine Hochverfügbarkeitslösung<br />
dazu beitragen, die Investitionskosten bei<br />
einem zukünftigen PLS für den Anwender zu senken.<br />
3. TESTSYSTEM<br />
Die Erprobung von Simatic PCS 7 in virtueller Umgebung<br />
– als nicht-H-PLS und H-PLS – erfolgte exemplarisch<br />
im Smart-Automation-Center in Karlsruhe (siehe<br />
Bild 3).<br />
Beim Smart-Automation-Center handelt es sich um<br />
ein automatisiertes technisches System, um neue Technologien<br />
im Rahmen von Software- und Hardware-Prototypen<br />
in praxisnaher Umgebung zu erproben. Dieses<br />
automatisierte technische System besteht aus einem<br />
kontinuierlichen Teil und einem diskreten Teil für das<br />
Mischen beziehungsweise Abfüllen von Farbe. Die Basis-<br />
Ausrüstung des PLS sieht wie folgt aus:<br />
PLS-Komponenten: Eine Engineering-Station (ES),<br />
ein redundantes Operator-Station-Serverpaar (OS-<br />
Server), drei Operator-Station-Clients (OS-Client)<br />
und eine Maintenance Station (MS) – alle Komponenten<br />
haben als Basis-Betriebssystem Microsoft<br />
Windows 7<br />
Simatic PCS 7: PCS 7 V8.0<br />
Im folgenden Abschnitt ist Simatic PCS 7 in virtueller<br />
Umgebung als nicht-H-PLS skizziert – technische Details<br />
siehe [10].<br />
4. SIMATIC PCS 7 IN VIRTUELLER UMGEBUNG<br />
ALS NICHT-H-PLS<br />
4.1 Realisierung<br />
Die Realisierung der virtuellen Umgebung des nicht H-<br />
Systems erfolgte auf einem Fujitsu Server TX300 S6 (1<br />
Intel Xeon X5660 <strong>mit</strong> 6 Kernen à 2,8 GHz, 32 GB RAM).<br />
Auf dieser Hardware wurde die virtuelle Umgebung bestehend<br />
aus VMware vSphere V5.0, VMware vSphere<br />
Client V5.0 und VMware ESXi 5.0 installiert. Server- und<br />
Client-Funktionalität der PLS-Komponenten sind als VM<br />
auf Basis von VMware ESXi 5.0 realisiert worden.<br />
Bild 4 zeigt Komponenten des Leitsystems PCS 7, welche<br />
<strong>mit</strong> VMware/ESXi in einer virtuellen Umgebung im Smart-<br />
Automation-Center realisiert wurden – diskreter Teil<br />
(inkl. MES) und kontinuierlicher Teil. Detaillierte technische<br />
Informationen finden sich unter [11], [12], [14], [15].<br />
4.2 Ergebnisse<br />
Die Erprobung eines nicht-H-PLS in virtueller Umgebung<br />
ergab, dass die Neuinstallation eines solchen PLS und<br />
die Portierung einer bestehenden Konfiguration in die<br />
virtuelle Umgebung von VMware ESXi <strong>mit</strong> einem erhöhten<br />
Aufwand möglich ist. Dieser Mehraufwand resultierte<br />
im Wesentlichen aus dem notwendigerweise zu erarbeitenden<br />
Wissen bezüglich der Virtualisierung. Auf<br />
Basis der Vorfeldarbeiten wurden weitere ausführliche<br />
Tests in verschiedenen Anlagen durchgeführt. Die Ergebnisse<br />
führten dazu, dass Komponenten von Simatic<br />
PCS 7 für die Virtualisierung <strong>mit</strong> VMware unter bestimmten<br />
Bedingungen freigegeben wurden. Weitere<br />
Details sind in [10], [12] aufgeführt.<br />
5. SIMATIC PCS 7 IN VIRTUELLER UMGEBUNG ALS H-PLS<br />
5.1 Realisierung<br />
Für die Realisierung eines H-PLS in virtueller Umgebung<br />
gibt es zwei Varianten.<br />
1 | Kombination bestehender H-Lösungen <strong>mit</strong> den<br />
Technologien der Virtualisierung<br />
2 | Vollständige H-PLS-Lösung unter Verwendung von<br />
Virtualisierungsmethoden<br />
Zur Realisierung der Variante 1 reicht es aus, dass industriespezifische<br />
Hardware eingebunden werden kann – diese<br />
Variante und der da<strong>mit</strong> verbundene Nutzen und die<br />
Herausforderungen werden daher im Beitrag nicht weiter<br />
verfolgt. Im Fokus der Betrachtungen steht die intuitiv<br />
naheliegende Variante 2. Es wurden unterschiedliche<br />
Konfigurationen im Kontext der Hochverfügbarkeit und<br />
Virtualisierung getestet. Die Autoren behandeln ein redundantes<br />
OS-Serverpaar, welches <strong>mit</strong> Hilfe der Virtualisierung<br />
redundant ausgeführt wird. Bild 5 zeigt die Grundlagen<br />
zu entsprechend benötigten VMware-Produkten.<br />
Die beiden Funktionen als Bestandteil des Produktes<br />
VMware vSphere für die PLS-H-Lösung im Kontext einer<br />
virtuellen Umgebung lauten VMware High Availability<br />
(VMware HA) und VMware Fault Tolerance (VMware<br />
FT). Die Funktionen verwenden wiederum VMware-<br />
Basistechnologien. Zu diesen Technologien zählt unter<br />
anderem die VMware FT Lockstep Technologie. Diese<br />
Technologie ist hinsichtlich der hochverfügbaren Lösung<br />
im Kontext einer virtuellen Umgebung von besonderer<br />
Bedeutung. Weitere Basistechnologien sind beispielswei-<br />
32<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
se vSphere vMotion, vSphere Distributed Resource Scheduler<br />
(DRS) und vSphere Distributed Switch (VDS).<br />
Bei VMware HA handelt es sich um das Cold-Standby<br />
– das heißt die sekundäre VM wird gestartet, sobald die<br />
primäre VM ausfällt. Für diskontinuierliche Batch-Prozesse<br />
im Kontext der Prozessindustrie kann diese VMware-Technologie<br />
so<strong>mit</strong> bereits ausreichend sein – unter<br />
Verwendung entsprechender Werkzeuge, die den Batch-<br />
Prozess fortsetzen. Für kontinuierliche Prozesse hingegen<br />
ist dieses Produkt ungenügend. Nach einer ersten Prüfung<br />
eignet sich dafür das Produkt VMware FT. Es verspricht<br />
den Hot-Standby und so<strong>mit</strong> den lückenlosen Serverbetrieb.<br />
Auf Basis der VMware FT Lockstep Technologie<br />
sowie VMware HA einschließend sieht VMware FT vor,<br />
dass die sekundäre VM im Standby-Modus läuft und nicht<br />
erst hochfahren muss nach Ausfall der primären VM.<br />
Die VMware FT Lockstep Technologie unterscheidet<br />
zwischen einer primären VM und einer sekundären VM.<br />
Die primäre VM empfängt beziehungsweise versendet<br />
Ereignisse an unterlagerte Hard- und Softwarekomponenten.<br />
Parallel werden alle Ereignisse <strong>mit</strong> der sekundären<br />
VM abgeglichen – sowohl primäre als auch sekundäre<br />
VM führen die gleichen Algorithmen aus und<br />
die gleichen Eingabe/Ausgabe-Operationen durch. Jedoch<br />
nehmen im Normalbetrieb lediglich Ausgabe-<br />
Operationen der primären VM Einfluss auf die unterlagerte<br />
Hard- und Software. Alle Ausgabe-Operationen<br />
der sekundären VM werden unterdrückt. Die unterlagerte<br />
Hard- und Software sieht lediglich eine VM <strong>mit</strong><br />
entsprechender IP- und MAC-Adresse.<br />
Voraussetzung für VMware HA ist, dass alle ESXi-<br />
Hosts in einem HA-Cluster gekapselt sind. Die folgenden<br />
Fälle führen zum Umschalten von der primären VM im<br />
Master-Host auf die sekundäre VM in einem slave-Host:<br />
a | Auf ein vom Master-Host gesendetes 1-Hz-(Clock-)<br />
Signal wird vom Slave-Host nicht geantwortet<br />
b | Auf Internet Control Message Protocol (ICMP) Signale<br />
wird vom Slave-Host nicht geantwortet<br />
c | Auf ein vom gemeinsamen Speicher (Shared Storage)<br />
gesendetes Clock-Signal wird nicht geantwortet<br />
Unter Berücksichtigung zu erfüllender Anforderungen<br />
bezüglich eines H-PLS (zum Beispiel hinsichtlich Speicher,<br />
Prozessorleistung und Verfügbarkeit) sowie auf<br />
Basis der PLS-Grundausrüstung wurde die folgende<br />
Konfiguration umgesetzt:<br />
BILD 4: Siemens-Leitsystem PCS 7 in virtueller Umgebung<br />
BILD 5: VMware Server-Redundanzkonzept [9]<br />
ES OS-Client OS-Client OS-Client MS<br />
PLS-Komponenten in realer Umgebung<br />
1x ES, 3x OS-Client, 1x MS<br />
PLS-Komponenten in virtueller Umgebung<br />
1x redundanter OS-Server – verteilt auf zwei ESXi-<br />
Servern<br />
Die Realisierung des im Fokus stehenden redundanten OS-<br />
Serverpaares hinsichtlich eines H-PLS auf Basis von VMware<br />
Lockstep, VMware HA sowie VMware FT zeigt Bild 6.<br />
Die H-PLS in virtueller Umgebung wird gebildet von<br />
zwei ESXi-Servern, die sich in einem HP Blade System<br />
C7000 Enclosure G2 befinden. Die primäre VM läuft auf<br />
dem ersten ESXi-Server, die sekundäre VM auf dem<br />
zweiten ESXi-Server. Die Parametrierung der VMs ori-<br />
ESXI-Server 1<br />
Primär<br />
Redundantes OS-Serverpaar<br />
FT Protokollierung<br />
Bestätigung<br />
Virtuelle Maschinen (VM)<br />
ESXI-Server 2<br />
Sekundär<br />
BILD 6:<br />
Umsetzung eines<br />
redundanten<br />
Virtualisierungskonzeptes<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
33
HAUPTBEITRAG<br />
entiert sich an dem empfohlenen PC-Hardwareausbau<br />
für SimaticPCS 7 V8.0.<br />
Weiterhin wurden in den VM getrennte virtuelle Netzwerkkarten<br />
für Anlagen- und Terminalbus projektiert.<br />
Innerhalb eines ESXi-Servers werden diese virtuellen<br />
Netzwerkkarten in einem virtuellen Switch über Virtual-Machine-Port-Groups<br />
und VLANs getrennt. Nach außen<br />
erfolgte die Kommunikation zwischen den beteiligten<br />
Komponenten über ein VC-Modul (Virtual-Connect-<br />
Modul) an einem physikalischen Kabel <strong>mit</strong> einem zugeordneten<br />
VLAN.<br />
5.2 Ergebnisse<br />
Die Tests für PCS 7 V8.0 Update 1 in einer virtuellen<br />
Betriebsumgebung wurden in der beschriebenen Konfiguration<br />
erfolgreich beendet. Es wurden keine Probleme<br />
festgestellt. Ansonsten deckten sich die Erkenntnisse<br />
bei dieser Erprobung eines H-PLS auf Basis von<br />
Virtualisierung <strong>mit</strong> denen bei der Realisierung eines<br />
nicht-H-PLS. Positiv zu beurteilen ist, dass alle Bedienstationen<br />
über genau eine geöffnete Remote Desktop-<br />
Verbindung bedienbar sind.<br />
REFERENZEN<br />
[1] Thorns, F.: Das Virtualisierungs-Buch, C & I Computerund<br />
Literaturverlag, Böblingen, 2008<br />
[2] Gartner: Virtualization Market in EMEA Driven by Cost<br />
Considerations, Resource Use and Management<br />
Benefits, “Dataquest Insight”, 13. Februar 2009<br />
[3] Abel, D.; Epple, U.; Spohr, G.-U.: Integration von<br />
Advanced Control in der Prozess-industrie – Rapid<br />
Control Prototyping, Wiley-VCH, Weinheim, 2008<br />
[4] Goldberg, R.P.: Architectural Principles for Virtual<br />
Computer Systems. Harvard University, 1973<br />
[5] ZVEI Fachverband Automation: Life-Cycle-Management<br />
für Produkte und Systeme der Automation, 2010<br />
[6] NE 121: Qualitätssicherung leittechnischer Systeme.<br />
Namur, 2008<br />
[7] Keith A. und Ole A.: A Comparison of Software and<br />
Hardware Techniques for x86 Virtualization. VMware, 2006<br />
[8] Callow, B. und Turner, R.: Hidden Costs of Virtualization.<br />
http://www.acronis.com/resources/wp/2.html<br />
(23.12.2010)<br />
[9] Waldeck, B.: Netzangriffen keine Chance. In: Computer<br />
+ Automation 2010(12), S. 54, 2010<br />
[10] Runde, S., Schneider, M., Glaser, M., Drinjakovic, D.:<br />
<strong>Automatisierung</strong>stechnische Architektur in der<br />
Prozessindustrie <strong>mit</strong> Leitsystem in virtueller<br />
Umgebung. In: Tagungsband Automation 2011, S.<br />
203-208. VDI, 2011<br />
[11] Siemens AG: SIMATIC PCS 7 OS Software Client ab V7.1<br />
+ SP2 für den Einsatz in virtuellen Betriebsumgebungen<br />
freigegeben. http://support.automation.siemens.<br />
com/WW/llisapi.dll?func=cslib.csinfo&lang=de&objid=<br />
51401737&caller=nl (09.08.2012)<br />
[12] Siemens AG: OS Client, BATCH Client und Route<br />
Control Client <strong>mit</strong> SIMATIC PCS 7 V8.0+Update 1 für<br />
virtuelle Betriebsumgebungen freigegeben. http://<br />
support.automation.siemens.com/WW/view/<br />
de/61052407 [23.11.2012]<br />
[13] Palmin, A., Runde, S., Kobes, P.: Security in der<br />
Prozessautomatisierung – Trends und Entwicklungen<br />
aus dem Fokus der Vorfeldentwicklung. In: Tagungsband<br />
Automation 2012, S. 177 182. VDI, 2012<br />
[14] Siemens AG: WinCC/Server-Virtualiserung.<br />
http://support.automation.siemens.com/WW/view/<br />
de/49368181 (24.08.2012)<br />
[15] Siemens AG: PCS 7 Virtualisierung.<br />
http://support.automation.siemens.com/WW/view/<br />
de/51975791 (24.08.2012)<br />
6. HERAUSFORDERUNGEN UND NUTZEN<br />
DER PLS-VIRTUALISIERUNG<br />
Nachfolgend sind ausgewählte technische und nichttechnische<br />
Herausforderungen im Kontext PLS und Virtualisierung<br />
aufgeführt – die erwähnten Punkte sind<br />
unabhängig von einer spezifischen Virtualisierungslösung<br />
(zum Beispiel VMware, Citrix, Microsoft) [10].<br />
6.1 Technische Herausforderungen<br />
Einbindung industriespezifischer Hardware<br />
Die jeweils gewählte Virtualisierungslösung, basierend<br />
auf Hypervisor Typ 1, Hypervisor Typ 1/Paravirtualization<br />
oder Hypervisor Typ 2, muss die verwendete Hardware<br />
unterstützen. Handelt es sich dabei um industriespezifische<br />
Hardware und nicht um typische Consumer-<br />
Hardware, so ist diese Unterstützung nicht zwangsläufig<br />
gegeben.<br />
Realisierung der Hochverfügbarkeit<br />
Um die Hochverfügbarkeit des automatisierten technischen<br />
Systems <strong>mit</strong> PLS sicherzustellen, wird häufig industriespezifische<br />
Hardware verwendet. Um dieser Herausforderung<br />
gerecht zu werden, ist so<strong>mit</strong> zunächst die<br />
Einbindung industriespezifischer Hardware zu realisieren.<br />
Weiterhin sind die bisher bestehenden Methoden<br />
und Modelle im Kontext der Hochverfügbarkeit hinsichtlich<br />
einer virtuellen Lösung zu realisieren.<br />
6.2 Nicht-technische Herausforderungen<br />
Kontrolle des erhöhten IT-Investitionsbedarfs<br />
Virtualisierung im Kontext der PLT kann nutzbringend<br />
sein. Wenn jedoch keine geeignete IT-Infrastruktur besteht,<br />
so sind nicht zu unterschätzende zusätzliche Investitionen<br />
(Server, Virtualisierungssoftware, zusätzliche<br />
Supportverträge, IT-Fachleute, und so weiter) notwendig.<br />
Kontrolle der IT-Betriebskosten<br />
Die durch Auslagerung in das Rechenzentrum gegebenenfalls<br />
minimierte Anzahl notwendiger Rechner, auf<br />
denen die einzelnen Bestandteile des PLS installiert<br />
sind, ist nicht linear zu den Energieeinsparungen. Ein<br />
Rechner beziehungsweise Server <strong>mit</strong> einer Vielzahl an<br />
VM benötigt mehr Energie als ein vergleichbarer Rechner<br />
ohne VM.<br />
34<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
Notwendigkeit von verbesserter Schulung aufgrund<br />
erhöhter Komplexität<br />
Zwei Aspekte machen eine verbesserte Ausbildung des<br />
Personals im Umgang <strong>mit</strong> dem PLS nötig. Zum einen die<br />
erhöhte Gesamtkomplexität des Systems, zum anderen<br />
ist das gegenwärtige Personal im Umfeld der PA normalerweise<br />
nicht vertraut im Umgang <strong>mit</strong> der Technologie<br />
Virtualisierung. Daher ist das notwendige Wissen dem<br />
Personal im Kontext der PA zu ver<strong>mit</strong>teln.<br />
Abhängigkeit vom Lieferanten der Virtualisierungssoftware<br />
Der Einsatz der Virtualisierungs-Technologie bedeutet<br />
eine zusätzliche Abhängigkeit zum Hersteller einer solchen<br />
Software. Deshalb sind die Verantwortlichkeiten<br />
für diese Software und für das Gesamtsystem (zum Beispiel<br />
Support) festzulegen.<br />
Das Siemens-Leitsystem Simatic PCS 7 konnte in einer<br />
exemplarischen Konfiguration erfolgreich in virtueller<br />
Umgebung realisiert werden – als nicht-hochverfügbares<br />
und als hochverfügbares Prozessleitsystem. Der häufig<br />
angeführte Nutzen im Zusammenhang <strong>mit</strong> Virtualisierung<br />
konnte jedoch, im Gegensatz zu einer konventionellen<br />
Lösung ohne Virtualisierung, nicht vollends belegt<br />
werden. Der mögliche langfristige Nutzen (zum Beispiel<br />
Minimierung von PLS-Betriebskosten) ist über den Anlagenlebenszyklus<br />
zu beobachten. Der kurzfristige Nutzen<br />
ist projektspezifisch. Tendenziell ist ein PLS in virtueller<br />
Umgebung dann für ein Unternehmen von Vorteil,<br />
wenn bereits eine starke IT-Infrastruktur besteht – inklusive<br />
Erfahrungen im Umgang <strong>mit</strong> dem Thema Virtualisierung.<br />
Für Unternehmen ohne starke IT-Infrastruktur<br />
stellt eine solche Lösung eine große Herausforderung dar.<br />
Es bestehen neben der reinen Herausforderung hinsichtlich<br />
der Virtualisierungs-Umsetzung auch weitere technische<br />
und nicht-technische Herausforderungen. Hinsichtlich<br />
eines zukünftigen, hochverfügbaren PLS auf<br />
Basis von Virtualisierungstechnologien sind weitere<br />
Untersuchungen notwendig. Nur so lässt sich eine vollständige<br />
Vergleichbarkeit <strong>mit</strong> einem konventionellen<br />
System herstellen.<br />
FAZIT<br />
MANUSKRIPTEINGANG<br />
18.09.2012<br />
Im Peer-Review-Verfahren begutachtet<br />
AUTOREN<br />
Dr.-Ing. STEFAN RUNDE (geb. 1980) ist in der Vorfeldentwicklung<br />
des Sektors Industry der Siemens AG seit Oktober<br />
2010 Projektleiter für das Thema "Future DCS Architecture"<br />
und seit Oktober 2012 zudem Programm Manager für das<br />
Themenfeld "PC-based Architecture". Nach der Ausbildung<br />
zum Energieelektroniker, studierte er Elektro- und Informationstechnik<br />
an der FH Hannover und promovierte an der<br />
Helmut-Schmidt-Universität Hamburg. Aktuelle Schwerpunkte<br />
seiner Arbeit sind die Verbesserung von Engineering<br />
und Architekturen im Umfeld von SCADA und PLS.<br />
Siemens AG, I IA ATS 3 1,<br />
Östliche Rheinbrückenstrasse 50,<br />
D-76187 Karlsruhe, Tel. +49 (0) 721 595 79 77,<br />
E-Mail: stefan.runde@siemens.com<br />
Dipl.-Ing. MARTIN R. SCHNEIDER (geb. 1960) absolvierte ein<br />
Informatik-Studium an der Hochschule Karlsruhe und ist in<br />
der Vorfeldentwicklung des Sektors Industry tätig. Er ist<br />
Teilprojektleiter im Projekt "Future DCS Architectures"<br />
zuständig für das Thema Integration von IT-Trends wie z.B.<br />
Virtualisierung oder Cloud Computing in PLS.<br />
Siemens AG, I IA ATS 3 1<br />
Östliche Rheinbrückenstrasse 50, D-76187 Karlsruhe,<br />
Tel. +49 (0) 721 595 61 13,<br />
E-Mail: martin-rudolf.schneider@siemens.com<br />
Dipl.-Ing. MARTIN GLASER (geb. 1959) leitete bis September<br />
2012 im PCS 7 Produktmanagement die Gruppe "Software<br />
& Innovation" und ist seit Oktober 2012 verantwortlich<br />
als Projektfamilienleiter "DCS SW-Products". Er studierte<br />
Elektrotechnik an der TH Karlsruhe und beschäftigt<br />
sich seit vielen Jahren <strong>mit</strong> der Entwicklung von PLS,<br />
insbesondere <strong>mit</strong> dem Focus auf neue Technologien für die<br />
Inno vation von PLS.<br />
Siemens AG, I IA AS PA R&D 1<br />
Östliche Rheinbrückenstrasse 50,<br />
D-76187 Karlsruhe, Tel. +49 (0) 721 595 68 90,<br />
E-Mail: martin.glaser@siemens.com<br />
Dipl.-Ing. STEFFEN THIEME (geb. 1965) arbeitet als<br />
technischer Berater für Simatic PCS 7 im Bereich<br />
"Simatic Systems Support for Process Automation".<br />
Er studierte Informationstechnik an der TH Ilmenau<br />
und beschäftigt sich seit vielen Jahren im Rahmen <strong>mit</strong><br />
PLT. Zu seinen aktuellen Aufgaben im Zusammenhang<br />
<strong>mit</strong> Simatic PCS 7 gehören unter anderem Simatic<br />
Batch, Virtualisierung und Industrial Security.<br />
Siemens AG, I IA AS S SUP PA 2,<br />
Östliche Rheinbrückenstrasse 50, D-76187 Karlsruhe,<br />
Tel. +49 (0) 721 595 71 37,<br />
E-Mail: steffen.thieme@siemens.com<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
35
HAUPTBEITRAG<br />
Integriertes Engineering <strong>mit</strong><br />
Automation Service Bus<br />
Paralleles Engineering <strong>mit</strong> heterogenen Werkzeugen<br />
Dieser Beitrag stellt einen neuen herstellerneutralen Ansatz zur Integration von Software-<br />
Werkzeugen vor, den Automation Service Bus. Es geht darum, wesentliche Lücken bisheriger<br />
herstellerneutraler Ansätze zu schließen und Vorteile, die sich bisher nur <strong>mit</strong> herstellerspezifischer<br />
Integration erreichen ließen, auch für die Integration heterogener Werkzeuge<br />
zu ermöglichen.<br />
SCHLAGWÖRTER Paralleles Engineering / Software-Werkzeug-Integration /<br />
Datenaustausch / Werkzeug unterstützte Arbeitsabläufe /<br />
Automation Service Bus<br />
Integrated engineering with the Automation Service Bus –<br />
Making parallel engineering with heterogeneous tools more efficient<br />
This contribution introduces a novel vendor-neutral approach for the integration of software<br />
tools, the Automation Service Bus, in order to close relevant gaps of present vendorneutral<br />
approaches and enable benefits, which were previously achieved only with vendorspecific<br />
integration, also for the integration of heterogeneous tools.<br />
KEYWORDS parallel engineering / software tool integration / data exchange /<br />
tool-supported workflows / automation service bus<br />
36<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
STEFAN BIFFL, RICHARD MORDINYI UND THOMAS MOSER, Technische Universität Wien<br />
Der erste Teil dieses Beitrags in <strong>atp</strong>-<strong>edition</strong> 54(5)<br />
hat den Bedarf an besserer Integration zwischen<br />
Software-Werkzeugen und deren Datenmodellen<br />
anhand exemplarischer Anwendungsfälle<br />
diskutiert. Daraus wurde der Bedarf<br />
für Mechanismen in Software-Werkzeugen abgeleitet<br />
und die Stärken und Beschränkungen von drei<br />
generellen Integrationsansätzen diskutiert: Behelfslösungen<br />
und herstellerspezifische beziehungsweise herstellerneutrale<br />
Ansätze. Das Ergebnis: Herstellerspezifische<br />
Werkzeug-Suiten decken zwar den Großteil der<br />
vorgestellten Anwendungsfälle ab, schränken allerdings<br />
typischerweise die Auswahlmöglichkeiten der<br />
verwendbaren Werkzeuge ein oder geben ein zu verwendendes<br />
Datenmodell fix vor. Herstellerneutrale Ansätze<br />
erlauben die freie Auswahl der Werkzeuge und<br />
Datenmodelle, erfordern aber oft einen erhöhten Grundaufwand<br />
für die Einbindung der Werkzeuge, da es keine<br />
offene Integrationsplattform zur Integration von<br />
Daten und Funktionen aus Software-Werkzeugen zur<br />
Unterstützung von Abläufen auf Projektebene gibt. Die<br />
AutomationML-Initiative [1] definiert zum Beispiel ein<br />
Schema für den Austausch von Topologie-, Geometrieund<br />
Verhaltensinformationen, stellt aber keine automatisierte<br />
Austauschmöglichkeit für diese Informationen<br />
zur Verfügung.<br />
Im Bereich der Wirtschaftsinformatik wurde der Architekturtrend<br />
umfangreicher Software-Werkzeug-Suiten<br />
in den 1990er Jahren etabliert und in den 2000er-<br />
Jahren durch offene, komponentenorientierte Systeme,<br />
etwa auf Basis des Enterprise Service Bus [2], abgelöst.<br />
Ein Beispiel für ein derartiges System ist der Automation<br />
Service Bus (ASB) Ansatz [3], ein Ergebnis der Forschung<br />
des von der Logical automation solutions und services<br />
GmbH betriebenen Christian-Doppler-Forschungslabors<br />
„Software Engineering Integration für flexible <strong>Automatisierung</strong>ssysteme“<br />
(CDL-Flex) an der Technischen Universität<br />
Wien.<br />
Der ASB schließt die Lücke zwischen den spezifischen<br />
Software-Werkzeugen der Fachexperten und den Arbeitsabläufen<br />
der Projektteilnehmer, die unter Verwendung<br />
der Daten aus mehreren Software-Werkzeugen effizient<br />
durchgeführt werden sollen, durch eine systematische<br />
und nicht-proprietäre Integration auf den Ebenen<br />
der (1) technischen Systeme und Funktionen, (2) der<br />
Datenmodelle und (3) der Beschreibung der Arbeitsabläufe.<br />
Die Integration der lokalen Datenmodelle (das „Engineering<br />
Babylon“) wird adressiert, in dem genau die<br />
von den Fachexperten für die Kooperation benutzten<br />
gemeinsamen Konzepte modelliert, auf die lokalen Repräsentationen<br />
der Software-Werkzeuge abgebildet und<br />
so für Maschinen verständlich gemacht werden. In den<br />
folgenden Abschnitten beschreibt der Beitrag die Kernkomponenten<br />
des ASB, spezifiziert den Prozess zum<br />
Entwerfen einer Integrationslösung und diskutiert Vorteile,<br />
Li<strong>mit</strong>ierungen und den benötigten Aufwand.<br />
1. DER AUTOMATION-SERVICE-BUS-ANSATZ<br />
Dieser Abschnitt stellt den Automation Service Bus [3]<br />
vor und beschreibt dessen Hauptkomponenten. Ziel des<br />
Einsatzes des ASB ist das Bereitstellen einer offenen<br />
Plattform zur Integration von heterogenen Software-<br />
Werkzeugen für die Entwicklung von <strong>Automatisierung</strong>ssystemen.<br />
Im Lebenszyklus der Herstellung und Operation<br />
von <strong>Automatisierung</strong>ssystemen lassen sich Software-<br />
Werkzeuge und Systeme als Software-Komponenten [4]<br />
betrachten, deren Beitrag zum Entwicklungsprozess<br />
durch eine bessere Kooperation deutlich effektiver und<br />
effizienter werden kann.<br />
Basierend auf dem in der Wirtschaftsinformatik erfolgreichen<br />
Enterprise Service Bus Ansatz [2] werden dafür<br />
die für das Engineering-Umfeld erforderlichen Verbesserungen<br />
wie eine herstellerneutrale Kommunikation vorgenommen,<br />
um das „Engineering-Polynesien“ der Werkzeuginseln<br />
systematisch zu integrieren (siehe Bild 1).<br />
Software-Werkzeuge sind <strong>mit</strong> dem ASB über Konnektoren<br />
verbunden und stellen an den Schnittstellen Software-<br />
Services [5] bereit, die den Datenaustausch und den Aufruf<br />
von Werkzeugfunktionen als Basis für die <strong>Automatisierung</strong><br />
von Arbeitsabläufen im Engineering erlauben.<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
37
HAUPTBEITRAG<br />
Bild 1 zeigt eine vereinfachte Sicht auf eine konkrete<br />
Lösungskonfiguration <strong>mit</strong> dem ASB, die folgende Elemente<br />
beinhaltet. (1) Spezifische Werkzeuge für Fachexperten<br />
aus dem Anlagen-Engineering, etwa zur Planung von<br />
Rohrleitungs- und Instrumentenfließbildern, Funktionsplänen,<br />
Elektroplänen, Systemkonfigurationen und SPS-<br />
Kontrollprogrammen. (2) Den Service Bus <strong>mit</strong> Konnektoren<br />
zur technischen Verbindung der Software-Systeme<br />
<strong>mit</strong>einander. (3) Die Engineering-Datenbank und die<br />
Engineering-Knowledge-Base, um gemeinsam verwendete<br />
Daten auf Projektebene versioniert zu halten und zur<br />
Übersetzung von gemeinsamen Konzepten auf Projektebene,<br />
die in den Werkzeugen (in Bezug auf Begriffe oder<br />
Datenstrukturen) unterschiedlich repräsentiert sind. (4)<br />
Anwendungen auf Projektebene, die auf die integrierten<br />
Daten und Funktionen aus den Software-Werkzeugen<br />
aufbauen, etwa ein Engineering-Cockpit zur besseren<br />
Projektstatusübersicht oder ein Ticketing System zur Benachrichtigung<br />
relevanter Projektrollen. (5) Die Konfiguration<br />
von Arbeitsabläufen, die Software-Werkzeuge verwenden<br />
und über Regeln gesteuert werden. Nachfolgend<br />
wird näher auf die Kernkomponenten des ASB in Bild 1<br />
eingegangen, die Services anbieten, die die angebundenen<br />
Werkzeuge nicht zur Verfügung stellen.<br />
Datenintegration werden Dateninstanzen entsprechend<br />
dem Datenmodell des Werkzeugs an den ASB geschickt<br />
beziehungsweise vom ASB empfangen. Die entsprechenden<br />
Konnektoren lesen/schreiben Dateninstanzen in<br />
Dateien, die über die Werkzeug-spezifischen Datei-Export/Import-Schnittstellen<br />
verarbeitet werden können.<br />
Werkzeuge, wie Eplan Electric, Eplan Engineering Center<br />
der Hardware-Konfigurator OPM, MS Excel oder MS Visio<br />
gehören zu dieser Kategorie. Bei der Funktionsintegration<br />
werden das Datenmodell und Werkzeug-spezifische<br />
Funktionen bei der Anbindung verwendet. Dies<br />
erfordert eine Kooperation <strong>mit</strong> dem Werkzeughersteller<br />
oder Werkzeugpartner, um Werkzeug-spezifische<br />
Schnittstellen zu implementieren. Der Konnektor tauscht<br />
also <strong>mit</strong> dem Werkzeug Informationen über APIs aus, die<br />
der Werkzeugher-steller bereitstellt. Daraus ergibt sich,<br />
dass die erzielbare Qualität beziehungsweise Tiefe der<br />
Anbindung vom Werkzeughersteller abhängt. Aus dem<br />
Bereich der <strong>Automatisierung</strong>ssysteme wurden die Funktionsplansysteme<br />
Logicad und Logidoc angebunden, aus<br />
dem Bereich Software-Engineering-Werkzeuge beispielsweise<br />
das Ticketing-System Trac zur Sammlung und<br />
Organisation von Aufgaben, die aus dem Änderungsmanagement<br />
entstehen [7].<br />
1.1 Spezifische Werkzeuge für Fachexperten<br />
Software-Werkzeuge stellen für Fachexperten Daten und<br />
Funktionen zur Planung von Anlagen in herstellerspezifischer<br />
Technologie bereit und bieten typischerweise<br />
Schnittstellen an, um auf Daten und Funktionen aus den<br />
Werkzeugen von außen zuzugreifen. Der ASB unterstützt<br />
die Anbindung von Werkzeugen auf zwei Arten. Bei der<br />
1.2 Werkzeugdomänen zur Anbindung von Werkzeugen<br />
Konnektoren verbinden Werkzeuge <strong>mit</strong> dem ASB und bestehen<br />
daher aus einer technisch spezifischen Schnittstelle<br />
zum Werkzeug und einer technisch neutralen<br />
Schnittstelle, die eine Kommunikation <strong>mit</strong> allen anderen<br />
Komponenten am ASB erlaubt. Die neutrale Schnittstelle<br />
– eine Werkzeugdomäne – entspricht einer Standardisie-<br />
BILD 1: Grundlegende Elemente<br />
einer Soft ware-Werkzeugintegration<br />
<strong>mit</strong> dem Automation Service Bus.<br />
BILD 2: Semantische Integration [10] heterogener<br />
Repräsentationen von Engineering-Wissen.<br />
38<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
ung von Konnektoren zu Werkzeugtypen, etwa Hardware-Konfiguratoren,<br />
und ermöglicht einerseits den einfachen<br />
Austausch von Werkzeugdiensten und erlaubt<br />
andererseits anwendenden Fachexperten weiterhin die<br />
gewohnte Verwendung ihrer Werkzeuge (für Details siehe<br />
[8], [9]). Eine neutrale Schnittstellenbeschreibung gestattet<br />
eine von Werkzeugen unabhängige Beschreibung von<br />
Arbeitsabläufen im Projekt und den effizienten Einsatz<br />
von für das Projekt besonders gut passenden Werkzeugen.<br />
1.3 Engineering Knowledge Base<br />
Werkzeugdomänen vermindern die Komplexität der Integration<br />
von Werkzeuginseln. Allerdings sind Konnektoren<br />
und auch Werkzeugdomänen nicht in der Lage, semantisch<br />
heterogene Werkzeuge so an den ASB anzubinden, dass<br />
die unterschiedlichen Datenmodelle für Computer verständlich<br />
werden. Ein wesentlicher Beitrag der Integrationslösung<br />
ist daher die Bereitstellung von Daten, die unterschiedliche<br />
Projektteilnehmer bearbeiten und verwenden,<br />
sogenannten gemeinsamen Konzepten (siehe Bild 2<br />
und Bild 3), in einheitlicher Darstellung auf Projektebene.<br />
Dieses virtuelle gemeinsame Datenmodell lässt sich dynamisch<br />
erzeugen oder an neue Projektbedürfnisse anpassten<br />
und unterscheidet sich dadurch stark von klassischen,<br />
vor Projektbeginn zu definierenden, und starren statischen<br />
Datenmodellen. Die Engineering Knowledge Base (EKB)<br />
[10] repräsentiert das Datenmodell der gemeinsamen Konzepte<br />
auf Projektebene und die Datenmodelle der unterschiedlichen<br />
lokalen Repräsentationen in den Software-<br />
Werkzeugen und erlaubt die notwendigen Transformationen<br />
zwischen den lokalen Datenmodellen.<br />
Das „Engineering-Babylon“ entsteht durch unterschiedliche<br />
lokale Repräsentationen der gemeinsamen<br />
Konzepte des Projektteams in den beteiligten Softwaresystemen<br />
und erfordert vermeidbaren Aufwand von<br />
Fachexperten für wiederkehrende Tätigkeiten, etwa Änderungskaskaden.<br />
Die EKB adressiert dieses Problem<br />
durch die Modellierung der von den Fachexperten für<br />
die Kooperation benutzten gemeinsamen Konzepte, die<br />
Modellierung der lokalen Repräsentationen der Software-Werkzeuge<br />
und die Abbildungen der einzelnen<br />
Konzepte zwischen diesen Modellen (siehe Bild 2) in<br />
einer expliziten und für Computer verständlichen Form,<br />
einer Ontologie. Dadurch wird die Übersetzung zwischen<br />
den unterschiedlichen Darstellungen automatisiert<br />
und die Fachexperten können Abfragen an die Daten<br />
auf Basis der gemeinsamen Konzepte stellen.<br />
Bild 2 zeigt die lokalen Datenmodelle von drei Fachbereichen<br />
(farbige Elipsen) und deren Überlappungsbereiche<br />
(in Weiß), die die gemeinsamen Konzepte beinhalten,<br />
etwa Anforderungen, Geräte, mechatronische<br />
Objekte oder Signale. Diese Überlappungen erlauben es,<br />
ein virtuelles gemeinsames Datenmodell zu erstellen,<br />
das die schematischen und semantischen Informationen<br />
der einzelnen Konzepte beinhaltet und eine Infrastruktur<br />
für semiautomatische Transformationen zwischen<br />
den Konzepten bereitstellt. Die werkzeugunterstützte<br />
Modellierung der Engineering-Konzepte ermöglicht eine<br />
automatische Ableitung der benötigten Transformationsanweisungen.<br />
Ein guter Ansatzpunkt für das Identifizieren<br />
gemeinsamer Konzepte ist die Analyse der Schnittstellen<br />
exportierbarer Daten, die Werkzeuge anbieten,<br />
oder auch von Standards in der Domäne. Sobald die relevanten<br />
Konzepte identifiziert sind, können diese Konzepte<br />
aufeinander abgebildet werden (Bild 2) [11]. Dadurch<br />
lassen sich die Auswirkungen von parallelen<br />
Änderungen in mehreren Engineering-Plänen automatisch<br />
analysieren; dies erlaubt den Abgleich von Engineering-Modellen<br />
aus unterschiedlichen Fachbereichen<br />
in kürzeren Zyklen <strong>mit</strong> signifikant geringerem Aufwand<br />
für die Fachexperten. Das Finden von Risiken und Beheben<br />
von Fehlern kann früher stattfinden.<br />
1.4 Engineering Database<br />
Die Engineering Database (EDB) [12] ist eine Datenbank,<br />
die zu den im vorigen Unterabschnitt beschriebenen gemeinsamen<br />
Konzepten die Datenbeiträge aus allen relevanten<br />
Werkzeugen versioniert speichert und zum Datenaustausch<br />
sowie für Abfragen zur Verfügung stellt.<br />
Dadurch wird es möglich, jeglichen Datenzustand zu<br />
einem bestimmten Zeitpunkt zu reproduzieren und zeitliche<br />
Analysen über Systemereignisse durchzuführen,<br />
zum Beispiel die Anzahl der Änderungen pro Benutzer<br />
im Gesamtprojekt.<br />
Bild 3 zeigt dazu den grundlegenden Ablauf: Die Verwendung<br />
des virtuellen Datenmodells (1), welches in der<br />
EKB explizit in Form einer Ontologie spezifiziert wurde,<br />
ermöglicht die effiziente und effektive Ableitung und<br />
Herstellung der zur Laufzeit notwendigen Transformationen<br />
(2) zwischen den ausgetauschten Werkzeugdaten.<br />
Die derartig transformierten Daten werden dann in der<br />
EDB (3) abgelegt. Ein Beispiel für eine derartige Transformation<br />
ist im unteren Teil von Bild 3 dargestellt. Hier<br />
wird die Instanz von Cust_Signal namens Cust S1 in eine<br />
Instanz von FB_Signal namens FB 1 transformiert. Die<br />
Darstellung des Inhalts der EDB zeigt, dass sich die gemeinsamen<br />
Elemente beider Konzepte am Anfang des<br />
Eintrags befinden, während am Ende des Eintrags die<br />
werkzeugspezifischen Elemente der Werkzeuge Elektroplan<br />
und Funktionsplan angehängt werden.<br />
1.5 Anwendungen auf Projektebene<br />
Auf Basis der versionierten Werkzeugdaten in der EDB<br />
und der Abfragemöglichkeiten der EKB können auf Projektebene<br />
neue Auswertungs- und Kommunikationsmöglichkeiten<br />
bereitgestellt werden. Das Engineering-Cockpit<br />
[13] ist eine Kollaborationsplattform für Projektmanager<br />
und Ingenieure und kann, basierend auf der Analyse<br />
von automatisch erfassten Prozessdaten, etwa dem<br />
Projektmanager Informationen über den Projektfortschritt<br />
(siehe Bild 4), absehbare Risiken und Unterlagen<br />
für Claim Management ohne zusätzlichen Aufwand<br />
bereitstellen. Die Grundlage für eine Analyse sind die<br />
abgelegten Modelle in der EKB und die Instanzen in der<br />
EDB. Abfragen über die Daten aus mehreren Werkzeugen,<br />
etwa Signale, Planungs- oder Implementierungsstände<br />
und die Team-Konfiguration im Projekt können kombiniert<br />
werden, etwa, um zu sehen, welche Personen in<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
39
HAUPTBEITRAG<br />
BILD 3: Virtuelles gemeinsames Datenmodell und Transformationen.<br />
einem Zeitraum welche Änderungen an den Signalen<br />
eines Engineering-Objekts durchgeführt haben. Ein Ticket-System<br />
ermöglicht es, die Aufgaben im Team im<br />
Überblick zu behalten, etwa Änderungsbedarfe aufgrund<br />
einer Änderungskaskade, die nicht automatisch adressiert<br />
werden können. Vorkonfigurierte Soll-Werte aus<br />
den Erfahrungen <strong>mit</strong> Projekten ähnlicher Größe können<br />
dem Projektmanager als zusätzliche Vergleichsbasis dienen,<br />
um über Abweichungen vom Soll-Wert mögliche<br />
Risiken frühzeitig zu erkennen.<br />
Bei der Qualitätssicherung im Engineering und der Inbetriebnahme<br />
einer Anlage müssen Fachexperten zwischen<br />
gemeinsamen Konzepten, etwa Signalen oder Geräten,<br />
in Plänen aus unterschiedlichen Bereichen navigieren,<br />
um die Plausibilität und Konsistenz abzusichern.<br />
Die Software-Werkzeuge der Fachbereiche vernetzen die<br />
gemeinsamen Konzepte oft nicht vollständig und effizient,<br />
sodass die Experten diese in unzureichend vernetzten<br />
Software-Plänen relativ aufwendig suchen müssen.<br />
Durch die Verbindung von gemeinsamen Konzepten können<br />
Anwender effizient zwischen unterschiedlichen Plänen<br />
und Werkzeugen navigieren und behalten dabei den<br />
Kontext, zu dem sie Informationen suchen. Das Netz an<br />
Abbildungen zwischen lokalen und gemeinsamen Konzepten<br />
in der EKB zeigt konkrete Navigationsmöglichkeiten<br />
zwischen Ausgangs- und Zielwerkzeug auf.<br />
1.6 Konfiguration von Arbeitsabläufen<br />
Ein wesentlicher Nutzen des ASB ist die technologieunabhängige<br />
Beschreibung von (bestehenden) Engineering-<br />
Prozessen und deren <strong>Automatisierung</strong>, um die Fachexperten<br />
von Tätigkeiten zu entlasten, die Software-Werkzeuge<br />
übernehmen sollen. Die in den ASB integrierte<br />
Workflow-Engine unterstützt die automatisierte Ausführung<br />
von Arbeitsabläufen zwischen Werkzeugen und ist<br />
daher für das Management von Regeln und Ereignissen<br />
beziehungsweise für die korrekte Ausführung von Engineering-Workflows<br />
verantwortlich. Technisch beschreibt<br />
ein in einer Sprache wie BPMN modellierter und in die<br />
ASB-Umgebung transformierter Engineering-Workflow<br />
konfigurierbare Prozessschritte, die die gewünschte Art<br />
der Integration der einzelnen Werkzeuge im Projekt darstellen.<br />
Die vom Prozessmanager erarbeiteten und zu<br />
konfigurierenden Schritte [6] basieren auf den in der EKB<br />
beschriebenen Datenmodellen (Rollen, Verantwortlichkeiten,<br />
Gewerken, Signalen, Einschränkungen) und auf<br />
für die Ausführung relevanten Werkzeugdomänen (inklusive<br />
deren Datenmodelle und Funktionen) beziehungsweise<br />
den in der Projektkonfiguration spezifizierten<br />
konkreten Werkzeuginstanzen. Eine im ASB laufende<br />
Komponente zur Prozessanalyse sammelt während<br />
der Ausführung Informationen über die Zustände der<br />
einzelnen Prozesse, um den wirklichen Ablauf <strong>mit</strong> dem<br />
im BPMN beschriebenen Verlauf zu vergleichen und so<br />
Abweichungen vom Sollzustand zu identifizieren.<br />
Für den Anwendungsfall von Änderungskaskaden und<br />
der automatischen Notifizierung von Projekt<strong>mit</strong>arbeitern<br />
über Änderungen <strong>mit</strong>hilfe eines Ticketing-Systems ist<br />
das projektspezifische Zusammenspiel aller zuvor erwähnten<br />
Komponenten zu beschreiben, zum Beispiel: die<br />
notwendigen Iterationen für eine Überprüfung, die Art<br />
einer Änderungsanfrage, der Umgang <strong>mit</strong> parallelen Aktivitäten<br />
und <strong>mit</strong> Konflikten [7, 14]. Änderungen in einem<br />
Werkzeug können je nach Art der Anbindung entweder<br />
direkt aus dem Werkzeug heraus oder über die Export-<br />
Schnittstelle des Werkzeugs dem ASB <strong>mit</strong>geteilt werden.<br />
Dies hat zur Folge, dass der aktuelle Datenbestand des<br />
Werkzeugs in der EDB abgelegt wird. Dieser Vorgang wird<br />
über einen Engineering-Workflow gesteuert, der durch<br />
die Versionierung der Daten in der EDB Änderungen im<br />
Datenbestand erkennt, und auf Basis der Abbildungen<br />
zwischen Datenmodellen über gemeinsame Konzepte in<br />
der EKB in der Lage ist, Werkzeuge oder deren Benutzer<br />
zu identifizieren, die über diese Änderung informiert<br />
werden sollten. Je nach Konfiguration des Ablaufs werden<br />
den identifizierten Experten über die Werkzeugdomäne<br />
Ticketing neue Tickets zugeordnet beziehungsweise die<br />
Änderungen nach Durchführung der spezifizierten<br />
40<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
BILD 4: Auswertungen im Engineering-Cockpit –<br />
etwa die Anzahl der Signale nach Projektphase.<br />
Transformationsschritte entweder sofort oder nach erfolgter<br />
Bestätigung durch die Ingenieure zum jeweiligen<br />
Werkzeug geleitet. Dadurch ist es möglich, den Ablauf<br />
der Änderungskaskaden einfach und flexibel an die Bedürfnisse<br />
der Projektteilnehmer anzupassen.<br />
2. ARBEITSSCHRITTE UND AUFWAND<br />
Dieser Abschnitt beschreibt die Arbeitsschritte und<br />
den Aufwand, um <strong>mit</strong> dem ASB zu einer auf Projektbedürfnisse<br />
abgestimmte Integrationslösung zu kommen.<br />
Im ersten Schritt „Datenmodellierung“ erstellen<br />
die Werkzeugexperten die Datenmodelle für die jeweiligen<br />
im Projekt verwendeten Werkzeuge einer Werkzeugdomäne<br />
[15]. In einem weiteren Schritt definieren<br />
die Experten gemeinsam das dazu passende Datenmodell<br />
der Werkzeugdomäne. Das Resultat sind in der<br />
EKB gespeicherte semantische Beschreibungen [16] der<br />
Modelle und Abbildungen zwischen den Datenmodellen.<br />
Abschließend werden die Modelle <strong>mit</strong> qualitätssichernden<br />
Maßnahmen auf Korrektheit und Gültigkeit<br />
überprüft [17, 18]. Die in der EKB verwendete Datenmodellierungsmethode<br />
benutzt Ontologien, wodurch<br />
sich klare Vorteile ergeben in Bezug auf dynamische<br />
Erweiterbarkeit der Datenmodelle, explizite semantische<br />
Beschreibung der Datenmodelle und Unterstützung<br />
von automatisierten Regel- und Abfragesprachen.<br />
Herausforderungen in der Verwendung von Ontologien<br />
ergeben sich aus nicht garantierbaren Laufzeiten von<br />
Abfragen und aus der <strong>mit</strong> der Handhabung von Ontologien<br />
verbundenen Komplexität.<br />
Im nächsten Schritt „Prozessbeschreibung“ werden<br />
die Arbeitsprozessbeschreibungen [7] (etwa in der BPMN<br />
[19]) analysiert und auf die Funktionen abgebildet, die<br />
die zu verwendenden Werkzeugdomänen bereitstellen.<br />
Die Architektur des ASB ist darauf ausgelegt, ein flexibles<br />
Zusammenspiel der vorgestellten Konzepte zu ermöglichen.<br />
Ein Vorteil ist die iterative Umsetzbarkeit von<br />
Integrationslösungen, die eine schrittweise Migration<br />
bestehender Integrationslösungen Richtung ASB <strong>mit</strong><br />
überschaubaren Risiken und Kosten [20, 21] erlaubt.<br />
Im darauffolgenden Schritt „Prozessumsetzung“ erfolgt<br />
die konkrete Umsetzung der Integration, indem die<br />
erfassten Modelle und Arbeitsabläufe dazu verwendet<br />
werden, um projektspezifische ASB-Artefakte wie Konfigurationsdateien,<br />
Quellcode und Testszenarien semiautomatisiert<br />
abzuleiten. In diesem Schritt werden Vorlagen<br />
für Werkzeugkonnektoren erstellt, die neben der<br />
konkreten Anbindung an das Zielwerkzeug die Funktionalität<br />
der Werkzeugdomäne beziehungsweise Gültigkeitsüberprüfungen<br />
von Dateninstanzen implementieren,<br />
(b) Schnittstellen und Funktionsaufrufe der Werkzeugdomänen<br />
angelegt, (c) Transformationsinstruktionen<br />
zwischen Datenmodellen abgeleitet, um zwischen<br />
Werkzeugen Daten semantisch korrekt austauschen zu<br />
können und (d) Testszenarien erstellt, um die Anbindung<br />
der Werkzeuge an den ASB testen zu können. Die<br />
ASB-Integrationslösung kann dann auf einem Server,<br />
etwa in einer Java VM, zur Verwendung im Projekt bereitgestellt<br />
werden.<br />
Erfahrungen aus der Anwendung des ASB <strong>mit</strong> Software-Werkzeugherstellern<br />
und Fachexperten in der Anlagenplanung<br />
haben folgenden Aufwand ergeben: ein bis<br />
zwei Workshop-Tage für die Analyse der Datenmodelle<br />
für Werkzeugkonnektoren und zu unterstützende Arbeitsabläufe,<br />
einige Personentage für die Umsetzung<br />
eines Werkzeugkonnektors als Java beziehungsweise C#<br />
Klassen anhand des Datenmodells durch Werkzeug- und<br />
ASB-Experten. Werkzeughersteller können unterschiedliche<br />
Versionen von Werkzeugkonnektoren anbieten,<br />
Werkzeugdomänen halten die Auswirkungen von Änderungen<br />
der Werkzeugspezifika auf ASB-Anwendungen<br />
möglichst gering. Die Beschreibung der Transformationsmodelle<br />
ist typischerweise in ein bis zwei Tagen<br />
möglich, allerdings kann Mehraufwand entstehen, falls<br />
Daten in der Organisation bisher inkonsistent verwendet<br />
wurden, was durch die Analyse und den Einsatz der<br />
automatischen Datenabgleiche oft erstmals auffällt.<br />
Die Einbindung bekannter Werkzeuge in etablierte<br />
Standardarbeitsabläufe ist typischerweise in einigen<br />
Personentagen erzielbar. Wesentlicher Aufwand entsteht<br />
durch die Abstimmung und Entwicklung organisationsspezifischer<br />
Arbeitsabläufe, insbesondere gut verständlicher<br />
Anwenderschnittstellen, die je nach Anforderungen<br />
und Umfang typischerweise einige Personenwochen<br />
erfordert. In den ASB-Projekten hat sich eine iterative<br />
Vorgehensweise in Projektphasen über zwei bis drei Monate<br />
bewährt, um nützliche und überschaubare Integrationsschritte<br />
zu setzen.<br />
Mit Bezug zum Aufwand für die Integration ist es wichtig<br />
zu unterscheiden, ob es sich um Initialaufwand oder<br />
um Aufwand für Änderungen der Integrationslösung handelt.<br />
Einen wichtigen Unterschied zu anderen Integrationsansätzen<br />
stellt die explizite Verfügbarkeit von Wissen<br />
über Arbeitsabläufe oder verwendete Software-Werkzeuge<br />
in Form von Ontologien dar, wodurch eine automatisierte<br />
und maschinenverständliche Verwendung dieses<br />
Wissens ermöglicht wird. Der Inititialaufwand anderer<br />
Integrationsansätze ist daher etwas niedriger, da für die<br />
ASB-Integration das explizite Wissen über Arbeitsabläufe<br />
und Software-Werkzeuge zusätzlich modelliert werden<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
41
HAUPTBEITRAG<br />
muss. Dieses externalisierte Wissen macht jedoch Änderungen<br />
der Integrationslösung leichter. Zusätzlich unterstützt<br />
das Konzept der Werkzeugdomänen effektiv die<br />
Stabilität von Arbeitsabläufen, auch bei Änderungen an<br />
Software-Werkzeugen, die lokal in den Konnektoren adressiert<br />
werden können. Einen weiteren Vorteil bietet der<br />
ASB im Bereich von qualitätssichernden Maßnahmen.<br />
Durch die explizite Verfügbarkeit von Wissen über Arbeitsläufe<br />
und Software-Werkzeuge wird die automatisierte<br />
Durchführung von qualitätssichernden Maßnahmen<br />
erleichtert, wodurch die konsistente und plausible<br />
Datenhaltung verbessert wird; zusätzlich können automatisiert<br />
Testfälle abgeleitet werden, um die Integrationslösung<br />
bereits vor der Inbetriebnahme zu testen.<br />
ZUSAMMENFASSUNG UND AUSBLICK<br />
Dieser Beitrag hat den Automation Service Bus (ASB)<br />
vorgestellt, einen offenen herstellerneutralen Ansatz zur<br />
Integration von Software-Werkzeugen. Die Vision des<br />
ASB ist die offene Integration von Daten und Funktionen<br />
aus Software-Werkzeugen, um Abläufe in Engineering-<br />
Projekten systematisch zu automatisieren. Wesentliche<br />
Eigenschaften des ASB sind die herstellerneutrale, offene<br />
Anbindung von Software-Werkzeugen an eine Integrationsplattform.<br />
Diese Plattform beschreibt die Datenmodelle<br />
der anzuschließenden Werkzeuge in expliziter<br />
Form <strong>mit</strong>hilfe von Ontologien, und ermöglicht dadurch<br />
einerseits die effiziente Konfiguration benötigter Modelltransformationen<br />
und andererseits die versionierte Speicherung<br />
von Werkzeugdaten. Gleichzeitig erlaubt der<br />
ASB die werkzeugunabhängige Definition von Arbeitsabläufen,<br />
die auch bei Austausch von konkreten Werkzeugversionen<br />
weitgehend stabil bleiben.<br />
Der ASB-Ansatz ermöglicht, vorhandene Engineering-<br />
Prozesse sichtbar und analysierbar zu machen und diese<br />
Prozesse nach dem Bedarf der Fachexperten zu automatisieren<br />
oder anzupassen. Der ASB-Ansatz wurde<br />
anhand realer Projekterfordernisse von Industriepartnern<br />
aus dem Bereich des industriellen Anlagenbaus<br />
konzipiert, iterativ verbessert und evaluiert. Die Erstellung<br />
von Konnektoren für Software-Werkzeuge durch<br />
die einschlägigen Experten ließ sich je nach Umfang der<br />
anzubindenden Daten und Funktionen in zwei bis zehn<br />
Tagen erledigen. Durch die Integration von Daten und<br />
Funktionen werden neue Funktionen auf Projektebene<br />
ermöglicht, etwa die Navigation zwischen Sichten auf<br />
ein mechatronisches Objekt in den unterschiedlichen<br />
Werkzeugen oder die Datenauswertungen auf Projektebe-<br />
REFERENZEN<br />
[1] Drath, R. und Barth, M.: Concept for interoperability between<br />
independent engineering tools of heterogeneous disciplines.<br />
In: Proceedings Emerging Technologies & Factory Automation<br />
(ETFA 2011), S. 1-8, 2011<br />
[2] Chappell, D.: Enterprise Service Bus - Theory in Practice.<br />
O’Reilly, 2004<br />
[3] Biffl, S. und Schatten, A.: A Platform for Service-Oriented<br />
Integration of Software Engineering Environments. In:<br />
Proceedings SoMeT 09, S. 75–92, 2009<br />
[4] Szyperski, C.: Component Software: Beyond Object-Oriented<br />
Programming. Addison-Wesley, 2002<br />
[5] Papazoglou, M.P. und Heuvel, W.-J.: Service oriented<br />
architectures: approaches, technologies and research<br />
issues. The VLDB Journal 16(3), S. 389 415, 2007<br />
[6] Sunindyo, W., Moser, T., Winkler, D., Mordinyi, R., Biffl, S.:<br />
Workflow Validation Framework in Distributed Engineering<br />
Environments. In: Proceedings 3rd International Workshop<br />
on Information Systems in Distributed Environment (ISDE'11),<br />
S. 1 10, 2011<br />
[7] Winkler, D., Moser, T., Mordinyi, R., Sunindyo, W.D., Biffl, S.:<br />
Engineering Object Change Management Process Observation<br />
in Distributed Automation Systems Projects. In: Proceedings<br />
18th European System & Software Process Improvement<br />
and Innovation, S. 1-12, 2011<br />
[8] Biffl, S., Mordinyi, R., Moser, T.: Automated Derivation of<br />
Configurations for the Integration of Software(+) Engineering<br />
Environments. In: Proceedings 1st International Workshop on<br />
Automated Configuration and Tailoring of Applications<br />
(ACoTA 2010), S. 6 13, 2010<br />
[9] Mordinyi, R., Moser, T., Biffl, S., Dhungana, D.: Flexible<br />
Support for Adaptable Software and Systems Engineering<br />
Processes. In: Proceedings 23rd International Conference on<br />
Software Engineering and Knowledge Engineering (SEKE<br />
2011), S. 1 5, 2011<br />
[10] Moser, T. und Biffl, S.: Semantic Integration of Software and<br />
Systems Engineering Environments. IEEE Transactions on<br />
Systems, Man, and Cybernetics, C-42(1), S. 38 50, 2012<br />
[11] Moser, T., Schimper, K., Mordinyi, R., Anjomshoaa, A.: SAMOA<br />
- A Semi-Automated Ontology Alignment Method for Systems<br />
Integration in Safety-Critical Environments. In: Proceedings<br />
International Conference on Complex, Intelligent and<br />
Software Intensive Systems, S. 724 729, 2009<br />
[12] Waltersdorfer, F., Moser, T., Zoitl, A., Biffl, S.: Version<br />
Management and Conflict Detection Across Heterogeneous<br />
Engineering Data Models. In: Proceedings 8th IEEE International<br />
Conference on Industrial Informatics (INDIN 2010), S.<br />
928 935, 2010<br />
[13] Moser, T., Mordinyi, R., Winkler, D., Biffl, S.: Engineering<br />
Project Management Using The Engineering Cockpit. In:<br />
Proceedings 9th IEEE International Conference on Industrial<br />
Informatics (INDIN'2011), S. 579 584, 2011<br />
[14] Mordinyi, R., Moser, T., Winkler, D., Biffl, S.: Navigating<br />
between Tools in Heterogeneous Automation Systems<br />
Engineering Landscapes. In: Proceedings 38th Annual<br />
Conference of the IEEE Industrial Electronics Society (IECON<br />
2012), S. 6182 6188, 2012<br />
[15] Moser, T., Mordinyi, R., Mikula, A., Biffl, S.: Making Expert<br />
Knowledge Explicit to Facilitate Tool Support for Integrating<br />
42<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
ne über heterogene Datenmodelle aus den verwendeten<br />
Software-Werkzeugen.<br />
Der ASB wurde seit 2010 <strong>mit</strong> Industriepartnern konzipiert<br />
und entwickelt. Aktuell laufen Evaluierungsprojekte<br />
<strong>mit</strong> mehreren Werkzeugpartnern und Anwendern aus dem<br />
Bereich Anlagenbau, deren Ergebnisse zum Teil bereits in<br />
realen Projekten eingesetzt werden. Eine Open-Source-<br />
Variante des ASB, durchläuft den Prozess Richtung Apache-Projekt.<br />
Gemeinsam <strong>mit</strong> dem Unternehmenspartner<br />
Logicals wird der ASB laufend verbessert, um die Konfiguration<br />
und Verwendung nicht nur für Softwareentwickler<br />
<strong>mit</strong> Kenntnis der Modellierungssprachen, sondern<br />
auch für Anwendungsexperten leicht zugänglich zu machen,<br />
und da<strong>mit</strong> die Entwicklungszeiten zu verkürzen.<br />
Die Entwicklung und Anwendung systematischer Ansätze<br />
zur offenen Integration von Daten (etwa AutomationML<br />
[22]) und Funktionen (etwa der Automation Service<br />
Bus) beschleunigen die Innovation von Software-<br />
Werkzeugen für das Engineering. Sie stärken durch<br />
Verbesserungen der Effizienz im Engineering die Wettbewerbsfähigkeit<br />
der europäischen Industrie.<br />
MANUSKRIPTEINGANG<br />
02.04.2012<br />
Im Peer-Review-Verfahren begutachtet<br />
Complex Information Systems in the ATM Domain. In:<br />
Proceedings International Conference on Complex, Intelligent<br />
and Software Intensive Systems(CISIS '09), S. 90 97, 2009<br />
[16] Moser, T., Mordinyi, R., Winkler, D.: Extending Mechatronic<br />
Objects for Automation Systems Engineering in Heterogeneous<br />
Engineering Environments. In: Proceedings 17th<br />
IEEE Conference on Emerging Technologies and Factory<br />
Automation (ETFA), S. 1-8, 2012<br />
[17] Biffl, S., Mordinyi, R., Schatten, A: A Model-Driven<br />
Architecture Approach Using Explicit Stakeholder Quality<br />
Requirement Models for Building Dependable Information<br />
Systems. In: Proceedings 5th International Workshop on<br />
Software Quality, Minneapolis, S. 6, 2007<br />
[18] Biffl, S., Mordinyi, R., Moser, T., Wahyudin, D.: Ontologysupported<br />
quality assurance for component-based<br />
systems configuration. In: Proceedings the 6th international<br />
Workshop on Software Quality (WoSQ), S. 59 64, 2008<br />
[19] Allweyer, T.: BPMN 2.0 Introduction to the Standard for<br />
Business Process Modeling. Books on Demand, 2010<br />
[20] Biffl, S., Mordinyi, R., Moser, T.: Anforderungsanalyse für<br />
das integrierte Engineering Mechanismen und Bedarfe<br />
aus der Praxis, <strong>atp</strong> <strong>edition</strong> – <strong>Automatisierung</strong>stechnische<br />
Praxis 54(5), S. 28 35, 2012<br />
[21] Biffl, S., Moser, T., Mordinyi, R.: Automation Service Bus<br />
löst Software-Problematik, Computer & AUTOMATION<br />
2012(6), S. 41-44, 2012<br />
[22] Drath, R.: Datenaustausch in der Anlagenplanung <strong>mit</strong><br />
AutomationML: Integration von CAEX, PLCopen XML und<br />
COLLADA. Springer, Berlin Heidelberg, 2010<br />
AUTOREN<br />
Ao. Univ. Prof. DI Mag. Dr.<br />
techn. STEFAN BIFFL (geb. 1967)<br />
ist Leiter des Christian Doppler<br />
Forschungslabors „Software<br />
Engineering Integration für<br />
flexible <strong>Automatisierung</strong>ssysteme“<br />
(CDL-Flex) an der Fakultät<br />
für Informatik der Technischen<br />
Universität Wien. Seine Forschungsinteressen<br />
liegen im Bereich der Produktund<br />
Prozessverbesserung für Software-intensive<br />
Systeme sowie der empirischen Evaluierung im<br />
industriellen Umfeld.<br />
Technische Universität Wien,<br />
Favoritenstr. 9-11/188, A-1040, Wien,<br />
Tel. +43 (0) 1 58 80 11 88 10,<br />
E-Mail: stefan.biffl@tuwien.ac.at<br />
DI Mag. Dr. techn. RICHARD<br />
MORDINYI (geb. 1979) ist Postdoc<br />
im Christian Doppler Forschungslabor<br />
„Software Engineering<br />
Integration für flexible <strong>Automatisierung</strong>ssysteme“<br />
(CDL-Flex)<br />
an der Fakultät für Informatik<br />
der Technischen Universität<br />
Wien. Seine Forschungsinteressen<br />
liegen im Bereich der Modell-getriebenen<br />
Konfiguration von Integrationsplattformen, Agiler<br />
Softwarearchitekturen und sicherer Koordinationsstrategien<br />
in komplexen verteilten Systemen.<br />
Technische Universität Wien,<br />
Favoritenstr. 9-11/188, A-1040, Wien,<br />
Tel. +43 (0) 1 588 01 18 80 51,<br />
E-Mail: richard.mordinyi@tuwien.ac.at<br />
Mag. Dr. rer. soc. oec. THOMAS<br />
MOSER (geb. 1981) ist Postdoc<br />
im Christian Doppler Forschungslabor<br />
„Software<br />
Engineering Integration für<br />
flexible <strong>Automatisierung</strong>ssysteme“<br />
(CDL-Flex) an der Fakultät<br />
für Informatik der Technischen<br />
Universität Wien. Seine Forschungsinteressen<br />
liegen im Bereich der Datenmodellierung<br />
und Datenintegration für Softwareintensive<br />
Systeme sowie im Bereich Semantic Web.<br />
Institut für Softwaretechnik und interaktive Systeme,<br />
Technische Universität Wien,<br />
Favoritenstr. 9-11/188, A-1040 Wien,<br />
Tel. +43 (0) 1 588 01 18 80 51,<br />
E-Mail: thomas.moser@tuwien.ac.at<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
43
HAUPTBEITRAG<br />
Feldgeräte und semantische<br />
Informationsmodelle<br />
Plug-and-play-Integration und dynamische Orchestrierung<br />
Programmierung und Rekonfiguration von Anlagensteuerungen sind <strong>mit</strong> sehr vielen manuellen<br />
Tätigkeiten verbunden und daher zeitaufwendig und fehleranfällig. Konkrete<br />
semantische Informationsmodelle und Middlewareparadigmen schaffen Abhilfe. Sie sind<br />
daher die Basis für automatisierte Vorgänge wie beispielsweise bei der Feldgeräteintegration<br />
oder der dynamischen Anpassung von Produktionsprozessen zur Laufzeit. Dieser<br />
Beitrag erläutert Arten der Wissensrepräsentation, diskutiert existierende Wissensquellen<br />
zum Aufbau von konkreten Informationsmodellen und weist Nutzenpotenziale auf.<br />
SCHLAGWÖRTER Feldgeräteprofil / Plug-and-play / Dynamische Orchestrierung /<br />
Informationsmodell<br />
Semantic information models for field device control –<br />
Plug-and-play integration and dynamic orchestration<br />
Programming and reconfiguration of control systems are combined with many manual<br />
operations and therefore timeconsuming and error prone. Specific semantic information<br />
models and middleware paradigms remedy and are the basis for automated procedures<br />
at field device integration or the dynamic adaption of production processes at runtime.<br />
This treatise explains different kinds of knowledge representation, discusses existing<br />
knowledge sources for the setup of specific information models and presents potential<br />
benefits.<br />
KEYWORDS field device profile / plug&play / dynamic orchestration / information model<br />
44<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
STEFAN HODEK, MATTHIAS LOSKYLL, JOCHEN SCHLICK,<br />
Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI)<br />
Heutige Produktionsanlagen bestehen aus einer<br />
Vielzahl unterschiedlicher Feldgeräte. Die Intelligenz<br />
der Feldgeräte erlaubt dezentrale und<br />
verteilte Steuerungskonzepte, was eine Interaktion<br />
zwischen Feldgeräten und Steuerungen<br />
über industrielle Kommunikationssysteme voraussetzt.<br />
Kernproblem bei der Realisierung ist die Integration der<br />
unterschiedlichen Feldgeräte zu einem Gesamtsystem.<br />
Zentraler Aspekt: die Feldgeräteansteuerung durch verschiedene<br />
Systeme. Beispiele für solche Systeme sind<br />
SPSen, Qualitätsleitrechner, Betriebsdatenerfassung,<br />
Auftragsverwaltung oder Liniensteuerung. Die Ansteuerung<br />
von Feldgeräten setzt bei der Systemintegration<br />
detaillierte Kenntnisse des Ingenieurs über die aktivierbaren<br />
Funktionalitäten voraus. Diese Kenntnisse bilden<br />
die Basis für das Programmieren von Steuerungen sowie<br />
für den elektronischen Datenaustausch und da<strong>mit</strong> für<br />
die horizontale und vertikale Integration.<br />
Die Aktivierung dieser Funktionen erfolgt meist<br />
durch Steuer- und Statuswörter, die <strong>mit</strong>hilfe von industriellen<br />
Kommunikationssystemen übertragen werden.<br />
Die Bedeutung der Wörter ist in der Dokumentation in<br />
Fließtext und Tabellen beschrieben und wird durch den<br />
Systementwickler nachgeschlagen und in Form von<br />
Programmcodes in die Steuerung implementiert. Die<br />
zu übertragenden Nutzdaten müssen daher manuell<br />
und explizit eingerichtet werden, was zu einem hohen<br />
Arbeitsaufwand führt. Die Qualität der Dokumentation<br />
und die Erfahrung des Ingenieurs sind maßgebend für<br />
den zeitlichen Arbeitsaufwand bei der Feldgeräteintegration.<br />
Die Integrationsphase ist da<strong>mit</strong> schwer abzuschätzen<br />
und eines der wesentlichen Hemmnisse für<br />
wandelbare Fabriken.<br />
Die Plug-and-play-Feldgeräteintegration intendiert<br />
die automatische Erkennung, Konfiguration und Integration<br />
von Feldgeräten in die Steuerungsprogramme<br />
von <strong>Automatisierung</strong>ssystemen während der Betriebsphase<br />
[1]. Neu angeschlossene Peripheriegeräte und<br />
deren Basisfunktionalitäten lassen sich ohne manuelle<br />
Arbeitsschritte nach dem elektromechanischen Einbringen<br />
sofort nutzen. Der Integrationsaufwand wird<br />
folglich auf nahezu Null reduziert. Die dynamische<br />
Orchestrierung [2] bildet eine konzeptionelle Weiterentwicklung<br />
des Plug-and-play-Gedankens und geht<br />
davon aus, dass abstrakt beschriebene Programmabläufe<br />
erst un<strong>mit</strong>telbar vor ihrer Ausführung, das heißt<br />
in der Lebenszyklusphase des produktiven Betriebs,<br />
auf die in der Anlage verfügbaren Geräte abgebildet<br />
werden. Der zur Fertigung eines bestimmten Produkts<br />
beziehungsweise einer Produktvariante benötigte konkrete<br />
(ausführbare) Prozessablauf wird also ad hoc gebildet,<br />
beispielweise in dem Moment, in dem ein Rohprodukt<br />
in die Anlage eingebracht wird. Da<strong>mit</strong> ein<br />
solches Plug-and-play und eine dynamische Orchestrierung<br />
realisierbar sind, muss der Datenaustausch auf<br />
einer semantisch beschriebenen Ebene beruhen [3].<br />
Grundvoraussetzung ist es, ein explizites semantisches<br />
Informationsmodell zur Beschreibung der Datensemantik<br />
zu verwenden.<br />
In diesem Beitrag werden drei Aspekte zur Charakterisierung<br />
von Informationsmodellen unterschieden –<br />
Grundkonzepte der Modellierung, Arten der Wissensrepräsentation<br />
und konkrete Instanzen von Informationsmodellen<br />
(siehe Bild 1). Modellierungsprinzipien oder<br />
Grundkonzepte sind Hierarchie, Aggregation, Variablen,<br />
Funktionen, Referenzierung, Klassen, Methoden, Vererbung<br />
und Datentypen [4]. Da der Zusammenhang zwischen<br />
Informationsmodellen und Modellierungsprinzipien<br />
<strong>mit</strong> Bezug zu existierenden Standards bereits in der<br />
genannten Veröffentlichung untersucht wurde, werden<br />
diese hier nicht weiter behandelt. Abschnitt 1 erläutert<br />
stattdessen verschiedene Arten der Wissensrepräsentation,<br />
welche unterschiedliche Grundkonzepte der Modellierung<br />
benutzen, und legt da<strong>mit</strong> einen Grundstein<br />
zur Bewertung existierender Standards und zur Weiterentwicklung<br />
von Programmierweisen bei <strong>Automatisierung</strong>ssystemen.<br />
Weiterhin liefern die Autoren einen Überblick und<br />
eine Bewertung bestehender Standards zur Beschreibung<br />
von Feldgerätefunktionalitäten (Abschnitt 2). Ziel<br />
ist es, die Erstellung von Instanzen bei der Modellierung<br />
von <strong>Automatisierung</strong>ssystemen durch Wiederver-<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
45
HAUPTBEITRAG<br />
GLOSSAR<br />
wendung exsistierender Standards zu erleichtern. Einsatzmöglichkeiten<br />
und Mehrwerte solcher Instanzen<br />
(explizite semantische Informationsmodelle) werden<br />
anhand der Plug-and-play-Feldgeräteintegration und<br />
der dynamischen Orchestrierung beschrieben (Abschnitt<br />
3). Erst diese einheitliche Abbildung des Datenund<br />
Informationsraums in Kombination <strong>mit</strong> einer Abstraktion<br />
der Kommunikation in Form einer Middleware<br />
[5] ermöglicht die postulierte Reduzierung des<br />
Engineeringaufwands, wie es die zwei genannten Anwendungen<br />
darstellen.<br />
1. ARTEN DER EXPLIZITEN WISSENSREPRÄSENTATION<br />
Konkrete semantische Informationsmodelle beschreiben<br />
explizites Wissen, wie beispielsweise konkrete Feldgerätefunktionalitäten,<br />
und werden <strong>mit</strong>tels einer ausgewählten<br />
Art der expliziten Wissensrepräsentation modelliert.<br />
Semantische Informationsmodelle machen es<br />
möglich, Daten formal zu beschreiben und so<strong>mit</strong> eine<br />
semantische Verarbeitung dieser Daten durch Maschinen<br />
zu gewährleisten, das heißt die Interpretation elektronisch<br />
gespeicherter Informationen hinsichtlich ihrer<br />
Inhalte und Bedeutung, zu gewährleisten. Der Bereich<br />
der expliziten Wissensrepräsentation umfasst die Modellierung<br />
des Wissens und die Definition formaler Logiken,<br />
welche Regeln bereitstellen, um Schlüsse über die<br />
modellierte Wissensbasis ziehen zu können. Die explizite<br />
Definition der Semantik komplexer Wissenszusammenhänge<br />
ermöglicht die eindeutige Interpretation der<br />
Bedeutung von Information durch Maschinen. Hierdurch<br />
lassen sich Inkonsistenzen und Widersprüche<br />
automatisiert erkennen. Des Weiteren bilden semantische<br />
Technologien die Grundlage für einen strukturierten<br />
Informationsaustausch zwischen heterogenen Systemen<br />
(semantische Interoperabilität). Der entscheidende<br />
Mehrwert semantischer Technologien besteht in der<br />
Möglichkeit, automatisiert Schlussfolgerungen (logische<br />
Konsequenzen) ziehen und aus explizit modelliertem<br />
Wissen neues implizites Wissen ableiten zu können.<br />
Es existieren verschiedene Konzepte zur expliziten<br />
Wissensrepräsentation, die sich in ihrer Ausdrucksstärke<br />
und semantischen Mächtigkeit unterscheiden [6], siehe<br />
Infokasten.<br />
Glossar: eine einfache Auflistung von Begriffen und deren Erklärung.<br />
Taxonomie: eine hierarchische, strukturierte Auflistung von Begriffen ohne<br />
komplexe Beziehungen zwischen diesen.<br />
Thesaurus: ähnlich der Taxonomie, erweitert um Relationen, die Ähnlichkeiten<br />
und Synonyme beschreiben.<br />
Topic Map: erweitert Thesauri um objektorientierte Prinzipien (Unterteilung<br />
in Klassen und Instanzen) und beliebige Relationstypen (zum Beispiel:<br />
istTeilVon oder nutztInterface).<br />
Ontologie: erweitert zuvor genannte Repräsentationsarten um logische<br />
Regeln, um ein komplexes Wissensnetzwerk zu bilden und automatisches<br />
Reasoning zu ermöglichen.<br />
Die semantisch reichhaltigste Form der expliziten Wissensrepräsentation<br />
stellen Ontologien dar. Als Ontologie<br />
wird eine explizite formale Spezifikation einer gemeinsamen<br />
Konzeptualisierung bezeichnet [7]. Das bedeutet,<br />
dass Ontologien einen bestimmten Wissensbereich <strong>mit</strong>hilfe<br />
einer standardisierten Terminologie sowie Beziehungen<br />
und Ableitungsregeln zwischen den dort definierten<br />
Begriffen beschreiben.<br />
Im Laufe der letzten Jahre wurden diverse standardisierte<br />
Beschreibungssprachen zur Abbildung semantischer<br />
Informationsmodelle entwickelt. Dabei hat sich die<br />
Web Ontology Language (OWL) als die durch das W3C<br />
empfohlene Ontologie-Beschreibungssprache durchgesetzt.<br />
OWL basiert auf RDF (Resource Description Framework)<br />
und auf einer Beschreibungslogik, die eine Untermenge<br />
der Prädikatenlogik erster Stufe darstellt. Jedes in<br />
OWL modellierte Objekt (Klasse, Instanz, Relation) wird<br />
<strong>mit</strong>tels eines Uniform Resource Identifiers der Ontologie<br />
und des entsprechenden Objektnamens identifiziert. Ein<br />
großer Vorteil von OWL ist die Möglichkeit, <strong>mit</strong>hilfe von<br />
Reasoning-Systemen Schlussfolgerungen auf Basis der<br />
Ontologie ziehen zu können. Diese erlauben beispielsweise<br />
die automatische Prüfung der Systeminteroperabilität<br />
sowie den Abgleich zwischen benötigten und angebotenen<br />
Feldgerätefunktionalitäten (Abschnitt 3).<br />
2. BESCHREIBUNG VON GERÄTEN UND FUNKTIONEN<br />
2.1 Typisierung von Standards<br />
Spezifische Informationen über die <strong>Automatisierung</strong>stechnik<br />
sind in unterschiedlichsten Standards hinterlegt. Beispiele<br />
dafür: Prozessbeschreibungen, Produktbeschreibungen,<br />
Klassifizierungssysteme, Merkmalleisten, Kommunikationsprotokolle,<br />
Gerätebeschreibungen und Feldgeräteprofile<br />
(siehe Bild 2). Im Folgenden werden diese<br />
erläutert und hinsichtlich ihres Informationsgehaltes über<br />
Feldgerätefunktionalitäten zur Wiederverwendung beim<br />
Erstellen von Modellinstanzen argumentativ bewertet.<br />
Die Prozessbeschreibungen in der VDI 2411 (Förderwesen)<br />
oder VDI 2860 (Handhabungstechnik) definieren Elementarfunktionen<br />
und Prozessschritte. Zur Realisierung<br />
dieser Elementarfunktionen ist oft ein Zusammenspiel<br />
mehrerer Feldgeräte notwendig. Diese Art von Standards<br />
eignet sich daher zur Beschreibung der Fähigkeiten komplexer<br />
mechatronischer Einheiten. Basisfunktionalitäten<br />
einzelner Feldgeräte lassen sich da<strong>mit</strong> nicht erklären.<br />
STEP (STandard for the Exchange of Product model<br />
data, ISO-Norm 10303) ist ein Standard zur Beschreibung<br />
von Produktdaten, der neben den physischen auch funktionale<br />
Aspekte eines Produktes erläutert. Sogenannte<br />
Anwendungsprotokolle (Application Protocols) geben<br />
die oberste Gliederung vor und decken unterschiedliche<br />
Industriezweige ab. Der Fokus von STEP liegt auf der<br />
Beschreibung von Dimensionen, mechanischen Eigenschaften,<br />
elektrischen Anschlüssen und Strukturen.<br />
Über Kommunikationsnetzwerke aufrufbare Funktionen<br />
sind darin nicht für einzelne Feldgeräteklassen in ausreichendem<br />
Maße beschrieben.<br />
Klassifizierungssysteme, wie ecl@ss und Unspsc für<br />
Produkte oder ETIM und IEC 61360-4 für elektrische<br />
46<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
Grundkonzepte der Modellierung<br />
Prozessbeschreibungen<br />
• Begriffe im Förderwesen (VDI 2411) und Handhabungstechnik (VDI 2860)<br />
Produktbeschreibungen<br />
• STEP (ISO 10303)<br />
Arten der Wissensrepräsentation<br />
Klassifizierungssysteme<br />
• eCl@ss, UNSPSC, ETIM, ICS, IEC 61360-4<br />
Merkmalleisten<br />
• Prolist (NE 100), Elektrische Komponenten (IEC 61360-4)<br />
Konkrete Instanzen von Informationsmodellen<br />
Kommunikationsprotokolle<br />
• Industrielle Kommunikationsnetze (DIN IEC61784-1), Manufacturing Message<br />
Specification (ISO 9506), Feldbusanwendungsprofile (DIN IEC 61158-500 u.600)<br />
Go<br />
6000<br />
3000<br />
10<br />
FB_MoveAbsolute<br />
Execute Done<br />
Position Active<br />
Velocity ErrorID<br />
Acceleration<br />
Finish<br />
Gerätebeschreibungssprachen<br />
• GSD, EDD, FDT/DTM, FDI, EDS, FDCML, XIF<br />
Feldgeräteprofile<br />
• Siehe Bild 3<br />
BILD 1: Aspekte zur Charakterisierung<br />
von Infomationsmodellen<br />
BILD 2: Übersicht zu Typen von Standards<br />
<strong>mit</strong> Beispielen<br />
Produkte, sind planmäßige Sammlungen von abstrakten<br />
Typen oder Kategorien, die zur Abgrenzung und Ordnung<br />
verwendet werden. Objekte werden anhand von<br />
Merkmalen einzelnen Kategorien zugeordnet und dadurch<br />
hierarchisiert. Zu den Typen gehörende Funktionen<br />
oder Methoden sind nicht standardisiert. Bei den in<br />
dieser Abhandlung dargestellten Anwendungen (siehe<br />
Abschnitt 3) unterstützen sie daher lediglich die Einteilung<br />
von Feldgeräten im Vorfeld der Modellierung, jedoch<br />
nicht den Aufbau aufrufbarer Schnittstellen.<br />
Merkmalleisten weisen eine große Ähnlichkeit zu<br />
Klassifizierungssystemen auf, jedoch steht bei ihnen<br />
nicht die Klassifizierung von Produktspektren, sondern<br />
die Standardisierung von Produktmerkmalen im Vordergrund.<br />
Prolist (Namur-Empfehlung NE 100) stellt eine<br />
solche Merkmalleiste für Produkte und Systeme aus dem<br />
Bereich der Prozessleittechnik (Elektro- und MSR-Technik)<br />
dar. Die Merkmale umfassen keine Beschreibung<br />
der aufrufbaren Feldgerätefunktionen.<br />
Kommunikationsprotokolle, auch Kommunikationsprofile<br />
oder Feldbusprofile genannt, sind Vereinbarungen,<br />
nach denen die Datenübertragung zwischen zwei<br />
oder mehreren Parteien abläuft. Diese beschreiben nicht<br />
die anwendungsbezogenen Fähigkeiten der Kommunikationspartner,<br />
sondern deren Fähigkeiten zur Kommunikation.<br />
Beispiele sind DIN IEC 61158-500&600 (Feldbusanwendungsprofile),<br />
DIN IEC 61784-1 (Industrielle<br />
Kommunikationsnetze – Feldbusprofile) oder ISO 9506<br />
(Manufacturing Message Specification).<br />
Gerätebeschreibungen (beispielsweise GSD, EDD, EDS,<br />
FDCML, XIF) und Integrationskonzepte (FDT/DTM, FDI)<br />
machen Informationen und Funktionen von Feldgeräten<br />
zugänglich und erlauben so<strong>mit</strong> das Bedienen, Ansteuern<br />
und Parametrieren von Feldgeräten über ein Kommunikationssystem.<br />
Feldgeräteparameter und -funktionen<br />
sind zwar in einer formalen Sprache beschrieben, jedoch<br />
herstellerindividuell festgelegt. Anwendungsbezogene<br />
Semantik ist daher nicht standardisiert.<br />
Zusammenfassung: Die Typisierung und Bewertung<br />
unterschiedlichster Standards hinsichtlich ihrer Eignung<br />
als Wissensquellen zum Aufbau von semantischen<br />
Informationsmodellen für die Plug-and-play-Feldgeräteintegration<br />
und die dynamische Orchestrierung hat<br />
ergeben, dass bestehende Richtlinien (beispielsweise<br />
die VDI 2411 und VDI 2860) Elementarfunktionen von<br />
komplexen mechatronischen Einheiten vorgeben können.<br />
Die Fähigkeiten einzelner Feldgeräte sind zwar<br />
computerlesbar in Gerätebeschreibungssprachen enthalten,<br />
jedoch ist die Semantik der Feldgerätefunktionen<br />
nicht geräteklassenübergreifend standardisiert. Klassifizierungssysteme<br />
und Merkmalleisten stellen dagegen<br />
eine wichtige Grundlage zur Einordnung und Abgrenzung<br />
im Vorfeld der Modellierung dar. Kommunikationsprotokolle<br />
und Produktbeschreibungen liefern den<br />
für die hier definierte Zielsetzung geringsten wiederverwendbaren<br />
Informationsgehalt.<br />
2.2 Feldgeräteprofile als Basis für Instanzen<br />
Aufgrund der fehlenden Anwendungssemantik eignen<br />
sich die zuvor genannten Standards nur eingeschränkt<br />
für den Aufbau konkreter semantischer Informationsmodelle<br />
zur Beschreibung der Feldgeräteansteuerung.<br />
Eine weiterführende Analyse hat ergeben, dass die benötigte<br />
Information primär in Feldgeräteprofilen enthal-<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
47
HAUPTBEITRAG<br />
ten ist. Beispiele für Feldgeräteprofile und deren zugehörige<br />
Anwendungsgebiete zeigt Tabelle 1.<br />
Zu unterscheiden sind Sammlungen von Feldgeräteprofilen<br />
(beispielsweise CiA device profile, CIP oder spezielle<br />
Applikationsprofile der PNO), die für spezielle<br />
Kommunikationssysteme definiert sind und solche für<br />
einzelne Gerätetypen. Zur Verdeutlichung des in Feldgeräteprofilen<br />
enthaltenen Wissens werden einige Antriebsprofile<br />
nachfolgend vorgestellt:<br />
Das CiA 402 drives and motion control device profile<br />
beschreibt auf 274 Seiten allgemeine Definitionen, Betriebszustände,<br />
Anwendungsdaten, Operation Modes zur<br />
Abbildung verschiedener Betriebsarten sowie anwendungsunabhängige<br />
Parameter (Metadaten) wie Motortyp,<br />
Katalognummer, Hersteller und Fehlercodes.<br />
Das CIP Volume 1 enthält auf zwölf der insgesamt 1494<br />
Seiten ein Profil für AC- und DC-Antriebe, welches optionale<br />
und vorgeschriebene Objekte von Antrieben vorgibt,<br />
zugehörige Parameter festlegt und auf Wertebereiche<br />
referenziert.<br />
Das Profidrive-Profil der PNO (Zeile drei in Tabelle 1)<br />
definiert auf 287 Seiten Betriebsmodi, Gerätezustände,<br />
Datentypen, funktionale Objekte, Anwendungsszenarien,<br />
Kommunikationsbeziehungen, Kommunikationsdienste<br />
sowie Abbildungsvorschriften der Kommunikationssysteme<br />
Profibus und Profinet.<br />
PLCopen Motion Control definiert auf 141 Seiten Funktionsblöcke<br />
für die Antriebssteuerung. Ein Zustandsdiagramm<br />
erklärt, in welchem Zustand welche Funktionen<br />
möglich sind.<br />
Zusammenfassende Bewertung: Kerninhalt von Feldgeräteprofilen<br />
ist die Definition von Parametern, Funktionen<br />
und Verhalten von Feldgeräteklassen. Dabei sind jedoch<br />
erhebliche Unterschiede in Bezug auf die zugrunde liegenden<br />
Modellierungskonzepte, die Art der Wissensrepräsentation<br />
sowie den Grad und Umfang der standardisierten<br />
Inhalte die Regel. Die Art der Wissensrepräsentation bei<br />
Feldgeräteprofilen folgt meist dem Steuer-/Statuswort-Paradigma,<br />
das heißt, unterschiedliche Funktionen werden<br />
auf Bitstreams abgebildet. Ein direktes und intuitives Ablesen<br />
von Funktionen oder Parametern aus dem Profil wird<br />
dadurch erschwert. Zur Reduzierung des Engineeringaufwands<br />
ist die Anhebung der Abstraktionsebene auf eine<br />
funktionsorientierte, taxonomieähnliche Wissensrepräsentation<br />
notwendig. Durch Abbildung der Beziehungen zwischen<br />
den einzelnen Funktionen und Parametern, beispielsweise<br />
<strong>mit</strong>hilfe von Ontologien, kann darüber hinaus<br />
die Semantik der Daten dem Computer verständlich gemacht<br />
werden, was so<strong>mit</strong> neue Wege des computergestützten<br />
Engineerings eröffnet. Trotz ihrer Unterschiede enthalten<br />
Feldgeräteprofile einen hohen Anteil anwendungsbezogener<br />
Semantik, wodurch die Basis für Anwendungsfälle<br />
wie die Plug-and-play-Feldgeräteintegration oder die<br />
dynamische Prozessorchestrierung vorhanden ist.<br />
2.3 Ontologiebasierte Informationsmodelle<br />
Neben der Möglichkeit, bestehende Standards zur Erstellung<br />
konkreter Instanzen von semantischen Informationsmodellen<br />
zu nutzen, bietet sich die Wiederverwendung<br />
existierender Ontologien an. Trotz des steigenden Interesses<br />
an der semantischen Modellierung im Bereich der <strong>Automatisierung</strong>stechnik,<br />
siehe [8] und [9], existieren nur<br />
wenige wiederverwendbare und frei verfügbare Ontologien.<br />
Dieses Defizit ist insbesondere auf die aufwendige und<br />
komplexe Modellierung von Ontologien zurückzuführen.<br />
Neben der fehlenden Unterstützung durch intuitive Modellierungswerkzeuge,<br />
die auch von Nicht-Experten genutzt<br />
werden können, mangelt es insbesondere an Möglichkeiten<br />
zur effizienten Wissensakquisition. Diese umfasst<br />
die Identifizierung geeigneter Wissensquellen sowie<br />
die Extraktion des enthaltenen Wissens als Grundlage zur<br />
Erstellung semantischer Informationsmodelle. Der in diesem<br />
Beitrag verfolgte Lösungsansatz besteht in der Nutzung<br />
existierender Standards (Abschnitt 2.1), um einerseits<br />
den Wissensakquisitionsprozess effizienter zu gestalten<br />
und andererseits eine breite Akzeptanz der erstellten<br />
Informationsmodelle zu erreichen.<br />
Bei der Untersuchung existierender wiederverwendbarer<br />
Ontologien wird deutlich, dass es sich dabei meist<br />
um Ontologien handelt, die domänenunabhängiges Allgemeinwissen<br />
definieren (zum Beispiel Sumo, Cyc). Mit<br />
Mason, Adacor und Avilus existieren jedoch auch produktionsspezifische<br />
Ontologien, die grundlegende Terminologien<br />
und Begriffszusammenhänge darstellen,<br />
beispielsweise über Produkte, Produktions<strong>mit</strong>tel und<br />
Funktionen. Diese Ontologien bilden durch die Festlegung<br />
einer anwendungsübergreifenden Terminologie<br />
eine wichtige Grundlage, um eine semantische Interoperabilität<br />
zwischen heterogenen Systemen zu gewährleisten.<br />
Es mangelt jedoch weiterhin an konkreten, formal<br />
definierten Domänenontologien zur Abbildung<br />
verschiedener Terminologien von Feldgerätefunktionalitäten<br />
wie sie sich beispielsweise aus Feldgeräteprofilen<br />
und Richtlinien extrahieren lassen.<br />
3. ANWENDUNGSFÄLLE<br />
3.1 Plug-and-play-Feldgeräteintegration<br />
Die Inbetriebnahme und Integration von Feldgeräten<br />
lässt sich in den mechanischen Einbau inklusive Verkabelung<br />
(I), die Einzelinbetriebnahme der Feldgeräte (II),<br />
die Konfiguration der Kommunikationsverbindung (III),<br />
die Programmierung der SPS (IV) und den Test des Gesamtprogramms<br />
(V) gliedern. Durch die Plug-and-play-<br />
Feldgeräteintegration lassen sich die Schritte II und III<br />
sowie große Teile des Schrittes IV automatisieren. Dazu<br />
sind abstrakte Programmierschnittstellen, selbstkonfigurierende<br />
Kommunikationssysteme sowie laufzeitadaptierbare<br />
SPS-Programme nötig. Abstrakte Programmierschnittstellen<br />
stellen aufrufbare Funktionen für<br />
einzelne Feldgeräteklassen zur Verfügung. Dadurch<br />
muss das später zu verwendende Feldgerät zum Zeitpunkt<br />
der Programmentwicklung nicht bekannt sein.<br />
Ein Gerätetausch zur Betriebszeit erfordert darüber hinaus<br />
eine um spezielle Softwaremodule erweiterte SPS.<br />
Neben einem Gerätemanager, der unter anderem die<br />
Konfigurationssätze aller benötigten Feldgeräte vorhält,<br />
muss das den Produktionsprozess beschreibende SPS-<br />
Programm auf Basis abstrakt definierter Programmierschnittstellen<br />
erstellt sein. Letztere sind ein Beispiel für<br />
48<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
konkrete semantische Informationsmodelle. Bei bekannter<br />
Geräteposition kann eine SPS dadurch einen<br />
Abgleich zwischen der weggefallenen und der neu hinzugefügten<br />
Gerätefunktionalität vornehmen und so ein<br />
Ersatzgerät automatisch einbinden. Weitere Details eines<br />
ersten Konzeptdemonstrators können [1] entnommen<br />
werden. Dieser ist Teil der Versuchsanlage der<br />
Technologie-Initiative Smartfactory kl e.V. (Bild 3).<br />
3.2 Dynamische Orchestrierung von Produktionsprozessen<br />
Der Ansatz der dynamischen Orchestrierung baut auf<br />
Ideen zur digitalen Veredelung von Anlagenkomponenten<br />
auf, bei der die mechatronischen Funktionalitäten<br />
von Feldgeräten einer Anlage, beispielsweise dem Paradigma<br />
der Serviceorientierung folgend, zusammen<br />
<strong>mit</strong> der ausführenden Hardware gekapselt werden. Eine<br />
Implementierung dieses Ansatzes erfolgt oft <strong>mit</strong>hilfe<br />
von Webservices, also über Internetprotokolle aufrufbare,<br />
abgeschlossene Anwendungen, deren Schnittstellen<br />
<strong>mit</strong> standardisierten Beschreibungssprachen definiert<br />
werden. Die so<strong>mit</strong> durch Webservices bereitgestellten<br />
Funktionalitäten von Feldgeräten lassen sich<br />
zu höherwertigen Prozessen kombinieren und zur Anlagensteuerung<br />
nutzen.<br />
Eine dynamische Orchestrierung ist auf Basis heutiger<br />
Standardtechnologien (zum Beispiel WSDL, BPEL) jedoch<br />
kaum möglich, da diese auf syntaktischer Ebene arbeiten.<br />
Die Bedeutung der hinter einer Webservice-Definition<br />
Name Anwendungsgebiet Ersteller Implementierung<br />
CiA device profile<br />
Diverse Geräte der<br />
<strong>Automatisierung</strong>stechnik<br />
CAN in Automation<br />
CAN, Canopen,<br />
Ethercat, Powerlink<br />
Common Industrial<br />
Protocol<br />
Diverse Geräte der<br />
<strong>Automatisierung</strong>stechnik<br />
Open DeviceNet Vendor<br />
Association (ODVA)<br />
Componet, Controlnet,<br />
Devicenet, Ethernet/IP<br />
Spezifische<br />
Applikationsprofile<br />
Diverse Geräte der<br />
<strong>Automatisierung</strong>stechnik<br />
Profibus Profinet Nutzerorganisation<br />
(PNO)<br />
Profibus, Profinet<br />
Controller-to-<br />
Controller Profile<br />
DIN EN 61800-7-1/-20x/<br />
-30x: Antriebsprofile<br />
Antriebe Sercos international e.V. Ethercat, Sercos<br />
Antriebe<br />
Deutsches Institut für Normung<br />
CiA, CIP, Profidrive,<br />
Sercos<br />
DriveCom Profile Antriebe DriveCom User Group e.V. Interbus<br />
PLCopen Motion Control<br />
Function Blocks<br />
Antriebe PLCopen organization in SPSen<br />
OPC UA ADI (Analyzer<br />
Device Interface)<br />
Mess- & Analysegeräte der<br />
Verfahrenstechnik<br />
OPC Foundation<br />
OPC UA<br />
PackML: Packaging<br />
Machine Language V3.0<br />
Verpackungsmaschinen<br />
Organization for Machine Automation<br />
and Control (OMAC)<br />
continuous flow process<br />
colored soap production<br />
discret handling process<br />
bottling, handling, labeling, QC, packaging...<br />
TABELLE 1: Auswahl von<br />
Feldgeräteprofilen in der<br />
<strong>Automatisierung</strong>stechnik<br />
BILD 3:<br />
Die Versuchsanlage<br />
Smart Factory<br />
Kaiserslautern<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
49
HAUPTBEITRAG<br />
BILD 4:<br />
Ausschnitt einer Ontologie<br />
zur Beschreibung von<br />
Feldgerätefunktionalitäten<br />
liegenden Funktionalität wird durch Maschinen also<br />
nicht verstanden. Durch die semantische Annotation von<br />
Webservices kann die zur Verfügung gestellte Funktionalität<br />
in einer maschinenverständlichen Art und Weise<br />
beschrieben werden, wodurch beispielsweise Webservices<br />
<strong>mit</strong> gleicher oder ähnlicher syntaktischer Beschreibung<br />
hinsichtlich der Semantik ihrer Schnittstellen- und<br />
Funktionsbeschreibungen unterschieden werden können.<br />
Des Weiteren wird es möglich, <strong>mit</strong>tels Reasoning-<br />
Prozessen, basierend auf der semantischen Beschreibung,<br />
einen automatischen Abgleich und eine entsprechende<br />
Selektion geeigneter Funktionalitäten umzusetzen.<br />
Grundgedanke des realisierten Anwendungsfalls ist<br />
die Orchestrierung von Produktionsprozessen ausgehend<br />
von einer abstrakten Prozess- und Produktbeschreibung<br />
abhängig vom konkreten Aufbau der Produktionsanlage<br />
und der von den Feldgeräten angebotenen Funktionalitäten.<br />
Zudem können Produktionsprozesse dynamisch sogar<br />
zur Laufzeit an vorkommende Ereignisse (zum Beispiel<br />
Ausfall eines Feldgeräts) angepasst werden, indem<br />
ähnliche Funktionalitäten anderer Feldgeräte gefunden<br />
und in den Prozess eingebunden werden.<br />
Der beschriebene Anwendungsfall einer dynamischen<br />
Orchestrierung entstand im Rahmen der Smart Factory<br />
Kaiserslautern. Dazu wurden verschiedene Feldgeräte der<br />
Anlage <strong>mit</strong> Mikrokontrollern ausgestattet, über die die<br />
Funktionalitäten der Feldgeräte als Webservices im Netzwerk<br />
der Anlage angeboten und durch ein Orchestrierungsprogramm<br />
von einem zentralen PC aufgerufen werden<br />
[10]. Das Orchestrierungsprogramm er<strong>mit</strong>telt, ausgehend<br />
von der abstrakten Prozessbeschreibung des zu<br />
fertigenden Produkts, welche Webservices in der vorliegenden<br />
Anlage aktuell verfügbar sind und wie diese orchestriert<br />
werden müssen, um den gewünschten Prozess<br />
zu realisieren. Dabei findet ein semantischer Abgleich der<br />
benötigten und vorhandenen Funktionalitäten statt. Die<br />
semantische Beschreibung der Webservices erfolgt durch<br />
Annotation <strong>mit</strong> den Konzepten verschiedener OWL-Ontologien,<br />
die beispielsweise Feldgerätefunktionalitäten,<br />
Geräteklassen sowie Anlagenstrukturen beinhalten.<br />
Bild 4 zeigt einen Ausschnitt einer Ontologie zur semantischen<br />
Beschreibung von Feldgerätefunktionalitäten.<br />
Neben den zur Annotation genutzten Instanzen von Funktionalitäten<br />
(zum Beispiel Write, Hold) werden aktuell im<br />
System vorhandene Webservices durch Instanzen repräsentiert<br />
(zum Beispiel Camera_Keyence_CA900011).<br />
REFERENZEN<br />
[1] Hodek, S. und Schlick, S.: Plug&Play Feldgeräteintegration<br />
– Methoden, Softwarekonzepte und technische Realisierungsformen<br />
für eine ad hoc Feldgeräteintegration. In:<br />
Tagungsband Automation, S. 63-66, VDI, 2012<br />
[2] Loskyll, M., Heck, I., Schlick, J., Schwarz, M.: Contextbased<br />
Orchestration for Control of Resource-efficient<br />
Manufacturing Processes. Future Internet 4(3), 737-761,<br />
2012<br />
[3] Zühlke, D.: SmartFactory – Towards a factory-of-things,<br />
IFAC journal Annual reviews in control 34(1), 129 138, 2010<br />
[4] Mahnke, W., Gössling, A., Urbas, L.: Informationsmodellierung<br />
für Middleware in der <strong>Automatisierung</strong>. In: Tagungsband<br />
Automation, S. 119-124, VDI, 2011<br />
[5] VDI/VDE 2657: Middleware in der <strong>Automatisierung</strong>stechnik,<br />
Dezember 2010<br />
[6] Blumauer, A. und Pellegrini, T.: Semantic Web und<br />
semantische Technologien: Zentrale Begriffe und<br />
Unterscheidungen. In: T. Pellegrini und A. Blumauer (Hrsg.)<br />
50<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
FAZIT<br />
Die Realisierung eines Plug-and-play erfordert die Existenz<br />
einer Schnittstelle, die es zur Betriebszeit erlaubt, den Funktionsaufruf<br />
im SPS-Programm einer zur Entwurfszeit unbekannten<br />
Feldgerätefunktionalität zuzuordnen. Ein semantisches<br />
Informationsmodell, welches die Funktionalitäten<br />
der Feldgeräte beschreibt, gewährleistet die Interoperabilität<br />
dieser Schnittstelle. Die dynamische Orchestrierung basiert<br />
auf dem semantischen Vergleich von Eigenschaften von<br />
Feldgerätefunktionalitäten zur Laufzeit. Kern dieses Beitrags<br />
ist die Untersuchung existierender Standards zur Wissensextraktion<br />
bei der Instanziierung dieser semantischen Informationsmodelle.<br />
Das Ergebnis: Vor allem Feldgeräteprofile<br />
stellen eine grundlegende Wissensquelle dar, da hier<br />
bereits herstellerübergreifend einzelne Funktionalitäten von<br />
Feldgeräteklassen genormt sind. Diese Vereinheitlichung<br />
basiert jedoch meist auf Bit/Byte-Ebene und einer Prosa-<br />
Beschreibung der Funktionalität, was eine manuelle Formalisierung<br />
notwendig macht. Spezifische semantische Informationsmodelle<br />
und Middleware-Paradigmen sind da<strong>mit</strong><br />
Grundlage dafür, den Integrationsaufwand erheblich zu<br />
reduzieren und so<strong>mit</strong> den Weg zur flexiblen und wandelbaren<br />
Fabrik zu ebnen.<br />
MANUSKRIPTEINGANG<br />
01.07.2012<br />
DANKSAGUNG<br />
Im Peer-Review-Verfahren begutachtet<br />
Die hier beschriebenen Arbeiten wurden teilweise <strong>mit</strong><br />
Mitteln des Bundesministeriums für Bildung und<br />
Forschung unter dem Förderkennzeichen 01IA11001<br />
(Projekt RES-COM) gefördert. Die Verantwortung für<br />
den Inhalt dieser Veröffentlichung liegt bei den Autoren<br />
AUTOREN<br />
Dipl-Ing. STEFAN HODEK<br />
(geb. 1981) studierte<br />
Elektrotechnik an der TU<br />
Kaiserslautern. Seit 2008 ist<br />
er Researcher am DFKI und<br />
Mitglied im VDI Fachausschuss<br />
für Middleware.<br />
Seine Forschungstätigkeiten<br />
liegen im Bereich von<br />
Steuerungs- und Kommunikationssystemen im<br />
Allgemeinen und in der Feldgeräteintegration<br />
im Speziellen.<br />
Deutsches Forschungszentrum<br />
für Künstliche Intelligenz,<br />
Trippstadter Str. 122, D-67663 Kaiserslautern,<br />
Tel. +49 (0) 631 205 75 34 07,<br />
E-Mail: stefan.hodek@dfki.de<br />
M.Sc. MATTHIAS LOSKYLL<br />
(geb. 1984) studierte Informatik<br />
an der Universität des<br />
Saarlandes. Seit 2009 ist er<br />
als Researcher am DFKI im<br />
Forschungsbereich „Innovative<br />
Fabriksysteme“ tätig.<br />
Seine Forschungsaktivitäten<br />
beschäftigen sich hauptsächlich<br />
<strong>mit</strong> der Anwendung semantischer Technologien<br />
in der <strong>Automatisierung</strong>stechnik.<br />
Deutsches Forschungszentrum<br />
für Künstliche Intelligenz,<br />
Trippstadter Str. 122, D-67663 Kaiserslautern,<br />
Tel. +49 (0) 631 205 75 52 85,<br />
E-Mail: matthias.loskyll@dfki.de.<br />
Semantic Web. Wege zur Wissensgesellschaft,<br />
S. 9-25. Springer, 2006<br />
[7] Gruber, T.: A Translation Approach to Portable Ontology<br />
Specifications. Knowledge Acquisition 5(2), 199-220, 1993<br />
[8] Wollschlaeger, M., Runde, S., Brauen, A., Mühlhause, M.,<br />
Drumm, O., Thomalla, C., Sabov, A., Lindemann, L.:<br />
Semantische Integration im Lebenszyklus der Automation.<br />
In: Tagungsband Automation, S. 169-170. VDI, 2009<br />
[9] Runde, S., Dibowski, H., Fay, A., Kabitzsch, K.: A semantic<br />
requirement ontology for the engineering of building<br />
automation systems by means of OWL. In: Proceedings<br />
14th IEEE International Conference on Emerging Technologies<br />
and Factory Automation (ETFA’09), S. 1-8, 2009<br />
[10] Loskyll, M., Schlick, S., Hodek, S., Ollinger, L., Gerber, T.,<br />
Pîrvu, B.: Semantic Service Discovery and Orchestration<br />
for Manufacturing Processes. In: Proceedings 16th IEEE<br />
International Conference on Emerging Technologies and<br />
Factory Automation (ETFA’11), S. 1-8, 2011<br />
Dr.-Ing. JOCHEN SCHLICK<br />
(geb. 1974) promovierte<br />
2005 an der TU Kaiserslautern<br />
im Bereich von kognitiven<br />
Mikromontagesystemen.<br />
Nach einer mehrjährigen<br />
Tätigkeit in der strategischen<br />
Produktionsoptimierung<br />
bei Bosch kehrte er<br />
2009 als stellvertretender Forschungsbereichsleiter<br />
für innovative Fabriksysteme in die<br />
Forschung zurück.<br />
Deutsches Forschungszentrum<br />
für Künstliche Intelligenz,<br />
Trippstadter Str. 122, D-67663 Kaiserslautern,<br />
Tel. +49 (0) 631 205 75 34 05,<br />
E-Mail: jochen.schlick@dfki.de<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
51
HAUPTBEITRAG<br />
<strong>Automatisierung</strong> <strong>mit</strong> <strong>FASA</strong><br />
Eine Architektur für flexible, verteilte Systeme<br />
Multicore-Prozessoren werden vermehrt in der <strong>Automatisierung</strong>stechnik eingesetzt. Dies<br />
erzeugt neue Herausforderungen für die Softwareentwicklung: Einerseits soll die vorhandene<br />
Hardware optimal ausgenutzt, andererseits müssen strenge Echtzeitanforderungen<br />
auch von paralleler Software erfüllt werden, und die Systeme sollen flexibel bleiben, um<br />
zeitnah auf Änderungen der Systemanforderungen reagieren zu können. Der Beitrag befasst<br />
sich <strong>mit</strong> Fasa (Future Automation System Architecture), einer komponentenbasierten<br />
Architektur und Ausführungsumgebung für modulare, verteilte und dynamische <strong>Automatisierung</strong>ssysteme<br />
<strong>mit</strong> Multicore-Prozessoren. Die Architektur vereinfacht die deterministische<br />
verteilte Ausführung von Applikationen. Fasa bietet Features wie softwarebasierte<br />
Fehlertoleranz und Softwareupdates zur Laufzeit als einfach zu nutzende Dienste<br />
für den Anwendungsentwickler.<br />
SCHLAGWÖRTER Verteilte Systeme / Multicore / Modularität / Fehlertoleranz<br />
Flexible distributed automation systems with <strong>FASA</strong> –<br />
A software architecture for parallel real-time systems<br />
The advent of multicore CPUs in automation raises some challenges for software engineering.<br />
On the one hand, existing hardware should be optimally used. On the other hand,<br />
strict real-time requirements must be satisfied by parallel software. At the same time,<br />
systems should remain flexible to be able to react quickly to changing system requirements.<br />
Fasa is a component-based architecture and execution environment for modular, dynamic<br />
automation systems with multicore CPUs and distributed execution. Fasa simplifies the<br />
deterministic distributed execution of applications and offers novel features such as<br />
software-based fault tolerance and software updates during runtime as transparent and<br />
easy-to-use services for application developers.<br />
KEYWORDS distributed systems / multicore / modularity / fault tolerance<br />
52<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
MICHAEL WAHLER, THOMAS GAMER, MANUEL ORIOL, ATUL KUMAR, MARTIN NAEDELE,<br />
ABB Corporate Research, Industrial Software Systems<br />
Die Zeit des Free Lunch [3] ist leider vorbei, in<br />
der regelmäßig immer schnellere Prozessoren<br />
entwickelt wurden, auf denen herkömmliche<br />
sequenzielle Software immer schneller lief.<br />
Performancegewinne werden in Zukunft nur<br />
<strong>mit</strong> einer größeren Anzahl von CPU-Cores erzielt. Sequenzielle<br />
Software aber läuft auf mehreren Cores nicht<br />
schneller. Von Multicore-Prozessoren kann nur profitieren,<br />
wer Software parallelisiert. Das ist jedoch nicht<br />
einfach, da parallele Software die Synchronisierung von<br />
parallelen Threads erfordert, was in der Praxis zu fehlerhaften<br />
Abläufen (race conditions) oder zum Stillstand<br />
des Systems (deadlocks) führen kann. Als wäre das nicht<br />
genug, müssen Softwareentwickler die immer komplexeren<br />
CPU-Architekturen berücksichtigen, in denen es<br />
mehrere Cache-Levels gibt und manche Caches von mehreren<br />
Cores gemeinsam benutzt werden.<br />
Diese Probleme werden <strong>mit</strong> der zukünftigen Hardwareentwicklung<br />
sogar noch zunehmen. Während es<br />
relativ einfach ist, die eigene Software an Dual-Core-<br />
Prozessoren anzupassen, ist es ungleich schwieriger,<br />
Software für 16, 48 oder 100 Cores zu skalieren. Daher<br />
muss schon während der Entwicklung einer Ausführungsumgebung<br />
und deren Softwarearchitektur darauf<br />
geachtet werden, dass potenziell eine große Anzahl an<br />
Ausführungsressourcen (CPUs in einem Multi-CPU-<br />
System oder Cores in einer Multicore-CPU) zur Verfügung<br />
steht.<br />
In diesem Beitrag stellen die Autoren Fasa (Future<br />
Automation System Architecture) vor, eine Softwarearchitektur<br />
und Ausführungsumgebung für zukünftige<br />
<strong>Automatisierung</strong>ssysteme <strong>mit</strong> Multicore-Prozessoren<br />
und verteilter Ausführung. Fasa kombiniert<br />
eine flexible Erstellung und Verteilung von Anwendungen<br />
<strong>mit</strong> streng statischer, deterministischer Ausführung.<br />
Dabei bietet Fasa dem Anwendungsentwickler<br />
vollständige Transparenz bezüglich des Ausführungsortes:<br />
Je nach Systemkonfiguration lässt sich die gleiche<br />
Anwendung auf einem CPU-Core, auf mehreren Cores<br />
der gleichen CPU, oder auf mehreren CPUs verteilt über<br />
mehrere Rechnerknoten (Controller) ausführen. Hierfür<br />
wird beim Deployment ein Schedule errechnet, der die<br />
zeitlichen Anforderungen der Anwendungen, Abhängigkeiten<br />
zwischen Komponenten und Latenzen der<br />
Kommunikationsmechanismen berücksichtigt. Darüber<br />
hinaus bietet Fasa neuartige Features wie softwarebasierte<br />
Fehlertoleranz und unterbrechungsfreie<br />
Softwareupdates zur Laufzeit, die für den Anwendungsentwickler<br />
transparent sind.<br />
Bild 1 zeigt die grundlegende Architektur von Fasa.<br />
Auf Hardwareseite gibt es eine beliebige Anzahl von<br />
Prozessoren, die über einen Echtzeit-Bus kommunizieren<br />
können. Das Fasa-Runtime-Framework bietet eine<br />
Abstraktion der Hardware und eine Ausführungsumgebung<br />
für Applikationen. Applikationen werden, wie<br />
im Bild gezeigt, transparent in dieser Ausführungsumgebung<br />
ausgeführt.<br />
1. GRUNDKONZEPTE VON <strong>FASA</strong><br />
Fasa stellt einige Basiskonzepte und -mechanismen zur<br />
Verfügung, die die Grundlage für komplexere Mechanismen<br />
bilden, beispielsweise Softwareupdates oder softwarebasierte<br />
Fehlertoleranz.<br />
1.1 Komponenten, Blöcke und lineare statische Schedules<br />
Fasa ist ein Framework für die Entwicklung und Ausführung<br />
zyklischer Kontrollanwendungen. Fasa unterstützt<br />
eine komponentenbasierte Definition der Kontrollanwendungen;<br />
durch die erreichte Modularität<br />
bietet Fasa eine erhöhte Flexibilität und Anpassbarkeit.<br />
Komponenten bestehen aus einem oder mehreren Blöcken,<br />
die die elementaren Ausführungsbausteine darstellen.<br />
Jeder Block realisiert genau einen Aspekt der<br />
Funktionalität seiner Komponente, das heißt, Blöcke<br />
implementieren in sich abgeschlossene Funktionalitäten.<br />
Blöcke in Fasa dürfen daher nicht blockieren und<br />
müssen immer terminieren [2]. Eine Komponente hat<br />
einen Zustand, auf den die in ihr enthaltenen Blöcke<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
53
HAUPTBEITRAG<br />
zugreifen können. Zudem kann eine Komponente Parameter<br />
definieren, welche während der Laufzeit durch<br />
eine definierte Schnittstelle von außen verändert werden<br />
können. Alle Blöcke derselben Komponente haben<br />
gemeinsamen Zugriff auf den Zustand und die Parameter<br />
der Komponente. Zustandsdaten in unterschiedlichen<br />
Komponenten sind jedoch streng voneinander<br />
getrennt. Da die Blöcke selbst zustandslos sind (nur die<br />
sie umgebende Komponente hat einen Zustand), lassen<br />
sich diese sehr einfach während der Laufzeit austauschen.<br />
Der Kontext der Blöcke bleibt durch die Zustandshaltung<br />
in den Komponenten jedoch erhalten. In<br />
Bezug auf das Deployment einer Anwendung stellen<br />
Komponenten die kleinste Einheit in Fasa dar, das<br />
heißt, eine Komponente kann nicht verteilt ausgeführt<br />
werden. Das bedeutet, dass Blöcke derselben Komponente<br />
nicht auf unterschiedlichen Ressourcen ausgeführt<br />
werden können. Die verschiedenen Komponenten<br />
einer Anwendung können hingegen auf unterschiedlichen<br />
Ressourcen zur Ausführung gebracht werden.<br />
Blöcke können über Ports <strong>mit</strong> anderen Blöcken Daten<br />
austauschen. Dazu werden die Ports über Kanäle verbunden.<br />
Kanäle in Fasa sind unidirektional und 1-zu-1. Das<br />
bedeutet, dass höchstens ein Block auf einen gegebenen<br />
Kanal schreiben kann und höchstens ein Block davon<br />
lesen kann. Durch diese Elemente kann jede Anwendung<br />
in Fasa als gerichteter Graph dargestellt werden, in welchem<br />
Knoten die Blöcke repräsentieren und Kanten die<br />
Kanäle.<br />
Kanäle sind lediglich für den Datentransport verantwortlich.<br />
Sie über<strong>mit</strong>teln Daten ohne jegliche Prüfung,<br />
jedoch muss jedes Paar von Out-Port und In-Port, die<br />
<strong>mit</strong>einander verbunden sind, denselben Datentyp haben.<br />
Die Prüfung der Daten auf Plausibilität und Aktualität<br />
ist die Aufgabe des jeweiligen Blocks. Blöcke können<br />
über das Framework zur Laufzeit feststellen, welche ihrer<br />
Ports über einen Kanal verbunden sind. Bei <strong>mit</strong>einander<br />
verbundenen Blöcken stellt das Framework sicher,<br />
dass ein übertragenes Datenelement an den In-Port des<br />
Zielblocks geschrieben worden ist, bevor es <strong>mit</strong> der Ausführung<br />
des Zielblocks beginnt.<br />
Bild 2 zeigt eine Beispielanwendung in Fasa. Die Anwendung<br />
ist ein kaskadierter PID-Controller und besteht<br />
aus sechs Komponenten (dargestellt durch grüne Rechtecke),<br />
die <strong>mit</strong> ihrer ID (zum Beispiel I1, P1) und dem jeweiligen<br />
Komponententyp (zum Beispiel Feldbus In, PID<br />
Controller) beschriftet sind. Mit Ausnahme der Komponente<br />
I1 vom Typ Feldbus In, welche zwei Blöcke (dargestellt<br />
durch blaue Rechtecke) bereitstellt, haben alle<br />
Komponenten nur jeweils einen Block. Kanäle sind<br />
durch Pfeile verdeutlicht und <strong>mit</strong> ihrem Datentyp beschriftet.<br />
In-Ports sind links von ihrem zugehörigen<br />
Block als kleine Quadrate erkenntlich. Out-Ports sind<br />
rechts von ihrem Block durch kleine Quadrate am Beginn<br />
der gerichteten Verbindung dargestellt.<br />
Eine weitere Besonderheit von Fasa ist, dass die Firmware<br />
selbst modular aufgebaut ist. Ähnlich wie im<br />
Microkernel-Konzept von Betriebssystemen gibt es einen<br />
kleinen Kern, der für die Ausführung von Komponenten<br />
zuständig ist. Die meisten Systemfunktionalitäten<br />
(zum Beispiel Netzwerkkommunikation) sind als<br />
Komponenten realisiert. Dadurch genießen diese Systemfunktionalitäten<br />
die gleichen Vorteile wie normale<br />
Applikationen, zum Beispiel dynamische Softwareupdates.<br />
Anwendungen in Fasa werden zyklisch ausgeführt.<br />
Hierfür kann entweder für die gesamte Anwendung oder<br />
für jeden einzelnen Block eine Ausführungsfrequenz<br />
(Periodizität) definiert werden.<br />
Fasa unterstützt die lineare Ausführung von Anwendungen<br />
<strong>mit</strong> einem statischen Schedule. Das bedeutet,<br />
dass zur Zeit des Deployments eine lineare Ordnung<br />
über alle Blöcke, die in den Komponenten einer Anwendung<br />
definiert sind, berechnet wird. Grundlage für diese<br />
Ordnung ist die Abhängigkeit zwischen den Blöcken,<br />
die sich durch den über die Kanäle definierten Datenfluss<br />
ergibt. Das heißt, dass ein Block A, der ein Datenelement<br />
an einen anderen Block B sendet, auch vor diesem<br />
ausgeführt werden muss. Diese lineare Ordnung ist<br />
die Grundlage für die Abarbeitungssequenz der Blöcke<br />
in jedem Zyklus. Dabei wird die Ausführung eines einzelnen<br />
Blocks nie unterbrochen. Auf einem Fasa-System<br />
können mehrere unterschiedliche Schedules hinterlegt<br />
sein, die jeweils in einer Konfiguration abgelegt sind. Zu<br />
jedem Zeitpunkt ist genau eine Konfiguration aktiv.<br />
Zu jeder Anwendung können mehrere oder auch keine<br />
Linearisierung existieren. Sollte keine Linearisierung<br />
möglich sein, muss der Anwendungsumfang reduziert<br />
werden. Bild 3 zeigt eine Linearisierung der Beispielanwendung<br />
aus Bild 2.<br />
Rückkopplungen sind ein häufig eingesetztes Gestaltungselement<br />
in der <strong>Automatisierung</strong>stechnik, da sie es<br />
erlauben, die Ausgangswerte eines Prozesses als Eingangswerte<br />
für die nächste Iteration des Prozesses zu<br />
verwenden. Die einfachste Art der Rückkopplung ist in<br />
Bild 4 (a) durch einen Kanal dargestellt, der einen Out-<br />
Port eines Blocks <strong>mit</strong> einem In-Port verbindet. Um eine<br />
semantisch korrekte lineare Ordnung zwischen den Blöcken<br />
zu erreichen, werden Rückkopplungen in Fasa realisiert,<br />
wie in Bild 4 (b) gezeigt: Statt eines Kanals wird<br />
das für die Rückkopplung benötigte Datenelement von<br />
einem Hilfsblock (Mem) im Zustand der Komponente<br />
abgelegt. Bei der Ausführung liest Block 1 jenes Datenelement<br />
dann aus dem Zustand, anstatt es von seinem<br />
In-Port zu lesen wie in Bild 4 (a). Auch kompliziertere<br />
Rückkopplungsmechanismen lassen sich durch eine solche<br />
Konstruktion realisieren.<br />
Mit zunehmender Anzahl von Komponenten und Abhängigkeiten<br />
zwischen Komponenten wird es schwieriger,<br />
korrekte Linearisierungen zu berechnen. In verteilten<br />
Systemen (<strong>mit</strong> Multicore-Prozessoren und/oder mehreren<br />
Rechnerknoten) müssen zudem auch mehrere<br />
Ausführungsressourcen synchronisiert werden, die<br />
parallel jeweils einen linearen Schedule ausführen.<br />
Hierbei müssen auch unterschiedliche Latenzen betrachtet<br />
werden, da die Kommunikation zwischen zwei CPU-<br />
Cores im Allgemeinen schneller abläuft als zwischen<br />
zwei Hosts in einem verteilten <strong>Automatisierung</strong>ssystem.<br />
Ebenfalls muss berücksichtigt werden, dass manche<br />
Komponenten nur auf bestimmten Ausführungsressourcen<br />
laufen können, wenn zum Beispiel ein spezieller I/O<br />
benötigt wird. Im nächsten Abschnitt wird beschrieben,<br />
54<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
wie sich die Scheduleberechnung automatisieren lässt<br />
und da<strong>mit</strong> auch Anwendungen transparent auf einem<br />
verteilten System ausgeführt werden können.<br />
1.2 Verteilte Ausführung und globaler Schedule<br />
Ausführungsressourcen werden in Fasa Hosts genannt.<br />
Jeder Host führt eine Instanz des Fasa-Kernels aus. Ein<br />
solcher Host ist entweder ein Single-Core-Computer oder<br />
ein einzelner Core in einem Multicore-Computer. In beiden<br />
Fällen wird ein Echtzeitbetriebssystem vorausgesetzt.<br />
In einem komplexen System <strong>mit</strong> mehreren Hosts<br />
und einer Vielzahl von Anwendungen können Komponenten<br />
derselben Anwendungen auf mehrere Hosts verteilt<br />
oder Komponenten unterschiedlicher Anwendungen<br />
auf dem gleichen Host geladen werden. Hierbei wird<br />
vorausgesetzt, dass alle Hosts zeitsynchronisiert werden,<br />
zum Beispiel nach dem Precision-Time-Protocol (IEEE<br />
1588, [5]), welches <strong>mit</strong> Fokus auf lokale Netze und geringem<br />
Aufwand bezüglich Bandbreite und Rechenzeit entwickelt<br />
wurde.<br />
Um eine verteilte Ausführung zu erreichen, muss<br />
beim Deployment ein System-Schedule berechnet werden.<br />
Der System-Schedule bestimmt, welcher Block zu<br />
welcher Zeit (Offset) im Zyklus auf welchem Host ausgeführt<br />
wird. Bild 5 zeigt einen solchen Schedule für<br />
die Beispielanwendung aus Bild 2 für ein System <strong>mit</strong><br />
zwei Hosts.<br />
Bei der Berechnung des System-Schedules ist eine<br />
Vielzahl von Parametern zu berücksichtigen: Die<br />
partielle Ordnung der Blöcke, die maximale Laufzeit<br />
jedes Blocks (worst-case execution time, WCET) auf<br />
den verschiedenen Hosts, die Frequenz der einzelnen<br />
Blöcke, und die Zyklenlängen auf den jeweiligen<br />
Hosts. Darüber hinaus hängt die Zeit, die benötigt<br />
wird, um ein Datenelement von einem Block A an<br />
einen Block B zu schicken, von der relativen Position<br />
von A und B ab. Blöcke auf verschiedenen Hosts<br />
kommunizieren über IPC-Mechanismen, falls die<br />
Hosts auf verschiedenen Cores derselben CPU laufen,<br />
oder über Netzwerk-Proxies, falls die Hosts auf verschiedenen<br />
Systemen laufen. Schließlich soll es am<br />
Ende jedes Zyklus noch eine Schlupfzeit (slack time)<br />
<strong>FASA</strong> Runtime Framework<br />
CPU Core<br />
CPU Core<br />
Controller<br />
Anwendungen<br />
CPU Core<br />
CPU Core<br />
...<br />
CPU Core<br />
CPU Core<br />
Echtzeit-Bus<br />
BILD 1: Die Architektur<br />
von Fasa im Überblick<br />
CPU Core<br />
Controller<br />
CPU Core<br />
I1:<br />
Feldbus In<br />
Temp<br />
Druck<br />
I2:<br />
Ethernet<br />
Track<br />
float<br />
float<br />
bool<br />
P1:<br />
PID<br />
Controller<br />
PidCC<br />
M1:<br />
Mathematik<br />
Bibliothek<br />
Offset<br />
float<br />
float<br />
P2:<br />
PID<br />
Controller<br />
PidCC<br />
float<br />
O1:<br />
Feldbus Out<br />
Ventil<br />
BILD 2: Eine Beispielanwendung<br />
in Fasa<br />
I1:Temp P1:PidCC I2:Track I1:Druck M1:Offset P2:PidCC O1:Ventil<br />
t 0 t 1<br />
BILD 3: Schedule für die Beispielanwendung<br />
C1: T1<br />
C1: T1<br />
Zustand<br />
Block 1 Block 1 Mem<br />
I1:Temp I1:Druck P1:PidCC<br />
t 0 t 1<br />
I2:Track<br />
M1:Offset P2:PidCC O1:Ventil<br />
(a)<br />
(b)<br />
BILD 4: Beispiel für die Realisierung<br />
von Rückkopplungen in Fasa<br />
t 0 t 1<br />
BILD 5: System-Schedule der Beispielanwendung auf zwei Hosts<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
55
HAUPTBEITRAG<br />
geben, die es dem Betriebssystem erlaubt, andere Threads<br />
auszuführen.<br />
Für das Deployment von Fasa-Applikationen muss also<br />
zunächst ein verteiltes Scheduling-Problem gelöst werden.<br />
Dies wird offline durchgeführt, das heißt, bevor das<br />
System startet, und resultiert in jeweils einem statischen,<br />
linearen Schedule für jeden Fasa-Host. Ein solches Scheduling-Problem<br />
besteht aus zwei Teilen: eine Zuweisung<br />
jeder Komponente auf einen Host und die Berechnung<br />
eines Zeitintervalls für die Ausführung eines jeden<br />
Blocks. Die Zuweisung muss hierbei den Speicherbedarf<br />
der Komponenten und den verfügbaren Speicher auf jedem<br />
Host berücksichtigen. Die Zeitintervalle dürfen sich<br />
für Blöcke, die auf dem gleichen Host ausgeführt werden,<br />
nicht überlappen.<br />
Die Länge eines Zeitintervalls entspricht für die Lösung<br />
des Scheduling-Problems der WCET des jeweiligen<br />
Blocks. Es wird dabei angenommen, dass Blöcke bei jeder<br />
Ausführung ihre WCET in Anspruch nehmen. Da diese<br />
Annahme in der Praxis selten zutrifft, führt sie zu einer<br />
suboptimalen Ausnutzung der verfügbaren Rechenzeit.<br />
Dadurch, dass der Dispatcher jeden Block zu der durch<br />
die WCET bestimmten Zeit startet, wird jedoch der Jitter<br />
zwischen Zyklen minimiert, da die Abstände zwischen<br />
zwei Ausführungen eines jeden Blocks konstant sind.<br />
Das verteilte Scheduling-Problem in Fasa ähnelt typischen<br />
Job-Shop-Problemen, was dieses NP-schwer<br />
macht. Da<strong>mit</strong> ist es praktisch unmöglich, ein solches<br />
Problem selbst für <strong>mit</strong>telgroße Systeme zu lösen [1]. Um<br />
Fasa skalierbar zu machen, ist eine automatisierte Lösung<br />
notwendig. Fasa benutzt einen Constraint-Programming-basierten<br />
Ansatz, um System-Schedules automatisiert<br />
zu berechnen [6].<br />
1.3 Abstrahierung der Plattform<br />
Um die Wiederverwendbarkeit des Frameworks sowie<br />
der Anwendungen, Komponenten und Blöcke zu gewährleisten,<br />
bietet Fasa eine Schicht, um eine Abstraktion<br />
von der Hardware und vom verwendeten Betriebssystem<br />
zu gewährleisten. Hierfür müssen nur für wenige plattformspezifische<br />
Mechanismen Abstraktionen angeboten<br />
werden:<br />
Anwendungen<br />
<strong>FASA</strong> Kernel<br />
P1:<br />
PID<br />
Controller<br />
Speicher<br />
P1‘:<br />
PID<br />
Controller<br />
Plattformabstraktion<br />
PidCC<br />
PidCC<br />
Betriebssystem<br />
v1<br />
v2<br />
BILD 6: Plattformabstrahierung<br />
... PidCC ... ... PidCC ...<br />
Schedule 1 Schedule 2<br />
BILD 7: Softwareupdate zwischen zwei Versionen von PID-Controller<br />
Host 1<br />
Host 2<br />
Host 3<br />
I1:Temp<br />
Mu<br />
Se 1 Se 2<br />
Se 4<br />
P1:PidCC<br />
Re 3 Re 4<br />
Voter<br />
Re 2<br />
P1‘:PidCC<br />
Re 1<br />
P1‘:PidCC Se 3<br />
BILD 8:<br />
System-Schedule<br />
des kritischen<br />
Pfads der<br />
redundanten<br />
Beispielanwendung<br />
auf drei Hosts<br />
t 0<br />
56<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
Timer erlauben es dem Framework, die Echtzeitanforderungen<br />
umzusetzen. Beispiel: zyklischer Start<br />
der Schedule-Ausführung.<br />
Datenübertragung (beispielsweise Message Queues<br />
oder Shared Memory) wird für die Implementierung<br />
von Kanälen benötigt.<br />
Synchronisierung (zum Beispiel Mutex oder Semaphoren)<br />
werden zur Benachrichtigung innerhalb des<br />
Frameworks verwendet.<br />
Threads werden vom Framework benutzt, um Applikationen<br />
<strong>mit</strong> höchster Priorität und Verwaltungsaufgaben<br />
<strong>mit</strong> niedriger Priorität auszuführen.<br />
In unserer Referenzimplementierung [2] wird die Plattformabstraktion<br />
durch eine Reihe von Wrapperklassen<br />
und Klassentemplates in C++ realisiert. Als Beispiel kapselt<br />
eine Klasse Thread den Zugriff auf die Threadbibliotheken<br />
des Betriebssystems, in unserer Implementierung<br />
auf die pthread-Bibliothek des POSIX-Standards.<br />
Diese Aufteilung ist in Bild 6 visualisiert.<br />
2. ERWEITERTE FEATURES VON <strong>FASA</strong><br />
Aufbauend auf den bereits vorgestellten Grundkonzepten<br />
bietet Fasa eine Reihe von erweiterten Features, die<br />
die Performanz, Verfügbarkeit und Skalierbarkeit von<br />
<strong>Automatisierung</strong>ssystemen verbessern. Da diese für den<br />
Anwendungsentwickler transparent sind, lassen sie sich<br />
einfach und kostengünstig nutzen beziehungsweise in<br />
die Anwendung integrieren.<br />
2.1 Softwareupdates zur Laufzeit<br />
Die komponentenbasierte Architektur von Fasa erlaubt<br />
es nicht nur, zur Entwurfszeit eine Komponente durch<br />
eine andere zu ersetzen, sondern auch zur Laufzeit. Im<br />
Gegensatz zu existierenden Lösungen ist es in Fasa<br />
möglich, die Applikationen (also die Verknüpfung von<br />
Komponenten) zu verändern, und Teile der Firmware<br />
auszutauschen. Durch die Microkernel-inspirierte Architektur<br />
von Fasa (Systemkomponenten wie zum Beispiel<br />
der Netzwerktransport werden genau wie Applikationskomponenten<br />
behandelt) und durch Verwendung<br />
von dynamischem Links kann so ein Großteil der<br />
Firmware ausgewechselt werden. Das ist auch im laufenden<br />
Betrieb ohne Beeinträchtigung des Systems<br />
möglich [4].<br />
Es gibt mehrere Gründe, weshalb solch dynamische<br />
Softwareupdates notwendig sind. Zum einen kann selbst<br />
durch intensives Testen nicht ausgeschlossen werden,<br />
dass ein Bug im System verblieben ist. Durch dynamische<br />
Updates können entdeckte Bugs im laufenden Betrieb<br />
behoben werden. Ein weiterer Grund sind Security-<br />
Patches, da sich über die Lebensdauer eines Systems die<br />
Angriffsfläche eines Systems verändert. Ein Beispiel ist<br />
der Hashing-Algorithmus MD5, der lange Zeit als sicher<br />
galt, später aber durch zunehmende Rechenleistung und<br />
verbesserte Angriffsvarianten gebrochen wurde [9].<br />
Schließlich können Softwareupdates zur Laufzeit dazu<br />
dienen, im Rahmen eines Servicevertrags die installierte<br />
Software auf dem neuesten Stand zu halten oder zusätzliche<br />
Software zu installieren.<br />
Bei dynamischen Updates für kritische Systeme ist es<br />
besonders wichtig, dass die Applikationen, die auf dem<br />
zu aktualisierenden System laufen, nicht gestört werden.<br />
Fasa ermöglicht es, Komponenten zur Laufzeit zu ersetzen,<br />
ohne das System anzuhalten oder auch nur einen<br />
Zyklus zu verpassen. Dies wird realisiert durch die Aufteilung<br />
des Updates in zwei Phasen: Vorbereitung und<br />
Umschaltung.<br />
In der Vorbereitungsphase wird der Code der neuen<br />
Komponenten zuerst auf das System kopiert (zum Beispiel<br />
<strong>mit</strong> dem SSH-basierten Secure Copy) und die gewünschten<br />
Komponenteninstanzen werden initialisiert.<br />
Gleichzeitig wird eine neue Konfiguration <strong>mit</strong> einem<br />
aktualisierten Schedule übertragen, der aber noch nicht<br />
aktiv ist. All diese Aktivitäten sind nicht zeitkritisch<br />
und werden als Thread parallel zu den Applikationen<br />
ausgeführt. In unserer Referenzimplementierung werden<br />
die auszuführenden Blöcke in jedem Zyklus in einem<br />
Thread <strong>mit</strong> höchster Priorität ausgeführt. Zwischen dem<br />
Ende des letzten Blocks und dem Beginn des nächsten<br />
Zyklus – also in der Schlupfzeit – blockiert dieser Thread.<br />
So kann das Betriebssystem Threads <strong>mit</strong> niedrigerer<br />
Priorität ausführen und zum Beispiel neue Komponenten<br />
laden.<br />
Bild 7 zeigt ein Beispiel für ein dynamisches Softwareupdate.<br />
Dabei wird eine Instanz der Komponente<br />
PID Controller in Version 1 (v1) durch eine neuere Version<br />
(v2) ersetzt. Das System führt vor dem Update den<br />
Schedule von Konfiguration 1 aus. Beim Softwareupdate<br />
wird zuerst in der Vorbereitungsphase eine Instanz P1‘<br />
der neuen Komponentenversion instanziiert und initialisiert.<br />
Dann wird eine neue Konfiguration 2 erzeugt,<br />
deren Schedule statt dem PidCC-Block von P1 denjenigen<br />
von P1‘ aufruft. Sobald P1‘ initialisiert ist und Konfiguration<br />
2 erzeugt wurde, kann <strong>mit</strong>tels API-Aufruf vom<br />
alten auf den neuen Schedule umgeschaltet werden.<br />
Sobald diese Vorbereitungsphase beendet ist, signalisiert<br />
das System, dass es bereit zum Umschalten ist. Das<br />
Umschalten erfolgt quasi-atomar zu Beginn eines neuen<br />
Zyklus durch das Umsetzen eines einzigen Zeigers. So<br />
wird verhindert, dass Teile des alten Schedules und Teile<br />
des neuen Schedules im selben Zyklus ausgeführt<br />
werden. Falls die Schedules von mehreren Hosts gleichzeitig<br />
geändert werden müssen, zum Beispiel wenn ein<br />
Update eine verteilt ausgeführte Anwendung betrifft,<br />
lassen sich die Updates durch Angabe eines gemeinsamen<br />
Zeitpunkts zum Umschalten synchronisieren.<br />
Nach dem Umschalten auf den neuen Schedule bleibt<br />
der alte Schedule zunächst im Speicher erhalten, ebenso<br />
wie eventuell nicht mehr benötigte Komponenten. Dies<br />
ist notwendig, um ein Rollback zu ermöglichen, falls das<br />
System nach dem Update nicht wie erwartet funktioniert.<br />
Falls das System korrekt funktioniert, können<br />
nicht mehr benötigte Komponenten und Schedules aus<br />
dem Speicher gelöscht werden.<br />
Einen Sonderfall beim dynamischen Update bilden<br />
zustandsbehaftete Komponenten. Hier muss der Zustand<br />
der alten Komponente zur neuen Komponente transfe-<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
57
HAUPTBEITRAG<br />
riert werden. Die Schwierigkeit ist einerseits, dass sich<br />
die Struktur des Zustands ändern kann, zum Beispiel<br />
können sich Messwerte von km/h in m/s ändern. Andererseits<br />
kann es vor allem passieren, dass der Zustand<br />
von einzelnen Komponenten so umfangreich ist, dass er<br />
sich nicht innerhalb eines Zyklus übertragen lässt. Falls<br />
mehrere Zyklen zur Übertragung notwendig sind, kommt<br />
es vor, dass sich ein Teil des Zustands der Quellkomponente,<br />
der bereits zur Zielkomponente übertragen wurde,<br />
wieder ändert. Hierfür bietet Fasa einen Mechanismus<br />
zur Zustandsübertragung, der in [4] ausführlich erklärt<br />
ist. Im bereits genannten Beispiel des Updates der Komponente<br />
PID Controller von Version 1 auf Version 2 wird<br />
die Zustandsübertragung in der Vorbereitungsphase<br />
nach dem Initialisieren der Instanz P1‘ ausgeführt. Das<br />
System schaltet erst auf den neuen Schedule um, nachdem<br />
der Zustand von P1 vollständig auf P1‘ übertragen<br />
wurde.<br />
2.2 Softwarebasierte Fehlertoleranz und Safety<br />
Mithilfe der softwarebasierten Fehlertoleranz lässt sich<br />
eine hohe Verfügbarkeit für die <strong>mit</strong> Fasa ausgeführten<br />
Anwendungen erreichen. Dieses erweiterte Feature zeigt<br />
auch, dass Fasa aufgrund seiner Modularität und Flexibilität<br />
in der Lage ist, derartige erweiterte Features aufgrund<br />
der einfachen Wiederverwendbarkeit von Komponenten<br />
und der flexiblen Ausführungsumgebung<br />
schnell und vor allem transparent für den Anwendungsentwickler<br />
umzusetzen. Transparenz bedeutet in diesem<br />
Kontext, dass Fehlertoleranz beziehungsweise Redundanz<br />
in Fasa als Service für den Anwender angeboten<br />
wird. Dieser muss lediglich auswählen, dass er<br />
diesen Dienst nutzen möchte und einige grundlegende<br />
Parameter konfigurieren, zum Beispiel welches Redundanzmuster<br />
verwendet werden soll, welche Art von<br />
Fehler toleriert werden soll oder wie viele Fehler toleriert<br />
werden sollen. Die Berechung des Deployments,<br />
eines dazu passenden Schedules sowie die eigentliche<br />
Integration zusätzlich benötigter Komponenten in die<br />
Applikation übernimmt Fasa – der Anwendungsentwickler<br />
muss diese also weder selbst implementieren<br />
noch in seine Applikation integrieren. Darüber hinaus<br />
ermöglicht Fasa erfahrenen Anwendern, direkt Einfluss<br />
auf Detailebene zu nehmen, das heißt, beispielsweise<br />
das Deployment zu beeinflussen oder zu nutzende Algorithmen<br />
auszuwählen.<br />
Eine erste Design-Entscheidung, die im Kontext von<br />
Fehlertoleranz in Fasa getroffen werden musste, war<br />
die Frage nach der Granularität der Redundanz. Da<br />
Fasa ein komponentenbasiertes System ist, ließe sich<br />
Redundanz auf allen Ebenen anbieten. Redundanz auf<br />
Block-Ebene erbringt jedoch nur einen geringen Mehrwert,<br />
da Fehlertoleranz in diesem Fall auf einzelne<br />
Blöcke auf demselben Host – und da<strong>mit</strong> auf den vergleichsweise<br />
unwahrscheinlichen Fall eines auf den<br />
Block begrenzten Fehlers – eingeschränkt wäre. Fehlertoleranz<br />
in Fasa ist daher auf Ebene der Komponenten<br />
angesiedelt. Dies hat mehrere Vorteile: Da Komponenten<br />
einen Zustand haben können, schließt Fehlertoleranz<br />
auf Komponenten-Ebene neben der Verfügbarkeit<br />
der Komponente auch deren Zustand <strong>mit</strong> ein.<br />
Außerdem ist eine feingranulare Abstufung für Verfügbarkeit<br />
möglich, das heißt, nur kritische Teile einer<br />
Anwendung müssen redundant ausgelegt werden, und<br />
so<strong>mit</strong> können möglicherweise Ressourcen im Vergleich<br />
zur heute gebräuchlichen Anwendungsredundanz eingespart<br />
werden. Zudem können redundante Komponenten<br />
auf verschiedenen Cores oder Hosts ausgeführt<br />
werden. So<strong>mit</strong> werden deutlich mehr Fehlerszenarien,<br />
beispielsweise auch der Ausfall eines Controllers oder<br />
einer Netzwerkverbindung, abgedeckt als dies bei der<br />
Block-Redundanz der Fall wäre. Auch die Fehlertoleranz<br />
auf Applikations-Ebene kann realisiert werden,<br />
da dies lediglich eine Erweiterung der Komponenten-<br />
Redundanz darstellt.<br />
Die im Folgenden beschriebene beispielhafte Umsetzung<br />
des Redundanzmusters M-out-of-N [8] (die Komponente<br />
wird N-fach redundant ausgeführt; mindestens M<br />
dieser Instanzen müssen übereinstimmen, was <strong>mit</strong>tels<br />
eines Voters überprüft wird) dient dem besseren Verständnis<br />
der Zusammenhänge. Stellt beispielsweise die<br />
Komponente P1 aus Bild 2 die kritische Komponente der<br />
Anwendung dar, und wurde das Redundanzmuster M-<br />
out-of-N angefordert, sowie ein Fehlermodell beschrieben,<br />
welches den Ausfall eines Hosts beziehungsweise<br />
Links abdecken soll und annimmt, dass keine externen<br />
Mechanismen zur Fehlererkennung zur Verfügung stehen,<br />
könnte Fasa das in Bild 8 dargestellte Deployment<br />
und einen dazu passenden Schedule berechnen. Hierbei<br />
ist zu sehen, dass Fasa zum Erreichen der Fehlertoleranz<br />
ein 2-out-of-3 Muster gewählt hat, sowie die zusätzlich<br />
benötigten Komponenten zur Umsetzung – einen Multiplier<br />
(Mu) für den Sensor-Input, einen Voter (Vo), mehrere<br />
Netzwerk-Proxies (Sender Se und Empfänger Re)<br />
und die redundanten Komponenten (P1‘) – automatisch<br />
hinzugefügt und im Schedule berücksichtigt hat. Dass<br />
im gezeigten Setup lediglich ein Voter genutzt wird, ist<br />
ebenfalls eine Vereinfachung. Um den Single-Point-of-<br />
Failure zu vermeiden, könnte auch der Voter repliziert<br />
werden. Alternativ lässt sich auch die Flexibilität und<br />
Anpassbarkeit von Fasa nutzen, um im Fehlerfall durch<br />
eine schnelle, bereits im Hintergrund vorgehaltene neue<br />
Konfiguration auf einen Standby-Voter umzuschalten.<br />
Idealerweise sollte auch die Sensorik redundant ausgelegt<br />
werden. Ist dies nicht möglich, kann die Verteilung<br />
der Input-Werte <strong>mit</strong>hilfe der von Fasa angebotenen Multiplier-Komponente<br />
erfolgen, welche zur Vermeidung<br />
eines Single-Point-of-Failure dann auch redundant ausgelegt<br />
werden sollte.<br />
Mithilfe der erläuterten Fehlertoleranz können verschiedene<br />
Anwendungsfälle abgedeckt werden; unter<br />
anderem sind dies das Hinzufügen von Redundanz, der<br />
Austausch des verwendeten Voting-Algorithmus, der<br />
Austausch des verwendeten Redundanzmusters, das<br />
Wiederherstellen der Fehlertoleranz nach einem Fehler<br />
und natürlich die eigentliche Maskierung eines Fehlers<br />
zur Sicherstellung der Verfügbarkeit einer Applikation.<br />
Alle diese Anwendungsfälle werden während der Ausführung<br />
einer Applikation unterstützt, ohne die eigentliche<br />
Funktion der Applikation zu stören und ohne dass<br />
58<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
die Anwendung in spezieller Weise dafür vorbereitet<br />
werden muss. Der für die Anwendung von Fehlertoleranz<br />
in Kauf zu nehmende Overhead ist am Beispiel von<br />
M-out-of-N eine zusätzliche Verzögerung bei der Ausführung<br />
der Applikation durch die Ausführung des Voters<br />
sowie die eventuell benötigte Wartezeit auf die N<br />
Inputs für das Voting.<br />
Fehlertoleranz ist nicht auf das Redundanzmuster M-<br />
out-of-N beschränkt, sondern lässt auch andere Redundanzmuster<br />
zu. Umgesetzt wurden beispielsweise auch<br />
die Muster Hot Standby und Warm Standby. Auch hier<br />
werden verschiedene Basisdienste von Fasa in Anspruch<br />
genommen. Außerdem werden zusätzliche erweiterte<br />
Features benötigt, die dem Benutzer von Fasa aber ebenfalls<br />
als Service zur Verfügung gestellt und transparent<br />
angewendet werden. Beispielsweise wird beim Redundanzmuster<br />
Warm Standby zur Replikation des Zustands<br />
zwischen der Primary- und der Secondary-Komponente<br />
die Funktionalität der Zustandssynchronisierung benötigt.<br />
Auch das erweiterte Feature des Exception Handling,<br />
das heißt, die Benachrichtigung nachfolgender<br />
Blöcke und Komponenten über intern erkannte Fehler,<br />
lässt sich in die Fehlertoleranz integrieren.<br />
Auch wenn der Fokus des erweiterten Features Fehlertoleranz<br />
bisher auf der hohen Verfügbarkeit der Applikation<br />
lag, ist die Anwendung desselben Features ebenso<br />
zur Erfüllung von Safety-Anforderungen nutzbar. Hier<br />
sind weitere Randbedingungen zu beachten, zum Beispiel<br />
eine den Zertifizierungsrichtlinien entsprechende<br />
Dokumentation der Entwicklung oder die Berechnung<br />
der Fehlerwahrscheinlichkeiten. Dies war bisher nicht<br />
im Fokus der Entwicklung.<br />
3. VERWANDTE TECHNOLOGIEN UND SYSTEME<br />
Das Konzept der Blöcke in Fasa ist <strong>mit</strong> den Funktionsblöcken<br />
aus den Standards IEC 61131 und IEC 61499<br />
[10] verwandt. Allerdings gibt es keine 1-zu-1-Beziehung:<br />
So existieren beispielsweise in Fasa keine Execution<br />
Control Charts wie in IEC 61499, und die in Fasa<br />
mögliche Organisation von Blöcken in Komponenten<br />
ist zwar verwandt <strong>mit</strong> zusammengesetzten Funktionsblöcken<br />
(Composite Control Blocks), entspricht ihnen<br />
aber semantisch nicht vollständig. Der Fokus von Fasa<br />
liegt auf der transparenten Verteilung von Anwendungen<br />
und erweiterten Features wie Fehlertoleranz. Daher<br />
kann Fasa als eine Art Assemblersprache für Hochsprachen<br />
wie IEC 61499 gesehen werden: In einem unserer<br />
Arbeitspakete wird zur Zeit untersucht, wie geeignete<br />
REFERENZEN<br />
[1] Lombardi, M. und Milano, M.: Optimal Methods for Resource<br />
Allocation and Scheduling: a Cross-disciplinary Survey. Constraints<br />
17(1), S. 51-85, 2012<br />
[2] Richter, S., Wahler, M., Kumar, A.: A Framework for Component-<br />
Based Real-Time Control Applications. In: Proceedings 13 th Real-Time<br />
Linux Workshop, S. 107-115, 2011<br />
[3] Sutter, H.: A fundamental turn toward concurrency in software.<br />
Dr. Dobb’s Journal 2005(30), S. 202-210, 2005.<br />
(http://www.drdobbs.com/architecture-and-design/184405990)<br />
[4] Wahler, M., Richter, S., Kumar, S., Oriol, M:. Non-disruptive Largescale<br />
Component Updates for Real-Time Controllers. In: 3rd<br />
Workshop on Hot Topics in Software Upgrades (HotSWUp 2011),<br />
Proceedings IEEE 27 th International Conference on Data Engineering<br />
Workshops (ICDEW), S. 174-178, 2011<br />
[5] IEEE 1588: Standard for a Precision Clock Synchronization Protocol<br />
for Networked Measurement and Control Systems. 2002<br />
[6] Oriol, M., Wahler, M., Steiger, R., Stoeter, S., Vardar, E., Koziolek, H.,<br />
Kumar, A.: <strong>FASA</strong>: A Scalable Software Framework for Distributed Control<br />
Systems. In: Proceedings 3rd International ACM Sigsoft Symposium on<br />
Architecting Critical Systems (ISARCS 2012), S. 51-60, 2012<br />
[7] Garcia, C., Prett, D. M., Morari, M.: Model predictive control: Theory<br />
and practice – A survey. Automatica 25(3), S. 335–348, 1989<br />
[8] Avizienis, A. A.: The N-Version Approach to Fault-Tolerant Software.<br />
IEEE Transactions on Software Engineering SE–11(12), S. 1491-1501, 1985<br />
[9] Stevens, M., Lenstra, A., de Weger, B.: Chosen-prefix collisions for<br />
MD5 and applications. Applied Cryptography 2(4), S. 322-359, 2012<br />
[10] Vyatkin, V.: IEC 61499 Function Blocks for Embedded and Distributed<br />
Control Systems Design. ISA, 2007<br />
[11] Fieldbus Foundation. http://www.fieldbus.org<br />
[12] Kopetz, H., Merker, W.: The Architecture of MARS. In: Proceedings 25 th<br />
International Symposium on Fault-Tolerant Computing, S. 50-55, 1995<br />
[13] Schneider, S.A., Chen, V.W., Pardo-Castellote, G.: The ControlShell<br />
component-based real-time programming system. In: Proceedings<br />
IEEE International Conference on Robotics and Automation,<br />
S. 2381-2388, 1995<br />
[14] Xu Ke, Sierszecki, K., Angelov, C.: COMDES-II: A Component-Based<br />
Framework for Generative Development of Distributed Real-Time<br />
Control Systems. In: Proceedings 13 th IEEE International Conference<br />
on Embedded and Real-Time Computing Systems and Applications<br />
(RTCSA), S. 198-208, 2007<br />
[15] Ando, N., Suehiro, T., Kitagaki, K, Kotoku, T., Woo-Keun Yoon:<br />
RT-Middleware: Distributed Component Middleware for RT (Robot<br />
Technology). In: Proceedings IEEE/RSJ International Conference on<br />
Intelligent Robots and Systems (IROS), S. 3933-3938, 2005<br />
[16] Yau, S.S. und Bing Xia: An approach to distributed component-based<br />
real-time application software development. In: Proceedings 1st<br />
International Symposium on Object-Oriented Real-time Distributed<br />
Computing (ISORC), S. 275-283, 1998<br />
[17] Hill, J.H.: Towards Heterogeneous Composition of Distributed<br />
Real-Time and Embedded (DRE) Systems Using the CORBA Component<br />
Model. In: Proceedings 37 th EUROMICRO Conference on Software<br />
Engineering and Advanced Applications (SEAA), S. 73-80, 2011<br />
[18] Uppaal PORT. http://www.uppaal.org/port<br />
[19] SAVE IDE: http://sourceforge.net/projects/save-ide/<br />
[20] Kindel, O. und Friedrich, M.: Softwareentwicklung <strong>mit</strong> AUTOSAR:<br />
Grundlagen, Engineering, Management in der Praxis. dpunkt Verlag, 2009<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
59
HAUPTBEITRAG<br />
AUTOREN<br />
Dr. MICHAEL WAHLER (geb. 1978) leitet die Gruppe<br />
Software Systems am ABB Forschungszentrum in Baden-<br />
Dättwil und ist aktiver Forscher. Der Schwerpunkt seiner<br />
Arbeit liegt auf der Architektur und dem Engineering von<br />
nachhaltiger Software für <strong>Automatisierung</strong>ssysteme.<br />
ABB Schweiz AG Corporate Research,<br />
Industrial Software Systems,<br />
Segelhofstr. 1K, CH-5405 Baden-Dättwil,<br />
Tel. +41 (0) 58 58 6 81 67, E-Mail: michael.wahler@ch.abb.com<br />
Dr. THOMAS GAMER (geb. 1979) ist Scientist am ABB<br />
Forschungszentrum in Ladenburg. Der Schwerpunkt<br />
seiner Arbeit liegt auf Softwarearchitekturen und Softwareengineering<br />
für zukünftige <strong>Automatisierung</strong>ssysteme,<br />
Fehlertoleranz und Gebäudeautomation.<br />
ABB AG Corporate Research Center Germany,<br />
Industrial Software Systems,<br />
Wallstadter Str. 59, D-68526 Ladenburg,<br />
Tel. +49 (0) 6203 71 60 24, E-Mail: thomas.gamer@de.abb.com<br />
Dr. MANUEL ORIOL (geb. 1975) ist Principal Scientist am<br />
ABB Forschungszentrum in Baden-Dättwil. Der Schwerpunkt<br />
seiner Arbeit liegt auf dynamischen Softwareupdates,<br />
Middleware, Softwaretests und Echtzeitsystemen.<br />
ABB Schweiz AG Corporate Research,<br />
Industrial Software Systems,<br />
Segelhofstr. 1K, CH-5405 Baden-Dättwil,<br />
Tel. +41 (0) 58 58 6 70 38, E-Mail: manuel.oriol@ch.abb.com<br />
Dr. ATUL KUMAR (geb. 1974) ist Principal Scientist am ABB<br />
Forschungzentrum Indien in Bangalore. Seine Forschungsinteressen<br />
beziehen sich auf die Bereiche verteilte Systeme,<br />
Softwareengineering, und Internettechnologien. Der<br />
Schwerpunkt seiner Arbeit liegt auf Softwarearchitektur<br />
für die zukünftige Generation von industriellen <strong>Automatisierung</strong>ssystemen.<br />
ABB Corporate Research Center Bangalore,<br />
Industrial Software Systems,<br />
Whitefield Road, Mahadevpura PO, Bangalore 560048 INDIA,<br />
Tel. +91 80 67 57 99 50, E-Mail: atulkumar.d@in.abb.com<br />
Dr. MARTIN NAEDELE (geb. 1972) ist der R&D-Programm-<br />
Manager für Industrial Software Systems in ABB<br />
Corporate Research.<br />
ABB Schweiz AG Corporate Research,<br />
Industrial Software Systems,<br />
Segelhofstr. 1K, CH-5405 Baden-Dättwil,<br />
Tel. +41 (0) 58 58 6 83 39, E-Mail: martin.naedele@ch.abb.com<br />
Untermengen von IEC 61499 auf die Konzepte von Fasa<br />
abgebildet werden können.<br />
Im Gegensatz zum Foundation Fieldbus (IEC 61804-2,<br />
[11]) liegt die Ausrichtung von Fasa auf der Plattformabstraktion,<br />
Flexibilität, und dem Bereitstellen von erweiterten<br />
Features, die für den Benutzer transparent sind,<br />
wie zum Beispiel Fehlertoleranz. Es wäre denkbar, Fasa<br />
<strong>mit</strong> Foundation Fieldbus zu kombinieren: Fasa ließe sich<br />
auf einer höheren Abstraktionsebene zum Erstellen von<br />
fehlertoleranten, verteilten Anwendungen nutzen und<br />
ein Foundation-Fieldbus-System als deren Ausführungsumgebung.<br />
Ein Teil von Fasa ist von Komponenten-Frameworks<br />
inspiriert, die in den letzten 20 Jahren für Echtzeit-Kontrollsysteme<br />
entwickelt wurden, wie Mars [12], ControlShell<br />
[13], Comdes-II [14], RT-middleware [15], Corba [16]<br />
[17], Uppaal Port [18], und die Automotive Open System<br />
Architecture (Autosar) [20]. Das Ziel dieser Systeme ist,<br />
die Flexibilität der komponentenbasierten Softwareentwicklung<br />
<strong>mit</strong> den Anforderungen von Echtzeitanwendungen<br />
zu verbinden. In einigen Fällen bieten diese<br />
Systeme auch Entwicklungsumgebungen (IDEs). So kann<br />
Uppaal Port <strong>mit</strong> der Save IDE [19] als Eclipse-Plugin benutzt<br />
werden.<br />
Während all diese Komponentenplattformen den Programmierern<br />
Komponenten und Kanäle als die hauptsächlichen<br />
Designelemente anbieten, liegt der entscheidende<br />
Unterschied zwischen diesen Systemen und Fasa<br />
in den angebotenen erweiterten Features. Nach dem<br />
Wissen der Autoren ist Fasa die einzige Plattform, die<br />
Features wie dynamische Softwareupdates, transparente<br />
Unterstützung von Multicore-CPUs und verteilter Ausführung<br />
sowie transparente Fehlertoleranz im Kontext<br />
von Echtzeitsystemen bietet.<br />
FAZIT<br />
Die aufkommende Parallelisierung von Prozessoren in<br />
der <strong>Automatisierung</strong>stechnik stellt Softwareentwickler<br />
vor Herausforderungen, bietet aber auch neue Möglichkeiten.<br />
Der Schlüssel zum Bewältigen der Herausforderungen<br />
und zum Ausnutzen der Möglichkeiten paralleler<br />
Systeme liegt in der Softwarearchitektur. Fasa ist ein<br />
Beispiel für eine Architektur, die es erlaubt, Anwendungen<br />
flexibel verteilt auf mehreren Ressourcen (zum Beispiel<br />
CPU-Cores) auszuführen und dabei dem Anwendungsentwickler<br />
vollständige Ausführungstransparenz<br />
zu bieten. Basierend auf einigen Basiskonzepten, wie<br />
Modularität durch Komponenten und deterministische<br />
Ausführung durch statische Schedules, ermöglicht Fasa<br />
fortgeschrittene Features wie werkzeuggestützte Berechnung<br />
komplexer, verteilter Schedules, softwarebasierte<br />
Fehlertoleranz oder unterbrechungsfreie Softwareupdates<br />
zur Laufzeit. Dadurch erzielt Fasa ein hohes Maß<br />
an Flexibilität <strong>mit</strong> zuverlässiger deterministischer Ausführung<br />
von Anwendungen.<br />
MANUSKRIPTEINGANG<br />
26.07.2012<br />
Im Peer-Review-Verfahren begutachtet<br />
60<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
HAUPTBEITRAG<br />
Effizienz durch ergonomische<br />
Benutzungsschnittstelle<br />
Industrielle Mensch-Prozess-Kommunikation gestalten<br />
Wie sich die industrielle Mensch-Prozess-Kommunikation für die operative Prozessführung<br />
gestalten lässt, wird in diesem Beitrag anhand eines Konzepts vorgestellt. Hintergrund<br />
ist die stetig steigende Komplexität der zu überwachenden Produktionsprozesse<br />
und der Arbeitsumgebung in Warten aus der Sicht der Anlagenfahrer. Moderne Anlagenleitstände<br />
und Bedienkonzepte können den Anlagenfahrer über eine leistungsfähige Benutzungsschnittstelle<br />
bei der Ausübung seiner Aufgaben unterstützen und entlasten.<br />
SCHLAGWÖRTER Mensch-Maschine-Schnittstelle / Benutzungsschnittstelle / Mensch-<br />
Prozess-Kommunikation / benutzerzentriertes Visualisierungskonzept /<br />
Leitstandskonzept / Ergonomie<br />
Efficient Plant Operation using ergonomic User Interface –<br />
User-centric design of industrial human-machine-communication<br />
This article presents an operator control concept for designing industrial human-machine-interface<br />
of operational process control. The background of this concept is the constantly<br />
increasing complexity of the processes to be monitored and the working environment<br />
in control rooms from the operator’s perspective. The use of modern plant control<br />
centers and operator control concepts can support and unburden operators in the execution<br />
of their tasks by means of a powerful human-machine-interface.<br />
KEYWORDS human-machine-interface / human-machine-communication / user-centered<br />
concept of visualization / supervisory control / ergonomics<br />
62<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
LUTZ GLATHE, SVEN KEMPF, Siemens<br />
D<br />
ie primäre Aufgabe des Anlagenfahrers ist die<br />
operative Prozessführung auf der Basis von Prozess-<br />
und Anlageninformationen der verfahrenstechnischen<br />
Produktion und deren Logistik- und<br />
Hilfsprozessen [1]. Die operative Prozessführung<br />
hat zum Ziel, den bestimmungsgemäßen, sicheren Betrieb<br />
der Produktionsanlage einzuhalten, die Verfügbarkeit der<br />
Produktion trotz einzelner Störungen zu maximieren und<br />
die Produktqualität trotz schwankender Qualität der eingesetzten<br />
Rohstoffe und Störungen in der Anlage sowie unterschiedlichem<br />
Durchsatz zu gewährleisten [2]. Schließlich<br />
soll der Prozessablauf im Sinne von Kosten, Qualität und<br />
Sicherheit optimiert werden. Insbesondere der hohe Kostendruck<br />
erweitert die primäre Aufgabenstellung des Anlagenfahrers<br />
zum Beispiel durch dispositive Aufgaben, erweiterte<br />
Qualitätssicherung und bedarfsgerechtes Betreiben der<br />
Anlage nach Key-Performance-Indikatoren, wie maximalem<br />
Durchsatz oder optimalem Energieeinsatz. Diese erweiterten<br />
Aufgaben sind traditionell im Bereich der Anlagen- und Betriebsleitebene<br />
angesiedelt. Die dafür notwendigen Informationen<br />
werden dem Anlagenfahrer in zentralen Leitstrukturen,<br />
hauptsächlich über die Anzeige- und Bedienkomponenten<br />
des Prozessleitsystems in der Messwarte präsentiert.<br />
Darüber hinaus müssen dem Anlagenfahrer zur Ausübung<br />
seiner zusätzlichen Aufgaben ergänzende Informationen aus<br />
einer heterogenen Systemwelt, zum Beispiel Process Information<br />
and Management System (PIMS), Enterprise Resource<br />
Planning System (ERP), Laboratory and Information Management<br />
System (LIMS), zur Verfügung gestellt und aufgabenbezogen<br />
präsentiert werden.<br />
Diese gewachsene heterogene <strong>Automatisierung</strong>slandschaft<br />
erzeugt eine stetig ansteigende Komplexität der<br />
Arbeitsumgebung von Leitwarten<strong>mit</strong>arbeitern. Zusätzlich<br />
führt der zunehmende <strong>Automatisierung</strong>sgrad von<br />
heutigen industriellen Produktionsprozessen zur Einsparung<br />
an Leitwartenpersonal und parallel zu einer starken<br />
Zunahme der pro Anlagenfahrer zu überwachenden Prozessinformationen,<br />
beispielsweise durch die Zusammenlegung<br />
von Leitwarten in Produktionsclustern. Abweichungen<br />
von Prozesswerten müssen auch dann schnell<br />
und zuverlässig erkannt werden, wenn hoch automatisierte<br />
Prozesse lange Zeit störungsfrei laufen; das erfordert<br />
vom Anlagenfahrer ständig hohe Konzentration.<br />
Diese steigende Komplexität der Produktionsprozesse<br />
und der Arbeitsumgebung in Warten erschwert es dem<br />
Anlagenfahrer, ein ganzheitliches mentales Modell der zu<br />
überwachenden Anlage und Prozesse zu bilden. Dabei ist<br />
gerade die Generierung eines mentalen Modells enorm<br />
wichtig. „Laut der statistischen Berichte der ICAO oder der<br />
Versicherungsgesellschaften wie Lloyd werden über 70<br />
Prozent aller registrierten Unfälle, Katastrophen und Havarien<br />
durch den menschlichen Faktor verursacht.“ [15]<br />
Jedoch ist die primäre Ursache für das menschliche Versagen<br />
oft nicht die Fehlbedienung beziehungsweise fehlerhafte<br />
Reaktion des Anlagenfahrers, sondern eine unzureichende<br />
technische Gestaltung der Bediensicherheit<br />
unter Berücksichtigung des menschlichen Faktors. Der<br />
menschliche Faktor ist auch aus Sicht des demografischen<br />
Wandels und der da<strong>mit</strong> einhergehenden zunehmenden<br />
Zahl älterer Mitarbeiter in industriellen Bereichen bei der<br />
Gestaltung von Mensch-Maschine-Schnittstellen (Human-<br />
Machine-Interface, abgekürzt HMI) zu berücksichtigen.<br />
Eine Lösung bietet der Einsatz nutzer- und aufgabenorientierter<br />
Konzepte. Diese zielen darauf ab, Arbeitssysteme<br />
ganzheitlich zu gestalten, das heißt den Einsatz von<br />
Technik, Organisation und Qualifikation der Nutzer gemeinsam<br />
zu optimieren. Anstatt die Anpassung des Menschen<br />
an die Technik zu fordern, muss sich die Technik<br />
an den Menschen anpassen [3]. Bereits in der frühen Planungsphase<br />
von verfahrenstechnischen Anlagen sind<br />
diese Aspekte der ergonomischen Prozessvisualisierung<br />
beim Design und der konzeptionellen Festlegung von<br />
Anlagenleitständen und Bedienkonzepten ausreichend<br />
zu berücksichtigen. Diese ergonomische Benutzungsschnittstelle,<br />
leistet dazu einen wesentlichen Beitrag.<br />
Der Beitrag stellt zunächst den Status quo der Prozessvisualisierung<br />
in der Prozessindustrie vor, wie er den<br />
Anforderungen an die Arbeitsbelastung der Anlagenfahrer<br />
und den zugehörigen Standards und Regelwerken<br />
entspricht. Weiterhin wird auf konzeptionelle Ansätze<br />
der Gestaltung von Leitplätzen sowie deren Elemente<br />
und Strukturen eingegangen. Besonders hervorgehoben<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
63
HAUPTBEITRAG<br />
wird die Implementierung von innovativen Visualisierungskonzepten<br />
in Prozessleitsystem-(PLS)-Projekten.<br />
Zur Illustration des diskutierten Konzepts wird eine<br />
Implementierung einer Destillationskolonne <strong>mit</strong>hilfe des<br />
Prozessleitsystems Simatic PCS 7 vorgestellt.<br />
1. STATUS QUO DER PROZESSVISUALISIERUNG<br />
Das Anzeige- und Bedienkonzept für Anlagenfahrer hat<br />
sich in den vergangenen Jahren deutlich verändert. Früher<br />
wurden Anlagen <strong>mit</strong>hilfe einer großflächigen Mosaiktafel<br />
zur zeitgleichen Anzeige aller Instrumente in der<br />
zentralen Messwarte bedient und beobachtet. Heute sitzt<br />
der Anlagenfahrer an einem PC-Bedienplatz <strong>mit</strong> bis zu<br />
vier Bildschirmen. Die Übersichtlichkeit in der Darstellung<br />
des Anlagenstatus und Prozesszustandes ist im Vergleich<br />
zur Mosaiktafel flächenbedingt eingeschränkt,<br />
allerdings sind viele zusätzliche Informationen verfügbar,<br />
zum Beispiel über Diagnosefunktionen. Um trotz<br />
begrenzter Bildfläche (vier Bildschirme) aussagekräftige<br />
Grafikbilder darzustellen und die Orientierung sowie<br />
Bildanwahl zu ermöglichen, wird die Gesamteinheit an<br />
Informationen einer verfahrenstechnischen Anlage hierarchisch<br />
in verfahrens- und leittechnische Darstellungen<br />
gegliedert, wobei die Übergänge fließend sind. Entsprechend<br />
ihrer Lage in der Hierarchie unterscheidet die<br />
VDI 3699-3 [6] Grafikbilder für die Ebenen Anlage, Bereich,<br />
Teilanlage und Anlagenteile (siehe Bild 1).<br />
In der Praxis überwiegen an der Instrumentierung ausgerichtete<br />
Level-3-Grafikbilder auf der Ebene Teilanlage,<br />
die auf der Basis von Rohrleitungs- und Instrumentenfließbildern<br />
entstanden sind. Der Anlagenfahrer benötigt<br />
jedoch zusätzliche informationsorientierte Übersichtsund<br />
Gruppendarstellungen, die seiner Prozessführungsaufgabe<br />
angemessen sind; was gleichzeitig benötigt wird,<br />
ist auch gleichzeitig anzuzeigen. Anderenfalls sind zusätzliche,<br />
zeitaufwendige Anwahlbedienungen sowie<br />
Belastungen des Kurzzeitgedächtnisses durch Merken<br />
notwendig. Des Weiteren werden Prozesswerte numerisch<br />
angezeigt, wodurch eine Bewertung, ob sich der Prozesswert<br />
im Zielbereich bewegt, individuell durch den Anlagenfahrer<br />
erfolgen muss. Ein weiterer Schwerpunkt liegt<br />
im Bereich von Grafikeffekten, wie dreidimensionale<br />
Darstellungen oder der zusätzlichen Anzeige von Gerätestatusinformationen,<br />
die allerdings für die primäre Aufgabe<br />
des Anlagenfahrers keinen Vorteil liefern. Heutige<br />
Visualisierungssysteme und -verfahren erzielen nur in<br />
Teilbereichen gute Ergebnisse; beispielsweise können einzelne<br />
Teilanlagen oder Teilprozesse durch Grafikbilder<br />
entsprechend übersichtlich abgebildet werden. Die eingesetzten<br />
Systemlösungen sind gekennzeichnet durch:<br />
Heterogene Systemwelt unterschiedlicher Geräte<br />
und Softwareprodukte <strong>mit</strong> inhomogenen Bedienoberflächen<br />
(PIMS, ERP, LIMS, Asset-Management-Systeme)<br />
Mehrere Ein- und Ausgabegeräte pro Rechner am<br />
Operator-Arbeitsplatz<br />
Standard-Konfiguration von Operator-Arbeitsplätzen<br />
(beispielsweise grundsätzlich vier Bildschirme pro<br />
Client)<br />
Kostengetriebene Arbeitsplatzgestaltung<br />
Diese Verfahren zur Darstellung von Prozesswerten zeigen<br />
jedoch Schwächen hinsichtlich:<br />
Darstellung des Gesamtzustandes des Prozesses beziehungsweise<br />
der Anlage „Big Picture“<br />
Informationsaufnahme des Bedieners durch den<br />
überwiegenden Einsatz von alphanumerischen Anzeigen<br />
anstatt von Analogdarstellungen <strong>mit</strong> Mustererkennung<br />
Aufmerksamkeitssteuerung des Anlagenfahrers infolge<br />
der Form- und Farbkodierungen<br />
Aufgaben- und tätigkeitsbezogener Visualisierung<br />
Darstellung von Informationen<br />
Des Weiteren wird die Konzept- und Designphase von<br />
konzeptionellen Schwächen begleitet:<br />
Prozessbilder werden auf der Basis eingekreister<br />
Rohrleitungs- und Instrumentenfließbilder <strong>mit</strong> einem<br />
anderen Darstellungszweck erstellt<br />
Gerade in Neuanlagen kann das Bedienpersonal<br />
nicht frühzeitig in den Designprozess eingebunden<br />
werden<br />
Fehlender geräteübergreifender Standard der Prozessvisualisierung<br />
Fehlendes Prozess-Know-how im Design-Prozess<br />
Prozesswissen erfahrener Anlagenfahrer wird unzureichend<br />
in das Design der Prozessvisualisierung<br />
übernommen<br />
2. ERGONOMISCHE PROZESSVISUALISIERUNG<br />
Nachfolgend wird das Konzept einer ergonomischen Benutzungsschnittstelle<br />
zur industriellen Prozessführung<br />
nach EEMUA 201 [10] vorgestellt (siehe Bild 2).<br />
Dieses Konzept vereint bekannte Elemente und Strukturen<br />
von Bedieneinheiten, wie Bedienoberflächen und<br />
deren Bedienverfahren, die Gestaltung von Leitplätzen<br />
und Messwarten und organisatorische Maßnahmen in einem<br />
ganzheitlichen Lösungsansatz. Ausgangspunkt aller<br />
Betrachtungen ist die detaillierte Analyse der Anlagenfahrer-Tätigkeiten<br />
Überwachen, Eingreifen und Diagnose<br />
(siehe Bild 3) hinsichtlich der Prozessführung und zusätzlicher<br />
Aufgaben im Umfeld der Messwarte, siehe Beispiele<br />
in Tabelle 1. Diese Analyse der Anlagenfahrer-Tätigkeiten<br />
wird projektbezogen unter Einbeziehung der Bedienmannschaft<br />
für jede Anlage spezifisch durchgeführt.<br />
Aus der Priorisierung der Anforderungen an die Prozessvisualisierung<br />
(Tabelle 1) lassen sich folgende Themen<br />
zu deren Verbesserung ableiten:<br />
Maßnahmen in der Konzept- und Designphase:<br />
Konzept der Prozessvisualisierung im Design Guide<br />
der Prozessvisualisierung spezifizieren<br />
Bedienpersonal frühzeitig in den Designprozess einbinden,<br />
in der Regel nach Freigabe des Design Guides<br />
der Prozessvisualisierung. Falls nicht möglich, sind<br />
die übergeordneten, abstrakten Gruppendarstellungen<br />
nachträglich in der Optimierungsphase zu erstellen<br />
Experten <strong>mit</strong> Prozess-Know-how (zum Beispiel erfahrene<br />
Anlagenfahrer) einbinden und deren Wissen<br />
(beispielsweise Referenzwerte für Prozessparameter)<br />
in die Prozessbilddarstellungen übernehmen<br />
64<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
Bild 1<br />
Verfahrenstechnik<br />
Anlage<br />
Bereich<br />
Teilanlage<br />
Anlagenteil<br />
Level 4<br />
L1-Übersichtsgrafik<br />
Hierarchie L. 1<br />
Level 3<br />
L2-Übersichtsgrafik<br />
Level 2<br />
L3-Detailgrafik<br />
L4-Detailgrafik<br />
BILD 1: Hierarchieebenen von Grafikbildern<br />
nach VDI 3699-3 [6]<br />
Bild 3<br />
Leittechnik<br />
Anlage<br />
Bereich<br />
Gruppe<br />
Kreis<br />
Aufgabe<br />
Tätigkeit<br />
Prozessführung<br />
Eingreifen Überwachen Diagnose<br />
Handlungsfolge<br />
Operator-Rundgang<br />
Absuchen<br />
Entdecken<br />
Entdecken<br />
Suchen<br />
Erkennen<br />
Zählen Vergleichen<br />
Interpretieren<br />
Entscheiden<br />
Routine-Überwachung<br />
durch System<br />
Signalort<br />
Was ist es?<br />
Wo?<br />
Was bedeutet es?<br />
Gegenmaßnahmen<br />
Messwarte<br />
Suchen<br />
Stellteil<br />
Bild 2<br />
Ausführen<br />
Betätigen Stellteil<br />
Überprüfen<br />
Gewünschte Wirkung<br />
Ergonomische Benutzungsschnittstelle<br />
Bedien- und<br />
Beobachtungssystem<br />
Bedienoberfläche<br />
Operator<br />
Leitplatz<br />
(Operator-<br />
Arbeitsplatz)<br />
Console<br />
Messwarte Organisation /<br />
VT-Anlage<br />
BILD 3: Tätigkeiten und Handlungen des Anlagenfahrers<br />
in der Prozessführungsaufgabe nach VDI/VDE 3699 [5]<br />
Design Implementierung Betrieb<br />
BILD 2: Konzept einer ergonomischen<br />
Benutzungsschnittstelle zur industriellen<br />
Prozessführung nach EEMUA 201 [10]<br />
No. Aufgabe Tätigkeit Handlung Anforderung an die Prozessvisualisierung<br />
1 Prozess führung Überwachen einer<br />
automatisierten Anlage<br />
2 Prozess führung Überwachen einer<br />
automatisierten Anlage<br />
3 Prozess führung Überwachen einer<br />
automatisierten Anlage<br />
4 Materialdisposition<br />
5 Dokumentation<br />
der Prozessführung<br />
6 Erweiterte<br />
Qualitätssicherung<br />
Einsatzstoffe<br />
disponieren<br />
Schichtbuch führen<br />
Überwachen der<br />
qualitätsrelevanten<br />
Prozessparameter<br />
Beobachten von<br />
wesentlichen<br />
Fahrparametern<br />
(verfahrens technische<br />
KPIs)<br />
Erkennen/Wahrnehmen<br />
von Störungen<br />
Suchen/Identifizieren<br />
der Störungsursache<br />
Eingabe von<br />
Rezeptparametern<br />
Relevante Prozesswerte<br />
in Schichtbuch<br />
eintragen<br />
Beobachten von<br />
Qualitäts– KPIs<br />
– Level-2-Übersichtsdarstellungen <strong>mit</strong> wesentlichen Fahrparametern<br />
der zu überwachenden Anlage<br />
– Anzeige der zulässigen Toleranzen<br />
– Anzeige von Grenzwertverletzungen<br />
– Anzeige von Alarmen und deren Prioritäten<br />
– Analoganzeigen zur „Muster-Unterstützung“<br />
– Trendanzeigen zur Situationseinschätzung und Entscheidung<br />
über Fahrstrategie<br />
– Aufmerksamkeitssteuerung durch Farbschema <strong>mit</strong> speziellen<br />
Alarmfarben<br />
– Vermeidung einer kognitiven Überforderung<br />
– Sprungfunktion von Alarmseite zur Messstelle im Prozessbild<br />
TABELLE 1: Anforderungen an die Prozessvisualisierung aufgrund der Aufgaben von Anlagenfahrern<br />
– Einheitliche und geräteneutrale Präsentation der Bedienmasken<br />
– Verwendung der gleichen Ein- und Ausgabegeräte wie zur<br />
Prozessführung<br />
– Präsentation aller relevanten Prozesswerte in einer Darstellung<br />
(Protokoll)<br />
– Visualisierung von Qualitäts-KPIs in Übersichtsdarstellungen<br />
der Prozessführung<br />
– Geräteunabhängige homogene Präsentation der Qualitäts-KPIs<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
65
HAUPTBEITRAG<br />
Bild 4<br />
BILD 4: Serviceschritte zur<br />
Implementierung von<br />
ergonomischen<br />
Visualisierungskonzepten<br />
in PLS-Projekten<br />
PLS HMI<br />
Evaluierung<br />
Konzept<br />
Operator<br />
Workshop<br />
PLS-Projekt<br />
Analyse<br />
Design<br />
BILD 5: Level-2-Übersichtsdarstellung<br />
für die<br />
Destillationskolonne<br />
TABELLE 2: Anforderungen an<br />
die Prozessvisualisierung einer<br />
Destillationskolonne (Auszug)<br />
No. Aufgabe Tätigkeit Handlung Anforderung an die Prozessvisualisierung<br />
1 Prozessführung<br />
2 Prozessführung<br />
3 Prozessführung<br />
4 Prozessführung<br />
5 Prozessführung<br />
6 Prozessführung<br />
Eingreifen<br />
Überwachen<br />
Überwachen<br />
Diagnose<br />
Eingreifen<br />
Überwachen<br />
An- und Abfahren der<br />
Destillations kolonne<br />
Kontinuierliche<br />
Überwachung der<br />
Qualität<br />
Überwachen<br />
der Prozessund<br />
Anlagenverfügbarkeit<br />
Reagieren auf<br />
Prozess abweichungen<br />
Schnelles und<br />
sicheres Reagieren in<br />
kritischen Situationen<br />
Kontinuierliche<br />
Überwachung<br />
der Kolonne im<br />
Kontext weiterer<br />
Teilanlagen<br />
– Detaildarstellung aller Prozessgrößen in Anlagen-topologisch strukturierten<br />
Level-3-Prozessgrafiken<br />
– Bedienbarkeit der Prozessparameter<br />
– Bediendarstellungen für das An- und Abfahren, beispielsweise Ablaufsteuerungen<br />
– Anzahl der Bildschirme ist der Bedienaufgabe angemessen<br />
– Übersichtsdarstellungen aller qualitätsrelevanter Fahrparameter der Kolonne in<br />
aufgabenangemessenen Level-2-Prozessgrafiken<br />
– Anzeige der zulässigen Toleranzen<br />
– Analoganzeigen zur Muster-Unterstützung<br />
– Trendanzeigen zur Situationseinschätzung und Entscheidung über Fahrstrategie<br />
– Übersichtsdarstellungen <strong>mit</strong> wesentlichen Fahrparametern der Kolonne in<br />
aufgabenangemessenen Level-2-Prozessgrafiken<br />
– Anzeige von Grenzwertverletzungen<br />
– Anzeige von Alarmen und deren Priorität<br />
– Trendanzeigen zur Situationseinschätzung und Entscheidung über Fahrstrategie<br />
– Aufmerksamkeitssteuerung durch Farbschema <strong>mit</strong> speziellen Alarmfarben<br />
– Vermeidung einer kognitiven Überforderung<br />
– Sprungfunktion von Alarmseite beziehungsweise Übersichtsdarstellung zur Messstelle<br />
im Detail-Prozessbild<br />
– Detaildarstellung aller Prozessgrößen in Anlagen-topologisch strukturierten<br />
Level-3– Prozessgrafiken<br />
– Bedienbarkeit der Prozessparameter<br />
– Anzahl der Bildschirme ist der Gleichzeitigkeit der Bedienaufgabe angemessen<br />
– Komprimierte Übersichtsdarstellungen wesentlicher Fahrparameter der Kolonne<br />
in aufgabenangemessenen Level-1-Prozessgrafiken<br />
– Komprimierte Übersichtsdarstellung wesentlicher Fahrparameter anderer<br />
Teilanlagen<br />
– Anzeige von Anlagen-KPIs<br />
– Navigation in Bildhierarchie durch Sprungfunktionen<br />
66<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
Systemlösungen:<br />
Multifunktionaler integrierter Operator-Arbeitsplatz<br />
<strong>mit</strong> homogener Bedienoberfläche, Bedienung <strong>mit</strong><br />
gleichen Ein-Ausgabegeräten<br />
Applikationen aller Einzelgeräte nach einem systemweiten<br />
Design Guide der Prozessvisualisierung<br />
Konfiguration des Operatorarbeitsplatzes als Teil der<br />
Leitplatzorganisation<br />
Ergonomische Gestaltung des Operatorarbeitsplatzes<br />
Gestaltung der Warte nach ergonomischen Kriterien<br />
und Anforderungen an Arbeitsstätten<br />
Verfahren zur Darstellung von Prozesswerten:<br />
Zusätzlicher Einsatz von abstrakten Bedienverfahren,<br />
bei denen die Prozesstopologie eine untergeordnete<br />
Rolle spielt, zum Beispiel prozessbezogene<br />
und aufgabenangemessene Übersichts- und Gruppendarstellungen<br />
auf dem Level-1/2 <strong>mit</strong> wesentlichen<br />
Fahrparametern der zu überwachenden Anlage,<br />
in einer Anordnung von Hybridanzeigen <strong>mit</strong><br />
Zielbereich- und Grenzwertvisualisierung, die die<br />
Mustererkennung unterstützt. Die darzustellenden<br />
Fahrparameter werden in Interaktion <strong>mit</strong> dem Bedienpersonal<br />
anhand von Kriterien ausgewählt.<br />
Aufgrund der Gebrauchstauglichkeit dieser Übersichtsdarstellungen<br />
für den Operator erfolgen daraus<br />
erfahrungsgemäß etwa 80 % der Bedienung und<br />
Beobachtung im Normalbetrieb der Anlage.<br />
Teilweiser Ersatz alphanumerischer Anzeigen durch<br />
Analog- und Hybridanzeigen sowie Kurvendarstellungen<br />
Reduktion der Komplexität von Prozessfließbildern<br />
durch aufgaben- und prozesszustandsorientierte<br />
Auswahl der darzustellenden Prozesswerte (dezidierte<br />
Darstellungen für das An- und Abfahren, den<br />
Normalbetrieb, Lastwechsel und Diagnose)<br />
Einsatz eines Farbschemas inklusive Alarmfarben<br />
Prozessbilddarstellungen als Bestandteil der Leitplatzorganisation<br />
Darstellung von Informationen statt Daten, beispielsweise<br />
neuartige Darstellungsobjekte für Temperaturverteilungen,<br />
Trenddarstellungen zur Situationseinschätzung<br />
und Entscheidungsfindung<br />
über Fahrstrategien oder Kiviat-Diagramme zur<br />
komprimierten Darstellung von drei bis zehn Prozesswerten<br />
zwecks Evaluierung für zuvor festgelegte<br />
Kriterien<br />
Das Konzept basiert auf den in der VDI/VDE 3699 „Prozessführung<br />
<strong>mit</strong> Bildschirmen“ [4-9] genannten Regeln<br />
und Empfehlungen für die Gestaltung von Darstellungen<br />
bei Verwendung von Bildschirmsystemen zur Prozessführung.<br />
Die dort getroffenen Empfehlungen werden im<br />
vorliegenden Konzept weitergeführt und in den Kontext<br />
einer ergonomischen Prozessvisualisierung gestellt.<br />
3. IMPLEMENTIERUNG IN PLS-PROJEKTEN<br />
In diesem Abschnitt wird die Implementierung des Konzepts<br />
in PLS-Projekten beschrieben (siehe Bild 4). Übliche<br />
PLS-Projekte sind <strong>Automatisierung</strong>slösungen für<br />
Neuanlagen, Migrationen von Altsystemen, Optimierungsprojekte<br />
oder die Kombination aus Migrationsund<br />
Optimierungsprojekt. Voraussetzungen für eine<br />
umfassende Implementierung sind eine existierende<br />
beziehungsweise bekannte Basisautomatisierung (HMI<br />
zur Evaluierung) und Betriebserfahrungen zur Analyse<br />
der Operator-Aufgaben. Teilimplementierungen, insbesondere<br />
der Messwarten-, Leitstands-, Farb-, Darstellungs-<br />
und Alarmmanagement-Konzepte sind auch für<br />
Neuanlagenprojekte notwendig.<br />
Wie in Bild 4 dargestellt, werden die Implementierungsphasen<br />
Evaluierung, Konzept, Operator Workshop,<br />
Analyse und Design durch einen Service <strong>mit</strong> umfangreichen<br />
prozesstechnischen Kenntnissen erbracht. Die<br />
HMI-Projektierung erfolgt dann im PLS-Projekt. Der Gestaltungsprozess<br />
orientiert sich an den Grundsätzen der<br />
menschzentrierten Gestaltung nach DIN EN ISO 9241-<br />
210 [16] und ist auf die industrielle Praxis der Prozessvisualisierung<br />
ausgerichtet.<br />
Das Visualisierungskonzept sollte gezielt auf die Arbeitsabläufe<br />
der Nutzer abgestimmt sein (siehe Abschnitt<br />
2). Daher ist zu empfehlen, die Anlagenfahrer<br />
aktiv in den Entwicklungsprozess einzubeziehen. Nur<br />
so lassen sich deren oftmals über viele Jahre angesammelte<br />
Erfahrung und das da<strong>mit</strong> verbundene kostbare<br />
Know-how in das Design des Leitstandes einbeziehen<br />
und da<strong>mit</strong> sichern.<br />
Evaluierung<br />
Ein leistungsfähiges Bedien- und Beobachtungskonzept<br />
muss auf den neuesten wissenschaftlichen Erkenntnissen<br />
hinsichtlich Ergonomie und Usability<br />
beruhen. Dazu wird der vorhandene Leitstand im Zuge<br />
eines Evaluierungsprozesses, zum Beispiel nach Kriterien<br />
der EN ISO 11064-5 [14] bewertet:<br />
System-Befugnis<br />
Informationsanforderungen<br />
Effiziente Mensch-System-Schnittstelle<br />
Benutzerorientierte Gestaltung<br />
Erzeugen von Aufmerksamkeit<br />
Anwendung ergonomischer Grundsätze und so weiter<br />
Konzept<br />
Das im Evaluierungsprozess gefundene Potenzial<br />
wird in der Konzeptphase bewertet und ein Maßnahmenkatalog<br />
zur Optimierung des Leitstandes erarbeitet.<br />
Der Umfang dieser Maßnahmen wird in einem<br />
Design Guide verabschiedet und beschreibt folgende<br />
Inhalte:<br />
Umfang der HMI-Maßnahmen<br />
Bildinhalte/-Aussehen/-Navigation<br />
Darstellungsstandards<br />
Design der Bedienkonsolen und Leitstände<br />
Leitwartendesign<br />
Beschreibung des HMI-Design-Prozesses<br />
Operator Workshop<br />
Der verabschiedete Maßnahmenkatalog wird in einem Operator<br />
Workshop erklärt und den Nutzern vertraut gemacht.<br />
Dabei geht es unter anderem um das verwendete Farbkonzept,<br />
die neuartigen informationsorientierten Anzeigen<br />
sowie die aufgaben- und topologieorientierte Darstellung<br />
der Ebene von Prozessgruppen (Level-2-Grafikbilder).<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
67
HAUPTBEITRAG<br />
Analyse<br />
In der Analysephase werden die vorhandenen Prozessbilder<br />
<strong>mit</strong> allen Beteiligten – idealerweise in der Messwarte<br />
am Livesystem – durchgesprochen, um zu erkennen,<br />
inwiefern sie die tatsächlichen Prozesse repräsentieren<br />
und die erforderlichen Bedienabläufe unterstützen.<br />
Design<br />
Aus den in der Analyse gewonnenen Erkenntnissen<br />
werden übergeordnete Prozessgruppendarstellungen<br />
erstellt und die jeweils am besten geeigneten Darstellungsformen<br />
– digital, analog und/oder Kurvendarstellung<br />
– bestimmt. Im Ergebnis entstehen die Level-<br />
2-Prozessbilder, über die künftig 80 Prozent aller Bedienvorgänge<br />
vorgenommen werden sollen. In einer<br />
anschließenden Optimierungsphase haben die Anlagenfahrer<br />
Gelegenheit, diese neuartigen Level-2-Prozessbilder<br />
aus Anwendersicht zu beurteilen und ergänzende<br />
Verbesserungsvorschläge einzubringen.<br />
Implementierung in PLS-Projekt<br />
Nach der Genehmigung durch den Betreiber werden<br />
die Bildentwürfe im Rahmen des PLS-Projektes in die<br />
Visualisierungssoftware umgesetzt.<br />
Eine parallele Bearbeitung des Service und des PLS-<br />
Projektes (siehe Bild 4) ist möglich und bietet folgende<br />
Vorteile:<br />
PLS-Projekte, wie Migrationsprojekte, sind in der Regel<br />
kosten-, termin- und risikogetrieben und lassen<br />
kaum Spielraum für funktionale Erweiterungen<br />
System-Upgrades sind ideale Zeitpunkte für funktionale<br />
Optimierungen und Erweiterungen, weil sich<br />
die Anlagenbediener auf neue Systemmerkmale einstellen<br />
müssen<br />
Optimierungsprojekte können weitestgehend <strong>mit</strong> der<br />
Bedienmannschaft als Ansprechpartner durchgeführt<br />
werden; die knappen Ressourcen, insbesondere<br />
auf der Betreiberseite werden da<strong>mit</strong> berücksichtigt<br />
Für die Bearbeitung von PLS-Projekten und HMI-<br />
Optimierungsprojekten sind unterschiedliche Kompetenzen<br />
erforderlich. Während für PLS-Projekte<br />
eher System- und <strong>Automatisierung</strong>skenntnisse erforderlich<br />
sind, werden für die ergonomische Gestaltung<br />
des HMI sowohl umfangreiche verfahrenstechnische<br />
Kenntnisse als auch Kenntnisse im Usability<br />
Engineering benötigt<br />
In vielen Fällen werden im Zuge von Migrationen<br />
auch Messwarten zusammengelegt; die da<strong>mit</strong> einhergehende<br />
höhere Arbeitslast muss durch ein leistungsfähigeres<br />
HMI-Design kompensiert werden<br />
4. IMPLEMENTIERUNG EINER DESTILLATIONSKOLONNE<br />
Das in den vorigen Abschnitten beschriebene Konzept<br />
wird nachfolgend am Beispiel einer Zweistoff-Destillationskolonne<br />
erläutert. Die Destillation, genauer als Rektifikation<br />
bezeichnet, ist ein in der chemischen und petrochemischen<br />
Industrie häufig angewandtes Verfahren<br />
zur thermischen Trennung von Mehrstoffgemischen. Die<br />
Anforderungen an die Destillation steigen ständig im<br />
Hinblick auf Reinheit und Wirtschaftlichkeit.<br />
Im ersten Schritt wurde die Aufgabenanalyse unter<br />
Einbeziehung der Bedienmannschaft durchgeführt. Wesentliche<br />
Aufgaben des Anlagenfahrers einer Destillationskolonne<br />
sind in der Tabelle 2 aufgeführt (Auszug).<br />
Diese Aufgaben werden im Anzeige- und Bedienkonzept<br />
berücksichtigt, um eine optimale Arbeitsumgebung<br />
für den Operator zu gewährleisten.<br />
Für das An- und Abfahren der Destillationskolonne<br />
(Aufgabe 1 der Tabelle 2) werden die üblichen Level-<br />
3-Detaildarstellungen verwendet, diese sind nicht Gegenstand<br />
der Betrachtung in diesem Beispiel.<br />
Für die Überwachung der relevanten prozesstechnischen<br />
Kenngrößen (Aufgaben 2/3 der Tabelle 2) wird eine<br />
gemeinsame Level-2-Übersichtsdarstellung gewählt (siehe<br />
Bild 4).<br />
Diese beinhaltet die wichtigsten Prozesswerte und Regelungen<br />
der Destillationskolonne. Diese Darstellung hat<br />
den Vorteil, dass viele Daten zu einer komprimierten Informationsdarstellung<br />
zusammengefasst werden können.<br />
Die Aufgabe 2 der Tabelle 2 „Kontinuierliche Überwachung<br />
der Prozessqualität“ wird einerseits durch die<br />
Darstellung des Temperaturprofils und andererseits<br />
durch die Kurvendarstellung des Model Predictive Controller<br />
(MPC, Modell-prädiktiver Regler) im Level-2-Bedienbild<br />
wirksam unterstützt. Wegen des Zusammenhangs<br />
zwischen Temperaturen (hier TI 3113 und TI<br />
3111) und Konzentrationen im Phasengleichgewicht<br />
(von Dampf und Flüssigkeit) wird durch eine Temperaturregelung<br />
indirekt eine Konzentrationsregelung, das<br />
heißt die Qualitätsregelung für den Prozess der Stofftrennung<br />
bei der Destillation erreicht. Der entscheidende<br />
wirtschaftliche Nutzen ergibt sich durch die bedarfsgerechte<br />
Fahrweise der Kolonne, indem die Sollwerte<br />
für die Qualitätsregelung zielgerichtet modifiziert<br />
werden können. Es wird also nicht die bestmögliche<br />
Qualität produziert, sondern die am wirtschaftlichsten<br />
herstellbare zulässige Qualität. In anderen Anlagenkonstellationen<br />
kann es andere Optimierungsziele geben.<br />
Beispielsweise kann der Durchsatz maximiert werden,<br />
indem bei laufender Qualitätsregelung der Zulauf<br />
schrittweise erhöht wird, bis die Heizdampfmenge sich<br />
in der Nähe der Obergrenze einpendelt.<br />
Die Beurteilung des Prozesszustands – hier der Prozessqualität<br />
– anhand der Temperaturen als Analogwertanzeigen<br />
kann nur aus Erfahrung getätigt werden. Visualisiert<br />
man die Temperaturen stattdessen als Temperaturverlauf<br />
des optimalen Arbeitsbereichs, kann die Beurteilung<br />
direkt aus dem Bild abgelesen werden (siehe<br />
Bild 5: Die untere Temperatur TI 3111 weicht um vier<br />
Kelvin vom Arbeitspunkt ab).<br />
Ähnlich verhält es sich <strong>mit</strong> der Beurteilung des Prozessverlaufs.<br />
Die Kurvendarstellung von Soll-, Ist- und<br />
Stellwerten des MPC untertützt die Situationseinschätzung<br />
und die Wahl der geeigneten Fahrstrategie.<br />
Weitere wichtige Kenngrößen, die in der Level-2-Übersichtsdarstellung<br />
der Kolonne dargestellt werden, sind<br />
der Energieverbrauch der Anlage, der Ausstoß, die Betriebszeit,<br />
die Rücklaufparameter, der Kopfdruck, der<br />
Zulauf und deren Temperatur sowie der Dampfstrom.<br />
Das Gros dieser Kenngrößen wird in Form von informationsorientierten<br />
Hybridanzeigen im Prozessbild repräsentiert.<br />
Diese visualisieren den Gutbereich und Grenzwerte<br />
für den Prozesswert (siehe Bild 6). Eine Beurtei-<br />
68<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
lung anhand eines Analogwertes könnte ansonsten nur<br />
<strong>mit</strong> Erfahrung gemacht werden.<br />
Auch das Farbschema, <strong>mit</strong> der restriktiven Verwendung<br />
der gesättigten Farben Rot und Gelb für die Visualisierung<br />
von Grenzwerten, erfüllt die Anforderungen<br />
an die Prozessvisualisierung hinsichtlich Aufmerksamkeitssteuerung<br />
der Anlagenfahrer. Für die Überwachung<br />
der relevanten prozesstechnischen Kenngrößen der Gesamtanlage<br />
(Aufgaben 6 der Tabelle 2) wird eine gemeinsame<br />
Level-1-Übersichtsdarstellung <strong>mit</strong> einer komprimierten<br />
Darstellung der wesentlichen Fahrparameter<br />
gewählt (siehe Bild 7). So werden die Kenngrößen der<br />
Reaktoren <strong>mit</strong> Kiviat-Diagrammen visualisiert.<br />
Die Optimierung eines HMI hin zu einer ergonomischen<br />
Benutzungsschnittstelle erzielt messbaren Nutzen (siehe<br />
Bild 8). Einheitliche Produktqualität, höhere Verfügbarkeit,<br />
weniger Ausschuss oder schnellere Anfahr- und<br />
Produktwechselzeiten können messbar schichtübergreifend<br />
verbessert und gemessen werden. Weiterhin werden<br />
Fehlbedienungen der Anlagenfahrer durch rasches Erkennen<br />
von Abweichungen vermieden und zielgerichtetes<br />
Reagieren ermöglicht. Die Komplexität wird durch<br />
einheitliche und vereinfachte Benutzungsschnittstellen,<br />
effektives Alarmmanagement und einheitliche Datenschnittstellen<br />
reduziert. Die aktive Einbeziehung der<br />
Anlagenfahrer in die Gestaltung des Bedienkonzepts<br />
trägt zur hohen Akzeptanz und zur kontinuierlichen<br />
Verbesserung des Gesamtprozesses bei und steigert die<br />
Operational Excellence.<br />
Bild 6<br />
5. ERWARTETER NUTZEN<br />
ZUSAMMENFASSUNG UND AUSBLICK<br />
Mit dem vorgeschlagenen ergonomischen Visualisierungskonzept<br />
soll ein ganzheitlicher Lösungsansatz gefunden<br />
werden, um der steigenden Komplexität der zu<br />
Bild 8<br />
Warnung oben<br />
Alarm oben<br />
Produktivität<br />
und<br />
Wirtschaftlichkeit<br />
Produktivität, typisch 5-12%<br />
Quelle: ASM Consortium 2009 [13]<br />
Gutbereich<br />
Prozesswert<br />
unterhalb des<br />
Gutbereichs<br />
Prozesswert <strong>mit</strong><br />
Einheit<br />
Zustand<br />
Simulation<br />
Prozesswert im<br />
Zustand Warnung<br />
Warnung oben<br />
Prozesswert im Zustand<br />
Alarm<br />
Alarm oben<br />
Qualität<br />
Operabilität<br />
und<br />
Verfügbarkeit<br />
Reproduzierbarkeit der<br />
Anlagenfahrweise durch Design<br />
Schwankungsbreite von Qualitäts-<br />
Parametern<br />
Toleranz geg. Rohstoffschwankungen<br />
Störungsempfindlichkeit<br />
HMI-Komplexität<br />
BILD 6: Neuartige Hybridanzeigen ermöglichen die Anzeige von<br />
Gutbereich und Grenzwerten<br />
Qualität der Prozessführung<br />
Arbeitslast des Bedienpersonals<br />
Beherrschung des Bedienerwechsels<br />
Bedienbarkeit<br />
Aufmerksamkeitssteuerung durch<br />
Farbkonzept<br />
Bediensicherheit<br />
Trainingszeiten<br />
Umweltschutz<br />
Gefahr / Risiko durch Fehlbedienung<br />
BILD 8: Nutzen von Konzepten ergonomischer<br />
Benutzungsschnittstellen<br />
BILD 7: Level-1-Übersichtsdarstellung für die Gesamtanlage<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
69
HAUPTBEITRAG<br />
überwachenden Prozesse und der Arbeitsumgebung in<br />
Warten aus der Sicht der Anlagenfahrer wirksam zu begegnen<br />
[11]. Aspekte, wie der sichere Betrieb der Produktionsanlagen<br />
durch die Vermeidung von Bedienfehlern,<br />
die erweiterte Aufgabenstellung der Operatoren, der<br />
Verlust an Betriebs-Know-how durch Mitarbeiterfluktation<br />
und nicht zuletzt die erhöhte Arbeitslast durch Zusammenlegen<br />
von Messwarten, rechtfertigen die Investitionen<br />
in moderne Benutzungsschnittstellen beziehungsweise<br />
erfordern die Umgestaltung traditioneller<br />
Bedienkonzepte. Die Erhöhung der Bediensicherheit von<br />
Prozessanlagen durch eine sichere Ausführung der Bedienkonzeption<br />
wird darüber hinaus durch eine Reihe<br />
von Vorschriften und Richtlinien gefordert. Erste Erfahrungen<br />
bedeutender Anwender sprechen für den Einsatz<br />
dieses Konzeptes [12].<br />
Zukünftige Weiterentwicklungen des Konzeptes im<br />
Rahmen nachhaltiger Visualisierungslösungen für mehr<br />
Effizienz und Rentabilität berücksichtigen unter anderem<br />
folgende Anforderungen:<br />
Effiziente Implementierungskonzepte<br />
Die Benutzungsschnittstelle im demografischen<br />
Wandel<br />
Adaption von Benutzungsschnittstellen, das heißt<br />
Anpassung an die zur Laufzeit vorherrschenden<br />
Randbedingungen, zum Beispiel Benutzerrolle oder<br />
Anlagenzustand.<br />
MANUSKRIPTEINGANG<br />
20.07.2012<br />
Im Peer-Review-Verfahren begutachtet<br />
REFERENZEN<br />
AUTOREN<br />
[1] NA 120: Operator-Arbeitsplatz aus Sicht der Mensch-<br />
Prozess-Kommunikation. Namur, 2008<br />
[2] Charwat, H.J.: Lexikon der Mensch-Maschine<br />
Kommunikation. Oldenbourg Industrieverlag,<br />
München 1994<br />
[3] Wickens, C.D. und Holland, J.G. (2000). Engineering<br />
psychology and human performance. Prentice Hall,<br />
New Jersey, 2000.<br />
[4] VDI/VDE 3699-1: Prozessführung <strong>mit</strong> Bildschirmen,<br />
Blatt 1 Begriffe. Beuth, 2005<br />
[5] VDI/VDE 3699-2: Prozessführung <strong>mit</strong> Bildschirmen,<br />
Blatt 2 Grundlagen. Beuth, 2005<br />
[6] VDI/VDE 3699-3: Prozessführung <strong>mit</strong> Bildschirmen,<br />
Blatt 3 Fließbilder. Beuth, 1999<br />
[7] VDI/VDE 3699-4: Prozessführung <strong>mit</strong> Bildschirmen,<br />
Blatt 4 Kurven. Beuth, 1997<br />
[6] VDI/VDE 3699-5: Prozessführung <strong>mit</strong> Bildschirmen,<br />
Blatt 5 Meldungen. Beuth, 1998<br />
[9] VDI/VDE 3699-6: Prozessführung <strong>mit</strong> Bildschirmen,<br />
Blatt 6 Bedienverfahren und Bediengeräte. Beuth, 2002<br />
[10] EEMUA 201: Process Plant Control Desk utilising<br />
Human-Computer-Interfaces - A Guide to Design,<br />
Operational and Human-Computer Interface Issues“. 2002<br />
[11] Kempf, S. und Glathe, L.: Moderne Anlagenleitstände<br />
und Bedienkonzepte. In: Tagungsband Automation<br />
2011, S.173–176. VDI, 2011<br />
[12] Glathe, L.: Innovatives Bedienkonzept. process news<br />
2012(2), 22 23, 2012<br />
[13] Abnormal Situation Management Consortium. Benefits<br />
- http://mycontrolroom.com/site/content/view/16/29/<br />
[14] EN ISO 11064-5: Ergonomische Gestaltung von Leitzentralen<br />
– Teil 5: Anzeigen und Stellteile. 2008<br />
[15] Galabov, V.: Bediendiagnose - eine Beitrag zur<br />
Steigerung der Mensch-Maschine-Systemverfügbarkeit.<br />
<strong>atp</strong> - <strong>Automatisierung</strong>stechnische Praxis <strong>atp</strong><br />
42(6), 58 63, 2000<br />
[16] DIN EN ISO 9241-210: Ergonomie der Mensch-System-<br />
Interaktion - Teil 210: Prozess zur Gestaltung<br />
gebrauchstauglicher interaktiver Systeme. 2011<br />
Dipl.-Ing. LUTZ GLATHE<br />
(geb. 1962) beschäftigt sich<br />
seit 1990 bei der Siemens AG<br />
(und Vorgängerunternehmen)<br />
in Frankfurt am Main <strong>mit</strong><br />
<strong>Automatisierung</strong>slösungen<br />
und Konzepten. Derzeit ist er<br />
Projektleiter für das HMI-<br />
Consulting und war maßgeblich<br />
an der Entwicklung des Konzeptes beteiligt.<br />
Er ist Mitglied im FA 5.32 „Nutzergerechte<br />
Gestaltung von Prozessleitsystemen (3699)“ des<br />
VDI/VDE-GMA und Gast im Namur-Arbeitskreis<br />
2.9 „Mensch-Prozess-Kommunikation“.<br />
Siemens AG,<br />
Industriepark Höchst, Geb. B598,<br />
D-65926 Frankfurt am Main,<br />
Tel. +49 (0) 69 79 78 46 12,<br />
E-Mail: lutz.glathe@siemens.com<br />
Dipl.-Ing. SVEN KEMPF<br />
(geb. 1972) beschäftigt sich<br />
seit 2000 bei der Siemens<br />
AG in Karlsruhe <strong>mit</strong> dem<br />
Schwerpunkt Leittechnik.<br />
Er arbeitet seit 2004 im<br />
technischen Vertrieb als<br />
Manager für technologische<br />
Konzepte. Seine<br />
Schwerpunkte sind Verfügbarkeitsthemen,<br />
IT-Security und die Optimierung der verfahrenstechnischen<br />
Prozessführung.<br />
Siemens AG,<br />
G. Braun Str. 18, D-76187 Karlsruhe,<br />
Tel. +49 (0) 721 595 60 42,<br />
E-Mail: sven.kempf@siemens.com<br />
70<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
Die Referenzklasse für die<br />
<strong>Automatisierung</strong>stechnik<br />
Erfahren Sie auf höchstem inhaltlichen Niveau, was die<br />
<strong>Automatisierung</strong>sbranche bewegt. Alle Hauptbeiträge<br />
werden in einem Peer-Review-Verfahren begutachtet,<br />
um Ihnen maximale inhaltliche Qualität zu garantieren.<br />
Sichern Sie sich jetzt dieses erstklassige Lektüreerlebnis.<br />
Als exklusiv ausgestattetes Heft sowie als praktisches<br />
e-Paper – ideal für unterwegs, auf mobilen Endgeräten<br />
oder zum Archivieren.<br />
Gratis für Sie: Der Tagungsband AALE 2012 als e-Paper<br />
Das Kompendium bietet eine Zusammenstellung der Fachreferate des 9. Fachkolloquiums<br />
für angewandte <strong>Automatisierung</strong>stechnik in Lehre und Entwicklung an Fachhochschulen.<br />
Die Veranstaltung versteht sich als Forum für Fachleute der <strong>Automatisierung</strong>stechnik aus<br />
Hochschulen und Wirtschaft. Sie wird von der Fakultät Mechatronik und Elektrotechnik der<br />
Hochschule Esslingen <strong>mit</strong> Unterstützung des VFAALE und dem Kompetenzzentrum<br />
Mechatronik BW e.V. organisiert und ausgerichtet.<br />
1. Aufl age 2012, 399 Seiten, Broschur<br />
<strong>atp</strong> <strong>edition</strong> erscheint in : DIV Deutscher Industrieverlag GmbH, Arnulfstraße 124, 80636 München<br />
www.<strong>atp</strong>-online.de<br />
Vorteilsanforderung per Fax: +49 (0) 931 / 4170 - 492 oder im Fensterumschlag einsenden<br />
Ja, ich möchte <strong>atp</strong> <strong>edition</strong> im Abo-plus-Paket lesen.<br />
Bitte schicken Sie mir die Fachpublikation für zunächst ein Jahr (12 Ausgaben) als gedrucktes Heft<br />
+ digital als e-Paper (PDF-Datei als Einzellizenz) für € 638,40 (Deutschland) / € 643,40 (Ausland).<br />
Als Dankeschön erhalte ich den Tagungsband AALE 2012 gratis als e-Book.<br />
Nur wenn ich nicht bis von 8 Wochen vor Bezugsjahresende kündige, verlängert sich der Bezug um<br />
ein Jahr.<br />
Die sichere, pünktliche und bequeme Bezahlung per Bankabbuchung wird <strong>mit</strong> einer Gutschrift von<br />
€ 20,- auf die erste Jahresrechung belohnt.<br />
Firma/Institution<br />
Vorname/Name des Empfängers<br />
Straße/Postfach, Nr.<br />
Land, PLZ, Ort<br />
Telefon<br />
Telefax<br />
Antwort<br />
Leserservice <strong>atp</strong><br />
Postfach 91 61<br />
97091 Würzburg<br />
E-Mail<br />
Branche/Wirtschaftszweig<br />
Bevorzugte Zahlungsweise □ Bankabbuchung □ Rechnung<br />
Bank, Ort<br />
Bankleitzahl<br />
✘<br />
Kontonummer<br />
Widerrufsrecht: Sie können Ihre Vertragserklärung innerhalb von 14 Tagen ohne Angabe von Gründen in Textform (Brief, Fax, E-Mail) oder durch<br />
Rücksendung der Sache widerrufen. Die Frist beginnt nach Erhalt dieser Belehrung in Textform. Zur Wahrung der Widerrufsfrist genügt die rechtzeitige<br />
Datum, Unterschrift<br />
PAATPE0312<br />
Absendung des Widerrufs oder der Sache an den Leserservice <strong>atp</strong>, Franz-Horn-Str. 2, 97082 Würzburg.<br />
Nutzung personenbezogener Daten: Für die Auftragsabwicklung und zur Pfl ege der laufenden Kommunikation werden personenbezogene Daten erfasst, gespeichert und verarbeitet. Mit dieser Anforderung er kläre ich mich da<strong>mit</strong> einverstanden, dass ich von<br />
DIV Deutscher Industrieverlag oder vom Vulkan-Verlag □ per Post, □ per Telefon, □ per Telefax, □ per E-Mail, □ nicht über interessante, fachspezifi sche Medien- und Informationsangebote informiert und beworben werde. Diese Erklärung kann ich <strong>mit</strong> Wirkung für<br />
die Zukunft jederzeit widerrufen.
HAUPTBEITRAG<br />
Semantikvielfalt <strong>mit</strong><br />
AutomationML beherrschen<br />
Vorgehensmodell für die Standardisierung von Datenmodellen<br />
Mit der Einführung eines Konzeptes zur Beherrschung heterogener Datenmodelle im<br />
Austausch von Engineering-Daten hat AutomationML in 2011 und 2012 einen erheblichen<br />
Fortschritt erzielt. Dieser Beitrag beschreibt, warum ein gemeinsames und neutrales<br />
Standard-Datenmodell im Engineering bisher nicht gelungen ist und wie AutomationML<br />
den Umgang <strong>mit</strong> Semantikvielfalt ermöglicht. Daraus entwickeln die Autoren ein evolutionäres<br />
Standardisierungs-Reifegradmodell. Das Konzept ist reif für die industrielle<br />
Einführung und bietet Vorteile für Industrie, Gremien und Akademia.<br />
SCHLAGWÖRTER AutomationML / Datenaustausch / CAEX / Reifegradmodell<br />
Handling semantic heterogeneity with AutomationML –<br />
An approach for the standardization of data models<br />
In 2011, the AutomationML consortium has achieved significant technical progress – the<br />
introduction of a concept that masters different semantics in the data exchange process<br />
of a heterogeneous engineering tool landscape. This contribution gives an overview about<br />
the current technical developement state of the data exchange format AutomationML.<br />
KEYWORDS AutomationML / data exchange / CAEX / COLLADA / PLCopen XML<br />
72<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
RAINER DRATH, MIKE BARTH, ABB Forschungszentrum<br />
Für Ingenieure ist AutomationML ein Hilfs<strong>mit</strong>tel<br />
zum Austausch von Engineering-Daten in einer<br />
heterogenen Werkzeuglandschaft. SPS-Programmierer<br />
tauschen Ablaufsequenzen, Hardwarehierarchien<br />
oder Signaldaten untereinander oder<br />
<strong>mit</strong> Ingenieuren der HMI- oder Elektroplanung aus. Roboterprogrammierer<br />
speichern Bahnverläufe oder importieren<br />
3D-Geometrien und Kinematiken.<br />
Diese unterschiedlichen Sichtweisen lassen die dahinterstehende<br />
Problemstellung erahnen: In der Anlagenplanung<br />
sind viele Personen <strong>mit</strong> jeweils individuellen Planungswerkzeugen<br />
beteiligt. Alle diese Gewerke sind in<br />
einer unsichtbaren Wertschöpfungskette <strong>mit</strong>einander<br />
verbunden: In einem Werkzeug werden Daten erzeugt,<br />
welche in mehreren weiteren Werkzeugen benötigt werden.<br />
Durch fortwährende Anreicherung, durch wiederholtes<br />
Kopieren und Verteilen von Engineering-Daten in<br />
einem solchen Werkzeugnetzwerk entstehen zwangsläufig<br />
Redundanzen und Inkonsistenzen. Deren Identifizierung<br />
und Behebung verursacht erheblichen manuellen<br />
Aufwand [1]. Mit Hinblick auf die Inbetriebnahme (virtuell<br />
oder real) ist die konsistente Zusammenführung<br />
aller Engineering-Daten dabei von besonderer Bedeutung.<br />
Gerade in der Fertigungsautomatisierung werden Antriebe,<br />
SPSn, Roboter oder Sicherheitseinrichtungen verschiedener<br />
Hersteller <strong>mit</strong>einander kombiniert. Jeder<br />
Gerätehersteller stellt dabei seine eigene Engineering-<br />
Software bereit <strong>mit</strong> ihren langjährig gereiften, sinnvollen<br />
und berechtigten Datenmodellen. Im Ergebnis entstehen<br />
eine heterogene Werkzeuglandschaft sowie eine erhebliche<br />
Semantikvielfalt.<br />
1. GRUNDPROBLEM DER SEMANTIKVIELFALT<br />
Warum ist Semantikvielfalt ein Problem? Dies lässt sich<br />
anhand menschlicher Kommunikation darstellen: Menschen<br />
können einen Text verstehen, wenn sie über ein gemeinsam<br />
vereinbartes Modell des Alphabets (die Syntax)<br />
sowie der Bedeutung ihrer Elemente (Semantik) verfügen.<br />
Schrift ist ein selbstverständliches Mittel der Kommunikation.<br />
Dennoch sind Fehler bei der Übertragung <strong>mit</strong>tels<br />
Sprache allgegenwärtig: Kommunikation wird erschwert,<br />
wenn Verfasser und Leser über ein unterschiedliches Alphabet<br />
verfügen, unterschiedliche Syntax verwenden oder<br />
über unterschiedliche Semantikmodelle derselben Sprache<br />
verfügen, zum Beispiel Doppeldeutigkeiten. Gleiche Begriffe<br />
unterschiedlicher Bedeutung oder unterschiedliche Begriffe<br />
gleicher Bedeutungen führen regelmäßig zu Missverständnissen.<br />
Semantische Vielfalt ist keine Spezialität der<br />
<strong>Automatisierung</strong>stechnik, sondern allgegenwärtig.<br />
Der Datenaustausch zwischen Engineering-Werkzeugen<br />
in einer heterogenenen Werkzeuglandschaft leidet an denselben<br />
Problemen: Es fehlt ein vereinbartes gemeinsames<br />
Datenmodell, syntaktisch und semantisch. Um dies zu<br />
beheben, beschreibt die Literatur zwei grundsätzliche<br />
Konzepte: Entweder werden die Werkzeuge <strong>mit</strong>einander<br />
in einer gemeinsamen Datenbank auf einem gemeinsamen<br />
Datenmodell integriert (und so<strong>mit</strong> voneinander abhängig),<br />
oder sie gehen eine lose Kopplung <strong>mit</strong> einem dateibasierten<br />
Datenaustausch ein und bleiben unabhängig. Beide<br />
Ansätze haben ihre Existenzberechtigung (siehe [2], [4]).<br />
Dem dateibasierten Datenaustausch kommt in der Praxis<br />
eine besondere Bedeutung zu, denn die Mehrzahl der<br />
am Markt befindlichen Werkzeuge stammt nicht von<br />
einem Hersteller, ist nicht aufeinander abgestimmt und<br />
besitzt aufgrund ihrer langjährigen Reifung ein eigenes,<br />
bewährtes und berechtigtes Datenmodell. Ihre Werkzeugintegration<br />
ist aufgrund wirtschaftlicher Eigentumsverhältnisse<br />
und Marktbedingungen nicht zu erwarten:<br />
Die Werkzeuge und ihre Datenmodelle liegen in<br />
der Hoheit des jeweiligen Werkzeugherstellers und unterliegen<br />
ständiger Veränderung. Folglich wird ein übergreifendes<br />
gemeinsames Datenaustauschformat benötigt.<br />
1.1 Motivation für AutomationML<br />
Aufgrund fehlender Datenaustauschformate existieren zwischen<br />
den Gewerkegrenzen nach wie vor erhebliche Brüche<br />
im Engineeringworkflow – eine Hauptursache für die von<br />
der AIDA in 2005 bezifferten Engineeringkosten von 50 %<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
73
HAUPTBEITRAG<br />
Bild 1<br />
der Gesamtautomatisierungslösung im Automobilbau [3]. Bild verdeutlicht die Architektur von AutomationML.<br />
Vor diesem Hintergrund initiierte die Daimler AG 2006 unter<br />
anderem gemeinsam <strong>mit</strong> ABB, Siemens und Kuka einen 62424 [5] standardisierte Format CAEX (Computer Aided<br />
Das Rückgrat von AutomationML bildet das in der IEC<br />
Arbeitskreis <strong>mit</strong> dem Ziel, erstmalig ein Datenformat zu Engineering eXchange). Dieses ermöglicht das Modellieren<br />
und Speichern von Objektnetzwerken <strong>mit</strong>samt deren<br />
entwickeln, das möglichst alle Engineering-Disziplinen<br />
und -Phasen abdeckt. Im Ergebnis entstand ein schlankes Attributen, Schnittstellen, Relationen sowie Bibliotheken.<br />
AutomationML definiert darüber hinaus einen Re-<br />
Datenformat, das bestehende Datenformate kombiniert und<br />
lediglich deren Verwendung und Interaktion definiert. ferenzmechanismus, <strong>mit</strong> dem sich Geometrie- und Ki-<br />
Bild 2<br />
CAEX IEC 62424<br />
Dachformat<br />
Anlagentopologie -<br />
information<br />
• Anlage<br />
• Zelle<br />
• Komponente<br />
• Attribute<br />
• Schnittstellen<br />
• Relationen<br />
• Referenzen<br />
Object A<br />
AutomationML<br />
Engineeringdaten<br />
Object A 1<br />
Object A 2<br />
Bild 3<br />
BILD 1: AutomationML-Architektur<br />
COLLADA<br />
Geometrie<br />
Kinematik<br />
PLCopen XML<br />
Verhalten<br />
Abfolgen<br />
a<br />
h<br />
Standardisierung<br />
Praktischer Einsatz<br />
BILD 2: Standardisierungs-<br />
Deadlock<br />
g<br />
DB<br />
Quell-<br />
Tool<br />
1<br />
Exporter<br />
2<br />
3<br />
Ziel-<br />
Tool<br />
Importer<br />
DB<br />
4<br />
BILD 3:<br />
Idealer Datenaustausch<br />
<strong>mit</strong> CAEX<br />
Mapping<br />
Quell – Neutral<br />
Bild 4<br />
AutomationML<br />
Mapping<br />
Neutral – Ziel<br />
Quell-<br />
Tool<br />
Daten liegen gemischt<br />
neutral/privat vor<br />
DB<br />
1<br />
Exporter 2<br />
3<br />
Mapping<br />
1. Quell – neutral<br />
AutomationML<br />
Ziel-<br />
Tool<br />
Importer<br />
DB<br />
4<br />
Mapping<br />
1. neutral – Ziel<br />
2. Quell CAEX – Ziel<br />
BILD 4:<br />
Realer Datenaustausch<br />
<strong>mit</strong> CAEX<br />
74<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
nematikdaten eines Objektes referenzieren lassen. Diese<br />
werden in einer separaten Collada-Datei gespeichert.<br />
Darüber hinaus kann diskretes Verhalten in separaten<br />
PLCopen XML-Dateien beschrieben werden. Einen vertiefenden<br />
Einblick in AutomationML gibt [4].<br />
Bezüglich Geometrie, Kinematik und diskreter Logik<br />
besitzt AutomationML bereits eine definierte Syntax und<br />
Semantik. AutomationML ist aber mehr als nur Geometrie<br />
oder Logik: Auch Objektmodelle sind <strong>mit</strong> CAEX modellierbar,<br />
beispielsweise eine Hardwarehierarchie. CAEX liefert<br />
jedoch keine fertigen Objekt-Bibliotheken, keine Ontologien<br />
oder gar ein Engineering-Weltmodell. Stattdessen trennen<br />
die Entwickler von CAEX bewusst Syntax und Semantik.<br />
CAEX schreibt kein Objektmodell vor, sonden bietet<br />
Mechanismen zur Modellierung beliebiger nutzerdefinierter<br />
Datenmodelle. Diese werden syntaktisch neutralisiert,<br />
die Semantik hingegen bleibt nutzerdefiniert. Auf diese<br />
Weise kann CAEX von Anbeginn unterschiedliche Objektmodelle<br />
abbilden und so Semantikvielfalt aufnehmen.<br />
Da<strong>mit</strong> ist es für zukünftige Standard-Datenmodelle gerüstet.<br />
Doch die Standardisierungs-Community hat bis heute<br />
kein Engineering-Weltmodell etabliert – die Beherrschung<br />
der Semantikvielfalt ist bisher nicht gelungen. Warum?<br />
1.2 Das Grundproblem der Semantik-Standardisierung<br />
Die Ur-Idee eines neutralen Datenformates besteht darin,<br />
Daten herstellerneutral und verlustlos zu speichern. Es<br />
liegt daher der Gedanke nahe, die Semantikvielfalt durch<br />
ein Super-Datenmodell zu beherrschen, das sämtliche<br />
Konzepte aller verwendeten Datenmodelle vereint und<br />
eine eindeutige und verlustlose Abbildung aller Daten<br />
ermöglicht. Dies ist die treibende Kraft aller Standardisierungsaktivitäten.<br />
Da<strong>mit</strong> eine solche Standardisierung<br />
gelingt, müssen folgende Schritte absolviert werden:<br />
1.2.1 Schrittfolge einer Semantik-Standardisierung<br />
a | Eine Gruppe von Experten trägt für jedes beteiligte<br />
Gewerk beziehungsweise Engineeringwerkzeug<br />
alle benötigten Datenmodelle und Konzepte bei.<br />
b | Experten einigen sich auf die gemeinsamen Grundkonzepte.<br />
c | Experten einigen sich auf ein neutrales semantisches<br />
Datenmodell, das alle Grundkonzepte berücksichtigt,<br />
zum Beispiel UML.<br />
d | Experten einigen sich auf eine neutrale Syntax,<br />
beispielsweise basierend auf XML.<br />
e | Die gemeinsamen Grundkonzepte, das semantische<br />
Datenmodell und die Umsetzung in einer gemeinsamen<br />
Syntax werden in einem Dokument niedergeschrieben,<br />
beispielsweise in einem Normtext<br />
oder White Paper.<br />
f | Die Industrie und Akademia schaffen die Voraussetzungen<br />
dafür, dass genügend Experten zur Verfügung<br />
stehen, die den Standard beurteilen und<br />
implementieren können.<br />
g | Anwender und Werkzeughersteller implementieren<br />
und nutzen den Standardentwurf in ihren<br />
Werkzeugen.<br />
h | Erfahrungen aus der praktischen Nutzung des Standards<br />
fließen in (a) zurück und tragen zur Standard-Reifung<br />
bei.<br />
1.2.2 Der Standardisierungs-Deadlock<br />
Die Entwicklung neutraler Datenmodelle wurde und wird<br />
in unterschiedlichen Aktivitäten versucht, zum Beispiel<br />
NE100 [6], Plant-XML [7], STEP [8], Engineering Service<br />
Bus [9], <strong>mit</strong> wissensbasierten Systemen [10] oder ISO 15926<br />
[11]. Ein Engineering-Weltmodell ist dennoch nicht in<br />
Sicht und unter globalen Randbedingungen vermutlich<br />
nicht erreichbar. Während die Standardisierung nur reifen<br />
kann, wenn Erfahrungen aus der praktischen Nutzung<br />
einfließen, warten Werkzeughersteller typischerweise auf<br />
einen gereiften Standard, bevor sie ihre Software <strong>mit</strong> Exund<br />
Importern ausstatten. Daraus resultiert der in Bild 2<br />
veranschaulichte Standardisierungs-Deadlock: die Rückführungen<br />
(g) und (h) sind gestört.<br />
Ein bekanntes Beispiel für dieses Paradoxon ist die STEP-<br />
Initiative. In diesem Ansatz beschreiben tausende Textseiten<br />
vielfältige Aspekte der Anlagenplanung und deren Life-<br />
Cycle. Diese Aktivität hat unter jahrelangen Bemühungen<br />
(a) bis (e) erfolgreich durchlaufen, scheitert in der Praxis<br />
jedoch aufgrund seiner Komplexität an (f), (g) und (h).<br />
Ein anderes Beispiel ist PlantXML. Innerhalb eines<br />
Unternehmens wurden über mehrere Jahre für eine Auswahl<br />
von Werkzeugen hunderte Attribute und Objekttypen<br />
standardisiert. PlantXML hat erfolgreich (a) bis (h)<br />
durchlaufen und ist produktiv. Leider ist es für andere<br />
Unternehmen oder Gewerke nicht wiederverwendbar,<br />
da es an seine Werkzeuge gebunden ist. Folglich besitzt<br />
es Schwächen in (f), (g) und (h) – es ist keine Anwendung<br />
außerhalb ihrer Entstehungsquelle bekannt.<br />
Fazit: Die Erfahrung zeigt, dass das Engineering-Weltmodell<br />
aufgrund der Vielzahl von Werksnormen, regionalen<br />
und nationalen Standards nicht in einem Schritt<br />
erreichbar ist. Es wird daher ein Konzept benötigt, welches<br />
bereits heute den Umgang <strong>mit</strong> der Semantik-Vielfalt<br />
ermöglicht, statt auf ein künftiges übergreifendes Semantik-Modell<br />
zu warten.<br />
2. UMGANG MIT HETEROGENEN DATENMODELLEN<br />
2.1 Grundlagen und Herleitung<br />
Die ursprüngliche Idee eines neutralen Datenformates<br />
beruht darauf, Daten herstellerunabhängig und verlustfrei<br />
zu modellieren und zu speichern. Das vorgestellte<br />
Konzept leitet sich direkt aus den in Bild 3 dargestellten<br />
Aufgaben idealer CAEX-Exporter und -Importer der teilnehmenden<br />
Werkzeuge ab.<br />
Schritt 1: Ein CAEX-Exporter exportiert Daten aus<br />
einer proprietären Datenbank eines Quell-Engineering-Werkzeugs.<br />
Dazu benötigt er Zugriff auf die<br />
Quelldaten.<br />
Schritt 2: Der CAEX-Exporter transformiert die proprietären<br />
Daten verlustfrei in das vereinbarte neutrale<br />
CAEX-Datenmodell und speichert dies als Au-<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
75
HAUPTBEITRAG<br />
tomationML-Dokument ab. Dazu benötigt er Wissen<br />
über das proprietäre Datenmodell sowie das neutrale<br />
Datenmodell und zugleich über zugehörige Transformationsregeln.<br />
Schritt 3: Der CAEX-Importer liest das AutomationML-<br />
Dokument und transformiert die Daten aus dem<br />
neutralen Datenmodell in das proprietäre Datenmodell<br />
des Zielwerkzeugs. Dazu benötigt er Wissen<br />
über das neutrale und das proprietäre Datenmodell<br />
des Zielwerkzeugs sowie über die zugehörigen<br />
Transformationsregeln.<br />
Schritt 4: Der CAEX-Importer importiert die transformierten<br />
Daten in das proprietäre Datenmodell des<br />
Zielwerkzeugs. Dazu benötigt er Zugriff auf die Daten<br />
des Zielwerkzeugs.<br />
Leider fehlt das neutrale Datenmodell. Für eine Vielzahl<br />
vereinzelter Objekte finden sich zwar aus aktuellen Standardisierungsergebnissen<br />
Daten-Teilmodelle, beispielsweise<br />
für ein Signal (NE 100) oder einen Sensor (ISO<br />
15926). Für viele Daten lassen sich in Schritt 2 jedoch keine<br />
oder wenige Transformationsregeln implementieren.<br />
2.2 Die Idee eines gemischten Datenmodells<br />
Was passiert, wenn man private Datenmodelle zuließe,<br />
statt sie zu vermeiden? Fehlende neutrale Datenmodelle<br />
sind für AutomationML kein Hindernis: CAEX erlaubt<br />
explizit das Speichern gemischt proprietär/neutraler<br />
Daten-Teilmodelle. Proprietäre Daten werden immerhin<br />
syntaktisch neutralisiert, semantisch bleiben sie proprietär.<br />
Auch wenn das Zielwerkzeug diese Daten nicht<br />
interpretieren kann (zu Beginn ein sehr wahrscheinlicher<br />
Fall), stellt dies bereits einen erheblichen Gewinn<br />
dar: Erstmalig werden proprietäre Datenmodelle außerhalb<br />
ihres Werkzeugs syntaktisch neutralisiert und explizit<br />
sichtbar. Dies erleichtert die Schritte (a) und (b) der<br />
beschriebenen Standardisierungskette. Dies ändert die<br />
Aufgabe des Exporters (Bild 4):<br />
Schritt 2: Der Exporter transformiert nur diejenigen<br />
proprietären Daten, für die ein neutrales Datenmodell<br />
vorliegt. Die privaten Daten lässt er unverändert<br />
und überträgt sie 1:1 nach CAEX. Das resultierende<br />
CAEX-Dokument enthält in diesem Fall<br />
eine Mischung aus neutralen und privaten Daten-<br />
Teilmodellen.<br />
Andere Engineering-Werkzeuge können diese Datei zumindest<br />
öffnen, Inhalte untersuchen, Änderungsberechnungen<br />
durchführen und Versionsmanagement betreiben. Während<br />
neutrale Datenmodelle identifiziert und importiert<br />
werden können, gelingen die Interpretation und der Import<br />
proprietärer Daten nicht un<strong>mit</strong>telbar. Dazu muss ein Zielwerkzeug<br />
den Absender wissen und dessen Datenmodelle<br />
kennen, um geeignete Transformationsroutinen aufrufen<br />
zu können. Dies ändert die Aufgabe des Importers:<br />
Bild 5<br />
Schritt 3: Der Importer transformiert die neutralen<br />
Daten in das proprietäre Datenmodell des Zielwerkzeugs.<br />
Private Daten müssen jedoch <strong>mit</strong>hilfe zuge-<br />
Reifegrad 1<br />
Reifegrad 2<br />
Reifegrad 3<br />
Reifegrad 3 3<br />
Reifegrad 4<br />
Standardisierungsgrad = 0%<br />
Standardisierungsgrad > 0%<br />
lokaler<br />
Standardisierungsgrad = 100%<br />
übergreifender Standard<br />
Praktischer<br />
Einsatz<br />
Praktischer<br />
Einsatz<br />
Praktischer<br />
Einsatz<br />
Praktischer<br />
Einsatz<br />
Unbek. priv. Datenmodelle<br />
Kandidaten für das<br />
Lastenheft?<br />
Unbek. priv. Datenmodelle<br />
Kandidaten für das<br />
Lastenheft?<br />
Neutrale Datenmodelle<br />
NeutraleTransformationen<br />
Standard Datenmodelle<br />
Standard Transformationen<br />
SW-Entwicklung<br />
SW-Entwicklung<br />
Bekannte priv. Datenmodelle<br />
Private Transformationen<br />
Kandidaten für lokale<br />
Standardisierung?<br />
Bekannte priv. Datenmodelle<br />
Priv.Transformationen<br />
Neutrale Datenmodelle<br />
Neutrale Transformationen<br />
Standardisierung<br />
Lokale Standardisierung<br />
von Mini-Datenmodellen<br />
BILD 5: Reifegrade der<br />
semantischen Standardisierung<br />
76<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
schnittener privater Transformationsregeln interpretiert<br />
werden, oder sie werden ignoriert.<br />
2.3 Identifikation des Quellwerkzeugs<br />
Doch wie kann ein Importer erkennen, welche privaten<br />
Transformationsroutinen angewendet werden müssen?<br />
AutomationML führt dazu erstmalig einen standardisierten<br />
Etikettiermechanismus ein. Die CAEX-Datei bekommt<br />
ein Etikett, dieses wird während des Exports in Schritt 2<br />
eingebettet und enthält Informationen über das Quellwerkzeug<br />
(siehe Abschnitt 1). Ein Importer kann dieses<br />
Etikett auswerten und private Transformationsroutinen<br />
anstoßen. Dies führt für den Praktiker zu schnellen Lösungen<br />
ohne Warten auf das Engineering-Weltmodell.<br />
Doch ist das nicht ein Rückfall in die Situation, in der<br />
jedes Werkzeug seine Daten in seinem eigenen proprietären<br />
Datenformat exportiert? Nein! Folgende Aspekte verdeutlichen<br />
das:<br />
Das Etikettierkonzept erlaubt die automatische Absendererkennung.<br />
Excel-Sheets und andere bekannte<br />
Austauschmechanismen verfügen über keine<br />
standardisierte Methodik dafür.<br />
Das neutrale Datenformat ermöglicht die Neutralisierung<br />
proprietärer Datenmodelle auf Syntax-<br />
Ebene. Dies ermöglicht datenmodellunabhängige<br />
Operationen wie Versionsmanagement oder Änderungsberechnungen<br />
([2], [9]). Derartige Funktionalität<br />
müsste für jedes proprietäre Datenformat erneut<br />
entwickelt werden. Basierend auf einem neutralen<br />
Datenformat genügt eine einzige Implementierung.<br />
Ein Großteil des Importers kann daher<br />
unabhängig vom Quellwerkzeug wiederverwendet<br />
werden.<br />
2.4 Praktische Relevanz<br />
Der vorgeschlagene Ansatz ändert den Weg zu einem<br />
neutralen Datenmodell erheblich: Eine AutomationML-<br />
Datei wird nach dem Datenexport teilweise proprietär.<br />
Dies verletzt die Ur-Idee eines neutralen Datenformates<br />
und verlässt scheinbar bewährte Pfade. Zu Recht: Der<br />
hier vorgeschlagene Ansatz nutzt die Heterogenität bewusst,<br />
anstatt sie überwinden zu wollen.<br />
Entwickler von Exportern und Importern müssen<br />
nicht mehr auf einen gereiften Standard warten.<br />
Dies überwindet den beschriebenen Deadlock<br />
(Bild 2) und beschleunigt die Entwicklung von Datenaustauschlösungen.<br />
Für die Gremien ist die Mischung von privaten und<br />
neutralen Daten-Teilmodellen ein fruchtbarer Boden<br />
für eine erfolgreiche schrittweise Evolution der<br />
Standardisierung. Sie erlaubt, gänzlich ohne Standardisierung<br />
<strong>mit</strong> ausschließlich privaten Daten zu<br />
beginnen, um schrittweise eine vollständige Standardisierung<br />
zu erreichen. Dabei werden Zwischenschritte<br />
durchlaufen, aus denen die Autoren ein<br />
Reifegradmodell ableiten.<br />
3. REIFEGRADE DER STANDARDISIERUNG<br />
3.1 Überblick<br />
Aus der Idee eines gemischt privat/neutralen Datenmodells<br />
entwickeln die Autoren ein Reifegradmodell der<br />
semantischen Standardisierung, dessen Stufen in Bild 5<br />
abgebildet sind. Das Ziel dieses Reifegradmodells besteht<br />
darin, den erläuterten Standardisierungs-Deadlock zu<br />
durchbrechen und den Datenaustausch in einem heterogenen<br />
Werkzeugumfeld auch ohne beziehungsweise<br />
nur <strong>mit</strong> teilweiser Standardisierung durchführen zu<br />
können. Im Vordergrund jedes Reifegrades steht immer<br />
dessen praktischer Einsatz. Die Entwicklung neutraler<br />
Daten-Teilmodelle erfolgt schrittweise und ist nicht<br />
mehr Voraussetzung für den praktischen Einsatz. Dies<br />
bedeutet, dass die Standardisierung der Nutzung folgt,<br />
nicht umgekehrt wie bisher.<br />
3.2 Reifegrad 1 – das vollständig private Datenmodell<br />
Reifegrad 1 beginnt <strong>mit</strong> einem Standardisierungsgrad<br />
von 0 % (das heißt <strong>mit</strong> 100 % privaten Daten). Betrachten<br />
wir den Exporter und Importer eines Quell- und Ziel-<br />
Engineering-Werkzeugs nach Reifegrad 1: Beide verwenden<br />
keinerlei lokale/globale Vereinbarungen oder Standards,<br />
die Werkzeuge sind völlig unabhängig. Der Exporter<br />
exportiert die Daten in Schritt 2 nach CAEX unter<br />
Verwendung der CAEX-Syntax, aber unter Verwendung<br />
des privaten Datenmodells des Quellwerkzeugs.<br />
Die Entwicklung des quellwerkzeugspezifischen Exporters<br />
ist wegen des fehlenden Standards besonders einfach,<br />
der Aufwand wird maßgeblich durch die Offenheit des<br />
Quellwerkzeugs bestimmt [12]. Den Erfahrungen der Autoren<br />
zufolge ist ein Exporter, je nach angestrebter Produktreife,<br />
in wenigen Tagen zu implementieren [15].<br />
Die Entwicklung des quellwerkzeugspezifischen Importers<br />
erfordert mehr Aufwand, wird durch das beschriebene<br />
Konzept aber erheblich unterstützt. Aufgrund<br />
der standardisierten CAEX-Syntax kann der Importer<br />
(selbst ohne Wissen über das Quell-Datenmodell)<br />
die Datei öffnen, durchsuchen und darstellen. Doch das<br />
ist nicht alles: Darüber hinaus sind wesentliche Funktionen<br />
eines Importers wie Navigation, Änderungsberechnungen<br />
sowie Versions-Managementfunktionen unabhängig<br />
vom Datenmodell und lassen sich generisch entwickeln<br />
und wiederverwenden – nicht denkbar <strong>mit</strong> einem<br />
syntaktisch unstandardisierten Datenformat wie<br />
beispielsweise einer Excel-Liste.<br />
Das Etikettierkonzept ermöglicht dem Importer, das<br />
Quellwerkzeug festzustellen. Dies ist der Schlüssel zum<br />
„Erkennen“ von privaten Datenmodellen. Zu Beginn<br />
wird der Importer keine bekannten Datenmodelle (Klassen)<br />
finden (siehe Bild 5), dafür müssen zuerst geeignete<br />
private quellwerkzeugspezifische Subroutinen für die<br />
Interpretation und den Import entwickelt werden. Dies<br />
wird ebenfalls unterstützt: Der Importer kann konzeptbedingt<br />
unbekannte private Datenmodelle explizit erkennen<br />
und in einer CAEX-Bibliothek speichern. Aus<br />
dieser lässt sich der Standardisierungsbedarf automatisch<br />
ableiten und anhand von Häufigkeitsuntersuchun-<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
77
HAUPTBEITRAG<br />
gen sogar priorisieren. Private Transformationsroutinen<br />
können <strong>mit</strong> diesem Wissen schnell und in lokaler Verantwortung,<br />
das heißt ohne Abhängigkeiten zu höheren/<br />
öffentlichen Standardisierungsaktivitäten, entwickelt<br />
werden. Dies könnte auch eine Quick–and-dirty-Lösung<br />
sein, das Konzept ist nicht an ein kommerzielles Produkt<br />
eines Werkherstellers gebunden. Das Ziel ist der Einsatz<br />
und die Reifung unter realen Bedingungen.<br />
Im Ergebnis werden aus unbekannten so<strong>mit</strong> bekannte<br />
Datenmodelle. Die entwickelten privaten Transformationsroutinen<br />
lassen sich für jeden weiteren Datenaustausch<br />
<strong>mit</strong> demselben Quellwerkzeug wiederverwenden.<br />
Die Vorteile von Reifegrad 1 liegen in seiner un<strong>mit</strong>telbaren<br />
Einsetzbarkeit: Da ein Standard nicht abgewartet<br />
werden muss, können zwei Werkzeughersteller oder<br />
-nutzer un<strong>mit</strong>telbare Export-Import-Partnerschaften eingehen.<br />
Ein dritter Teilnehmer kann sich (auch später)<br />
einbinden, je mehr Teilnehmer, desto geringer der Gesamtaufwand.<br />
Lediglich die werkzeugpaarspezifischen<br />
Transformationsroutinen sind unterschiedlich.<br />
Reifegrad 1 kombiniert die Kosteneffizienz eines<br />
leichtgewichtigen Excel-basierten Datenaustausches <strong>mit</strong><br />
den Vorteilen höherwertiger Funktionen wie Änderungsmanagement.<br />
Kosteneinsparungen werden zeitnah erzielt.<br />
Zudem bietet Reifegrad 1 einen weiteren neuartigen<br />
Vorteil: Ein Importer kann alle Objekttypen feststellen,<br />
die ihm unbekannt sind. Auf diese Weise werden nicht<br />
nur alle bekannten, sondern auch alle unbekannten Daten<br />
explizit sichtbar. Diese Sichtbarkeit ist ein Schlüssel<br />
für die Identifizierung von Standardisierungsbedarf und<br />
eröffnet den Weg zu einer automatischen Erzeugung von<br />
Lastenheften. Der Wissensaufbau im Umgang <strong>mit</strong> CAEX<br />
erfolgt schrittweise. Der Datenaustausch kann so bedacht<br />
eingeführt und praktiziert werden und reifen.<br />
Reifegrad 1 ist so<strong>mit</strong> ein wichtiger Meilenstein in der<br />
Evolution eines Standardisierungsprozesses. Er erleichtert<br />
die Schritte (a) und (b) und belebt die Rückführung<br />
von Erfahrungen (h) aus Bild 2. Dies löst den Standardisierungs-Deadlock.<br />
Dieser Reifegrad ist für Werkzeuge <strong>mit</strong> wenigen Datenaustauschpartnern<br />
geeignet und möglicherweise sogar<br />
ausreichend. Die Entwicklung privater Transformationsroutinen<br />
benötigt deutlich weniger Aufwand als eine<br />
Standardisierung. Reifegrad 1 ist weiterhin ideal für<br />
Werkzeuge, die lediglich ihre eigenen Daten archivieren<br />
beziehungsweise extern manipulieren und anschließend<br />
wieder einlesen möchten.<br />
Mit der Zeit und wachsender Zahl von Teilnehmern<br />
wird eine Bibliothek aus Transformationsroutinen entstehen.<br />
Dies ist ein geeigneter Indikator für den Start<br />
einer Konsolidierung des Entwicklungsaufwandes und<br />
so<strong>mit</strong> ein guter Übergangspunkt zu Reifegrad 2, denn<br />
ähnliche Datenmodelle sind Kandidaten für eine erste<br />
Standardisierung.<br />
3.3 Reifegrad 2 –<br />
das gemischt standardisierte/private Datenmodell<br />
Reifegrad 2 entsteht aus der Konsolidierung der Standardisierungskandidaten<br />
aus Reifegrad 1 (siehe Bild 5). Für<br />
ähnliche private Datenmodelle entwickelt sich im Kreise<br />
der Teilnehmer der Wunsch nach lokaler Standardisierung<br />
im Zuge einer kosteneffizienten Softwareentwicklung.<br />
Dies erhöht die Standardisierungsbereitschaft<br />
und führt zu ersten neutralen Mini-Datenmodellen.<br />
Jede solche Standardisierung wird belohnt: Für jedes<br />
neutralisierte Mini-Datenmodell kann in jedem Importer<br />
die Zahl (n) der privaten Transformationsroutinen für n<br />
Quellwerkzeuge auf eine einzige Transformationsroutine<br />
reduziert werden. Auf diese Weise entsteht ein Pool<br />
an neutralen Datenmodellen, während der Pool privater<br />
Transformationsroutinen schrumpft.<br />
Wichtig dabei ist das Verständnis für den Evolutionsprozess<br />
hin zu Reifegrad 2, welcher ausschließlich aus<br />
praktischen Projektbedürfnissen getrieben wird. Dies<br />
stellt einen natürlichen und evolutionären Prozess dar.<br />
Unter Verwendung erster neutraler Daten-Teilmodelle<br />
erzeugt ein Exporter in Reifegrad 2 ein gemischt standardisiert/privates<br />
CAEX-Datenmodell. Ein Importer<br />
kann alle bekannten Datenmodelle anhand ihres Klassennamens<br />
sowie des Etiketts erkennen, interpretieren<br />
und importieren. Hierbei können dieselben Transformationsroutinen<br />
wiederverwendet werden, die in Reifegrad<br />
1 entstanden sind. Aus erkannten unbekannten Datenmodellen<br />
lässt sich auch hier automatisiert Standardisierungsbedarf<br />
ableiten. Bild 6 illustriert anhand privater<br />
oder unbekannter Objekttypen Kandidaten, die als<br />
Standardisierungs- beziehungsweise Entwicklungskandidaten<br />
in Frage kommen. Reifegrad 2 ist für überschaubare<br />
und feststehende Datenaustauschszenarien geeignet<br />
und in vielen Fällen sogar ausreichend.<br />
3.4 Reifegrad 3 – das neutrale Datenmodell<br />
Reifegrad 3 wird erreicht, wenn alle benötigten Daten-<br />
Teilmodelle durch neutrale Datenmodelle abgebildet<br />
werden – er ist das Gegenstück zu Reifegrad 1 – der Anteil<br />
an privaten Datenmodellen beträgt 0 Prozent. Seine<br />
Reife erlangt er durch Erfahrungen im praktischen Einsatz.<br />
Reifegrad 3 ist nicht an internationale Standards<br />
gebunden – es könnte ebenso ein Standard eines einzelnen<br />
Projektes oder eines Konsortiums sein. Dieser Reifegrad<br />
kommt der eigentlichen Idee eines neutralen Datenaustauschformates<br />
bereits nahe: private Transformationsroutinen<br />
sind nicht mehr notwendig – das Datenmodell<br />
ist aus Erfahrungen der Reifegrade 1–2 gewachsen<br />
und gereift. Als Beispiel könnte das für das Engineering<br />
von <strong>Automatisierung</strong>ssystemen zentrale Element „Signal“<br />
international standardisiert werden, wohingegen<br />
ein anderes Datenmodell „Safety IO Module“ zunächst<br />
proprietär oder lokal standardisiert bliebe.<br />
3.5 Reifegrad 4 –<br />
das standardisierte neutrale Datenmodell<br />
Reifegrad 4 wird erreicht, wenn mehrere Reifegrad 3<br />
Standards zu einem übergeordneten Standard kombiniert<br />
werden (siehe Bild 5). Die Datenmodelle aus Reifegrad<br />
3 bilden aufgrund praktischer Erfahrungen eine<br />
belastbare Basis für die Schritte (a) und (b) eines übergreifenden<br />
Standardisierungsvorhabens, zum Beispiel<br />
78<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
für einen internationalen Standard. Dieser Reifegrad ist<br />
als langfristiges Ziel zu verstehen und ein evolutionäres<br />
Ergebnis des Durchlaufens der vorigen Reifegrade.<br />
4. DISKUSSION DES KONZEPTES<br />
4.1 Vorteile<br />
Das vorgestellte Reifegradmodell der Semantik-Standardisierung<br />
ist ein neuer Ansatz und eröffnet eine Vielzahl<br />
neuer Möglichkeiten und Vorteile.<br />
Vorteil 1: Schnellstart <strong>mit</strong> hoher<br />
Wiederverwendungsquote<br />
Werkzeughersteller oder Anwender können un<strong>mit</strong>telbar<br />
starten. Sobald ein Datenaustauschbedarf identifiziert<br />
ist, kann der Projektleiter eine individuelle Entwicklung<br />
der wichtigsten Subroutinen für den automatischen Import<br />
privater Daten aus einem Quell-Engineering-Werkzeug<br />
in das von ihm gewünschte Zielwerkzeug initiieren.<br />
Die privaten Transformationsroutinen eines Importers<br />
können später von Projekt zu Projekt wiederverwendet<br />
werden. Der Aufwand zur CAEX-Programmierung<br />
wird <strong>mit</strong> [15] abschätzbar.<br />
Vorteil 2: Datenmodelle werden explizit sichtbar<br />
Normalerweise sind Datenmodelle in ihren Werkzeugen<br />
verborgen und sind nur Experten zugänglich. Das von<br />
AutomationML verfolgte Konzept macht proprietäre und<br />
unbekannte Datenmodelle jedoch explizit sichtbar. Dies<br />
Bild 6<br />
vereinfacht die Entwicklung im Projekt, befördert die<br />
Diskussion über Datenmodelle und beschleunigt die<br />
Standardisierungsschritte (a)–(c).<br />
Vorteil 3: Automatische Ableitung von Entwicklungsund<br />
Standardisierungsbedarf<br />
Konzeptbedingt können unbekannte Datenmodelle erkannt<br />
und in Bibliotheken gespeichert werden. Diese<br />
Bibliotheken lassen sich als Lastenheft für eine Importer-<br />
Softwareentwicklung einsetzen, da sie die privaten Datenmodelle<br />
möglicher Datenaustauschkandidaten explizit<br />
spezifizieren. Mithilfe von Häufigkeitsuntersuchungen<br />
lassen sich sogar Prioritäten ableiten.<br />
Statistische Analysen beflügeln wiederum den Standardisierungsprozess,<br />
da sie die Schritte (a) und (b) vereinfachen.<br />
Der vorgestelle evolutionäre Ansatz optimiert<br />
das Verhältnis zwischen dem Aufwand zur Entwicklung<br />
privater Transformationsroutinen und der Standardisierung.<br />
Durch das explizite Wissen über unbekannte oder<br />
ähnliche Datenmodelle können Standardisierungsaktivitäten<br />
fokussiert werden. Dies wird durch einen impliziten<br />
Regelkreis erreicht: Die Entwicklung privater<br />
Transformationsroutinen für jedes Quellwerkzeug ermöglicht<br />
schnelle Ergebnisse, führt aber <strong>mit</strong> der Zeit zu<br />
redundanter Entwicklung pro Quellwerkzeug. Diese<br />
Kosten sind Treiber für eine vernünftige und zielgerichtete<br />
Standardisierung, die <strong>mit</strong>telfristig die Entwicklungskosten<br />
senkt. Seltene private Datenmodelle können<br />
in privaten Transformationsroutinen verbleiben. Aus<br />
diesen Gründen behindert das Etikettierkonzept nicht<br />
die Standardisierung, sondern fördert sie.<br />
Neutrale Objekt-Typen<br />
Neutral_Signal<br />
Neutral_Master_Controller<br />
Neutral_Fieldbus_Device<br />
Neutral_IO_Module<br />
Private Objekt-Typen<br />
Force_Torque_Sensor<br />
Unbekannte Objekt-Typen<br />
HMI_Panel<br />
IPC_Socket<br />
BILD 6: Automatisch er<strong>mit</strong>telter Entwicklungs- und Standardisierungsbedarf<br />
Bereits<br />
standardisiert<br />
Standardisierungskandidat<br />
Kandidat für das<br />
Entwicklungslastenheft<br />
Bild 8<br />
Private Klassen-Bibliothek<br />
Standard Klassen-Bibliothek<br />
Private Interface Class library<br />
Standard Interface Class library<br />
BILD 8: CAEX-Modelle <strong>mit</strong> privaten<br />
und standardisierten Daten<br />
BILD 7: AutomationML-Beispiel-Etikett<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
79
HAUPTBEITRAG<br />
Vorteil 4: Speed-Standardisierung von<br />
Mini-Datenmodellen<br />
Das Etikettierkonzept sowie die Mischung privater und<br />
neutraler Daten eliminiert den Bedarf nach einem umfassenden<br />
und gereiften Engineering-Weltmodell: Der<br />
Schwerpunkt verlagert sich stattdessen auf kleine und<br />
flexible Mini-Datenmodelle, wie beispielsweise das „Signal“.<br />
Signallisten werden vielfältig ausgetauscht, die Standardisierung<br />
eines Signalobjektes ist im Fertigungsumfeld<br />
realisierbar und bereits aus rein praktischen Erwägungen<br />
ein lohnenswertes und erreichbares Ziel. Eine solche<br />
Speed-Standardisierung kann von erfahrenen Projektleitern<br />
oder Lead-Ingenieuren in kurzer Zeit erfolgen. Das<br />
Ergebnis dieser Arbeit ist ein lokaler Standard und lässt<br />
sich umgehend in Importer und Exporter implementieren<br />
und im Praxisgebrauch prüfen. Kostenersparnisse könnten<br />
vor Ort un<strong>mit</strong>telbar von den Beteiligten im Initialprojekt<br />
realisiert und in Nachfolgeprojekten vervielfacht werden.<br />
Diese Mikro-Standardisierung zwischen zwei Werkzeugen<br />
ist ein agiler, pragmatischer Weg auch für kleinere<br />
Ingenieurbüros, ohne jede Abhängigkeit von Standards.<br />
Die Standardisierungsschritte (a) bis (c) können<br />
sogar automatisiert werden, (f) wird innerhalb des Teams<br />
gelöst und (h) wird durch die un<strong>mit</strong>telbare praktische<br />
Anwendung erreicht.<br />
Vorteil 5: Zeitliche Entkopplung von<br />
Standardisierung und Projektarbeit<br />
Die Behandlung privater Transformationsroutinen erfolgt<br />
in der Verantwortung und Zeitleiste des Projektes und<br />
kann schnell umgesetzt und lokal priorisiert werden. Die<br />
Standardisierung hingegen erfolgt außerhalb in einem<br />
übergeordneten Regelkreis und fließt erst <strong>mit</strong> seiner Finalisierung<br />
in das Projekt ein. Diese Entkopplung ermöglicht<br />
das gleichzeitige Agieren in kurzfristigen Projekterfordernissen<br />
und in langfristigen Standardisierungsaktivitäten.<br />
Vorteil 6: Einführung von Standard-Etiketten<br />
Das Etikettierkonzept ist nicht nur geeignet, um Quellwerkzeuge<br />
zu identifizieren, es kann ebenso auf einen<br />
oder mehrere zugrundeliegende Standards verweisen.<br />
Eine AutomationML-Datei teilt erstmalig aktiv <strong>mit</strong>, welche<br />
Semantik-Standards sie verwendet.<br />
4.2 Diskussion und Potenziale<br />
Natürlich wäre es einfacher, wenn ein Engineering-Weltmodell<br />
zur Verfügung stünde. Die Standardisierungsgremien<br />
und Softwarehersteller haben frühzeitig den Wert<br />
eines gemeinsamen Datenmodells erkannt und verfolgen<br />
beziehungsweise benötigen mehrheitlich Reifegrad 3 oder<br />
4. Dieser Beitrag zeigt, dass das Ziel sinnvoll, der Weg jedoch<br />
fraglich ist – ein reifer Standard benötigt Erfahrungen<br />
aus der industriellen Anwendung. Für die Praxis<br />
macht es keinen Sinn, sogleich <strong>mit</strong> dem Reifegrad 3 oder<br />
4 zu beginnen, zumindest – bei einem so weiten Kontext<br />
wie der <strong>Automatisierung</strong>splanung – nicht in einem Schritt.<br />
Die Evolution beginnt <strong>mit</strong> Reifegrad 1. Die Reifegrade 1-4<br />
wachsen aneinander, ein Merkmal der Evolution.<br />
REFERENZEN<br />
[1] Drath R. und Barth M.: Concept for interoperability<br />
between independent engineering tools of heterogeneous<br />
disciplines. In: Proceedings IEEE Conference on Emerging<br />
Technologies and Factory Automation (ETFA), 2011.<br />
[2] Drath R., Fay A., Barth M.: Interoperabilität von Engineering-<br />
Werkzeugen. at – <strong>Automatisierung</strong>stechnik 59(9), 598-607,<br />
2011<br />
[3] AIDA (2005): Garcia, A. und Drath, R.: AutomationML<br />
verbindet Werkzeuge der Fertigungsplanung.<br />
http://www.automationml.org – Whitepaper_Automation-<br />
ML_2007-11-20_v05.pdf.<br />
[4] Drath, R.: Datenaustausch in der Anlagenplanung <strong>mit</strong><br />
AutomationML: Integration von CAEX, PLCopen XML und<br />
COLLADA. Springer, Berlin Heidelberg, 2009<br />
[5] IEC 62424:2008: Representation of process control<br />
engineering - Requests in P&I diagrams and data exchange<br />
between P&ID tools and PCE-CAE tools<br />
[6] NE 100: Merkmalleisten zur Erstellung von PLT-Gerätespezifikationen.<br />
Namur, 2003<br />
[7] Anhäuser, F., Richert, H., Temmen, H.: Degussa Plant-XML<br />
- integrierter Planungsprozess <strong>mit</strong> flexiblen Bau-steinen.<br />
<strong>atp</strong> – <strong>Automatisierung</strong>stechnische Praxis 46(4), 63-72, 2004<br />
[8] ISO10303: Automation systems and integration - Product<br />
data representation and exchange<br />
[9] Moser, T. und Biffl, S.: Semantic Tool Interoperability for<br />
Engineering Manufacturing Systems, In: Proceedings IEEE<br />
Conference on Emerging Technologies and Factory<br />
Automation (ETFA’10), S. 1-8, 2010<br />
[10] Wiesner A., Wiedau M., Marquardt W., Temmen H.,<br />
Richert H., Anhäuser F.: Wissensbasierte Integration und<br />
Konsolidierung von heterogenen Anlagenplanungsdaten.<br />
<strong>atp</strong> <strong>edition</strong> – <strong>Automatisierung</strong>stechnische Praxis, 52(4),<br />
48-58, 2010<br />
[11] ISO 15926: Industrial automation systems and integration<br />
- Integration of life-cycle data for process plants including<br />
oil and gas production facilities<br />
[12] Fay, A., Drath, R., Barth, M., Zimmer,F., Eckert K.:<br />
Bewertung der Fähigkeit von Engineering-Werkzeugen<br />
zur Interoperabilität <strong>mit</strong>hilfe einer Offenheitsmetrik.<br />
In: Tagungsband Automation 2012, S. 37-40. VDI, 2012<br />
[13] IEC 62714-1 CD: AutomationML Architecture, 2011<br />
[14] www.automationml.org<br />
[15] Drath R.: Let’s talk AutomationML: What is the effort for<br />
AutomationML programming? In: Proceedings IEEE<br />
Conference on Emerging Technologies and Factory<br />
Automation (ETFA’12), 2012<br />
80<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
Solange die beteiligten Werkzeuge offen genug sind<br />
[12], wird die semantische Vielfalt <strong>mit</strong> dem vorgestellten<br />
Konzept beherrschbar. Hersteller und Anwender können<br />
leicht Exporter für ihre Werkzeuge erstellen, ohne sich<br />
auf einen Standard beziehen zu müssen.<br />
Generische Importer sind erst <strong>mit</strong> Reifegrad 3–4 sinnvoll<br />
und deshalb heute für weite Bereiche der Anlagenplanung<br />
nicht anzutreffen. Um die semantische Vielfalt<br />
zu beherrschen, sind für die Reifegrade 1–2 quellwerkzeugspezifische<br />
Importer erforderlich.<br />
Das vorgestellte Konzept vereinfacht deren Entwicklung<br />
maßgeblich, weil große Teile typischer Importfunktionalitäten<br />
generisch angelegt werden können. Anwender<br />
können diese in Eigenregie deutlich leichter und<br />
schneller als bisher entwickeln. Gerade für das Umsetzen<br />
abzählbarer Datenaustauschpartner ist der Entwicklungsaufwand<br />
für solche Importer deutlich geringer als<br />
das Standardisieren eines Weltmodells. Zudem können<br />
Werkzeughersteller im Sinne des Know-how-Schutzes<br />
<strong>mit</strong> kommerziellen Importern gezielter als bisher beeinflussen,<br />
welche Quellwerkzeuge sie <strong>mit</strong> welchem Detaillierungsgrad<br />
unterstützen.<br />
5. UMSETZUNG MIT AUTOMATIONML<br />
5.1 Etikettierung einer AutomationML-Datei<br />
Zur Etikettierung einer CAEX-Datei schreibt der AutomationML-Standard<br />
[13] eine Reihe von Parametern vor.<br />
Bild 7 zeigt eine vollständige Liste der vorgeschriebenen<br />
Etikett-Bestandteile im CAEX-XML-Code. Mithilfe der<br />
frei verfügbaren AutomationML-Engine [14] lassen sich<br />
diese Parameter <strong>mit</strong> vertretbarem Aufwand einfügen<br />
oder auslesen, eine Einführung hierfür gibt [15].<br />
5.2 Speicherung gemischt privater/neutraler Daten<br />
Die Speicherung privater Datenmodelle ist eine der Kernfunktionalitäten<br />
von CAEX. Bild 7 zeigt einen CAEX-<br />
Export, der sowohl private als auch standardisierte Klassen<br />
und Schnittstellen enthält. Ein gemischt privat/neutraler<br />
Objektbaum wird aus Instanzen dieser Klassen<br />
erstellt. Analog zu einem veredelten Obstbaum, an dem<br />
Früchte unterschiedlicher Arten hängen, entsteht in<br />
CAEX ein Objektbaum, der mehrere Datenmodelle zugleich<br />
verwaltet, deren Elemente jedoch identifizierbar<br />
und so<strong>mit</strong> beherrschbar sind.<br />
ZUSAMMENFASSUNG UND AUSBLICK<br />
In diesem Beitrag wurde die Deadlock-Situation vieler semantischer<br />
Standardisierungsbemühungen diskutiert und<br />
ein neues Konzept zur Lösung dieser Probleme vorgestellt.<br />
Hierin wird nicht wie bisher versucht, die bestehende Heterogenität<br />
von Engineering-Werkzeugen und Datenmodellen<br />
durch Vereinheitlichung zu überwinden; das Konzept<br />
verfolgt vielmehr das Anliegen, den Datenaustausch<br />
in einem heterogenen Werkzeugumfeld auch ohne beziehungsweise<br />
nur <strong>mit</strong> teilweiser Standardisierung durch-<br />
führen zu können. Die Ur-Idee eines neutralen Datenformates<br />
wird hierbei bewusst verletzt – aber Innovationen<br />
werden oft dann erreicht, wenn bekannte Pfade verlassen<br />
oder zuvor gesetze Einschränkungen hinterfragt werden.<br />
Das Konzept zur Speicherung gemischt privat/neutraler<br />
standardisierter Daten in einem AutomationML-Dokument<br />
führt zu sinnvollen und neuartigen Vorteilen<br />
und ist un<strong>mit</strong>telbar anwendbar. Das Warten auf einen<br />
Standard ist nicht mehr nötig. Der praktische Einsatz<br />
steht in jedem Reifegrad im Vordergrund, die Standardisierung<br />
folgt der Nutzung, nicht umgekehrt. Der Praktiker<br />
erhält über die Erkennung unbekannter Datenmodelle<br />
automatisch ein Lastenheft für die Softwareentwicklung.<br />
Proprietäre Datenmodelle werden explizit<br />
sichtbar. Industrie, Akademia und Gremien können<br />
aufgrund der expliziten Sichtbarkeit proprietärer Daten-<br />
Teilmodelle Ähnlichkeitsanalysen durchführen und<br />
erstmalig Standardisierungsbedarf inklusive Priorisierung<br />
automatisch ableiten.<br />
Die für eine Standardisierung von Datenmodellen notwendigen<br />
Schritte werden deutlich vereinfacht. Kurzfristiger<br />
Projektdruck und langfristige Standardisierungsvorhaben<br />
werden zeitlich entkoppelt und so<strong>mit</strong><br />
harmonisierbar. Das Konzept eliminiert den Standardisierungs-Deadlock,<br />
ist sofort einsetzbar und ebnet zugleich<br />
einen erfolgversprechenden evolutionären Weg<br />
zur Standardisierung.<br />
MANUSKRIPTEINGANG<br />
29.06.2012<br />
AUTOREN<br />
Im Peer-Review-Verfahren begutachtet<br />
Dr.-Ing. RAINER DRATH (geb. 1970) ist Senior<br />
Principal Scientist im ABB Forschungszentrum<br />
in Ladenburg. Er beschäftigt sich <strong>mit</strong><br />
der Entwicklung neuer Konzepte und<br />
Methoden zur Verbesserung des Engineerings<br />
von <strong>Automatisierung</strong>ssystemen.<br />
ABB Forschungszentrum,<br />
Wallstadter Str 59, D-68526 Ladenburg,<br />
Tel. +49 (0) 6203 71 64 71,<br />
E-Mail: rainer.drath@de.abb.com<br />
Dr.-Ing. MIKE BARTH (geb. 1981) ist<br />
Scientist am ABB Forschungszentrum in<br />
Ladenburg. Seine Forschungsschwerpunkte<br />
umfassen Methoden und Werkzeuge<br />
für ein effizientes Engineering von <strong>Automatisierung</strong>ssystemen.<br />
ABB Forschungszentrum<br />
Wallstadter Straße 59, D-68526 Ladenburg,<br />
Tel. +49 (0) 6203 71 64 61,<br />
E-Mail: mike.barth@de.abb.com<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012<br />
81
IMPRESSUM / VORSCHAU<br />
IMPRESSUM<br />
VORSCHAU<br />
Verlag:<br />
DIV Deutscher Industrieverlag GmbH<br />
Arnulfstraße 124, 80636 München<br />
Telefon + 49 89 203 53 66-0<br />
Telefax + 49 89 203 53 66-99<br />
www.di-verlag.de<br />
Geschäftsführer:<br />
Carsten Augsburger, Jürgen Franke<br />
Spartenleiter:<br />
Jürgen Franke<br />
Herausgeber:<br />
Dr. T. Albers<br />
Dr. G. Kegel<br />
Dipl.-Ing. G. Kumpfmüller<br />
Dr. N. Kuschnerus<br />
Beirat:<br />
Dr.-Ing. K. D. Bettenhausen<br />
Prof. Dr.-Ing. Ch. Diedrich<br />
Prof. Dr.-Ing. U. Epple<br />
Prof. Dr.-Ing. A. Fay<br />
Prof. Dr.-Ing. M. Felleisen<br />
Prof. Dr.-Ing. G. Frey<br />
Prof. Dr.-Ing. P. Göhner<br />
Dipl.-Ing. Th. Grein<br />
Prof. Dr.-Ing. H. Haehnel<br />
Dr.-Ing. J. Kiesbauer<br />
Dipl.-Ing. R. Marten<br />
Dipl.-Ing. G. Mayr<br />
Dr. J. Nothdurft<br />
Dr.-Ing. J. Papenfort<br />
Dr. A. Wernsdörfer<br />
Dipl.-Ing. D. Westerkamp<br />
Dr. Ch. Zeidler<br />
Organschaft:<br />
Organ der GMA<br />
(VDI/VDE-Gesell schaft Messund<br />
<strong>Automatisierung</strong>s technik)<br />
und der NAMUR<br />
(Interessen gemeinschaft<br />
<strong>Automatisierung</strong>s technik der<br />
Prozessindustrie).<br />
Redaktion:<br />
Anne Hütter (ahü)<br />
(verantwortlich)<br />
Telefon + 49 89 203 53 66-58<br />
Telefax + 49 89 203 53 66-99<br />
E-Mail: huetter@di-verlag.de<br />
Gerd Scholz (gz)<br />
Einreichung von Hauptbeiträgen:<br />
Prof. Dr.-Ing. Leon Urbas<br />
(Chefredakteur, verantwortlich<br />
für die Hauptbeiträge)<br />
Technische Universität Dresden<br />
Fakultät Elektrotechnik<br />
und Informationstechnik<br />
Professur für Prozessleittechnik<br />
01062 Dresden<br />
Telefon +49 351 46 33 96 14<br />
E-Mail: urbas@di-verlag.de<br />
Fachredaktion:<br />
Dr.-Ing. M. Blum<br />
Prof. Dr.-Ing. J. Jasperneite<br />
Dr.-Ing. B. Kausler<br />
Dr.-Ing. N. Kiupel<br />
Dr. rer. nat. W. Morr<br />
Dr.-Ing. J. Neidig<br />
Dipl.-Ing. I. Rolle<br />
Dr.-Ing. S. Runde<br />
Prof. Dr.-Ing. F. Schiller<br />
Bezugsbedingungen:<br />
„<strong>atp</strong> <strong>edition</strong> – <strong>Automatisierung</strong>stechnische<br />
Praxis“ erscheint<br />
monatlich <strong>mit</strong> Doppelausgaben im<br />
Januar/Februar und Juli/August.<br />
Bezugspreise:<br />
Abonnement jährlich: € 468,– + € 30,–/<br />
€ 35,- Versand (Deutschland/Ausland);<br />
Heft-Abbonnement + Online-Archiv:<br />
€ 638,40; ePaper (PDF): € 468,–;<br />
ePaper + Online-Archiv: € 608,40;<br />
Einzelheft: € 55,– + Versand;<br />
Die Preise enthalten bei Lieferung<br />
in EU-Staaten die Mehrwertsteuer,<br />
für alle übrigen Länder sind es<br />
Nettopreise. Mitglieder der GMA: 30%<br />
Ermäßigung auf den Heftbezugspreis.<br />
Bestellungen sind jederzeit über den<br />
Leserservice oder jede Buchhandlung<br />
möglich.<br />
Die Kündigungsfrist für Abonnementaufträge<br />
beträgt 8 Wochen zum Bezugsjahresende.<br />
Abonnement-/<br />
Einzelheftbestellung:<br />
Leserservice <strong>atp</strong><br />
Postfach 91 61, 97091 Würzburg<br />
Telefon + 49 931 41 70-4 94<br />
Telefax + 49 931 41 70-4 92<br />
E-Mail: leserservice@di-verlag.de<br />
Verantwortlich für<br />
den Anzeigenteil:<br />
Inge Matos Feliz<br />
Telefon + 49 89 203 53 66-22<br />
Telefax + 49 89 203 53 66-99<br />
E-Mail: matos.feliz@di-verlag.de<br />
Es gelten die Preise der Mediadaten 2012<br />
Anzeigenverwaltung:<br />
Brigitte Krawczyk<br />
Telefon + 49 89 2 03 53 66-12<br />
Telefax + 49 89 2 03 53 66-99<br />
E-Mail: krawczyk@di-verlag.de<br />
Art Direction / Layout:<br />
deivis aronaitis design | dad |<br />
Druck:<br />
Druckerei Chmielorz GmbH<br />
Ostring 13,<br />
65205 Wiesbaden-Nordenstadt<br />
Gedruckt auf chlor- und<br />
säurefreiem Papier.<br />
Die <strong>atp</strong> wurde 1959 als „Regelungstechnische<br />
Praxis – rtp“ gegründet.<br />
DIV Deutscher Industrieverlag<br />
GmbH München<br />
Die Zeitschrift und alle in ihr enthaltenen<br />
Beiträge und Abbildungen sind urheberrechtlich<br />
geschützt. Mit Ausnahme der<br />
gesetzlich zugelassenen Fälle ist eine<br />
Verwertung ohne Ein willigung des Verlages<br />
strafbar.<br />
Gemäß unserer Verpflichtung nach § 8<br />
Abs. 3 PresseG i. V. m. Art. 2 Abs. 1c DVO<br />
zum BayPresseG geben wir die Inhaber<br />
und Beteiligungsverhältnisse am Verlag<br />
wie folgt an:<br />
DIV Deutscher Industrieverlag GmbH,<br />
Arnulfstraße 124, 80636 München.<br />
Alleiniger Gesellschafter des Verlages<br />
ist die ACM-Unternehmensgruppe,<br />
Ostring 13,<br />
65205 Wiesbaden-Nordenstadt.<br />
ISSN 2190-4111<br />
DIE AUSGABE 1-2 / 2013 DER<br />
ERSCHEINT AM 18.02.2013<br />
MIT AUSGEWÄHLTEN BEITRÄGEN DER<br />
NAMUR-HAUPTSITZUNG 2012:<br />
Erfahrungen zum Einsatz<br />
WEB-basierter „As-Built“-<br />
Dokumentation<br />
IT im Kontext der Architektur<br />
eines Prozessleitsystem. Teil 2:<br />
Cloud Computing<br />
Versagenseigenschaften<br />
von Software <strong>mit</strong> bekannter<br />
Betriebserfahrung bei<br />
wechselndem<br />
Anforderungsprofil<br />
Integriertes Engineering<br />
Interview <strong>mit</strong><br />
Dr. Jörg Kiesbauer<br />
...und vielen weiteren Themen.<br />
Aus aktuellem Anlass können sich die Themen<br />
kurzfristig verändern.<br />
LESERSERVICE<br />
E-MAIL:<br />
leserservice@di-verlag.de<br />
TELEFON:<br />
+ 49 931 41 70-4 94<br />
82<br />
<strong>atp</strong> <strong>edition</strong><br />
12 / 2012
Erreichen Sie die Top-Entscheider<br />
der <strong>Automatisierung</strong>stechnik.<br />
Sprechen Sie uns an wegen Anzeigenbuchungen<br />
und Fragen zu Ihrer Planung.<br />
Inge Matos Feliz: Tel. +49 89 203 53 66-22<br />
E-Mail: matos.feliz@di-verlag.de