26.02.2014 Aufrufe

atp edition Automatisierung mit FASA (Vorschau)

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

12 / 2012<br />

54. Jahrgang B3654<br />

DIV Deutscher Industrieverlag GmbH<br />

<strong>Automatisierung</strong>stechnische Praxis<br />

Virtualisierung im Kontext<br />

eines Prozessleitsystems | 28<br />

Integriertes Engineering <strong>mit</strong><br />

Automation Service Bus | 36<br />

Feldgeräte und semantische<br />

Informationsmodell | 44<br />

<strong>Automatisierung</strong> <strong>mit</strong> <strong>FASA</strong> | 52<br />

Effizienz durch ergonomische<br />

Benutzungsschnittstelle | 62<br />

Semantikvielfalt <strong>mit</strong><br />

AutomationML beherrschen | 72


Danke!<br />

<strong>atp</strong> <strong>edition</strong> ist vom Verband Deutsche<br />

Fachpresse als Fachmedium des Jahres<br />

2012 in der Kategorie Industrie/Produktion/<br />

Design ausgezeichnet worden. <strong>atp</strong> <strong>edition</strong><br />

ist eine Gemeinschaftsleistung aus der<br />

Branche für die Branche. Hinter der hochwertigen<br />

Publikation für <strong>Automatisierung</strong>stechnik<br />

stecken viele kluge Köpfe. Nicht<br />

nur Chefredakteur, Herausgeber und Beiräte<br />

tragen <strong>mit</strong> ihrem Agenda-Setting dazu bei,<br />

dass <strong>atp</strong> <strong>edition</strong> in ihrer seit über 50-jährigen<br />

Tradition die maßgeblichen Themen der<br />

<strong>Automatisierung</strong>stechnik bestimmt. Auch<br />

die Fachredaktion leistet <strong>mit</strong> einem Peer-<br />

Review-Verfahren für wissenschaftlich<br />

fundierte Veröffentlichungen einen unverzichtbaren<br />

Beitrag. Nicht möglich wäre dies<br />

ohne unsere zahlreichen Fach-Autoren. Ein<br />

großes Dankeschön an alle, die hinter <strong>atp</strong><br />

<strong>edition</strong> stehen und das Fachmagazin zu<br />

einem Erfolg machen – und nicht zuletzt<br />

an Sie, unsere Leser.<br />

Ihre Entscheidung für die hochwertige<br />

Publikation <strong>atp</strong> <strong>edition</strong> stärkt die Bedeutung<br />

wissenschaftlicher Forschungsarbeiten<br />

in der <strong>Automatisierung</strong>stechnik.


Print wirkt<br />

„<strong>atp</strong> <strong>edition</strong>“ ist ein Printtitel auf höchster<br />

Qualitätsstufe und <strong>mit</strong> Nachhaltigkeit im<br />

Sinne wiederkehrender Nutzung. Der Titel<br />

erfüllt den selbstgestellten Anspruch eines<br />

anspruchsvollen und seriösen Magazins für<br />

Top-Entscheider zwischen Wissenschaft<br />

und Praxis konsequent.<br />

Entsprechend der journalistischen Konzeption<br />

ist Online hintenangestellt. Die Jury<br />

sah hier „die beispielhafte Umsetzung einer<br />

wissenschaftlich ausgerichteten Fachzeitschrift<br />

<strong>mit</strong> Magazincharakter“.


EDITORIAL<br />

Die Wettbewerbsfähigkeit sichern<br />

<strong>mit</strong> den Architekturen der Zukunft<br />

Warum haben Sie zu diesem Magazin gegriffen? Aus Neugier? Aus Interesse?<br />

Zur Weiterbildung? Und wann lesen Sie es? Gleich nach dem Posteingang?<br />

Schnell noch kurz vor Feierabend? Nach Hause <strong>mit</strong>genommen? Oder schon gut<br />

abgelegen auf dem Eingangsstapel? Vielleicht sogar <strong>mit</strong> etwas schlechtem Gewissen,<br />

weil Ihr Job Ihnen eigentlich keine Zeit mehr für Fachzeitschriften lässt?<br />

Nur Mut: Mit der Lektüre steigern Sie Ihre Kompetenz. Sie wissen mehr als<br />

andere, Sie wissen es eher. Und: Kompetenz ist kein Selbstzweck, sondern sie<br />

steigert Ihre Wettbewerbsfähigkeit und vielleicht auch die Ihres Unternehmens.<br />

Im Deutschen sind die Worte „Kompetenz“ und „Wettbewerbsfähigkeit“ sehr<br />

unterschiedlich, das Englische hilft: Nur „competence“ erhält die „competitiveness“,<br />

steigert Ihre Chance im Wettbewerb, der „competition“.<br />

Das vorliegende Heft widmet sich dem Schwerpunkt „Zukünftige Architekturen<br />

von <strong>Automatisierung</strong>ssystemen“ und enthält sechs spannende Beiträge zu<br />

diesem Thema, wobei der Begriff „Architektur“ nicht nur auf die Hardware,<br />

sondern auch auf das Engineering bezogen ist. Da werden zukünftige Technologien<br />

für <strong>Automatisierung</strong>ssysteme vorgeschlagen und bewertet. Da geht es um<br />

Verbesserungen im Dialog des Menschen <strong>mit</strong> dem Prozess. Und es werden verschiedene<br />

Möglichkeiten zur Integration in heterogenen Systemlandschaften<br />

präsentiert. Zugegeben: Das sind nicht die Themen, die dem Projekt- oder Betriebsingenieur<br />

ab sofort das Leben erleichtern. Aber es ist ein Blick auf die<br />

Zukunft, auf neue Möglichkeiten, auf das, was wir in drei oder fünf Jahren für<br />

unsere Projekte und Betriebe kennen und bewerten können müssen.<br />

Und neben den eigentlichen Themen gibt es auch noch Impulse zu entdecken,<br />

die über den im Beitrag genannten Fall hinaus interessant sind. So zum Beispiel<br />

die Beobachtung von Draht et al., dass Standardisierung und praktischer Einsatz<br />

sich gegenseitig bedingen – und gleichzeitig behindern: Eine gute Standardisierung<br />

setzt praktische Einsatzerfahrung und da<strong>mit</strong> Verbreitung voraus – und die<br />

Verbreitung setzt häufig erst ein, wenn ein Standard existiert. Der Lösungsansatz<br />

eines gemischten Datenmodells, in dem sowohl standardisierte als auch noch<br />

proprietäre Daten übertragen und ausgewertet werden können, hat etwas Geniales.<br />

Vielleicht ist eine solche Idee auf andere Deadlock-Situationen von Standarisierung<br />

und Einsatz übertragbar und verhindert jahrelanges Warten auf „den<br />

perfekten Standard“.<br />

Wenn Sie also dieses Heft lesen und Ihr Chef oder Ihr Controller fragt, warum<br />

Sie sich denn die Zeit nehmen, die „gute alte <strong>atp</strong>“ zu lesen, geben Sie ihm dieses<br />

Editorial oder gleich das ganze Heft zu lesen. Auch Chefs oder sogar Controllern<br />

kann es nicht schaden, Kompetenz und Wettbewerbsfähigkeit zu steigern – dafür<br />

werden sie sogar bezahlt.<br />

DR. THOMAS<br />

TAUCHNITZ<br />

Leiter Technik am Standort<br />

Frankfurt Pharma, Sanofi-<br />

Aventis Deutschland GmbH,<br />

Mitglied des Namur-Vorstands<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

3


INHALT 12 / 2012<br />

VERBAND<br />

6 | IEC würdigt 22 deutsche von insgesamt<br />

139 Normungsexperten <strong>mit</strong> dem IEC 1906 Award<br />

Umsätze der Elektroindustrie gehen um sechs Prozent zurück<br />

7 | GMA wählt Beirat neu und bestätigt seinen Vorsitzenden<br />

8 | <strong>Automatisierung</strong>sanwender der Prozessindustrie<br />

wagen mehr Internationalisierung<br />

10 | Goldene Namur-Ehrennadel für Gerhard Rehn und Martin Schwibach<br />

11 | Bouaswaig und Yin ausgezeichnet<br />

BRANCHE<br />

12 | AALE 2013: Mehr über Energieeffizienz, Systeme und<br />

Lehre&Forschung in der Automation erfahren<br />

Die IEC 61508 richtig anwenden<br />

Dechema-Preis 2012 für Prof. Dr. Joachim Groß<br />

13 | Neue Richtlinie VDI/VDE 2632 Blatt 2 vereinfacht<br />

Kommunikation zwischen Anbietern und Anwendern<br />

FORSCHUNG<br />

14 | PENG erzeugt Energie aus minimalen Temperaturunterschieden<br />

Modularisierung fördert schnellere Produktion<br />

Mikrochips sollen Raubkopien verhindern<br />

15 | Flinker Modulator: Baustein für effiziente<br />

Datenübertragung gelangt zur Marktreife<br />

Roboter Hytaq fliegt oder fährt je nach Bedarf<br />

Call for Experts: Digitale Anlage im Lebenszyklus<br />

4<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


PRAXIS<br />

16 | Vernetzte Sicherheitscontroller überwachen<br />

die komplette Montage von Flugzeugrumpf-Schalen<br />

20 | Punktschweißen von Aluminium-Türen des<br />

Porsche Panamera prozesssicher automatisiert<br />

24 | Energiekonzern ENI setzt erstmals in neuer<br />

italienischer Raffinerie auf Foundation Fieldbus<br />

HAUPTBEITRÄGE<br />

28 | Virtualisierung im Kontext eines Prozessleitsystems<br />

S. RUNDE, M. SCHNEIDER, M. GLASER UND S. THIEME<br />

36 | Integriertes Engineering <strong>mit</strong> Automation Service Bus<br />

S. BIFFL, R. MORDINYI UND T. MOSER<br />

44 | Feldgeräte und semantische Informationsmodelle<br />

S. HODEK, M. LOSKYLL UND J. SCHLICK,<br />

52 | <strong>Automatisierung</strong> <strong>mit</strong> <strong>FASA</strong><br />

M. WAHLER, T. GAMER, M. ORIOL, A. KUMAR UND M. NAEDELE<br />

62 | Effizienz durch ergonomische Benutzungsschnittstelle<br />

L. GLATHE UND S. KEMPF<br />

72 | Semantikvielfalt <strong>mit</strong> AutomationML beherrschen<br />

R. DRATH UND M. BARTH<br />

RUBRIKEN<br />

3 | Editorial: Die Wettbewerbsfähigkeit sichern<br />

<strong>mit</strong> den Architekturen der Zukunft<br />

82 | Impressum, <strong>Vorschau</strong><br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

5


VERBAND<br />

IEC würdigt 22 deutsche von insgesamt<br />

139 Normungsexperten <strong>mit</strong> dem IEC 1906 Award<br />

EINIGE DER PREIS-<br />

TRÄGER und Michael<br />

Teigeler, Mitglied der<br />

Geschäftsführung<br />

der DKE Deutsche<br />

Kommission Elektrotechnik<br />

Elektronik<br />

Informationstechnik<br />

im DIN und VDE<br />

(VDE|DKE). Bild: DKE<br />

Unter insgesamt 139 Preisträgern des IEC 1906 Awards<br />

können sich in diesem Jahr 22 deutsche Normungsexperten<br />

über die internationale Auszeichnung freuen.<br />

Die Internationale Elektrotechnische Kommission würdigt<br />

<strong>mit</strong> dem Award jährlich besondere Verdienste bei<br />

der Bearbeitung aktueller Normungsprojekte.<br />

Geehrt wurden Dr. Reinhard Salffner (TC 1 „Terminology“),<br />

Dr. Gabriela Fleischer, (TC 3 „Information structures,<br />

documentation and graphical symbols“), Dr.-Ing. Egid<br />

Schneider, (TC 9 „Electrical equipment and systems for<br />

railways“), Dr.-Ing. Volker Rees (TC 17 „Switchgear and<br />

controlgear“), Dr. rer. nat. Ulrich Spindler, (TC 17 „Switchgear<br />

and controlgear“), Hubert Knapp (TC 27 „Industrial<br />

electroheating and electromagnetic processing“, Dr. Martin<br />

Thedens (TC 36 „Insulators“), Thomas Schmid (TC 46<br />

„Cables, wires, waveguides, R.F. connectors, R.F. and microwave<br />

passive components and accessories“), Leo Stuehler<br />

(TC 47 „Semiconductor devices“ ), Dr.-Ing. Hubert Becker<br />

(TC 56 „Dependability“), Thierry Dufaure (TC 57 „Power<br />

systems management and associated information exchange“),<br />

Dr. Bernd Jäkel (TC 65 „Industrial-process mea-<br />

surement and control“ ), Eckehardt Klemm (TC 65 „Industrial-process<br />

measurement and control“), Eckhard Schwendemann,<br />

(TC 72 „Automatic controls for household use“),<br />

Frank Jetzschmann (TC 77 „Electromagnetic compatibility“),<br />

Prof. Dr.-Ing. Werner Daum (TC 86 „Fibre optics“), Arno<br />

Bergmann (TC 96 „Transformers, reactors, power supply<br />

units and combinations thereof“), Werner Menger (TC 96<br />

„Transformers, reactors, power supply units and combinations<br />

thereof“), Hermann Ruoss (TC 104 „Environmental<br />

conditions, classification and methods of test“), Matthias<br />

Meier (TC 106 „Methods for the assessement of electric,<br />

magentic and electromagnetic fields associated with human<br />

exposure“), Prof. Dr. Werner Bergholz (TC 113 „Nanotechnology<br />

standardization for electrical and electronic products<br />

and systems“), Dr.-Ing. Stephan Kloska (CISPR „International<br />

Special Com<strong>mit</strong>tee on Radio Interference“).<br />

VDE VERBAND DER ELEKTROTECHNIK<br />

ELEKTRONIK INFORMATIONSTECHNIK E.V.<br />

Stresemannallee 15, D-60596 Frankfurt am Main,<br />

Tel. +49 (0) 69 630 84 61, Internet: www.vde.com<br />

6<br />

Umsätze der Elektroindustrie gehen<br />

um sechs Prozent zurück<br />

Sechs Prozent unter Vorjahresniveau blieben die Umsätze<br />

der deutschen Elektroindustrie im September.<br />

Nach bis zuletzt sehr solider Entwicklung haben die<br />

Elektroexporte da<strong>mit</strong> jetzt einen Dämpfer erhalten, der<br />

Rückgang war der stärkste seit Oktober 2009“, sagte<br />

ZVEI-Chefvolkswirt Dr. Andreas Gontermann. „Aber in<br />

den ersten drei Quartalen 2012 sind die Branchenausfuhren<br />

insgesamt um drei Prozent auf 119,8 Mrd. Euro<br />

gestiegen und steuern so weiter ein neues Jahresallzeithoch<br />

an.“ Der Exportumsatz belief sich im September<br />

2012 auf 12,6 Milliarden Euro.<br />

Die Einfuhren von Elektroerzeugnissen nach Deutschland<br />

gaben um vier Prozent gegenüber Vorjahr auf 11,2<br />

Milliarden Euro nach. Von Januar bis September hatten<br />

sie um zwei Prozent auf 102,7 Mrd. Euro zugelegt. Entsprechend<br />

haben die Ausfuhren die Einfuhren in den<br />

ersten neun Monaten 2012 um 17,1 Mrd. Euro übertroffen.<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

Der Exportüberschuss lag so drei Prozent<br />

höher als vor einem Jahr.<br />

Eine gute Nachricht kommt von<br />

den Exporten außerhalb Europas. Sie<br />

stiegen um acht Prozent auf 42,1 Milliarden<br />

Euro. 13 Prozent der Branchenunternehmen<br />

gehen von insgesamt<br />

anziehenden Ausfuhrgeschäften<br />

in den nächsten drei Monaten<br />

aus. 64 Prozent der Firmen erwarten<br />

ANDREAS<br />

GONTERMANN:<br />

Dämpfer für<br />

Elektroexporte.<br />

Bild: ZVEI<br />

stabile Exporte, zwölf Prozent rückläufige. Elf Prozent der<br />

Unternehmen sind derzeit unentschieden.<br />

ZVEI – ZENTRALVERBAND ELEKTROTECHNIK- UND<br />

ELEKTRONIKINDUSTRIE E.V.,<br />

Lyoner Straße 9, D-60528 Frankfurt/Main,<br />

Tel. +49 (0) 69 630 20, Internet: www.zvei.org


GMA wählt Beirat neu und<br />

bestätigt seinen Vorsitzenden<br />

Für weitere drei Jahre im Amt bestätigt wurde Dr.-Ing.<br />

Kurt Dirk Bettenhausen. Der Vorsitzende der VDI/<br />

VDE-Gesellschaft Mess- und <strong>Automatisierung</strong>stechnik<br />

(GMA) wurde am 20. November auf der konstituierenden<br />

Beiratssitzung für die Amtsperiode 2013 bis 2015 wiedergewählt.<br />

„Das Projekt ‚Industrie 4.0’ aktiv vorantreiben,<br />

die GMA als Forum für Wissens- und Informationsaustausch<br />

sowie den Kongress Automation weiter ausbauen“,<br />

so Bettenhausen nach seiner Wahl, „darauf<br />

kommt es in den drei nächsten drei Jahren an.“ Außerdem<br />

sei es wichtig, die Fachgebiete der GMA der breiten<br />

Öffentlichkeit noch näher zu bringen. Bettenhausen ist<br />

hauptberuflich in der Corporate Technology von Siemens<br />

verantwortlich für die Region USA sowie weltweit für<br />

das Technologiefeld Automation & Control.<br />

Die neuen Beirats<strong>mit</strong>glieder wurden von den GMA-Mitgliedern<br />

für die Amtsperiode 2013 bis 2015 gewählt. Der<br />

Beirat setzt sich aus den Leitern der GMA-Fachbereiche<br />

und acht gewählten Vertretern zusammen. Zu den acht<br />

gewählten Vertretern gehören Prof. Dr.-Ing. Dirk Abel<br />

(RWTH Aachen), Prof. Dr.-Ing. Jürgen Beyerer (Fraunhofer<br />

IOSB), Prof. Dr.-Ing. habil. Gerald Gerlach (TU Dresden),<br />

Dipl.-Ing. Martin Müller (Phoenix Contact Electronics<br />

GmbH), Dr. rer. nat. Günter Reusing (Bosch Rexroth Mechatronics<br />

GmbH), Dr.-Ing. Eckardt Roos (Festo AG&Co KG),<br />

Prof. Dr.-Ing. Klaus-Dieter Sommer (PTB Braunschweig)<br />

und Dipl.-Inf. Christoph Winterhalter<br />

(ABB AG). Die acht Fachbereiche der GMA werden<br />

in der kommenden Amtsperiode geleitet<br />

von Prof. Dr.-Ing. Frank Allgöwer (Universität<br />

Stuttgart, Fachbereich 1, „Grundlagen und Methoden“),<br />

Prof. Dr.-Ing. Werner Daum (BAM<br />

Berlin, Fachbereich 2 „Prozessmesstechnik<br />

und Strukturanalyse“), Prof. Dr.-Ing. Robert<br />

Sch<strong>mit</strong>t (RWTH Aachen, Fachbereich 3 „Fertigungsmesstechnik“),<br />

Prof. Dr.-Ing. Klaus Janschek (TU<br />

Dresden, Fachbereich 4 „Mechatronik, Robotik und Aktorik“),<br />

Dipl.-Ing. Heiko Adamczyk (Knick Elektronische<br />

Messgeräte GmbH & Co. KG, Fachbereich 5 „Industrielle<br />

Informationstechnik“), Prof. Dr.-Ing. Alexander Fay (HSU<br />

Hamburg, Fachbereich 6 „Engineering und Betrieb“), Prof.<br />

Dr.-Ing. Dr. med. Steffen Leonhardt (RWTH Aachen, Fachbereich<br />

7 „Anwendungsfelder der Automation“) und Dr.-<br />

Ing. Michael Thomas Kramer (LED Linear GmbH, Fachbereich<br />

8 „Optische Technologien“).<br />

(ahü)<br />

VDI/VDE-GESELLSCHAFT MESS UND<br />

AUTOMATISIERUNGSTECHNIK (GMA),<br />

VDI-Platz 1, D-40468 Düsseldorf,<br />

Tel. +49 (0) 211 621 40, Internet: www.vdi.de<br />

DR. KURT D.<br />

BETTENHAUSEN<br />

bleibt an der Spitze<br />

der VDI/VDE-GMA.<br />

Foto: VDI<br />

Freelance Leitsystem.<br />

So einfach ist Prozessautomatisierung.<br />

Freelance kombiniert den günstigen Preis einer SPS <strong>mit</strong> der höheren Funktionalität eines Prozessleitsystems.<br />

Eine komfortable und intuitive Bedienung und nur ein Werk zeug für das gesamte<br />

Engineering von Inbetriebnahme bis zur System­Diagnose senken Kosten und sparen Zeit. Dieses<br />

Leitsystem­Konzept bewährt sich in weltweit mehr als 14.000 Applikationen in sehr vielen Industriebereichen.<br />

www.abb.de/controlsystems<br />

ABB Automation GmbH<br />

Email: marketing.control­products@de.abb.com<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

7


NAMUR-HAUPTSITZUNG 2012<br />

<strong>Automatisierung</strong>sanwender der Prozessindustrie<br />

wagen mehr Internationalisierung<br />

Heinrich Engelhard wird neuer Namur-Geschäftsführer/Arbeitskreis „Automation Security“ gegründet<br />

WILHELM OTTEN,<br />

Namur-Vorsitzender,<br />

eröffnete die Namur-<br />

Hauptsitzung 2012<br />

<strong>mit</strong> einem Vortrag<br />

über die Arbeitsergebnisse<br />

des Jahres.<br />

JÖRG KIESBAUER,<br />

Vorstands<strong>mit</strong>glied<br />

der Samson AG, des<br />

Hauptsponsors der<br />

Namur-Hauptsitzung<br />

2012, stellte einen<br />

historischen Abriss<br />

der Aktorik vor.<br />

Mit rund 550 Teilnehmern fand am 8. und 9. November<br />

die Namur-Hauptsitzung 2012 unter dem Motto<br />

„Aktorik – von der Handdrossel zum smarten Stellgerät“<br />

statt. Die Namur, der Verband von <strong>Automatisierung</strong>sanwendern<br />

in der Prozessindustrie, hatte Experten<br />

der <strong>Automatisierung</strong> nach Bad Neuenahr geladen.<br />

Auf der Sitzung wurde bekannt, dass Heinrich Engelhard<br />

(Bayer Technology Services) Dr. Wolfgang Morr<br />

als Namur-Geschäftsführer ablösen wird. Ab Januar<br />

2013 startet der 49-Jährige in dem Amt. Dr. Peter Zgorzelski<br />

(Bayer Technology Services) wird als technischer<br />

Referent in der Namur tätig. Bislang war er Geschäftsstellenleiter<br />

der Namur-Projektgruppe „Merkmalleisten“<br />

und Obmann des Arbeitskreises 1.2 sowie<br />

Leiter in Arbeitskreisen von IEC und DKE. Dr. Ulrich<br />

Christmann (Bayer Technology Services) übernimmt<br />

das Arbeitsfeld „Planen und Errichten“<br />

ab 1. Januar 2013. Bei den<br />

Arbeitsfeldern wurde ebenfalls<br />

neu sortiert. Das Arbeitsfeld 4<br />

wird zukünftig „Betrieb und<br />

Instandhaltung“„Operation Support<br />

und Maintenance“ heißen. In<br />

diesem Arbeitsfeld wird der Arbeitskreis<br />

„Automation Security“<br />

gegründet. Diskutiert wird derzeit<br />

die Einberufung eines fünften Arbeitsfeldes<br />

<strong>mit</strong> Arbeitskreisen, die<br />

nicht technik- oder prozessorientiert<br />

sind. Dazu gehören etwa<br />

Hochschulkontakte oder Normenbeobachtung<br />

und -beeinflussung.<br />

Zur Eröffnung der Veranstaltung,<br />

die von Aktorik-Anbieter<br />

HEINRICH<br />

ENGELHARD<br />

wird ab 1. Januar<br />

2013 Namur-<br />

Geschäftsführer.<br />

Er löst Wolfgang<br />

Morr ab. Bild: Namur<br />

Samson gesponsert wurde, berichtete der Namur-Vorsitzende<br />

Dr. Wilhelm Otten über die Ergebnisse der<br />

Verbandsarbeit des vergangenen Jahres. Die Namur, die<br />

die Interessen der Betreiber in der Prozessindustrie vertritt,<br />

will den Dialog <strong>mit</strong> Herstellern weiter internationalisieren.<br />

Dazu gab es im September diesen Jahres eine<br />

erste konstituierende Sitzung <strong>mit</strong> den Verbänden Wib,<br />

Eemura, Exera und Isa. Schon lange tauschen diese Verbände<br />

untereinander Experten in einzelnen Arbeitskreisen<br />

aus. Mit der Isa sei darüber hinaus eine intensivere<br />

Zusammenarbeit angedacht. Die Verbände erfassen<br />

derzeit die Aktivitäten, die Potenzial für mehr<br />

Kooperation bieten. Außerdem sind gegenseitige Besuche<br />

bei Veranstaltungen geplant. Gemeinsame Arbeitsgruppen<br />

sind überdies <strong>mit</strong> den europäischen Verbänden<br />

für die Bereiche Funktionale Sicherheit, Wireless Automation,<br />

IT-Security, Auswahl<br />

von Durchflussmessern und<br />

Alarm-Management angedacht. Zu<br />

dem Thema fand ebenfalls auf der<br />

Namur-Hauptsitzung ein Workshop<br />

unter dem Titel „Internationale<br />

Kooperation“ statt.<br />

Otten wies auf die Neuerscheinungen<br />

unter den Namur-Empfehlungen<br />

und -Arbeitsblättern hin.<br />

PETER<br />

ZGORZELSKI<br />

wird als<br />

technischer<br />

Refernt bei der<br />

Namur tätig.<br />

Bild: Namur<br />

Die NE 139 (Informationsschnittstellen<br />

in der Prozessautomatisierung<br />

Betriebliche Eigenschaften),<br />

NE 140 (Vorgehensweise zur Steigerung<br />

der Energieeffizienz in<br />

chemischen Anlagen – Beitrag der<br />

<strong>Automatisierung</strong>stechnik), NE 141<br />

(Schnittstelle zwischen Batch-<br />

8<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


ETWA 550 TEILNEHMER waren der Einladung auf die Namur-Hauptsitzung 2012 gefolgt. Bilder: Anne Hütter<br />

und MES-Systemen), NE 142 (Funktionale Sicherheit<br />

elektrotechnischer Elemente) und die NE 144<br />

sind neu im Portfolio des Verbandes. Überarbeitet<br />

wurden die NE 21, NA 82, NA 101 und NE 112.<br />

In China traf sich die Namur am 21. November<br />

2012. Das Sponsoring übernahm ABB. Im kommenden<br />

Jahr versammeln sich die <strong>Automatisierung</strong>sanwender<br />

in Bad Neuenahr am 7. und 8. November.<br />

Hauptsponsor der Veranstaltung, die dann unter<br />

dem Motto „Integriertes Engineering“ steht, ist die<br />

Siemens AG.<br />

AUTORIN<br />

ANNE HÜTTER<br />

ist verantwortlich für<br />

die Redaktion und das<br />

Programmmanagement<br />

der <strong>atp</strong> im Deutschen<br />

Industrieverlag.<br />

DIV Deutscher Industrieverlag GmbH,<br />

Arnulfstraße 124, D-80636 München,<br />

Tel. +49 (0)89 203 53 66 58,<br />

E-Mail: huetter@di-verlag.de,<br />

Internet: www.di-verlag.de<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

9


NAMUR-HAUPTSITZUNG 2012<br />

Goldene Namur-Ehrennadel für<br />

Gerhard Rehn und Martin Schwibach<br />

MARTIN SCHWIBACH (li., BASF) erhält die<br />

Auszeichnung von Wilhelm Otten und Monika Reek<br />

(Assistentin der Namur-Geschäftsführung).<br />

GERHARD REHN (li.)<br />

freut sich über die<br />

Namur-Ehrennadel, die<br />

Wilhelm Otten (re.)<br />

überreicht. Bilder: Anne Hütter<br />

Gerhard Rehn (Bayer Technology Services) und Martin<br />

Schwibach (BASF) sind <strong>mit</strong> der Goldenen Ehrennadel<br />

der Namur (Verband von <strong>Automatisierung</strong>sanwendern<br />

in der Prozessindustrie) für ihre besonderen<br />

Verdienste in den Arbeitskreisen des Verbandes<br />

ausgezeichnet worden.<br />

Der Namur-Vorsitzende Dr. Wilhelm Otten überreichte<br />

die Auszeichnungen auf der Namur-Hauptsitzung<br />

2012 Anfang November in Bad Neuenahr. Martin<br />

Schwibach erhielt die Auszeichung für seine Unterstützung<br />

bei der Wireless-Thematik. Er ist Obmann der Arbeitskreise<br />

2.6 (Feldbus) und 4.15 (Wireless) sowie Initiator<br />

der Heathrow-Gruppe. Schwibach schloß 1991 sein<br />

Duales Studium an der Berufsakademie Mannheim ab<br />

und begann im selben Jahr bereits bei der BASF. Er leitete<br />

ab 2001 die Fachgruppe IT-Lösungen in der PLT und<br />

fünf Jahre später die Gruppe „Industrielle Kommunikationstechnik“.<br />

Seit 2011 ist er verantwortlich für IT- und<br />

Automation-Security am Standort Ludwigshafen.<br />

Gerhard Rehn ist Mitglied in den Arbeitskreisen 2.6<br />

(Feldbus) und 2.8 (Internettechnologien in der Prozessautomatisierung).<br />

Seit 2004 ist er als Koordinator<br />

für das Arbeitsfeld 1 (Planung und Errichtung) verantwortlich.<br />

Rehn hat bis 1976 an der TU Ilmenau Informationstechnik<br />

studiert. 1989 begann er bei der Bayer<br />

AG und war dort zuständig für die „Systemwelt Prozessleitsysteme“.<br />

Seit 2000 verantwortet er die prozessleittechnische<br />

Planung im Pharma-Bereich und ist derzeit Leiter der<br />

PCT-Planung für die Werke Elberfeld und Bergkamen.<br />

<br />

(ahü)<br />

NAMUR-GESCHÄFTSSTELLE,<br />

c/o Bayer Technology Services GmbH,<br />

Gebäude K 9, D-51368 Leverkusen,<br />

Tel. +49 (0) 214 307 10 34,<br />

Internet: www.namur.de<br />

10<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


Bouaswaig und Yin<br />

ausgezeichnet<br />

Dr.-Ing. Ala Eldin Bouaswaig<br />

und Dr.-Ing. Shen Yin wurden<br />

auf der Namur-Hauptsitzung<br />

2012 <strong>mit</strong> dem Namur-<br />

Award ausgezeichnet. Bouaswaig<br />

erhielt die Auszeichnung<br />

für seine Doktorarbeit an der<br />

TU Dortmund zum Thema „Simulation,<br />

control, and inverse<br />

problems in particulate processes“.<br />

Nach seinem Studium<br />

an der Bright Star University of<br />

Technology (1993-1997) und<br />

dem Master an der TU Dortmund<br />

(2004-2006) sowie der<br />

dortigen Promotion (2009-2011)<br />

arbeitet Bouaswaig heute in<br />

Ludwigshafen als Automation<br />

Engineer bei BASF.<br />

Dr.-Ing. Shen Yin erhielt die Auszeichnung für<br />

seine Promotion „Data-driven design of fault diagnosis<br />

system“, die er zwischen 2007 und 2012 an<br />

der Universität Duisburg-Essen verfasst hat. Der<br />

Dozent am Harbin Institut of Technology konnte<br />

die Arbeit nicht entgegen nehmen. Sein betreuender<br />

Professor Ding nahm sie an seiner Stelle in<br />

Empfang. Yin hat einen Bachelorstudiengang am<br />

Harbin Institut of Technology (2000-2004) absolviert.<br />

Anschließend blieb er für ein Jahr an der<br />

Technischen Universität Bergakademie Freiberg,<br />

um danach bis 2007 seinen Master an der Universität<br />

Duisburg-Essen in Control and Information<br />

Systems zu absolvieren. Seit 2012 hat er die Dozentur<br />

am Harbin-Institut inne.<br />

(ahü)<br />

NAMUR-GESCHÄFTSSTELLE,<br />

c/o Bayer Technology Services GmbH,<br />

Gebäude K 9, D-51368 Leverkusen,<br />

Tel. +49 (0) 214 307 10 34,<br />

Internet: www.namur.de<br />

SHEN YIN wurde<br />

ebenfalls <strong>mit</strong> dem<br />

Namur-Award<br />

ausgezeichnet. Er<br />

konnte den Preis<br />

jedoch nicht<br />

persönlich in<br />

Empfang nehmen.<br />

ALA ELDIN<br />

BOUASWAIG<br />

stellte seinen<br />

ausgezeichneten<br />

Beitrag „Simulation,<br />

control, and inverse<br />

problems in<br />

particulate<br />

processes“ vor.<br />

Bild: Anne Hütter<br />

Mit Sicherheit<br />

kompetent<br />

Mit den Stellventilen Typ 3241 von<br />

SAMSON sind Sie immer auf der<br />

sicheren Seite. Dank ihrer hohen<br />

MTBF brauchen Sie sich um einen<br />

Ausfall nicht zu sorgen.<br />

Noch mehr Sicherheit garantieren die<br />

Stellungsregler der Bauarten 3730 und<br />

3731. Mit ihrem zertifizierten Magnetventil<br />

und dem induktiven Grenzkontakt<br />

führen sie die Sprung antworttests<br />

automatisch durch und dokumentieren<br />

die Ergebnisse.<br />

Gehen Sie auf Nummer sicher <strong>mit</strong><br />

SAMSON.<br />

SIL<br />

SIL SIL<br />

A01039DE<br />

SAMSON AG · MESS- UND REGELTECHNIK<br />

Weismüllerstraße 3 · 60314 Frankfurt am Main<br />

Telefon: 069 4009-0 · Telefax: 069 4009-1507<br />

E-Mail: samson@samson.de · www.samson.de<br />

SAMSON GROUP · www.samsongroup.net


BRANCHE<br />

AALE 2013: Mehr über Energieeffizienz, Systeme,<br />

Lehre und Forschung in der Automation erfahren<br />

EXPERTENFORUM: Studenten und Praktiker der<br />

<strong>Automatisierung</strong>stechnik tauschen sich in Stralsund zur<br />

AALE-Fachtagung 2013 aus. Bild: Sebastian Bernhard/pixelio.de<br />

Ans Meer geht es im kommenden Jahr <strong>mit</strong> der Angewandten<br />

<strong>Automatisierung</strong>stechnik in Lehre und Entwicklung<br />

an Fachhochschulen (AALE). Die 10. AALE-<br />

Konferenz findet vom 28. Februar bis 1. März 2013 an der<br />

Fachhochschule Stralsund statt. Sie wird vom Fachbereich<br />

Elektrotechnik und Information organisiert und<br />

vom Verein der Freunde und Förderer der Angewandten<br />

<strong>Automatisierung</strong>stechnik an Fachhochschulen (VFAALE<br />

e.V.) unterstützt. Themen wie Trends der <strong>Automatisierung</strong>stechnik,<br />

Forschungs- und Entwicklungsarbeiten,<br />

Kooperationen in der Automation zwischen Hochschule<br />

und Industrie sowie Lehre und Ausbildung, Didaktik und<br />

MINT-Projekte stehen auf dem Programm. Am 28. Febru-<br />

ar beginnt der Expertentreff bereits um 9 Uhr <strong>mit</strong> der<br />

Begrüßung durch Veranstaltungsleiter Prof. Bernd Büchau<br />

(FH Stralsund). Es folgt ein Grußwort von Stefan<br />

Sagert vom VDMA Robotik+Automation. Ab 9.40 Uhr<br />

starten dann die Plenarvorträge unter Vorsitz von Prof.<br />

Büchau. Nach der ersten Pause starten drei Sessions zum<br />

Thema Lehre und Ausbildung, <strong>Automatisierung</strong>ssysteme<br />

I und Robotik I. Steuerungstechnik und die Forführung<br />

der Sessions <strong>Automatisierung</strong>ssysteme und Robotik<br />

stehen danach auf dem Plan. In den Sessions 7, 8 und 9<br />

befassen sich die Vortragenden <strong>mit</strong> Energieeffizienz, Modellbasierten<br />

Entwürfen und Adaptiven Systemen. Ab<br />

15.45 Uhr wird dann der AALE Student Award 2031 verliehen.<br />

Den Vorsitz führt hier Prof. Viktorio Malisa. Gesponsert<br />

wird der Preis von Bayer Technology Services<br />

und GmbH und Evonik Industries AG. Die besten drei<br />

Abschlussarbeiten erhalten die Chance sich kurz vorzustellen.<br />

Am Ende wird der Gewinner bekannt gegeben.<br />

Zur Abendveranstaltung geht es dann auf einen Exkurs<br />

in die Tiefsee. Am nächsten Tag starten die Teilnehmer<br />

<strong>mit</strong> der Postersession. Weitere Sessions sind bis kurz nach<br />

12 Uhr geplant. Um 12.30 Uhr werden dann alle <strong>mit</strong> einem<br />

gemütlichen Ausklang verabschiedet. <br />

(ahü)<br />

ANGEWANDTE AUTOMATISIERUNGSTECHNIK<br />

IN LEHRE UND ENTWICKLUNG (AALE) ,<br />

c/o Fachhochschule Düsseldorf,<br />

Fachbereich Elektrotechnik,<br />

Josef-Gockeln-Straße 9, D-40474 Düsseldorf,<br />

Tel. +49 (0) 211 435 13 08,<br />

Internet: www.aale2013.fh-stralsund.de<br />

Die IEC 61508<br />

richtig anwenden<br />

Eine Tagung zur funktionalen Sicherheit<br />

bietet der Verband der Elektrotechnik<br />

Elektronik und Informationstechnik (VDE)<br />

am 12. und 13. März 2013 in Erfurt an. Die<br />

Sicherheitsgrundnorm für funktionale Sicherheit<br />

IEC 61508 erschien erstmalig<br />

1998, <strong>mit</strong>tlerweile liegt die zweite Ausgabe<br />

SICHERHEIT IN DER vor. Etliche fachspezifische Normen, die<br />

INDUSTRIE definiert die diese umsetzen, sind erschienen. Literatur<br />

IEC 61508. Bild: Katharina und zahlreiche Veranstaltungen befassen<br />

Bregulla / pixelio.de<br />

sich bereits <strong>mit</strong> ihrer Auslegung. Die Erfahrungen<br />

des GK 914, das bei der DKE für<br />

die IEC 61508 zuständig ist, zeigen, dass die Lücke zwischen<br />

dem Text der Norm und dem konkreten Anwendungsfall<br />

noch groß ist. Das DKE-Ko<strong>mit</strong>ee GK 914 wird zu<br />

diversen Fragen am 12. und 13. März 2013 in Erfurt Rede<br />

und Antwort stehen. Erstmalig werden auch VDE-Experten<br />

aus der Medizintechnik ihre Sicht einbringen. (ahü)<br />

VDE-VERBANDSGESCHÄFTSSTELLE,<br />

Stresemannallee 15, D-60596 Frankfurt am Main,<br />

Tel. +49 (0) 69 630 80, Internet: www.vde.com<br />

Dechema-Preis 2012 für<br />

Prof. Dr. Joachim Groß<br />

Prof. Dr. Joachim Groß von der<br />

Universität Stuttgart erhält den<br />

diesjährigen Dechema-Preis der<br />

Max-Buchner-Forschungsstiftung<br />

für seine guten Forschungsarbeiten<br />

zur Thermodynamik von Gemischen.<br />

Dank seiner Erkenntnisse<br />

ist es Verfahrenstechnikern möglich,<br />

Eigenschaften von Stoffgemischen<br />

<strong>mit</strong> polaren Wechselwirkungen<br />

oder am kritischen Punkt<br />

vorauszu erechnen. Die Verleihung<br />

des <strong>mit</strong> 20.000 Euro dotierten<br />

Preises fand am 30. November 2012,<br />

im Rahmen eines Festkolloquiums,<br />

in Frankfurt am Main statt. (ahü)<br />

DECHEMA E.V.,<br />

Theodor-Heuss-Allee 25,<br />

D-60486 Frankfurt,<br />

Tel. +49 (0) 69 756 40,<br />

Internet: www.dechema.de<br />

PROF. DR.<br />

JOACHIM GROSS<br />

forschte zu<br />

Thermodynamik<br />

von Gemischen.<br />

Bild: Dechema<br />

12<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


Neue Richtlinie VDI/VDE 2632 Blatt 2 vereinfacht<br />

Kommunikation zwischen Anbietern und Anwendern<br />

Die soeben als Entwurf veröffentlichte Richtlinie VDI/<br />

VDE 2632 Blatt 2 „Industrielle Bildverarbeitung –<br />

Leitfaden für die Erstellung eines Lastenhefts und eines<br />

Pflichtenhefts“ unterstützt Anwender und Anbieter von<br />

Machine-Vision-Systemen bei der Kommunikation <strong>mit</strong>einander,<br />

um Missverständnisse und eine unvollständige<br />

Aufgabenbeschreibung zu vermeiden. Die Richtlinie<br />

hilft, Bildverarbeitungsprojekte im vollen Funktionsumfang<br />

und innerhalb des geplanten Zeit- und Kostenaufwands<br />

zu realisieren. Viele Methoden, die für die<br />

industrielle Bildverarbeitung entwickelt wurden, sind<br />

längst in den Alltag eingezogen. Moderne Fotoapparate<br />

erkennen das Lächeln von Personen und wählen automatisch<br />

den optimalen Aufnahmezeitpunkt für das<br />

Bild. Handykameras nehmen Fotos einer Plakatwand<br />

auf, finden und lesen den dort abgedruckten Text, erkennen,<br />

dass der Text eine Internet-Seite angibt und<br />

bieten dem Benutzer an, die entsprechende Website zu<br />

öffnen. 2-D-Codes <strong>mit</strong> Informationen von Flugtickets<br />

werden nicht mehr ausgedruckt, sondern direkt vom<br />

Handy-Display gelesen.<br />

Die hier aufgeführten Beispiele könnten bei den Anwendern<br />

der industriellen Bildverarbeitung den Eindruck<br />

erwecken, dass die modernen bildgestützten Positionier-,<br />

Prüf- und Messeinrichtungen quasi von alleine ihre Aufgaben<br />

erfüllen. Das ist aber nicht so. Eine veränderte<br />

Oberflächenrauheit kann beispielsweise für ein Produkt<br />

nicht qualitätsrelevant sein, ein anderer Farbton dagegen<br />

schon. Bei anderen Produkten können die Qualitätskriterien<br />

genau umgekehrt definiert sein. Daher ist in der<br />

industriellen Bildverarbeitung genau festzulegen, was die<br />

Prüfaufgabe ist, wie die Prüfobjekte aussehen, und wie<br />

die Umgebungsbedingungen sind, um zum Beispiel die<br />

Verständnisschwierigkeiten hinter folgenden Anwenderaussagen<br />

zu vermeiden:<br />

Wir hatten spezifiziert, dass das größte zu inspizierende<br />

Produkt 15 mm lang ist. Unsere neue Produktgeneration<br />

ist 17,5 mm lang. Das ist doch kein Problem,<br />

oder?<br />

Bei der Anlagenreinigung am Schichtende wird<br />

Staub aufgewirbelt. Was dachten Sie denn?<br />

Das war doch von vorne herein klar, dass die Anlage<br />

nach dem erfolgreichen Probelauf hier bei uns im<br />

Werk anschließend nach Indonesien geschickt werden<br />

soll. Wussten Sie das nicht?<br />

Diese frei erfundenen, aber realitätsnahen Aussagen können<br />

ein komplettes Anlagenkonzept infrage stellen:<br />

Wenn telezentrische Objektive in dem Bildverarbeitungssystem<br />

eingesetzt werden, kann das sichtbare<br />

Objektfeld nicht ohne weiteres vergrößert werden: Es<br />

werden andere Objektive <strong>mit</strong> anderen Einbaumaßen<br />

für größere Produkte gebraucht.<br />

Nicht berücksichtigte Staubeinwirkungen können<br />

zusätzliche Einhausungen und Filter erforderlich<br />

machen.<br />

Der Betrieb bei extrem hohen Temperaturen und hoher<br />

Luftfeuchtigkeit kann zusätzliche Kühlvorrichtungen<br />

und Luftentfeuchter erfordern.<br />

LASTEN UND PFLICHTEN beim Anlagenmagement in der industriellen<br />

Bildverarbeitung erläutert die Richtlinie VDI/VDE 2632 Blatt 2.<br />

Bild: Fraunhofer IOSB/Manfred Zentsch.<br />

In allen Beispielen verlängert die nachträgliche Änderung<br />

der Anforderungen die Lösungserstellung für die Bildverarbeitungsaufgabe<br />

und macht das System teurer. Daher<br />

ist es wichtig, die Anforderungen an ein Bildverarbeitungssystem<br />

möglichst früh, präzise und umfassend zu<br />

beschreiben, da<strong>mit</strong> das fertige System zur vollen Zufriedenheit<br />

aller Beteiligten arbeitet.<br />

Die Richtlinie VDI/VDE 2632 Blatt 2 gibt Hinweise zur<br />

Erstellung eines Lastenheftes und führt detailliert Einflussgrößen<br />

auf, die bei der Spezifikation einer Bildverarbeitungsaufgabe<br />

vom Anwender berücksichtigt werden<br />

sollen. Die hier aufgeführten Aspekte lassen sich auf fast<br />

alle Bildverarbeitungsaufgaben anwenden, seien es Sortier-,<br />

Positionier-, Prüf- oder Messaufgaben. Die Richtlinie<br />

schlägt zudem mögliche Inhalte eines Pflichtenheftes vor,<br />

in dem ein Anbieter dem Anwender seinen Lösungsvorschlag<br />

unterbreitet. Da<strong>mit</strong> erleichtert sie es den Anbietern,<br />

den Leistungs- und Funktionsumfang der angebotenen<br />

Lösung vollständig und für den Anwender transparent zu<br />

beschreiben. Die als Entwurf veröffentlichte Richtlinie<br />

VDI/VDE 2632 Blatt 2 ergänzt die Richtlinienreihe zur<br />

„Industriellen Bildverarbeitung“ des Fachausschusses<br />

3.51 im GMA-Fachbereich 3 „Fertigungsmesstechnik“.<br />

Einsprüche zur Richtlinie können bis zum 28. Februar<br />

2013 über das VDI-Richtlinien-Einspruchsportal (www.<br />

vdi.de/einspruchsportal) eingereicht werden. Das bereits<br />

veröffentlichte Blatt 1 dieser Richtlinie behandelt die<br />

Grundlagen und Begriffe der industriellen Bildverarbeitung.<br />

Weitere Blätter sind in Planung.<br />

VDI/VDE-GESELLSCHAFT MESS- UND<br />

AUTOMATISIERUNGSTECHNIK (GMA),<br />

Dr.-Ing. Erik Marquardt,<br />

VDI-Platz 1, D-40468 Düsseldorf,<br />

Tel. +49 (0) 211 621 43 73,<br />

E-Mail: marquardt@vdi.de,<br />

Internet: www.vdi.de/2632<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

13


FORSCHUNG<br />

PENG erzeugt Energie aus minimalen<br />

Temperaturunterschieden<br />

Schon Temperaturunterschiede durch einen Luftzug<br />

oder einen Sonnenstrahl können Strom erzeugen.<br />

Doch reicht dieser, um ganze Komponenten dauerhaft<br />

zu versorgen? Forscher des Georgia Institute of Technology<br />

haben einen solchen PENG, einen pyroelektrischen<br />

Nanogenerator, erfunden. Er ist halb so groß wie eine<br />

Briefmarke und kann nach Angaben der Wissenschaftler<br />

Elektronik-Kompontenten <strong>mit</strong> ausreichend Strom<br />

versorgen. Der pyroelektrische Effekt erlaubt die Erzeugung<br />

von Strom aus zeitlichen Temperaturänderungen,<br />

ist bisher aber kaum erforscht. Bisherige Generatoren<br />

auf dieser Grundlage haben lediglich Spannungen unter<br />

0,1 Volt geliefert. Der PENG besteht aus einer 175<br />

Mikrometer dicken Folie aus Blei-Zirkonat-Titanat. Ein<br />

Stück <strong>mit</strong> den Maßen 21 x 12 Millimeter liefert bei einer<br />

Temperaturänderung um 45 Kelvin <strong>mit</strong> einer Geschwindigkeit<br />

von 0,2 Kelvin pro Sekunde bis zu 22 Volt Spannung<br />

bei 430 Nanoampere. Die Stromdichte beträgt 171<br />

Nanoampere pro Quadratzentimeter. Das reicht aus, um<br />

ein kleines LCD <strong>mit</strong> Energie zu versorgen, wie die Forscher<br />

bewiesen. Auch zum Laden eines Lithium-Ionen-<br />

Akkus kann der erzeugte Storm genutzt werden, allerdings<br />

muss der Output hier für einen sinnvollen Einsatz<br />

noch erhöht werden.<br />

(ahü)<br />

GEORGIA INSTITUTE OF TECHNOLOGY,<br />

North Ave., Atlanta, Georgia 30332, USA,<br />

Tel. +1 404 894 20000,<br />

Internet: www.gatech.edu<br />

Modularisierung fördert schnellere Produktion<br />

Könnte die Lösung für einen schnelleren Martkeintritt<br />

für ein Produkt der Verfahrenstechnik in der Modularisierung<br />

liegen? Ja, sie könnte, erklärte Norbert Kockmann,<br />

anlässlich der Namur-Hauptsitzung Anfang November<br />

in Bad Neuenahr. Der Treffpunkt für Anwender<br />

von <strong>Automatisierung</strong>stechnik in der Prozessindustrie<br />

stellte in seinem Vortragsprogramm einige Lösungen für<br />

die effiziente Prozesstechnik vor. Dazu gehört auch das<br />

europäische Forschungsprojekt F3 (Fast Flexible Future)<br />

Factory. Das Projekt modularisiert Anlagen in Containern.<br />

Invite heißt das Projekt, das von der Bayer Technology<br />

Services und der TU Dortmund realisiert wurde.<br />

Bei Evonik ist ein ähnliches Projekt, der Evotrainer, im<br />

Einsatz. Er entstand aus dem Forschungsprojekt Copiride.<br />

Dieser 3 x 12 Meter große Container enthält, was für<br />

die Produktion benötigt wird: Reaktoren, Prozessleittechnik,<br />

IT-Module, Lagerfläche für die Einsatzstoffe,<br />

Elemente für konstruktiven Brandschutz, Fluchttüren<br />

und Auffangwannen nach dem Wasserhaushaltsgesetz.<br />

Die Verfahrenstechnik gibt hier also eine neue Marschrichtung<br />

vor; die <strong>Automatisierung</strong>stechnik muss <strong>mit</strong> den<br />

Anforderungen Schritt halten. „Die <strong>Automatisierung</strong>stechnik<br />

darf die Entwicklung nicht bremsen, sie soll sie<br />

unterstützen“, fordert Stephan Bleuel von Sanofi-Aventis.<br />

Die Branche ist sich sicher: Modularisierung hat Potenzial,<br />

die Time-to-Market zu verkürzen.<br />

(ahü)<br />

TECHNISCHE UNIVERSITÄT DORTMUND,<br />

Fakultät Bio- und Chemieingenieurwesen,<br />

Emil-Figge-Strasse 70, D-44227 Dortmund,<br />

Tel. +49 (0) 231 755 30 30,<br />

Internet: www.bci.tu-dortmund.de<br />

Mikrochips sollen Raubkopien verhindern<br />

Verschiedene Möglichkeiten, Maschinenbauer vor dem<br />

Kopieren ihrer Ware zu schützen, schlägt das Fraunhofer-Institut<br />

für Angewandte und Integrierte Sicherheit<br />

AISEC vor. Um das illegale Kopieren von vornehmlich<br />

Textilmaschinen, Kompressoren oder Anlagen für Kunststoffverarbeitung<br />

besser zu kontrollieren, bieten die Wissenschaftler<br />

zahlreiche Verfahren an.<br />

Besonders die integrierten Steuerungprogramme der<br />

Maschinen sind ein beliebtes Angriffsziel für Kopierer.<br />

Ein ganzer Auftragsmarkt hat sich, laut AISEC, darum<br />

gebildet. Dienstleister bieten <strong>mit</strong>tlerweile das "Reverse<br />

Engineering" an. Zunächst analysieren sie den Aufbau<br />

der Hardware und fertigen Schaltpläne des Originalproduktes<br />

an. Dann lesen sie die Software aus und rekonstruieren<br />

daraus die Steuerung und Funktionen der Maschine,<br />

den Kern des Apparats. Sicherheitskritische<br />

Ersatzteile, wie bereits in der Luftfahrtindustrie eingesetzt,<br />

können <strong>mit</strong> nicht kopierbaren Hologrammen gekennzeichnet<br />

werden.<br />

Effektiver ist es dagegen bereits bei der Entwicklung<br />

der Hardware den Produktschutz einzubeziehen. Auf<br />

Mikrochips können die Daten der Maschine so verschlüsselt<br />

hinterlegt werden. AISEC geht davon aus, dass<br />

eine Prophylaxe dieser Art Maschinenbauer bis zu fünf<br />

Jahre vor Produktpiraterie schützen kann. (ahü)<br />

FRAUNHOFER-INSTITUT FÜR ANGEWANDTE UND<br />

INTEGRIERTE SICHERHEIT AISEC,<br />

Parkring 4, D-85748 Garching b. München,<br />

Tel. +49 (0) 89 3229986-128,<br />

Internet: www.aisec.fraunhofer.de<br />

14<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


Flinker Modulator: Baustein für effiziente<br />

Datenübertragung gelangt zur Marktreife<br />

Wissenschaftlern aus Berlin und Frankfurt/Oder ist<br />

es gelungen, den bisher kleinsten Hochgeschwindigkeitsmodulator<br />

der Welt zu entwickeln. Der Modulator<br />

<strong>mit</strong> einer Länge von weniger als 10 Mikrometern<br />

ist für photonisch integrierte Schaltkreise geeignet.<br />

Modulatoren werden in der Nachrichtentechnik zur<br />

Übertragung von Informationen eingesetzt. Bei hohen<br />

Modulationsgeschwindigkeiten von bis zu 25 Gigabaud<br />

besitzt er eine sehr hohe Temperaturstabilität<br />

und einen äußerst geringen Energieverbrauch von nur<br />

200 Femtojoule/Bit. Die Herausforderung bleibt die<br />

effiziente Zusammenführung der Basiselemente zu<br />

einem leistungsstarken marktfähigen Produkt. Siliconon-Insulator<br />

(SOI) Chip stellt sich als technisch besonders<br />

anspruchsvoll dar. Hier gilt es, eine effiziente<br />

Kombination aus Laserquelle, elektro-optischem<br />

Modulator und Treiberelektronik zu entwickeln. Bisher<br />

konnte für dieses Modul keine optimale Lösung<br />

aufgezeigt werden, welche gleichzeitig alle Anforderungen<br />

an die Schaltgeschwindigkeit, Baugröße,<br />

Zuverlässigkeit und den Energieverbrauch für die<br />

Implementierung in einen optischen Transceiver, der<br />

als Schnittstelle zwischen optischer und elektrischer<br />

Übertragungsstrecke fungiert, erfüllt. (ahü)<br />

TECHNISCHE UNIVERSITÄT BERLIN,<br />

Straße des 17. Juni 135, D-10623 Berlin,<br />

Tel. +49 (0) 30 31 40, Internet: www.tu-berlin.de<br />

KLEINER ABER OHO:<br />

Der Silicon-on-Insulator<br />

(SOI)-Chip ist 26×11<br />

Quadratmillimeter klein<br />

und hat über 700<br />

verschiedene optische<br />

Bauelemente.<br />

Foto: TU Berlin<br />

Roboter Hytaq fliegt oder<br />

fährt je nach Bedarf<br />

Ein Automat, der fahren<br />

und fliegen kann. Forschern<br />

am Robotics Lab<br />

des Illinois Institut of<br />

Technology (IIT) ist es gelungen,<br />

einen solchen Hybrid<br />

Terrestrial and Aerial<br />

Quadrotor, kurz Hytaq,<br />

zu entwickeln. Der Flugroboter<br />

besteht aus einem<br />

QUADROTOR: Umgeben von robotischen Hubschrauber<br />

<strong>mit</strong> vier Rotoren, um<br />

einem runden Schutzkäfig kann<br />

Hytaq auch fahren. Bild: IIT den herum die Entwickler<br />

einen Schutzkäfig angelegt<br />

haben. Dieser ist aus Polykarbonat und Kohlenstofffaser.<br />

Im Inneren auf einer Achse sitzt der Flugroboter.<br />

Man nennt ein solches Konstrukt auch Quadrokopter.<br />

Zum Fahren benutzt der Automat dann den<br />

runden Käfig. Durch die Abrundung muss nur der<br />

Rollwiderstand überwunden werden. Die Erfinder hoffen,<br />

dass es Hytaq gelingt, einfacher an schwierig zu<br />

erreichende Orte zu gelangen. Außerdem kann die Effizienz<br />

seiner Fortbewegung angepasst werden. Die<br />

Batterie von Hytaq reiche zwar nur fünf Minuten, an<br />

alternativen Energieversorgungsmethoden werde jedoch<br />

noch gearbeitet. Hytag kann viermal so lange<br />

Strecken zurücklegen und fast sechs Mal so lang im<br />

Einsatz sein, weie in reines fliegendes System. (ahü)<br />

ILLINOIS INSTITUT OF TECHNOLOGY,<br />

3300 South Federal Street, Chicago, IL 60647, USA<br />

Internet: www.iit.edu<br />

Digitale Anlage im Lebenszyklus<br />

AUSGABE 55 (6) DER ATP EDITION im Juni 2013 greift das Thema der<br />

Digitalen Anlage im Lebenszyklus auf. Die Digitale Anlage ist der Oberbegriff<br />

für ein umfassendes Netzwerk von digitalen Modellen, Methoden<br />

und Werkzeugen die durch ein durchgängiges Datenmanagement<br />

integriert werden. Ihr Ziel ist die ganzheitliche Planung, Evaluierung<br />

und laufende Verbesserung aller wesentlichen Strukturen, Prozesse<br />

und Ressourcen der realen Anlage in Verbindung <strong>mit</strong> dem Produkt – sie<br />

ist ein essenzielles Element für die Umsetzung der Vision Industrie<br />

4.0. Gesucht sind praxisorientierte Beiträge zur Beschreibung, Modellierung,<br />

Umsetzung, Einführung und Nutzung der Digitalen Anlage bei<br />

Anlagenplanung, Inbetriebsetzung und Prozessführung. Beiträge, die<br />

die Nutzung der Digitalen Anlage im Zusammenhang <strong>mit</strong> CPS darstellen,<br />

sind ebenfalls willkommen.<br />

Die <strong>atp</strong> <strong>edition</strong> ist die hochwertige Monatspublikation für Fach- und<br />

Führungskräfte der <strong>Automatisierung</strong>sbranche. In den Hauptbeiträgen<br />

werden die Themen <strong>mit</strong> hohem wissenschaftlichem und technischem<br />

Anspruch und vergleichsweise abstrakt dargestellt. Im Journalteil<br />

werden praxisnahe Erfahrungen von Anwendern <strong>mit</strong> neuen Technologien,<br />

Prozessen oder Produkten beschrieben.<br />

Alle Beiträge werden von einem Fachgremium begutachtet. Sollten<br />

Sie sich selbst aktiv an dem Begutachtungsprozess beteiligen wollen,<br />

bitten wir um kurze Rückmeldung. Für weitere Rückfragen stehen wir<br />

Ihnen selbstverständlich gerne zur Verfügung.<br />

Ihre Redaktion der <strong>atp</strong> <strong>edition</strong>: Leon Urbas, Anne Hütter<br />

CALL FOR<br />

Aufruf zur Beitragseinreichung<br />

Thema: Die Digitale Anlage im Lebenszyklus<br />

Kontakt: urbas@di-verlag.de<br />

Termin: 28. Januar 2013<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

15


PRAXIS<br />

Vernetzte Sicherheitscontroller überwachen die<br />

komplette Montage von Flugzeugrumpf-Schalen<br />

Premium Aerotec erreicht <strong>mit</strong> Lösung von ABB Jokab Safety Performance Level PL e und SIL 3<br />

DIE SCHUTZUMHAUSUNG QUICK-GUARD<br />

besteht aus einem Minimum an Komponenten.<br />

Die Computer-Software SafeCAD erstellt<br />

automatisch 3D-Zeichnungen sowie Komponentenund<br />

Schnittlisten. Der Sicherheits-Lichtvorhang<br />

Focus schützt vor unbefugtem Zutritt.<br />

Bild: ABB Jokab Safety<br />

DIE VOLLAUTOMATISIERTE FLÄCHENNIETANLAGE<br />

NOR ist durch eine Sicherheits-Komplettlösung von<br />

Jokab Safety rundum geschützt. Bild: Premium Aerotec<br />

Der Luftfahrtzulieferer Premium Aerotec wählte für<br />

den Personen-, Maschinen- und Anlagenschutz an<br />

den Flächennietern und seiner Pulse-Motion-Montagelinie<br />

eine Sicherheits-Komplettlösung von ABB Jokab<br />

Safety. Sämtliche Sicherheitsfunktionen an den<br />

neuen Fertigungslinien in der Schalenmontage im<br />

niedersächsischen Nordenham werden von zehn <strong>mit</strong>einander<br />

vernetzten Sicherheitscontrollern Pluto<br />

B46 v2 überwacht und gesteuert. Diese sind über sechs<br />

Protokollumsetzer Gate-P1 <strong>mit</strong> der übergeordneten<br />

Profibus-DP-Steuerung vernetzt. Mit Erweiterungsund<br />

Sicherheitsrelais, Zustimmungsschaltern, Lichtvorhängen,<br />

Schutzumhausungen sowie Sicherheitsschlössern<br />

<strong>mit</strong> Zuhaltung erreicht das Unternehmen<br />

durchgängig den höchsten Performance Level PL e<br />

gemäß EN ISO 13849-1 und SIL 3 gemäß EN IEC 61508<br />

sowie EN IEC 62061.<br />

5000 RUMPFSCHALEN PRO JAHR<br />

Jährlich verlassen rund 5000 Schalen das Werk Nordenham,<br />

die unter anderem auf dem Seeweg zum<br />

Hauptkunden Airbus nach Hamburg transportiert<br />

werden. Aus Nordenham erhält der Flugzeughersteller<br />

Schalen für den A380 und zukünftig die komplette<br />

Sektion 13/14 der Rumpfstruktur für den A350 XWB.<br />

Neben der Fertigung von Flugzeugstrukturen für die<br />

gesamte Airbus-Flotte produziert das Werk Nordenham<br />

auch Bauteile für andere Luftfahrtkunden sowie<br />

branchenfremde Unternehmen, wie Komponenten für<br />

den Triebkopf des chinesischen Hochgeschwindigkeitszuges<br />

CRH3.<br />

VOLLAUTOMATISIERTE FLÄCHENNIETANLAGE<br />

Der Sondermaschinenbauer Brötje-Automation GmbH<br />

aus Wiefelstede bei Oldenburg ist als Generalunternehmer<br />

der verantwortliche Lieferant der drei Montagelinien<br />

für die A350 XWB-Rumpfschalen in Nordenham,<br />

Stade und Augsburg. Dies beinhaltet neben einem in der<br />

Flugzeugmontage einzigartigen Förderkonzept auch<br />

vollautomatisierte Bohr- und Nietmaschinen.<br />

Sowohl die vollautomatisierte Flächennietanlage in<br />

Nordenham als auch die Multi-Panel-Assembly-Cell<br />

(MPAC) in Augsburg sind zur Herstellung von Nietverbindungen<br />

und zur Montage von Rumpf-Bauteilen für<br />

den Airbus A 350 bestimmt. Der Bohr- und Nietprozess<br />

erfordert eine beidseitige und geregelte Krafteinleitung,<br />

um die Flugzeugschale vor Beschädigungen zu schützen.<br />

Der eingesetzte Bohr- und Nietendeffektor ist daher zwei-<br />

16<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


DAS SICHERHEITSSCHLOSS KNOX verhindert,<br />

dass Menschen in die Nähe gefährlicher Maschinenteile<br />

gelangen können, bevor die Maschine<br />

vollständig stillsteht. Bild: ABB Jokab Safety<br />

DER SICHERHEITSCONTROLLER PLUTO B20<br />

unterstützt durchgängig den höchsten Performance<br />

Level PL e und SIL 3. Die Erweiterungsrelais BT51<br />

bieten zusätzliche Ausgangskontakte, und das<br />

Gateway Gate P1 ermöglicht die Kommunikation<br />

<strong>mit</strong> der übergeordneten Profibus-DP-Steuerung.<br />

Bild: ABB Jokab Safety<br />

geteilt. Das sogenannte Oberwerkzeug beherbergt diverse<br />

einzelne Werkzeuge wie Bohrer, Nieteinsetzer sowie<br />

Spanabsaugung und kommt ohne Hydraulik aus. Es wird<br />

über ein Portal in die jeweils gewünschte Position verfahren.<br />

Das Unterwerkzeug ist steuerungsseitig gekoppelt<br />

und kann so automatisch in die dazugehörige Gegenhalterposition<br />

verfahren werden. Eine Vielzahl von<br />

Achsen erlaubt auch das Bearbeiten von komplexen Bauteilen<br />

und Strukturen.<br />

SICHERHEITSZELLE SCHÜTZT MITARBEITER<br />

Die Pulse Motion Line (PML) für die Schalenproduktion<br />

ist ein in der Flugzeugmontage weltweit erstmalig eingesetztes<br />

Montagelinienkonzept. Die Taktung des Bauteils<br />

erfolgt in vorab festgelegten Abständen, hier alle 7<br />

Spanten. Die Bauteilträger werden <strong>mit</strong> einem Transportgestell<br />

in die PML be- und entladen. Ein durchgängiges<br />

Transportsystem in der PML sorgt für den Weitertransport<br />

der Bauteile durch alle Arbeitsbereiche.<br />

Die Anlage ist aus Sicherheitsgründen <strong>mit</strong> einem<br />

Schutzzaun für den Arbeitsbereich der Nietanlage ausgerüstet.<br />

Die Sicherheitszelle ist <strong>mit</strong> mehreren Türen<br />

ausgerüstet. Jede Tür verfügt über eine Türverriegelung<br />

Knox von Jokab Safety. Der Eintritt in die Sicherheitszelle<br />

wird erst freigegeben, wenn sich das Positioniersystem<br />

und die Nietmaschine in einem sicheren Zustand<br />

befinden.<br />

Zur Durchführung mehrerer Bohrungen am Testblech<br />

kann der Bediener den Positionierer eingeschränkt<br />

verfahren. Zum Schutz des Bedieners in der<br />

Zelle bewegt sich der Positionierer nur, wenn der Bediener<br />

eine Zustimmtaste betätigt hält. Die Bewegung<br />

des Positionierers ist auf „sichere Geschwindigkeit“<br />

begrenzt. Wenn der Bediener die Zustimmtaste während<br />

eines Zyklus loslässt, stoppt der Zyklus an Unterbrechungspunkten<br />

in der Prozessschrittkette, eine<br />

Bohrvorschubbewegung wird sofort abgebrochen und<br />

der Bohrer zurückgezogen.<br />

Alle diese übergeordneten sicherheitsrelevanten<br />

Steuerungsprozesse sind durch mehrere <strong>mit</strong>einander<br />

vernetzte Sicherheitscontroller des Typs Pluto B46-2<br />

realisiert. Die von der Sicherheitstechnik geforderte<br />

Flexibilität ließ sich <strong>mit</strong> dem freiprogrammierbaren<br />

Sicherheitscontroller Pluto problemlos verwirklichen.<br />

Pluto ist ein Controller, der den Entwurf von Sicherheitssystemen<br />

vereinfacht und die höchste Sicherheitskategorie<br />

4 nach EN 954-1 beziehungsweise PL e nach<br />

EN 13849-1 erreicht.<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

17


PRAXIS<br />

EINFACHER AUSBAU DANK MODULSYSTEM<br />

Für das Projekt benötigte man sowohl eine flexible <strong>Automatisierung</strong>ssteuerung<br />

als auch ein zuverlässiges Sicherheitssystem.<br />

Die Wahl fiel hier auf die SPS Pluto von<br />

ABB Jokab Safety, die beide Anforderungen erfüllen<br />

konnte. Pluto ermöglichte eine leichte und unkomplizierte<br />

sicherheitstechnische Vernetzung der Fertigungslinie.<br />

Mithilfe des Pluto-Systems wurde die Berechnung<br />

des PL stark erleichtert.<br />

Die modulare Architektur des Systems erlaubt einen<br />

einfachen Ausbau falls die Kapazität erhöht werden<br />

muss. Für Brötje-Automation war wichtig, dass die Sicherheitsfunktionen<br />

von Anfang an in das Anlagenkonzept<br />

integriert werden konnten. Schließlich ist es nicht<br />

ganz einfach, ein System im Nachhinein an die zahlreichen<br />

erforderlichen Sicherheitsfunktionen anzupassen.<br />

Eine rein Hardware-technische Realisierung <strong>mit</strong> dem<br />

da<strong>mit</strong> verbundenen enormen Installationsaufwand und<br />

möglicherweise einem zusätzlichen Schaltschrank wäre<br />

zu aufwendig geworden.<br />

DEZENTRALE AUTOMATISIERUNGSLÖSUNG<br />

Alle Fäden der dezentral strukturierten <strong>Automatisierung</strong>slösung<br />

für das Transportsystem laufen in einem<br />

zentralen Controller zusammen, der neben den konventionellen<br />

SPS-Aufgaben die gesamte Sicherheitstechnik<br />

des Transportsystems auswertet und steuert. Das Ergebnis<br />

sind mehrere kompakt montierte, dezentrale Schaltschränke,<br />

die über Profibus DP <strong>mit</strong> dem zentralen Controller<br />

verbunden sind.<br />

Durch den Mischbetrieb der Baugruppen ist es möglich,<br />

in einer dezentralen Station sowohl Standard- als<br />

auch sicherheitsrelevante Prozess-Signale zu verarbeiten.<br />

Der sichere Datenaustausch ist über herkömmliche<br />

Profibus-Kabel und das Protokoll Profisafe realisiert.<br />

Dies erspart einen separaten Sicherheitsbus und den da<strong>mit</strong><br />

verbundenen Installationsaufwand.<br />

LICHTVORHANG SORGT FÜR FLEXIBILITÄT<br />

Die Roboter-Anlage ist aus Sicherheitsgründen <strong>mit</strong> einer<br />

Zelleneinhausung für den Arbeitsbereich ausgerüstet.<br />

Die Sicherheitszelle soll verhindern, dass sich während<br />

des Automatikbetriebs ein Mitarbeiter im Gefahrenbereich<br />

des Roboters aufhält. Die Sicherheitszelle wird <strong>mit</strong><br />

mehreren Türen ausgerüstet. Jede Tür hat eine Türsicherung<br />

Knox von Jokab Safety. Der Eintritt in die Sicherheitszelle<br />

wird erst freigegeben, wenn der Roboter <strong>mit</strong><br />

dem Endeffektor sicher steht.<br />

Da<strong>mit</strong> der Bediener oder das Wartungspersonal an den<br />

Endeffektoren am Ablageplatz arbeiten kann, ist der Bereich<br />

zwischen Ablageplatz und Sicherheitszelle <strong>mit</strong><br />

einem Jokab-Safety-Lichtvorhang Focus gesichert. Wenn<br />

mehr als ein Roboter in der Zelle arbeitet, wird <strong>mit</strong> zusätzlichen<br />

Lichtvorhängen des Typs Focus die Zelle in<br />

Arbeitsbereiche aufgeteilt. Durch diese Querteilung der<br />

Sicherheitszelle wird es möglich, dass sich Bediener oder<br />

Wartungspersonal in einem Teilbereich der Zelle aufhalten<br />

können, ohne dass der zweite Roboter seine Arbeit<br />

stoppen muss.<br />

PROJEKTÄNDERUNGEN OHNE UMVERDRAHTUNG<br />

Ausgezahlt hat sich die fehlersichere SPS-Technik bereits<br />

in der Entwicklungsphase insofern, als im Sondermaschinenbau<br />

immer wieder Änderungen in der Projektphase<br />

vorgenommen werden müssen, die sonst einen<br />

erheblichen Umverdrahtungsaufwand <strong>mit</strong> sich gebracht<br />

hätten. Die Sicherheitsfunktionalität der fehlersicheren<br />

Steuerung Pluto basiert auf vorgefertigten Funktionsbausteinen.<br />

Diese lassen sich aber auch an individuelle Anforderungen<br />

anpassen. Zum Austausch nicht sicherheitsrelevanter<br />

Daten zwischen den Pluto-Steuerungen wird<br />

das Profibus-Gateway Gate-P1 von ABB Jokab Safety<br />

eingesetzt.<br />

Der bei Premium Aerotec <strong>mit</strong> der Instandhaltungsplanung<br />

und -steuerung betraute technische Leiter, Peter<br />

Janßen und sein Mitarbeiter Thomas Karges sowie Brötje-Projektleiter<br />

<strong>Automatisierung</strong>stechnik, Rainer Weber,<br />

schätzen vor allem die hohe Anpassungsfähigkeit des<br />

Sicherheitscontrollers Pluto sowie die leichte Ausrichtung<br />

der Unfallschutz-Lichtvorhänge Focus.<br />

Die drei <strong>Automatisierung</strong>sspezialisten loben auch den<br />

übersichtlichen modularen Aufbau und die leichte Programmierbarkeit<br />

von Pluto <strong>mit</strong> der kostenlosen Software<br />

Pluto Manager sowie das durchgängige Erreichen des<br />

höchsten Performance Levels PL e.<br />

AUTOR<br />

ANDREAS STRANGFELD<br />

ist Leiter Produktmarketing<br />

Safety bei ABB Stotz-<br />

Kontakt in Spaichingen.<br />

ABB Stotz-Kontakt GmbH,<br />

Max-Planck-Straße 21, D-78549 Spaichingen,<br />

Tel. +49 (0) 7424 958 65 24,<br />

E-Mail: andreas.strangfeld@de.abb.com<br />

18<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


Herausforderung<br />

<strong>Automatisierung</strong>stechnik<br />

Mit dem <strong>atp</strong>-award werden zwei Autoren der <strong>atp</strong> <strong>edition</strong><br />

für hervorragende Beiträge ausgezeichnet. Ziel dieser<br />

Initiative ist es, Wissenschaftler und Praktiker der<br />

<strong>Automatisierung</strong>stechnik anzuregen, ihre Ergebnisse<br />

und Erfahrungen in Veröffentlichungen zu fassen und<br />

die Wissenstransparenz in der <strong>Automatisierung</strong>stechnik<br />

zu fördern.<br />

Teilnehmen kann jeder Autor der zum Zeitpunkt<br />

der Veröffentlichung nicht älter als 35 Jahre ist. Nach<br />

Veröffentlichung eines Beitrags ist der Autor, wenn er<br />

die Bedingung erfüllt, automatisch im Pool. Die Auswahl<br />

des Gewinners übernimmt die <strong>atp</strong>-Fachredaktion.<br />

Derjenige Autor, der im Autorenteam der jüngste ist,<br />

erhält stellvertretend für alle Autoren die Auszeichnung.<br />

Der Preis wird in zwei Kategorien ausgelobt:<br />

Industrie und Hochschule. Die Kategorien er<strong>mit</strong>tlung<br />

ergibt sich aus der in dem Beitrag angegebenen Adresse<br />

des jüngsten Autors.<br />

Veröffentlichungen – Beitrag zum Wissenspool<br />

im Fachgebiet <strong>Automatisierung</strong>stechnik<br />

Die Entwicklung eines Wissensgebietes erfolgt durch<br />

einen kooperativen Prozess zwischen wissenschaftlicher<br />

Grundlagenforschung, Konzept- und Lösungsentwicklung<br />

und Anwendung in der Praxis. Ein solcher<br />

Prozess bedarf einer gemeinsamen Informationsplattform.<br />

Veröffentlichungen sind die essentielle Basis<br />

eines solchen Informationspools.<br />

Der <strong>atp</strong>-award fördert den wissenschaftlichen Austausch<br />

im dynamischen Feld der Automationstechnik.<br />

Nachwuchsingenieure sollen gezielt ihre Forschungen<br />

präsentieren können und so leichter den Zugang zur<br />

Community erhalten. Der Preis ist <strong>mit</strong> einer Prämie<br />

von jeweils 2000 € dotiert.<br />

Die Auswahl erfolgt in zwei Stufen:<br />

Voraussetzung für die Teilnahme ist die Veröffentlichung<br />

des Beitrags in der <strong>atp</strong> <strong>edition</strong>. Jeder Aufsatz,<br />

der als Hauptbeitrag für die <strong>atp</strong> <strong>edition</strong> eingereicht<br />

wird, durchläuft das Peer-Review-Verfahren. Die<br />

letzte Entscheidung zur Veröffentlichung liegt beim<br />

Chefredakteur. Wird ein Beitrag veröffentlicht, kommt<br />

er automatisch in den Pool der <strong>atp</strong>-award-Bewerber,<br />

vorausgesetzt einer der Autoren ist zum Zeitpunkt<br />

der Veröffentlichung nicht älter als 35 Jahre. Ausgezeichnet<br />

wird der jüngste Autor stellvertretend für alle<br />

Autoren der Gruppe. Eine Jury aus Vertretern der <strong>atp</strong>-<br />

Fachredaktion und des -Beirats er<strong>mit</strong>telt schließlich<br />

den Gewinner in den jeweiligen Kategorien Hochschule<br />

und Industrie. Der Rechtsweg ist ausgeschlossen.<br />

Beiträge richten Sie bitte an:<br />

Prof. Dr.-Ing. Leon Urbas<br />

Chefredakteur<br />

c/o Technische Universität Dresden<br />

Institut für <strong>Automatisierung</strong>stechnik<br />

Professur für Prozessleittechnik<br />

01062 Dresden<br />

Tel. +49 351 463-39614, Fax -39681<br />

M +49 177 466-5201<br />

E-Mail: urbas@di-verlag.de<br />

Beachten Sie die Autorenhinweise der <strong>atp</strong> <strong>edition</strong> für<br />

Hauptbeiträge unter folgendem Link:<br />

http://www.<strong>atp</strong>-online.de<br />

Vom Wettbewerb ausgeschlossen sind Mitarbeiter des Deutschen Industrieverlags. Wird ein Beitrag von mehreren Autoren eingereicht, gelten die Bedingungen für den Erstautor. Der Preis<br />

als ideeller Wert geht in diesem Fall an die gesamte Autorengruppe, die Dotierung geht jedoch exklusiv an den jüngsten Autor. Grundlage der Teilnahme am Wettbewerb ist die Einsendung<br />

eines Hauptaufsatz-Manuskriptes an die <strong>atp</strong>-Chefredaktion.<br />

www.<strong>atp</strong>-online.de


PRAXIS<br />

Punktschweißen von Aluminium-Türen des<br />

Porsche Panamera prozesssicher automatisiert<br />

Georg Fischer Automotive steuert das Schweißverfahren DeltaSpot <strong>mit</strong> der Software Xplorer<br />

„DER WECHSEL DES<br />

PROZESSBANDES wird<br />

erst nach rund 5000<br />

Punkten erforderlich,<br />

das heißt, wir schweißen<br />

ohne Unterbrechung<br />

rund 300 Porsche-<br />

Panamera-Türen“,<br />

erläutert Gießerei-<br />

Fachmann Alois Edtbauer.<br />

AUF DEN ZIRKA 3 MM DICKEN RAHMEN der Fahrzeugtüren für<br />

den Porsche Panamera aus Aluminium-Druckguss ist ein 2 mm<br />

dickes Versteifungsblech zu fügen, das gleichfalls aus einem<br />

Aluminium-Werkstoff besteht.<br />

DIE VORRICHTUNG zum exakten Positionieren der Gussstege<br />

entwickelten Experten von Georg Fischer in Kooperation <strong>mit</strong> ABB.<br />

DIE ANLAGE ZUM<br />

WIDERSTANDS-<br />

PUNKTSCHWEISSEN<br />

<strong>mit</strong> DeltaSpot läuft<br />

in Altenmarkt seit dem<br />

Start der Serienproduktion<br />

im Jahre<br />

2008 prozesssicher.<br />

Bilder: Fronius<br />

Widerstandspunktschweißen ist das Fügeverfahren<br />

<strong>mit</strong> der längsten automatisierungstechnischen Tradition.<br />

Sind jedoch Aluminiumteile zu punkten, ist dies<br />

<strong>mit</strong> dem konventionellen Widerstands-Punktschweißen<br />

nur sehr eingeschränkt realisierbar. Experten des Automobil-Zulieferers<br />

Georg Fischer Automotive (GF) haben<br />

gemeinsam <strong>mit</strong> denen des Schweißsystempartners Fronius<br />

eine prozessfähige Automationslösung entwickelt.<br />

Sie wird am österreichischen Standort Altenmarkt in der<br />

Fertigung von Rahmen der Türen für den Porsche<br />

Panamera genutzt. Zum Einsatz kommen die <strong>Automatisierung</strong>ssoftware<br />

Xplorer und das Widerstands-Punktschweißverfahren<br />

DeltaSpot.<br />

Das Gießen von Metall, zum Beispiel Aluminium- und<br />

Magnesium-Druckgießen, bildet bei Georg Fischer eine<br />

Kernkompetenz. Alois Edtbauer, der gelernte Werkzeugmacher,<br />

Gießerei-Fachmann und jetzige Facheinkäufer<br />

für Gießereiausstattung und -material, beschreibt den<br />

Aufgabenbereich des Werks <strong>mit</strong> rund 600 Mitarbeitern:<br />

„Hier an unserem österreichischen Standort Altenmarkt<br />

fertigen wir Strukturbauteile wie Federbein-Aufnahmen<br />

und Türrahmen.“ So ist auf den rund 3 mm dicken Rahmen<br />

von vier Fahrzeugtüren aus Aluminium-Druckguss<br />

für den Porsche Panamera ein 2 mm dickes Versteifungsblech<br />

zu fügen, das gleichfalls aus einem Aluminium-<br />

Werkstoff besteht.<br />

VERSCHIEDENE FÜGEVERFAHREN IM VERGLEICH<br />

Um die fertigungstechnischen Optionen zu erkunden,<br />

untersuchten die Fachleute mehrere Fügeverfahren auf<br />

ihre Eignung und ihre Wirtschaftlichkeit – darunter das<br />

konventionelle Widerstandspunktschweißen, das Rührreibschweißen,<br />

das Clinchen, das Stanznieten, einen Klebeprozess<br />

sowie DeltaSpot, ein von Fronius entwickeltes,<br />

spezielles Widerstands-Punktschweißverfahren.<br />

Vier verschiedene Fahrzeugtüren eines Satzes sind per<br />

Punktschweißverbindung <strong>mit</strong> der Innen-Versteifung zu<br />

versehen. Die Teile aus Aluminium-Druckguss überzieht<br />

eine Anti-Oxidationsschicht. Dafür wird in vorgelagerten<br />

Arbeitsgängen die bestehende Oxidschicht abgebeizt<br />

20<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


Die Referenzklasse für die<br />

<strong>Automatisierung</strong>stechnik<br />

Erfahren Sie auf höchstem inhaltlichem Niveau,<br />

was die <strong>Automatisierung</strong>sbranche bewegt. Alle<br />

Hauptbeiträge werden im Peer-Review-Verfahren<br />

begutachtet, um Ihnen maximale inhaltliche<br />

Qualität zu garantieren.<br />

Genießen Sie ein einzigartiges Lektüreerlebnis,<br />

das ausgezeichnete Layout und die exklusive<br />

Produktausstattung.<br />

MIT EINEM AUTOMATISIERTEN SYSTEM<br />

werden im Takt von etwa 100 Sekunden pro<br />

Fahrzeugtür 16 Punkte von exakt je 5 mm im<br />

Durchmesser geschweißt.<br />

und eine dünne Lage Titan-Zirkon (TiZrSiO4) aufgetragen.<br />

Dies verhindert das Entstehen der natürlichen Aluminiumoxidschicht.<br />

„Beim fertigen Teil liegt eine Hauptdichtung zwischen<br />

Tür und Rahmen an der zu fügenden Stelle. Hier muss<br />

es deshalb möglichst spritzerfrei zugehen. Der wärmebedingte<br />

Verzug am Werkstück muss in engen Grenzen<br />

bleiben, und wir müssen ihn durch nachträgliches Richten<br />

ausgleichen können“, erläutert Ingenieur Wolfgang<br />

Hintsteiner, Leiter Beschichtung, die Aufgabe.<br />

PROZESSBAND SICHERT KONSTANTE VERHÄLTNISSE<br />

Herkömmliches Widerstandspunktschweißen sei für die<br />

Aufgabe ungeeignet, erläutert Hintsteiner. Es verursache<br />

zu viele Spritzer und wegen der unkontrollierbaren,<br />

punktuell starken Wärmeeinbringung im angeschweißten<br />

Blech entstehe die gefürchtete Kurzwelligkeit, die sich<br />

nicht mehr korrigieren lasse. Das eigentlich für Aluminium<br />

und seine Legierungen prädestinierte Rührreibschweißen<br />

sei ausgeschieden, weil es stark von der Wand-<br />

Wählen Sie einfach das Bezugsangebot,<br />

das Ihnen zusagt!<br />

· Das Heft als gedrucktes, zeitlos-klassisches Fachmagazin<br />

· Das e-Paper als modernes, digitales Informationsmedium<br />

für Computer, Tablet oder Smartphone<br />

· Das Heft + e-Paper als clevere Abo-plus-Kombination<br />

ideal zum Archivieren<br />

Alle Bezugsangebote und Direktanforderung<br />

finden Sie im Online-Shop unter<br />

www.<strong>atp</strong>-online.de<br />

www.<strong>atp</strong>-online.de<br />

<strong>atp</strong> <strong>edition</strong> erscheint in: DIV Deutscher Industrieverlag GmbH, Arnulfstraße 124, 80636 München


PRAXIS<br />

dicke der Teile abhängig sei. Wegen der Gusstoleranzen<br />

hätte daher vor jedem Schweißvorgang die Dicke der zu<br />

verbindenden Teile er<strong>mit</strong>telt und berücksichtigt werden<br />

müssen. Die anderen Alternativen schieden aus prozesstechnischen<br />

Gründen aus und die Wahl fiel auf DeltaSpot.<br />

Zwischen Elektrode und Werkstück läuft bei diesem<br />

Verfahren ein Prozessband im Rhythmus der Punktschweißungen.<br />

Das Aluminium legiert auf das nach jedem<br />

Schweißpunktieren weiter geförderte Band statt auf die<br />

fixe Elektrode. Der „gebrauchte“ Abschnitt verlässt jeweils<br />

den Kontaktbereich. Für jeden Schweißpunkt herrschen<br />

so<strong>mit</strong> die gleichen Bedingungen. Die Prozessbänder<br />

schützen da<strong>mit</strong> Elektrode und Werkstück vor Verunreinigungen,<br />

Auflegieren oder anderen werkstückseitigen<br />

Einflüssen. Dies stabilisiert den Schweißprozess und erhöht<br />

die Elektrodenstanddauer. Sie verbessern außerdem<br />

die Kontaktsituation. Das Prozessband hilft, Oberflächenspritzer<br />

zu vermeiden und vergrößert das Prozessfenster.<br />

16 SCHWEISSPUNKTE IN 100 SEKUNDEN<br />

Nachdem sich DeltaSpot in der Fertigungspraxis seit dem<br />

Jahr 2008 bewährt, sehen sich Alois Edtbauer und Wolfgang<br />

Hintsteiner in ihrer Entscheidung bestätigt. „Wir<br />

haben den Prozess jetzt im Griff. Mit dem Prozessband<br />

erzeugen wir wiederholgenau einen gleichmäßigen Punkt<br />

– exakt 5 mm im Durchmesser und 16 Punktverbindungen<br />

in jedem Werkstück. Wir schweißen im Takt von zirka 100<br />

Sekunden eine dieser Türen und brauchen die Oberfläche<br />

hinterher nicht nachzuarbeiten“, führt Hintsteiner aus.<br />

„Optisch zeigt sich ein sehr sauberer Punkt. Der Wechsel<br />

des Prozessbandes dauert weniger als 15 Minuten und<br />

wird erst nach rund 5000 Punkten erforderlich, das heißt<br />

wir schweißen ohne Unterbrechung rund 300 Porsche-<br />

Panamera-Türen“, ergänzt Edtbauer.<br />

Nur einmal pro Band sind auch die Elektroden auszutauschen.<br />

Unter adäquaten Bedingungen könnten Anwender<br />

<strong>mit</strong> dem konventionellen Widerstands-Punktschweißen<br />

nur 20 Punkte setzen. Das würde praktisch<br />

eine Elektrodennacharbeit pro Tür bedeuten.<br />

Die gefügten DeltaSpot-Verbindungen bestehen die<br />

Zug-Scherprüfung. Eventuell entstehender geringfügiger<br />

Formverzug ist durch Richten leicht korrigierbar. Alois<br />

Edtbauer: „Das Verfahren DeltaSpot hat sich in unserer<br />

Anwendung dank der gelungenen <strong>Automatisierung</strong>slösung<br />

auch als kostengünstig erwiesen.“ Die Experten in<br />

Altenmarkt sehen die Perspektive positiv. „Die Anlage<br />

läuft prozesssicher“, freut sich Gießereifachmann Edtbauer.<br />

Und Ingenieur Hintsteiner erklärt: „Für Anwendungsfälle<br />

wie den unseren <strong>mit</strong> schweißbarem Guss,<br />

definierter Oberfläche, Antikorrosionsbeschichtung und<br />

gegebener Zugänglichkeit ist DeltaSpot erste Wahl.“<br />

XPLORER VERKNÜPFT ALLE SCHWEISSSYSTEME<br />

Ein Schlüssel für das <strong>Automatisierung</strong>skonzept liegt in<br />

der Steuerung <strong>mit</strong> der Software Xplorer. Sie sorgt für den<br />

einwandfreien Ablauf des gesamten Prozesses inklusive<br />

des Erstellens der variablen Parameter. Dazu gibt der<br />

Anwender den Sollwert des Stromes <strong>mit</strong> einem analogen<br />

Spannungssignal vor. Die Funktion der Bedienoberfläche<br />

inklusive Visualisieren von Anlagenstatus und Parametern<br />

übernimmt der Xplorer. Er erleichtert per grafischer<br />

Visualisierung das Erstellen der Parameter und den intuitiven<br />

Umgang <strong>mit</strong> der Anlage just in time. Der Xplorer<br />

verknüpft alle Schweißsysteme am Standort, das heißt<br />

zum Beispiel auch die in Schweißzellen installierten<br />

Lichtbogenstromquellen. So können die Produktionsexperten<br />

jederzeit deren Daten, Ergebnisse und Dokumente<br />

über den Bildschirm verfolgen.<br />

Die Schweißmanagementsoftware Xplorer steht als<br />

Freeware allen Nutzern kostenfrei zur Verfügung. Ihre<br />

Funktionen: Sie vernetzt automatisierte Schweißsysteme<br />

und erzeugt einen virtuellen Leitstand. Ihre grafische<br />

Benutzeroberfläche und selbsterklärende Symbole erleichtern<br />

dem Anwender das übersichtliche Verwalten<br />

von beliebig vielen Schweißsystemen in seiner Produktion.<br />

Deren Standort und Status erkennt er auf einen<br />

Blick. Bewährte Einstellungen (Jobs) kann er einfach von<br />

einem Schweißsystem auf ein anderes kopieren, zum<br />

Beispiel in der Darstellung beider Systeme nebeneinander<br />

auf einem geteilten Bildschirm.<br />

NUTZER KÖNNEN SICH MOBIL EINLOGGEN<br />

Den Xplorer kann der User auch per Touchscreen bedienen.<br />

Mit der mehrplatzfähigen Software können Nutzer<br />

von verschiedenen PC auf die Daten zugreifen. Der Ort<br />

für die Datenspeicherung ist frei wählbar, beispielsweise<br />

ein Serverlaufwerk oder eine Harddisk. Der Xplorer ist<br />

WLAN-tauglich und steht in 13 Sprachen zur Verfügung.<br />

Wählen kann der Anwender auch zwischen vier aufeinander<br />

aufbauenden Xplorer-Funktionspaketen. Jedes<br />

Paket enthält als Basis den Xplorer sowie die <strong>mit</strong> den<br />

entsprechenden Schnittstellen und der aktuellen Firmware<br />

ausgestatteten Schweißsysteme. Hinzu kommen bei<br />

Paket 2 der JobExplorer und beim dritten Paket zusätzlich<br />

die Software zur Dokumentation. Die Funktionen des<br />

JobExplorer und zur Dokumentation übernimmt beim<br />

vierten Paket die Fernbedienung RCU 5000i. Unabhängig<br />

vom Funktionspaket kann der Anwender die Zugriffsrechte<br />

regeln. Identifiziert sich der Nutzer <strong>mit</strong> seinem<br />

Passwort, erhält er die ihm zustehenden Ansichts- und<br />

Eingriffsoptionen. Jeder Benutzer kann seine Rechte auf<br />

einen USB-Stick speichern und sich da<strong>mit</strong> bei Bedarf<br />

mobil einloggen. So erschließt der Xplorer dem Schweißen<br />

die moderne <strong>Automatisierung</strong>swelt.<br />

AUTOREN<br />

CHRISTOPH PANGERL und MARTIN EIERSEBNER<br />

sind Produktexperten Widerstandsschweißen bei<br />

Fronius International.<br />

Fronius International GmbH,<br />

Froniusplatz 1, A-4600 Wels,<br />

E-Mail: eiersebner.martin@fronius.com,<br />

Tel. +43 7242 241 39 75,<br />

E-Mail: pangerl.christoph@fronius.com,<br />

Tel. +43 7242 241 85 17<br />

22<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


KNOWLEDGE<br />

for the FUTURE<br />

Qualified reading<br />

for automation<br />

experts<br />

Process Control Systems Engineering<br />

Process Control Systems (PCS) are distributed control systems<br />

(DCS) that are specialized to meet specific requirements of the<br />

process industries.<br />

The text book focuses on PCS engineering basics that are common<br />

to different domains of the process industries. It relates to an<br />

experimental research plant which serves for the exploration<br />

of the interaction between process modularization and process<br />

automation methods. This per<strong>mit</strong>s to capture features of highly<br />

specialized and integrated mono-product plants as well as<br />

application areas which are dominated by locally standardized<br />

general-purpose apparatus and multi-product schemes. While<br />

the text book’s theory is applicable for all PCS of different<br />

suppliers, the examples refer to Siemens’ control system PCS 7.<br />

Focusing on a single PCS enables readers to use the book in basic<br />

lectures on PCS engineering as well as in computer lab courses,<br />

allowing students to gain hands-on experience.<br />

Editor: L. Urbas<br />

1 st <strong>edition</strong> 2012, 204 pages, content in English * , hardcover<br />

*<br />

German language version coming soon<br />

Order now by fax: +49 201 / 8 20 02 34 or detach and send in a letter<br />

<br />

Yes, I place a firm order for the technical book. Please send me<br />

Company/Institution<br />

___ copies of Process Control Systems Engineering<br />

1 st <strong>edition</strong> 2012 (ISBN: 978-3-8356-3198-4)<br />

at the price of € 49,80 (plus postage and packing)<br />

First name and surname of recipient<br />

Street/P.O. Box, No.<br />

Reply / Antwort<br />

Vulkan-Verlag GmbH<br />

Versandbuchhandlung<br />

Postfach 10 39 62<br />

45039 Essen<br />

GERMANY<br />

Country, postal code, town<br />

Phone<br />

E-Mail<br />

Line of business<br />

Fax<br />

Date, signature<br />

Please note: According to German law this request may be withdrawn within 14 days after order date in writing to Vulkan Verlag GmbH, Versandbuchhandlung, Postfach 10 39 62, 45039 Essen, Germany.<br />

In order to accomplish your request and for communication purposes your personal data are being recorded and stored. It is approved that this data may also be used in commercial ways<br />

by mail, by phone, by fax, by email, none. This approval may be withdrawn at any time.<br />

PAPCSE2012


PRAXIS<br />

Energiekonzern ENI setzt erstmals in neuer<br />

italienischer Raffinerie auf Foundation Fieldbus<br />

Verteilte Leittechnik, Sicherheitstechnik und Brandschutz sind in einem System zusammengefasst<br />

Die Eni Slurry Technology (EST) ist ein in Italien entwickeltes<br />

Verfahren zur Umwandlung von Abfallstoffen<br />

aus dem Raffinationsprozess in Produkte <strong>mit</strong> viel<br />

höherer Qualität sowie in ökologische Materialien. Für<br />

die erste EST-Anlage in Sannazzaro dè Burgondi wurde<br />

eine zuverlässige Architektur gewählt, die mehrere Leitstände<br />

und mehr als 15 000 Signale umfasst. Eni kombiniert<br />

in dieser Anlage Foundation Fieldbus von Yokogawa<br />

<strong>mit</strong> Infrastrukturkomponenten von Pepperl+Fuchs,<br />

um höchste Verfügbarkeit und günstige Wartungskosten<br />

zu erreichen.<br />

Eni, eines der größten integrierten Energieunternehmen,<br />

ist in den Bereichen Öl und Gas, Exploration und<br />

Produktion, Gasleitung und Marketing, Energieerzeugung,<br />

Raffinerie und Vermarktung von Chemikalien und<br />

Dienstleistungen im Bereich Ölfelder tätig. Die EST-Anlage<br />

wird von Saipem, einem großen auf Öl und Gas spezialisierten<br />

Anlagenbauer errichtet. Es ist das bisher<br />

größte Projekt dieser Art in Italien. Die Bauarbeiten begannen<br />

im Mai 2011, der Produktionsbeginn ist für Ende<br />

2012 geplant.<br />

PROBLEMATISCHE RESTSTOFFE AUFGEWERTET<br />

Die Anlage in Sannazzaro wird auch für Versuche und<br />

Forschung bei Eni eingesetzt. Das Verfahren beruht<br />

auf einer Entdeckung italienischer Wissenschaftler,<br />

die ein sehr wichtiges Kapitel im Bereich der Öl- und<br />

Gasverarbeitung schreiben wird. EST ermöglicht die<br />

Verwertung und Aufwertung von Rohöl <strong>mit</strong> unüblichen<br />

Eigenschaften oder sehr schwerem Rohöl, Bitumen<br />

und Sumpf.<br />

Erstmalig setzt Eni in einer Raffinerie in Italien<br />

Foundation Fieldbus-Technologie (FF) ein, um die Feldinstrumentierung<br />

und Messtechnik <strong>mit</strong> dem Leitsystem<br />

(DCS) zu verbinden. Betreiber Eni und Anlagenbauer<br />

Saipem wählten digitale Übertragungstechnik<br />

bis zum Feldgerät, weil diese Status-, Alarm und Diagnosefunktion<br />

anlagenweit ermöglicht. Mit Yokogawa<br />

wurde ein starker Partner gewählt, der die Prozessdaten<br />

vollständig in einem System integrieren kann. Hinzu<br />

kommen die Diagnose für Feldgeräte und die Feldbusphysik<br />

selbst.<br />

VOLLE SYSTEMINTEGRATION<br />

Die verteilte Leittechnik (distributed control system,<br />

DCS), Sicherheitstechnik (emergency shut down, ESD)<br />

und der Brandschutz (F&G) sind in einem System zusammengefasst.<br />

Rund 15 000 E/A-Signale wurden fest verdrahtet.<br />

5500 Feldbusinstrumente werden über 650 Segmente<br />

bedient. Trotz der über mehrere Anlagenbereiche<br />

verteilten Installation sollte eine umfassende Integration<br />

sichergestellt werden.<br />

Alessandro Malberti, Produktmanager bei Yokogawa<br />

Italien, erläutert: „Die Lösung umfasst alle Systeme: DCS,<br />

ESD und F&G. Sie ermöglichen den direkten Informationsaustausch<br />

innerhalb der Architektur, wobei nur ein<br />

redundanter Bus verwendet wird, der alle Systeme <strong>mit</strong>einander<br />

verbindet. Die von Yokogawa vorgeschlagene<br />

Topografie beruht auf der Integration des Distributed-<br />

Control-System Centum VP <strong>mit</strong> dem ESD-System ProSafe<br />

RS und deckt alle Steuerungs- und Sicherheitsfunktionen<br />

ab“. Das Plant Asset Management wird <strong>mit</strong> dem<br />

Modul PRM realisiert.<br />

Das Gigabit-Kommunikationsnetz Vnet-IP erlaubt<br />

einen Datenaustausch zwischen Leitsystemen und der<br />

Bedienerstation. Durch die Integration des Systems<br />

MIT ZUBEHÖR UND VORVERDRAHTET IM EDELSTAHLGEHÄUSE:<br />

Die Feldbusverteiler „Segment Protektor“ für die Zone 2 und<br />

Explosionsschutzart Eigensicherheit „Ex ic“.<br />

ADVANCED DIAGNOSTIC<br />

MODULE auf dem<br />

kompakten Power Hub:<br />

acht Segmente <strong>mit</strong><br />

Überwachung der<br />

Feldbusphysik.<br />

Wartungsteams erhalten<br />

Meldungen in Klartext<br />

über die Feldbusinstallation.<br />

Bilder: Pepperl+Fuchs<br />

24<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


erhält der Bediener homogene Daten für die Steuerung<br />

der Anlage. Alle Systeme sind vollständig redundant<br />

in den folgenden Komponenten aufgebaut: CPU, Stromversorgung,<br />

E/A- und Kommunikationskarten. Dies<br />

sorgt dafür, dass die Anlage ausgesprochen zuverlässig<br />

ist. Malberti ergänzt: „Beide Systeme erlaubten uns<br />

dank ihrer Modularität die Gestaltung der Foundation<br />

Fieldbus-Architektur entsprechend den Anforderungen<br />

der Anlage, wodurch alle Kundenwünsche erfüllt<br />

wurden.“<br />

WARTUNG NUR NACH BEDARF UND PROAKTIV<br />

Die große Anzahl von über 5000 Messstellen soll intelligent<br />

instrumentiert werden. Die Feldgeräte über<strong>mit</strong>teln<br />

via Foundation Fieldbus H1 (FF) Status- und Wartungsdaten.<br />

Es ist vollständig in das Gesamtsystem integriert<br />

und kann alle Konfigurationen der Feldgeräte erfassen,<br />

die <strong>mit</strong> dem FF-Segment verbunden sind.<br />

„Wir fühlen uns verpflichtet, über einen langen Zeitraum<br />

eine ordnungsgemäße Funktion der FF-Segmente<br />

zu garantieren, und das hat den Ausschlag für die<br />

Lösung von Pepperl+Fuchs gegeben“, so der Produktmanager<br />

von Yokogawa. „Das von Pepperl+Fuchs hergestellte<br />

Advanced Diagnostic Module (ADM) ermöglicht<br />

uns eine kontinuierliche Überwachung sogar der<br />

Installationstechnik integriert im Asset-Management-<br />

System.“<br />

Das ADM erlaubt die Prüfung des Physical Layers, und<br />

überwacht kontinuierlich Messwerte der Versorgungsspannung<br />

sowie Erdfehler oder Störpegel im Netzwerk.<br />

Die Kontrolle all dieser Parameter wird unterstützt<br />

durch ein Expertensystem, das die hohe Zahl von Messungen<br />

in Meldungen <strong>mit</strong> Klartext übersetzt. Verringert<br />

sich beispielsweise der Signalpegel aller Feldgeräte<br />

schlagartig, liegt das daran, das ein Terminator häufig<br />

ungewollt zugeschaltet wurde. Das ADM lässt den Wartungsfachmann<br />

in diesem Fall nicht <strong>mit</strong> vielen Meldungen<br />

über falsche Signalpegel allein. Das Expertensystem<br />

interpretiert und meldet in verständlichen Worten und<br />

bietet einen Lösungsvorschlag an: „Termination des<br />

Netzwerkes überprüfen.“ Durch rechtzeitige Wartung<br />

kann die volle Funktionsfähigkeit des Feldbus-Segments<br />

dauerhaft sichergestellt werden. Auf diese Weise werden<br />

Wartungsarbeiten nicht mehr vorbeugend, sondern wenn<br />

notwendig und proaktiv durchgeführt.<br />

SYSTEMINTEGRATION AUCH IM DETAIL<br />

Die Foundation-Fieldbus-Technologie erlaubt den Einsatz<br />

von Geräten und Instrumenten von Drittherstellern,<br />

die die vom FF-Konsortium geforderten Funktionsmerkmale<br />

besitzen. In der Anlage befinden sich<br />

Instrumente der Hersteller: Metso, Emerson, Vega, Biffi<br />

und Auma.<br />

Bei einem gedachten Gang entlang des Netzwerks gerät<br />

zunächst die neue Generation des kompakten Power Hub<br />

für acht Feldbussegmente in den Blick. Über einen Systemstecker<br />

erfolgt die Verbindung zu den Leittechnikkarten.<br />

Das spart Kosten bei der Installation und Überprüfung.<br />

Der Power Hub kann im explosionsgefährdeten<br />

Bereich „Zone 2“ installiert werden.<br />

Im Feld befinden sich Edelstahl-Verteilerboxen, in denen<br />

sich jeweils zwei 8-Kanal-Segment-Protektoren befinden.<br />

An deren Ausgänge sind Füllstand-, Temperaturund<br />

Drucktrans<strong>mit</strong>ter sowie Aktoren angeschlossen. Der<br />

Segment-Protektor bietet einen Kurzschlussschutz, sodass<br />

Arbeiten an Feldgeräten auf den Rest des in Betrieb<br />

befindlichen Segmentes rückwirkungsfrei bleiben.<br />

Über feldbusfähige, eigensichere Ventilsteuerbausteine<br />

werden Druckluftventile angesteuert. Sie erfassen<br />

neben den Ein- und Ausgangssignalen auch Losbrechund<br />

Laufzeiten – eine für die bedarfsorientierte Instandhaltung<br />

unerlässliche Information.<br />

Signale von Temperatursensoren und Thermoelementen<br />

finden den Weg in die Leittechnik über das Temperaturinterface<br />

(TI). Kostengünstig teilen sich jeweils bis<br />

zu acht Sensoren eine Feldbusadresse. Der Messwert<br />

liegt digital vor, und die elektrischen Leitungen zu den<br />

Sensoren werden ebenfalls überwacht.<br />

Mit leistungsstarker Feldbustechnologie erreicht Eni<br />

seine Ziele höchster Verfügbarkeit und hält Wartungskosten<br />

im Griff. Denn Instandhaltungsarbeiten an Feldgeräten<br />

und Installation werden nur dann durchgeführt,<br />

wenn es einen Wartungsbedarf gibt. Der Feldbus<br />

ist der digitale Highway, der die Informationsschätze<br />

der Anlage hebt und vorausschauenden, reibungslosen<br />

Betrieb ermöglicht.<br />

AUTOR<br />

ANDREAS HENNECKE<br />

ist Produktmarketingmanager<br />

im Geschäftsbereich<br />

Prozessautomation<br />

bei Pepperl+Fuchs.<br />

Pepperl+Fuchs GmbH,<br />

Lilienthalstraße 200,<br />

D-68307 Mannheim,<br />

Tel. +49 (0) 621 776 16 01,<br />

E-Mail: ahennecke@de.pepperl-fuchs.com<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

25


www.di-verlag.de<br />

Die neue Adresse für<br />

das Wissen der Industrie:<br />

Deutscher<br />

Industrieverlag<br />

Ein neues Kapitel beginnt:<br />

Aus Oldenbourg Industrieverlag wird Deutscher Industrieverlag<br />

Neue Zeiten erfordern neues Denken. In einer Welt des rasanten Wandels erwarten<br />

Sie von Ihrem Fachverlag, dass er Sie schneller und umfassender als je zuvor <strong>mit</strong> allen<br />

relevanten Informationen versorgt, die Sie für Ihre berufliche Praxis benötigen.<br />

Wir nehmen diese Herausforderung an: Wir entwickeln uns für Sie zu einem integrierten<br />

Medienhaus, das neben der Zeitschriften- und Buchproduktion künftig immer stärker<br />

auch das Wissen des Fachs digital für alle Online-Kanäle auf bereitet.<br />

Unser neuer Name unterstreicht diesen Wandel. Er verbindet unsere mehr als 150-jährige<br />

Geschichte nahtlos <strong>mit</strong> der Zukunft.<br />

Was sich nicht ändert: Im Mittelpunkt stehen weiterhin Sie und das Praxiswissen<br />

Ihrer Branche. Ihre Fachkompetenz zu stärken – das ist für uns auch unter dem neuen<br />

Namen Deutscher Industrieverlag Anspruch und Verpflichtung.<br />

WIssEn Für DIE<br />

ZuKunft


HAUPTBEITRAG<br />

Virtualisierung im Kontext<br />

eines Prozessleitsystems<br />

IT-Einfluss auf die Architektur der Prozessautomatisierung<br />

Durch die Verwendung der Technologie Virtualisierung im Kontext eines Prozessleitsystems<br />

(PLS) resultiert ein gewisser Nutzen. Demgegenüber stehen Herausforderungen, die,<br />

wie der Nutzen, in diesem Beitrag beschrieben werden Der Nutzen und die Herausforderungen<br />

sind unabhängig von einer herstellerspezifischen Lösung eines PLS in virtueller<br />

Umgebung. Sie wurden im Rahmen der Vorfeldarbeiten zur Virtualisierung von Teilen<br />

des Siemens-Leitsystems Simatic PCS 7 er<strong>mit</strong>telt.<br />

SCHLAGWÖRTER IT / PLS / Virtualisierung<br />

Virtualization in the context of a Distributed Control System –<br />

IT influence on the architecture of process automation<br />

On the one hand, through the use of the IT technology virtualization with regard to distributed<br />

control systems (DCS) results a certain benefit. On the other hand, different<br />

challenges have to be taken in account, which are also shown within this paper. The<br />

benefits and challenges are independent of a provider-specific virtualization-solution for<br />

DCS. They were identified at the work to virtualize parts of the Siemens DCS – Simatic<br />

PCS 7. The specific results achieved are also outlined in this review.<br />

KEYWORDS IT /DCS /virtualization<br />

28<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


STEFAN RUNDE, MARTIN SCHNEIDER, MARTIN GLASER, STEFFEN THIEME, Siemens AG<br />

D<br />

ie Laufzeit von automatisierten technischen<br />

Systemen in der Prozessindustrie beträgt im<br />

Gegensatz zur Fertigungsindustrie durchaus<br />

mehrere Jahrzehnte. Dies ist ein Grund, warum<br />

in der Prozessindustrie mehr Zeit benötigt<br />

wird, bis technische Innovationen in den entsprechenden<br />

Komponenten (zum Beispiel Feldgeräte) und Systemen<br />

(beispielsweise Prozessleitsystem) Einzug halten.<br />

Maßgeblicher Treiber für technische Neuerungen ist<br />

die Notwendigkeit der Kostenreduzierung. Das gilt auch<br />

für Prozessleitsysteme (PLS). Seitens der Anwender wie<br />

BASF, Bayer und Merck werden unter anderem geringere<br />

Investitionskosten gewünscht sowie eine möglichst<br />

schnelle Inbetriebnahme und ein optimierter Betrieb<br />

verbunden <strong>mit</strong> geringeren Kosten. Bei PLS ist die Kernfunktionalität<br />

Prozessführung und -kontrolle seit ihrer<br />

Einführung nahezu identisch – verschiedene Aufgaben,<br />

wie Datenarchivierung, Prozessvisualisierung und<br />

Alarmmanagement, sind jedoch hinzugekommen oder<br />

komplexer geworden.<br />

Daher handelt es sich bei den Neuerungen häufig um<br />

Optimierungen der bereits existierenden PLS im Produktfolio<br />

der einzelnen Hersteller. Viele dieser Optimierungen<br />

gehen auf Technologien aus der IT zurück. Zu<br />

diesen Technologien zählen beispielsweise Feldbusse,<br />

Visualisierungen und Rechnersysteme. Bei letzteren stehen<br />

derzeit die beiden Technologien Virtualisierung und<br />

Cloud Computing im Fokus. In diesem Beitrag geht es um<br />

die Technologie Virtualisierung, die eng <strong>mit</strong> dem Cloud<br />

Computing verzahnt ist.<br />

Nachfolgend skizzieren die Autoren die für den Beitrag<br />

notwendigen Grundlagen der Architektur eines automatisierten<br />

technischen Systems in der Prozessindustrie,<br />

danach werden die Grundlagen der Virtualisierung beschrieben.<br />

Einen Schwerpunkt bildet die Darstellung der<br />

erzielten Ergebnisse bei der Anwendung eines nichthochverfügbaren<br />

PLS (nicht-H-PLS) auf Basis von Virtualisierung.<br />

Während dieser Use-Case bereits in der Praxis<br />

Einzug gehalten hat, ist die Realisierung eines hochverfügbaren<br />

PLS (H-PLS) unter Verwendung von Virtualisierung<br />

untypisch. Die Umsetzung eines H-PLS <strong>mit</strong><br />

Hilfe von Mitteln der Virtualisierung adressiert eine<br />

nächste PLS-Generation.<br />

1. ARCHITEKTUR IN DER PROZESSAUTOMATISIERUNG<br />

In Bild 1 ist die <strong>Automatisierung</strong>s-Pyramide im Zusammenhang<br />

<strong>mit</strong> der Business-Pyramide dargestellt [3].<br />

Die Feldebene <strong>mit</strong> ihren Sensoren und Aktoren bildet<br />

die Schnittstelle zwischen physikalischem Prozess und<br />

<strong>Automatisierung</strong>ssystem. Die Aufnahme von Messgrößen<br />

eines physikalischen Prozesses erfolgt <strong>mit</strong> Sensoren und<br />

der Eingriff <strong>mit</strong>tels der Stellgrößen in den physikalischen<br />

Prozess <strong>mit</strong> Aktoren. Die Feldgeräte werden beispielsweise<br />

an Remote-IOs, welche wiederum an <strong>Automatisierung</strong>sstationen<br />

(AS) angeschlossen sind, und/oder direkt an die<br />

AS auf der Steuerungsebene angebunden. In dieser Steuerungsebene<br />

erfolgt nach Empfang der Messgröße (Absender:<br />

Sensoren) die Verarbeitung – Steuerung und Regelung<br />

– durch die AS. Anschließend läuft die Vorgabe der aus<br />

der Verarbeitung hervorgegangenen Stellgrößen (Adressaten:<br />

Aktoren). Die einzelnen AS sind eingebettet in ein<br />

anlagenbezogenes PLS auf der Betriebsführungsebene. Im<br />

Fokus dieses Beitrags steht die Betriebsführungsebene der<br />

<strong>Automatisierung</strong>s-Pyramide <strong>mit</strong> dem PLS.<br />

Die für die Ausführung der PLS-Kernfunktionalität<br />

–Prozessführung und -kontrolle – notwendigen Informationen<br />

auf dieser Ebene werden durch die prozessnahen<br />

Komponenten auf der Feld- und Steuerungsebene bereitgestellt.<br />

Zu diesen Komponenten zählen beispielsweise<br />

die Sensoren, Aktoren, Remote-IOs, sowie <strong>Automatisierung</strong>sstationen<br />

(AS) und Bedien-Stationen (OS) bestehend<br />

aus der entsprechenden Hard- und Software [13].<br />

Weiterhin verdeutlicht Bild 1 die Verbreitung der x86-<br />

Technologie von der Ebene des Personalmanagements<br />

(Business-Pyramide) bis in die Betriebsführungsebene<br />

(<strong>Automatisierung</strong>s-Pyramide). x86 ist die Abkürzung einer<br />

Mikroprozessor-Architektur und der da<strong>mit</strong> verbundenen<br />

Befehlssätze. Ursprünglich entwickelt von Intel, finden die<br />

Befehlssätze (<strong>mit</strong> Erweiterungen) beispielsweise Anwendung<br />

in den Prozessoren AMD Opteron, VIA C7 und Intel<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

29


HAUPTBEITRAG<br />

Core i7. Bei genauerer Betrachtung hat die x86-Technologie<br />

zudem bereits in der Steuerungsebene Einzug gehalten.<br />

Beispiel: AS ausgeführt als Soft-SPS auf Basis der x86-Technolgie.<br />

Die bestehenden Virtualisierungslösungen für Clients<br />

und Server fußen mehrheitlich ebenso auf der x86-<br />

Technologie und sind im Kontext der Ebenen der Business-<br />

Pyramide bis hin zur Betriebsführungsebene der <strong>Automatisierung</strong>s-Pyramide<br />

bereits Stand der Technik.<br />

2. GRUNDLAGEN DER VIRTUALISIERUNG<br />

2.1 Einführung<br />

Die Technologie Virtualisierung umfasst Methoden, die es<br />

erlauben, Ressourcen wie CPU-Leistung und Speicherplatz<br />

effizient zu verwenden und so<strong>mit</strong> Kosten zu sparen. Virtualisierung<br />

ist heute in der IT etabliert und hat dort ihren<br />

Nutzen unter Beweis gestellt. Die überwiegende Zahl der<br />

Rechenzentren von Unternehmen nutzen diese Technologie<br />

zur Konsolidierung der Ressourcen. Weiterhin ist die<br />

Virtualisierung ein stark expandierender Markt, wie Gartner<br />

festhält: „The […] virtualization software market will<br />

grow at a compound annual rate of 46% from 2008 through<br />

2013.“ Es ist daher naheliegend, dass Firmen <strong>mit</strong> großen<br />

IT-Abteilungen, ausgehend von den IT-Applikationen, die<br />

Technologie Virtualisierung perspektivisch in ihren Rechenzentren<br />

dazu einsetzen, ebenfalls Teile der <strong>Automatisierung</strong>stechnik<br />

in virtueller Umgebung zu realisieren.<br />

2.2 Ansätze<br />

Bei einem konventionellen Rechnersystem (Server, Client)<br />

bestehend aus Hardware (zum Beispiel Prozessoren,<br />

Speicher, Netzwerkkomponenten) und Software (Betriebssystem,<br />

Applikationen) ist das Betriebssystem direkt<br />

auf der Hardware installiert. Das Betriebssystem<br />

bildet die Schnittstelle zwischen der Hardware und den<br />

Applikationen (beispielsweise Tabellenkalkulation).<br />

Bei der Virtualisierung [1] werden das Betriebssystem<br />

und alle darauf ablaufenden Applikationen eines Rechners<br />

von der Hardware entkoppelt und in einer virtuellen<br />

Maschine (VM) zusammengefasst. Zwischen der Hardware<br />

und dem Betriebssystem beziehungsweise den Betriebssystemen<br />

befindet sich ein weiteres, schlankes Minibetriebssystem,<br />

welches als Hypervisor bezeichnet<br />

wird. Durch den Hypervisor wird es möglich, mehrere<br />

VM – zum Beispiel <strong>mit</strong> unterschiedlichen Betriebssystemen<br />

wie Microsoft Windows und Linux – parallel auf<br />

einer Hardware zu betreiben. Ein Rechner <strong>mit</strong> einer Hardware<br />

kann so<strong>mit</strong> wie eine Vielzahl von Rechnern agieren.<br />

Bild 2 zeigt die drei grundsätzlichen Virtualisierungsansätze<br />

<strong>mit</strong> Hypervisor Typ 1, Hypervisor Typ 1/Paravirtualization<br />

und Hypervisor Typ 2 im Vergleich zu<br />

einem konventionellen System. Der Virtualisierungsansatz<br />

<strong>mit</strong> Hypervisor Typ 1 wird auch als Stand Alone<br />

Approach, Bare host, Bare Metal Hypervisor oder Native<br />

Host bezeichnet, der Virtualisierungsansatz Hypervisor<br />

Typ 2 als Host, Hosted Virtualization, Hosted Hypervisor<br />

oder Host-Guest Approach.<br />

Beim Virtualisierungsansatz <strong>mit</strong> Hypervisor Typ 1<br />

läuft dieser direkt auf der Hardware, weshalb sie auch<br />

als Hardwarevirtualisierung bezeichnet wird. Der Hypervisor<br />

ist vollständig unabhängig von weiterer Software<br />

und hat direkten Zugriff auf die Ressourcen der<br />

Hardware. Auf dem Hypervisor sind die VM <strong>mit</strong> verschiedenen<br />

Betriebssystemen lauffähig und darin wiederum<br />

die Applikationen, wie es beim Virtualisierungsansatz<br />

<strong>mit</strong> Hypervisor Typ 1/Paravirtualization ebenfalls der<br />

Fall ist. Diese Variante des Virtualisierungsansatzes <strong>mit</strong><br />

Hypervisor Typ 1/Paravirtualization ist jedoch nicht vollständig<br />

unabhängig von weiterer Software, sondern wird<br />

<strong>mit</strong> Hilfe der Parent-Virtual-Machine konfiguriert. Beim<br />

Virtualisierungsansatz <strong>mit</strong> Hypervisor Typ 2 läuft dieser<br />

auf Basis eines Host-Betriebssystems wie Microsoft Windows<br />

oder Linux. Auf dem Hypervisor wiederum sind<br />

die verschiedenen Gast-Betriebssysteme lauffähig, und<br />

basierend darauf, die verschiedenen Applikationen.<br />

Ein Nachteil der Virtualisierungslösung <strong>mit</strong> Hypervisor<br />

Typ 1 ist, dass die Rechner-Hardware für den Hypervisor<br />

Typ 1 kompatibel und vom Hersteller der Virtualisierungslösung<br />

zertifiziert sein muss. Beim Ansatz <strong>mit</strong> Hypervisor<br />

Typ 2 lässt sich jegliche vom Host-Betriebssystem unterstützte<br />

Hardware verwenden. Vorteile der Lösungen <strong>mit</strong><br />

Hypervisor Typ 1 und Hypervisor Typ 1/Paravirtualization<br />

sind jedoch die Effizienz und die Performance aufgrund<br />

des direkten Zugriffs auf die Hardware im Gegensatz zum<br />

Ansatz <strong>mit</strong> Hypervisor Typ 2.<br />

2.3 Virtualisierungslösungen<br />

Die Firmen Citrix, Microsoft und VMware sind die derzeit<br />

bedeutendsten Hersteller von Virtualisierungslösungen.<br />

Die beiden Produkte XenServer und Hyper-V der<br />

Firmen Citrix beziehungsweise Microsoft basieren auf<br />

dem Virtualisierungsansatz Hypervisor Typ 1/Paravirtualisierung.<br />

Neben den ohnehin notwendigen Lizenzen<br />

für die Gast-Betriebssysteme ist eine zusätzliche Lizenz<br />

für das zu installierende Host-Betriebssystem in der<br />

Parent-Virtual-Machine zu erwerben. Es ist jedoch aus-<br />

Personalmanagement<br />

Finanzmanagement<br />

Materialwirtschaft<br />

und Controlling<br />

Produktionsplanung<br />

und -steuerung<br />

Produktionsführungsebene<br />

Betriebsführungsebene<br />

(SCADA / Leitsystem<br />

Steuerungsebene<br />

Feldebene<br />

Software<br />

SAP – HR<br />

SAP – FI<br />

SAP – CO<br />

SAP – MM<br />

SAP – PP<br />

WinCC PCS 7<br />

BILD 1: <strong>Automatisierung</strong>s-Pyramide<br />

im Gesamtkontext<br />

Hardware<br />

x86-basierende Technologien<br />

30<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


eichend, dass die verwendete Hardware vom Host-Betriebssystem<br />

unterstützt und zertifiziert sein muss. Microsoft<br />

stellt explizit Anforderungen an die Hardware,<br />

wie beispielsweise, dass der verwendete 64-Bit-Prozessor<br />

Virtualisierungstechnik unterstützen muss. VMware<br />

unterstützt zudem die 32-Bit-Technik. Von Nachteil ist<br />

weiterhin, dass die Gast-Betriebssysteme modifiziert<br />

werden müssen (zum Beispiel Austausch der Treiber).<br />

Bei dem Produkt ESXi von VMware handelt es sich um<br />

eine Lösung basierend auf dem Ansatz <strong>mit</strong> Hypervisor Typ<br />

1. Da<strong>mit</strong> die verwendete Hardware von diesen Produkten<br />

unterstützt wird, ist diese von der Firma VMware zu zertifizieren.<br />

Ein Vorteil dieser Lösungen ist, dass, anders als<br />

beim Hypervisor Typ 1/Paravirtualization, kein zusätzlicher<br />

Verwaltungsbedarf (unter anderem Konfiguration,<br />

Parametrierung) resultierend aus dem Gast-Betriebssystem<br />

notwendig ist. Die Lösungen von VMware sind etabliert. Sie<br />

werden heute typischerweise in den Rechenzentren der IT-<br />

Abteilungen von Unternehmen zur Server-Virtualisierung<br />

eingesetzt und nehmen nach eigenen Angaben des Unternehmens<br />

einen Gesamt-Marktanteil von mehr als 80 % ein.<br />

Aufgrund der etablierten Basis und der weiten Verbreitung<br />

– auch bei Unternehmen der Prozessindustrie –<br />

wurde im Rahmen der prototypischen Validierung (Realisierung)<br />

des Siemens-Leitsystems PCS 7 in einer virtuellen<br />

Umgebung zunächst die Lösung ESXi der Firma<br />

VMware gewählt.<br />

2.4 Nutzen<br />

Mögliche Motive für den Einsatz von Virtualisierung im<br />

Kontext der PLT:<br />

Verringerung der PLS-Investitions- und Betriebskosten<br />

Eine Herausforderung stellen die unterschiedlichen <strong>mit</strong>tleren<br />

Lebenszyklen von PC-Hardware dar, auf der die Betriebssystem-Software<br />

sowie die PLS-Software laufen [5].<br />

Die PC-Hardware besitzt im Mittel eine Lebenszeit von<br />

etwa 8 Jahren, das Betriebssystem von zirka 4 Jahren und<br />

die Versionen des PLS im Mittel von ungefähr 5 Jahren. Die<br />

<strong>mit</strong>tleren Lebenszeiten divergieren so<strong>mit</strong> im Vergleich zur<br />

etwa 20-jährigen Lebenszeit und Betriebsphase von Anlagen<br />

in der Prozessindustrie [6]. Um die Kompatibilität zwischen<br />

PC-Hardware und Leittechnik-Komponenten über<br />

die gesamte Betriebsphase sicherzustellen, werden oft bei<br />

der Erstellung einer Anlage die entsprechend notwendige<br />

Anzahl an PC-Hardware und Betriebssystem-Lizenzen für<br />

die gesamte Betriebsphase beschafft – verbunden <strong>mit</strong> zusätzlichen<br />

Investitionskosten. Virtualisierung ermöglicht<br />

es, die Lebenszyklen voneinander zu entkoppeln und so<strong>mit</strong><br />

diese höheren Investitionen obsolet werden zu lassen.<br />

Virtualisierung kann so<strong>mit</strong> zu einem erhöhten Investitionsschutz<br />

beitragen [6], vorwiegend für die Unternehmen<br />

der Prozessindustrie, die eigene IT-Abteilungen <strong>mit</strong><br />

Rechenzentren haben und bereits Virtualisierungs-Technologien<br />

verwenden. Diese Unternehmen können die<br />

PLT in die bestehende IT-Infrastruktur integrieren. Es<br />

sind so<strong>mit</strong> Kosteneinsparungen möglich, zum Beispiel<br />

durch den Wegfall von ansonsten notwendigem Platzbedarf<br />

im Produktionsbereich für die Industrie-Server,<br />

durch Minimierung des Aufwandes für Heizen/Lüften/<br />

Kühlen sowie durch zentralisierte Wartung.<br />

Erhöhung der Effizienz des PLS<br />

Aufgrund zentraler Recheneinheiten lässt sich die Effizienz<br />

des PLS steigern – Verbesserung der Skalierbarkeit<br />

und Verfügbarkeit sowie Steigerung der Produktivität.<br />

Eine verbesserte Skalierung und Verfügbarkeit wird erreicht,<br />

da beispielweise die bestehenden Ressourcen (wie<br />

Prozessoren, Speicher) im Rechenzentrum eines Unternehmens<br />

gezielt ausgelastet werden. Der Wechsel der<br />

Hardware und gegebenenfalls die Installation beziehungsweise<br />

Konfiguration des Betriebssystems aus Sicht<br />

der <strong>Automatisierung</strong> entfällt, wo<strong>mit</strong> Stillstandszeiten<br />

reduziert werden. Die Produktivität kann ebenfalls erhöht<br />

werden, da für das Aufsetzen einer neuen VM bestehende<br />

Templates verwendet werden können.<br />

Virtuelle Maschine (VM)<br />

Applikatiokatiokatiokatiokation<br />

Appli-<br />

Appli-<br />

Appli-<br />

Appli-<br />

Applikation<br />

…<br />

…<br />

Applikation<br />

Applikation<br />

……<br />

Applikation<br />

…<br />

Applikatiokation<br />

Appli-<br />

Applikation<br />

……<br />

…<br />

Applikation<br />

Guest-Betriebssystem<br />

Guest-Betriebssystem<br />

…<br />

…<br />

Applikation<br />

Applikation<br />

Applikatiokation<br />

Appli-<br />

Applikation<br />

Applikation<br />

Betriebssystem<br />

Betriebssystem<br />

…<br />

Gast-Betriebssystem<br />

Gast-Betriebssystem<br />

Hypervisor<br />

Hypervisor<br />

…<br />

Applikation<br />

Hypervisor<br />

Appli-kation<br />

Hypervisor<br />

Host-<br />

Host-<br />

Betriebssystem<br />

Betriebssystem<br />

Host-<br />

Host-<br />

Betriebssystem<br />

Betriebssystem<br />

Gast-Betriebssystem<br />

Gast-Betriebssystem<br />

…<br />

Hypervisor<br />

Hypervisor<br />

…<br />

…<br />

Hardware<br />

Hardware<br />

Hardware<br />

Hardware<br />

Hardware<br />

Hardware<br />

Hardware<br />

Hardware<br />

Konventionelles System<br />

BILD 2: Virtualisierungsansätze<br />

Virtualisierungsansatz:<br />

Hypervisor Typ 1<br />

Virtualisierungsansatz:<br />

Hypervisor Typ 1/<br />

Paravirtualization<br />

Virtualisierungsansatz:<br />

Hypervisor Typ 2<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

31


HAUPTBEITRAG<br />

Einsatz in bestehenden Anlagen<br />

Eine Erweiterung und Modernisierung der PA erfordert<br />

häufig einen nur schwer realisierbaren Ausbau der bestehenden<br />

Hardware. Daher ist die Hemmschwelle zur<br />

Erweiterung und Modernisierung von vorhandenen PLS<br />

hoch. Ausgehend von dem im Beitrag vorgestellten Ansatz,<br />

das PLS in virtueller Umgebung zu betreiben, wird<br />

die Hemmschwelle hinsichtlich einer Erweiterung und<br />

Modernisierung gesenkt. Es ist einfacher möglich, die<br />

verschiedenen Teile wie Engineering Station(s), Operator<br />

Station(s) und Maintenance Station(s) im Kontext einer<br />

VM zu modernisieren und zu erweitern.<br />

Hochverfügbarkeit auf Basis verbreiteter Technologien<br />

Sobald ein hochverfügbares PLS notwendig ist, kommen<br />

heutzutage proprietäre, firmenspezifische Redudanzlösungen<br />

für die jeweiligen PLS-Server zum Einsatz. In<br />

IT-Rechenzentren wird Virtualisierung häufig zur Erreichung<br />

von Hochverfügbarkeit eingestzt. Die Verwendung<br />

von der in der IT weit verbreiteten Virtualisierung zur<br />

Realisierung von PLS-Server-Redundanz ermöglicht gegebenenfalls<br />

die Fokussierung auf weitere zukünftige<br />

PLS-Herausforderungen (zum Beispiel Security [13]).<br />

Weiterhin könnte eine solche allgemeine Hochverfügbarkeitslösung<br />

dazu beitragen, die Investitionskosten bei<br />

einem zukünftigen PLS für den Anwender zu senken.<br />

3. TESTSYSTEM<br />

Die Erprobung von Simatic PCS 7 in virtueller Umgebung<br />

– als nicht-H-PLS und H-PLS – erfolgte exemplarisch<br />

im Smart-Automation-Center in Karlsruhe (siehe<br />

Bild 3).<br />

Beim Smart-Automation-Center handelt es sich um<br />

ein automatisiertes technisches System, um neue Technologien<br />

im Rahmen von Software- und Hardware-Prototypen<br />

in praxisnaher Umgebung zu erproben. Dieses<br />

automatisierte technische System besteht aus einem<br />

kontinuierlichen Teil und einem diskreten Teil für das<br />

Mischen beziehungsweise Abfüllen von Farbe. Die Basis-<br />

Ausrüstung des PLS sieht wie folgt aus:<br />

PLS-Komponenten: Eine Engineering-Station (ES),<br />

ein redundantes Operator-Station-Serverpaar (OS-<br />

Server), drei Operator-Station-Clients (OS-Client)<br />

und eine Maintenance Station (MS) – alle Komponenten<br />

haben als Basis-Betriebssystem Microsoft<br />

Windows 7<br />

Simatic PCS 7: PCS 7 V8.0<br />

Im folgenden Abschnitt ist Simatic PCS 7 in virtueller<br />

Umgebung als nicht-H-PLS skizziert – technische Details<br />

siehe [10].<br />

4. SIMATIC PCS 7 IN VIRTUELLER UMGEBUNG<br />

ALS NICHT-H-PLS<br />

4.1 Realisierung<br />

Die Realisierung der virtuellen Umgebung des nicht H-<br />

Systems erfolgte auf einem Fujitsu Server TX300 S6 (1<br />

Intel Xeon X5660 <strong>mit</strong> 6 Kernen à 2,8 GHz, 32 GB RAM).<br />

Auf dieser Hardware wurde die virtuelle Umgebung bestehend<br />

aus VMware vSphere V5.0, VMware vSphere<br />

Client V5.0 und VMware ESXi 5.0 installiert. Server- und<br />

Client-Funktionalität der PLS-Komponenten sind als VM<br />

auf Basis von VMware ESXi 5.0 realisiert worden.<br />

Bild 4 zeigt Komponenten des Leitsystems PCS 7, welche<br />

<strong>mit</strong> VMware/ESXi in einer virtuellen Umgebung im Smart-<br />

Automation-Center realisiert wurden – diskreter Teil<br />

(inkl. MES) und kontinuierlicher Teil. Detaillierte technische<br />

Informationen finden sich unter [11], [12], [14], [15].<br />

4.2 Ergebnisse<br />

Die Erprobung eines nicht-H-PLS in virtueller Umgebung<br />

ergab, dass die Neuinstallation eines solchen PLS und<br />

die Portierung einer bestehenden Konfiguration in die<br />

virtuelle Umgebung von VMware ESXi <strong>mit</strong> einem erhöhten<br />

Aufwand möglich ist. Dieser Mehraufwand resultierte<br />

im Wesentlichen aus dem notwendigerweise zu erarbeitenden<br />

Wissen bezüglich der Virtualisierung. Auf<br />

Basis der Vorfeldarbeiten wurden weitere ausführliche<br />

Tests in verschiedenen Anlagen durchgeführt. Die Ergebnisse<br />

führten dazu, dass Komponenten von Simatic<br />

PCS 7 für die Virtualisierung <strong>mit</strong> VMware unter bestimmten<br />

Bedingungen freigegeben wurden. Weitere<br />

Details sind in [10], [12] aufgeführt.<br />

5. SIMATIC PCS 7 IN VIRTUELLER UMGEBUNG ALS H-PLS<br />

5.1 Realisierung<br />

Für die Realisierung eines H-PLS in virtueller Umgebung<br />

gibt es zwei Varianten.<br />

1 | Kombination bestehender H-Lösungen <strong>mit</strong> den<br />

Technologien der Virtualisierung<br />

2 | Vollständige H-PLS-Lösung unter Verwendung von<br />

Virtualisierungsmethoden<br />

Zur Realisierung der Variante 1 reicht es aus, dass industriespezifische<br />

Hardware eingebunden werden kann – diese<br />

Variante und der da<strong>mit</strong> verbundene Nutzen und die<br />

Herausforderungen werden daher im Beitrag nicht weiter<br />

verfolgt. Im Fokus der Betrachtungen steht die intuitiv<br />

naheliegende Variante 2. Es wurden unterschiedliche<br />

Konfigurationen im Kontext der Hochverfügbarkeit und<br />

Virtualisierung getestet. Die Autoren behandeln ein redundantes<br />

OS-Serverpaar, welches <strong>mit</strong> Hilfe der Virtualisierung<br />

redundant ausgeführt wird. Bild 5 zeigt die Grundlagen<br />

zu entsprechend benötigten VMware-Produkten.<br />

Die beiden Funktionen als Bestandteil des Produktes<br />

VMware vSphere für die PLS-H-Lösung im Kontext einer<br />

virtuellen Umgebung lauten VMware High Availability<br />

(VMware HA) und VMware Fault Tolerance (VMware<br />

FT). Die Funktionen verwenden wiederum VMware-<br />

Basistechnologien. Zu diesen Technologien zählt unter<br />

anderem die VMware FT Lockstep Technologie. Diese<br />

Technologie ist hinsichtlich der hochverfügbaren Lösung<br />

im Kontext einer virtuellen Umgebung von besonderer<br />

Bedeutung. Weitere Basistechnologien sind beispielswei-<br />

32<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


se vSphere vMotion, vSphere Distributed Resource Scheduler<br />

(DRS) und vSphere Distributed Switch (VDS).<br />

Bei VMware HA handelt es sich um das Cold-Standby<br />

– das heißt die sekundäre VM wird gestartet, sobald die<br />

primäre VM ausfällt. Für diskontinuierliche Batch-Prozesse<br />

im Kontext der Prozessindustrie kann diese VMware-Technologie<br />

so<strong>mit</strong> bereits ausreichend sein – unter<br />

Verwendung entsprechender Werkzeuge, die den Batch-<br />

Prozess fortsetzen. Für kontinuierliche Prozesse hingegen<br />

ist dieses Produkt ungenügend. Nach einer ersten Prüfung<br />

eignet sich dafür das Produkt VMware FT. Es verspricht<br />

den Hot-Standby und so<strong>mit</strong> den lückenlosen Serverbetrieb.<br />

Auf Basis der VMware FT Lockstep Technologie<br />

sowie VMware HA einschließend sieht VMware FT vor,<br />

dass die sekundäre VM im Standby-Modus läuft und nicht<br />

erst hochfahren muss nach Ausfall der primären VM.<br />

Die VMware FT Lockstep Technologie unterscheidet<br />

zwischen einer primären VM und einer sekundären VM.<br />

Die primäre VM empfängt beziehungsweise versendet<br />

Ereignisse an unterlagerte Hard- und Softwarekomponenten.<br />

Parallel werden alle Ereignisse <strong>mit</strong> der sekundären<br />

VM abgeglichen – sowohl primäre als auch sekundäre<br />

VM führen die gleichen Algorithmen aus und<br />

die gleichen Eingabe/Ausgabe-Operationen durch. Jedoch<br />

nehmen im Normalbetrieb lediglich Ausgabe-<br />

Operationen der primären VM Einfluss auf die unterlagerte<br />

Hard- und Software. Alle Ausgabe-Operationen<br />

der sekundären VM werden unterdrückt. Die unterlagerte<br />

Hard- und Software sieht lediglich eine VM <strong>mit</strong><br />

entsprechender IP- und MAC-Adresse.<br />

Voraussetzung für VMware HA ist, dass alle ESXi-<br />

Hosts in einem HA-Cluster gekapselt sind. Die folgenden<br />

Fälle führen zum Umschalten von der primären VM im<br />

Master-Host auf die sekundäre VM in einem slave-Host:<br />

a | Auf ein vom Master-Host gesendetes 1-Hz-(Clock-)<br />

Signal wird vom Slave-Host nicht geantwortet<br />

b | Auf Internet Control Message Protocol (ICMP) Signale<br />

wird vom Slave-Host nicht geantwortet<br />

c | Auf ein vom gemeinsamen Speicher (Shared Storage)<br />

gesendetes Clock-Signal wird nicht geantwortet<br />

Unter Berücksichtigung zu erfüllender Anforderungen<br />

bezüglich eines H-PLS (zum Beispiel hinsichtlich Speicher,<br />

Prozessorleistung und Verfügbarkeit) sowie auf<br />

Basis der PLS-Grundausrüstung wurde die folgende<br />

Konfiguration umgesetzt:<br />

BILD 4: Siemens-Leitsystem PCS 7 in virtueller Umgebung<br />

BILD 5: VMware Server-Redundanzkonzept [9]<br />

ES OS-Client OS-Client OS-Client MS<br />

PLS-Komponenten in realer Umgebung<br />

1x ES, 3x OS-Client, 1x MS<br />

PLS-Komponenten in virtueller Umgebung<br />

1x redundanter OS-Server – verteilt auf zwei ESXi-<br />

Servern<br />

Die Realisierung des im Fokus stehenden redundanten OS-<br />

Serverpaares hinsichtlich eines H-PLS auf Basis von VMware<br />

Lockstep, VMware HA sowie VMware FT zeigt Bild 6.<br />

Die H-PLS in virtueller Umgebung wird gebildet von<br />

zwei ESXi-Servern, die sich in einem HP Blade System<br />

C7000 Enclosure G2 befinden. Die primäre VM läuft auf<br />

dem ersten ESXi-Server, die sekundäre VM auf dem<br />

zweiten ESXi-Server. Die Parametrierung der VMs ori-<br />

ESXI-Server 1<br />

Primär<br />

Redundantes OS-Serverpaar<br />

FT Protokollierung<br />

Bestätigung<br />

Virtuelle Maschinen (VM)<br />

ESXI-Server 2<br />

Sekundär<br />

BILD 6:<br />

Umsetzung eines<br />

redundanten<br />

Virtualisierungskonzeptes<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

33


HAUPTBEITRAG<br />

entiert sich an dem empfohlenen PC-Hardwareausbau<br />

für SimaticPCS 7 V8.0.<br />

Weiterhin wurden in den VM getrennte virtuelle Netzwerkkarten<br />

für Anlagen- und Terminalbus projektiert.<br />

Innerhalb eines ESXi-Servers werden diese virtuellen<br />

Netzwerkkarten in einem virtuellen Switch über Virtual-Machine-Port-Groups<br />

und VLANs getrennt. Nach außen<br />

erfolgte die Kommunikation zwischen den beteiligten<br />

Komponenten über ein VC-Modul (Virtual-Connect-<br />

Modul) an einem physikalischen Kabel <strong>mit</strong> einem zugeordneten<br />

VLAN.<br />

5.2 Ergebnisse<br />

Die Tests für PCS 7 V8.0 Update 1 in einer virtuellen<br />

Betriebsumgebung wurden in der beschriebenen Konfiguration<br />

erfolgreich beendet. Es wurden keine Probleme<br />

festgestellt. Ansonsten deckten sich die Erkenntnisse<br />

bei dieser Erprobung eines H-PLS auf Basis von<br />

Virtualisierung <strong>mit</strong> denen bei der Realisierung eines<br />

nicht-H-PLS. Positiv zu beurteilen ist, dass alle Bedienstationen<br />

über genau eine geöffnete Remote Desktop-<br />

Verbindung bedienbar sind.<br />

REFERENZEN<br />

[1] Thorns, F.: Das Virtualisierungs-Buch, C & I Computerund<br />

Literaturverlag, Böblingen, 2008<br />

[2] Gartner: Virtualization Market in EMEA Driven by Cost<br />

Considerations, Resource Use and Management<br />

Benefits, “Dataquest Insight”, 13. Februar 2009<br />

[3] Abel, D.; Epple, U.; Spohr, G.-U.: Integration von<br />

Advanced Control in der Prozess-industrie – Rapid<br />

Control Prototyping, Wiley-VCH, Weinheim, 2008<br />

[4] Goldberg, R.P.: Architectural Principles for Virtual<br />

Computer Systems. Harvard University, 1973<br />

[5] ZVEI Fachverband Automation: Life-Cycle-Management<br />

für Produkte und Systeme der Automation, 2010<br />

[6] NE 121: Qualitätssicherung leittechnischer Systeme.<br />

Namur, 2008<br />

[7] Keith A. und Ole A.: A Comparison of Software and<br />

Hardware Techniques for x86 Virtualization. VMware, 2006<br />

[8] Callow, B. und Turner, R.: Hidden Costs of Virtualization.<br />

http://www.acronis.com/resources/wp/2.html<br />

(23.12.2010)<br />

[9] Waldeck, B.: Netzangriffen keine Chance. In: Computer<br />

+ Automation 2010(12), S. 54, 2010<br />

[10] Runde, S., Schneider, M., Glaser, M., Drinjakovic, D.:<br />

<strong>Automatisierung</strong>stechnische Architektur in der<br />

Prozessindustrie <strong>mit</strong> Leitsystem in virtueller<br />

Umgebung. In: Tagungsband Automation 2011, S.<br />

203-208. VDI, 2011<br />

[11] Siemens AG: SIMATIC PCS 7 OS Software Client ab V7.1<br />

+ SP2 für den Einsatz in virtuellen Betriebsumgebungen<br />

freigegeben. http://support.automation.siemens.<br />

com/WW/llisapi.dll?func=cslib.csinfo&lang=de&objid=<br />

51401737&caller=nl (09.08.2012)<br />

[12] Siemens AG: OS Client, BATCH Client und Route<br />

Control Client <strong>mit</strong> SIMATIC PCS 7 V8.0+Update 1 für<br />

virtuelle Betriebsumgebungen freigegeben. http://<br />

support.automation.siemens.com/WW/view/<br />

de/61052407 [23.11.2012]<br />

[13] Palmin, A., Runde, S., Kobes, P.: Security in der<br />

Prozessautomatisierung – Trends und Entwicklungen<br />

aus dem Fokus der Vorfeldentwicklung. In: Tagungsband<br />

Automation 2012, S. 177 182. VDI, 2012<br />

[14] Siemens AG: WinCC/Server-Virtualiserung.<br />

http://support.automation.siemens.com/WW/view/<br />

de/49368181 (24.08.2012)<br />

[15] Siemens AG: PCS 7 Virtualisierung.<br />

http://support.automation.siemens.com/WW/view/<br />

de/51975791 (24.08.2012)<br />

6. HERAUSFORDERUNGEN UND NUTZEN<br />

DER PLS-VIRTUALISIERUNG<br />

Nachfolgend sind ausgewählte technische und nichttechnische<br />

Herausforderungen im Kontext PLS und Virtualisierung<br />

aufgeführt – die erwähnten Punkte sind<br />

unabhängig von einer spezifischen Virtualisierungslösung<br />

(zum Beispiel VMware, Citrix, Microsoft) [10].<br />

6.1 Technische Herausforderungen<br />

Einbindung industriespezifischer Hardware<br />

Die jeweils gewählte Virtualisierungslösung, basierend<br />

auf Hypervisor Typ 1, Hypervisor Typ 1/Paravirtualization<br />

oder Hypervisor Typ 2, muss die verwendete Hardware<br />

unterstützen. Handelt es sich dabei um industriespezifische<br />

Hardware und nicht um typische Consumer-<br />

Hardware, so ist diese Unterstützung nicht zwangsläufig<br />

gegeben.<br />

Realisierung der Hochverfügbarkeit<br />

Um die Hochverfügbarkeit des automatisierten technischen<br />

Systems <strong>mit</strong> PLS sicherzustellen, wird häufig industriespezifische<br />

Hardware verwendet. Um dieser Herausforderung<br />

gerecht zu werden, ist so<strong>mit</strong> zunächst die<br />

Einbindung industriespezifischer Hardware zu realisieren.<br />

Weiterhin sind die bisher bestehenden Methoden<br />

und Modelle im Kontext der Hochverfügbarkeit hinsichtlich<br />

einer virtuellen Lösung zu realisieren.<br />

6.2 Nicht-technische Herausforderungen<br />

Kontrolle des erhöhten IT-Investitionsbedarfs<br />

Virtualisierung im Kontext der PLT kann nutzbringend<br />

sein. Wenn jedoch keine geeignete IT-Infrastruktur besteht,<br />

so sind nicht zu unterschätzende zusätzliche Investitionen<br />

(Server, Virtualisierungssoftware, zusätzliche<br />

Supportverträge, IT-Fachleute, und so weiter) notwendig.<br />

Kontrolle der IT-Betriebskosten<br />

Die durch Auslagerung in das Rechenzentrum gegebenenfalls<br />

minimierte Anzahl notwendiger Rechner, auf<br />

denen die einzelnen Bestandteile des PLS installiert<br />

sind, ist nicht linear zu den Energieeinsparungen. Ein<br />

Rechner beziehungsweise Server <strong>mit</strong> einer Vielzahl an<br />

VM benötigt mehr Energie als ein vergleichbarer Rechner<br />

ohne VM.<br />

34<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


Notwendigkeit von verbesserter Schulung aufgrund<br />

erhöhter Komplexität<br />

Zwei Aspekte machen eine verbesserte Ausbildung des<br />

Personals im Umgang <strong>mit</strong> dem PLS nötig. Zum einen die<br />

erhöhte Gesamtkomplexität des Systems, zum anderen<br />

ist das gegenwärtige Personal im Umfeld der PA normalerweise<br />

nicht vertraut im Umgang <strong>mit</strong> der Technologie<br />

Virtualisierung. Daher ist das notwendige Wissen dem<br />

Personal im Kontext der PA zu ver<strong>mit</strong>teln.<br />

Abhängigkeit vom Lieferanten der Virtualisierungssoftware<br />

Der Einsatz der Virtualisierungs-Technologie bedeutet<br />

eine zusätzliche Abhängigkeit zum Hersteller einer solchen<br />

Software. Deshalb sind die Verantwortlichkeiten<br />

für diese Software und für das Gesamtsystem (zum Beispiel<br />

Support) festzulegen.<br />

Das Siemens-Leitsystem Simatic PCS 7 konnte in einer<br />

exemplarischen Konfiguration erfolgreich in virtueller<br />

Umgebung realisiert werden – als nicht-hochverfügbares<br />

und als hochverfügbares Prozessleitsystem. Der häufig<br />

angeführte Nutzen im Zusammenhang <strong>mit</strong> Virtualisierung<br />

konnte jedoch, im Gegensatz zu einer konventionellen<br />

Lösung ohne Virtualisierung, nicht vollends belegt<br />

werden. Der mögliche langfristige Nutzen (zum Beispiel<br />

Minimierung von PLS-Betriebskosten) ist über den Anlagenlebenszyklus<br />

zu beobachten. Der kurzfristige Nutzen<br />

ist projektspezifisch. Tendenziell ist ein PLS in virtueller<br />

Umgebung dann für ein Unternehmen von Vorteil,<br />

wenn bereits eine starke IT-Infrastruktur besteht – inklusive<br />

Erfahrungen im Umgang <strong>mit</strong> dem Thema Virtualisierung.<br />

Für Unternehmen ohne starke IT-Infrastruktur<br />

stellt eine solche Lösung eine große Herausforderung dar.<br />

Es bestehen neben der reinen Herausforderung hinsichtlich<br />

der Virtualisierungs-Umsetzung auch weitere technische<br />

und nicht-technische Herausforderungen. Hinsichtlich<br />

eines zukünftigen, hochverfügbaren PLS auf<br />

Basis von Virtualisierungstechnologien sind weitere<br />

Untersuchungen notwendig. Nur so lässt sich eine vollständige<br />

Vergleichbarkeit <strong>mit</strong> einem konventionellen<br />

System herstellen.<br />

FAZIT<br />

MANUSKRIPTEINGANG<br />

18.09.2012<br />

Im Peer-Review-Verfahren begutachtet<br />

AUTOREN<br />

Dr.-Ing. STEFAN RUNDE (geb. 1980) ist in der Vorfeldentwicklung<br />

des Sektors Industry der Siemens AG seit Oktober<br />

2010 Projektleiter für das Thema "Future DCS Architecture"<br />

und seit Oktober 2012 zudem Programm Manager für das<br />

Themenfeld "PC-based Architecture". Nach der Ausbildung<br />

zum Energieelektroniker, studierte er Elektro- und Informationstechnik<br />

an der FH Hannover und promovierte an der<br />

Helmut-Schmidt-Universität Hamburg. Aktuelle Schwerpunkte<br />

seiner Arbeit sind die Verbesserung von Engineering<br />

und Architekturen im Umfeld von SCADA und PLS.<br />

Siemens AG, I IA ATS 3 1,<br />

Östliche Rheinbrückenstrasse 50,<br />

D-76187 Karlsruhe, Tel. +49 (0) 721 595 79 77,<br />

E-Mail: stefan.runde@siemens.com<br />

Dipl.-Ing. MARTIN R. SCHNEIDER (geb. 1960) absolvierte ein<br />

Informatik-Studium an der Hochschule Karlsruhe und ist in<br />

der Vorfeldentwicklung des Sektors Industry tätig. Er ist<br />

Teilprojektleiter im Projekt "Future DCS Architectures"<br />

zuständig für das Thema Integration von IT-Trends wie z.B.<br />

Virtualisierung oder Cloud Computing in PLS.<br />

Siemens AG, I IA ATS 3 1<br />

Östliche Rheinbrückenstrasse 50, D-76187 Karlsruhe,<br />

Tel. +49 (0) 721 595 61 13,<br />

E-Mail: martin-rudolf.schneider@siemens.com<br />

Dipl.-Ing. MARTIN GLASER (geb. 1959) leitete bis September<br />

2012 im PCS 7 Produktmanagement die Gruppe "Software<br />

& Innovation" und ist seit Oktober 2012 verantwortlich<br />

als Projektfamilienleiter "DCS SW-Products". Er studierte<br />

Elektrotechnik an der TH Karlsruhe und beschäftigt<br />

sich seit vielen Jahren <strong>mit</strong> der Entwicklung von PLS,<br />

insbesondere <strong>mit</strong> dem Focus auf neue Technologien für die<br />

Inno vation von PLS.<br />

Siemens AG, I IA AS PA R&D 1<br />

Östliche Rheinbrückenstrasse 50,<br />

D-76187 Karlsruhe, Tel. +49 (0) 721 595 68 90,<br />

E-Mail: martin.glaser@siemens.com<br />

Dipl.-Ing. STEFFEN THIEME (geb. 1965) arbeitet als<br />

technischer Berater für Simatic PCS 7 im Bereich<br />

"Simatic Systems Support for Process Automation".<br />

Er studierte Informationstechnik an der TH Ilmenau<br />

und beschäftigt sich seit vielen Jahren im Rahmen <strong>mit</strong><br />

PLT. Zu seinen aktuellen Aufgaben im Zusammenhang<br />

<strong>mit</strong> Simatic PCS 7 gehören unter anderem Simatic<br />

Batch, Virtualisierung und Industrial Security.<br />

Siemens AG, I IA AS S SUP PA 2,<br />

Östliche Rheinbrückenstrasse 50, D-76187 Karlsruhe,<br />

Tel. +49 (0) 721 595 71 37,<br />

E-Mail: steffen.thieme@siemens.com<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

35


HAUPTBEITRAG<br />

Integriertes Engineering <strong>mit</strong><br />

Automation Service Bus<br />

Paralleles Engineering <strong>mit</strong> heterogenen Werkzeugen<br />

Dieser Beitrag stellt einen neuen herstellerneutralen Ansatz zur Integration von Software-<br />

Werkzeugen vor, den Automation Service Bus. Es geht darum, wesentliche Lücken bisheriger<br />

herstellerneutraler Ansätze zu schließen und Vorteile, die sich bisher nur <strong>mit</strong> herstellerspezifischer<br />

Integration erreichen ließen, auch für die Integration heterogener Werkzeuge<br />

zu ermöglichen.<br />

SCHLAGWÖRTER Paralleles Engineering / Software-Werkzeug-Integration /<br />

Datenaustausch / Werkzeug unterstützte Arbeitsabläufe /<br />

Automation Service Bus<br />

Integrated engineering with the Automation Service Bus –<br />

Making parallel engineering with heterogeneous tools more efficient<br />

This contribution introduces a novel vendor-neutral approach for the integration of software<br />

tools, the Automation Service Bus, in order to close relevant gaps of present vendorneutral<br />

approaches and enable benefits, which were previously achieved only with vendorspecific<br />

integration, also for the integration of heterogeneous tools.<br />

KEYWORDS parallel engineering / software tool integration / data exchange /<br />

tool-supported workflows / automation service bus<br />

36<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


STEFAN BIFFL, RICHARD MORDINYI UND THOMAS MOSER, Technische Universität Wien<br />

Der erste Teil dieses Beitrags in <strong>atp</strong>-<strong>edition</strong> 54(5)<br />

hat den Bedarf an besserer Integration zwischen<br />

Software-Werkzeugen und deren Datenmodellen<br />

anhand exemplarischer Anwendungsfälle<br />

diskutiert. Daraus wurde der Bedarf<br />

für Mechanismen in Software-Werkzeugen abgeleitet<br />

und die Stärken und Beschränkungen von drei<br />

generellen Integrationsansätzen diskutiert: Behelfslösungen<br />

und herstellerspezifische beziehungsweise herstellerneutrale<br />

Ansätze. Das Ergebnis: Herstellerspezifische<br />

Werkzeug-Suiten decken zwar den Großteil der<br />

vorgestellten Anwendungsfälle ab, schränken allerdings<br />

typischerweise die Auswahlmöglichkeiten der<br />

verwendbaren Werkzeuge ein oder geben ein zu verwendendes<br />

Datenmodell fix vor. Herstellerneutrale Ansätze<br />

erlauben die freie Auswahl der Werkzeuge und<br />

Datenmodelle, erfordern aber oft einen erhöhten Grundaufwand<br />

für die Einbindung der Werkzeuge, da es keine<br />

offene Integrationsplattform zur Integration von<br />

Daten und Funktionen aus Software-Werkzeugen zur<br />

Unterstützung von Abläufen auf Projektebene gibt. Die<br />

AutomationML-Initiative [1] definiert zum Beispiel ein<br />

Schema für den Austausch von Topologie-, Geometrieund<br />

Verhaltensinformationen, stellt aber keine automatisierte<br />

Austauschmöglichkeit für diese Informationen<br />

zur Verfügung.<br />

Im Bereich der Wirtschaftsinformatik wurde der Architekturtrend<br />

umfangreicher Software-Werkzeug-Suiten<br />

in den 1990er Jahren etabliert und in den 2000er-<br />

Jahren durch offene, komponentenorientierte Systeme,<br />

etwa auf Basis des Enterprise Service Bus [2], abgelöst.<br />

Ein Beispiel für ein derartiges System ist der Automation<br />

Service Bus (ASB) Ansatz [3], ein Ergebnis der Forschung<br />

des von der Logical automation solutions und services<br />

GmbH betriebenen Christian-Doppler-Forschungslabors<br />

„Software Engineering Integration für flexible <strong>Automatisierung</strong>ssysteme“<br />

(CDL-Flex) an der Technischen Universität<br />

Wien.<br />

Der ASB schließt die Lücke zwischen den spezifischen<br />

Software-Werkzeugen der Fachexperten und den Arbeitsabläufen<br />

der Projektteilnehmer, die unter Verwendung<br />

der Daten aus mehreren Software-Werkzeugen effizient<br />

durchgeführt werden sollen, durch eine systematische<br />

und nicht-proprietäre Integration auf den Ebenen<br />

der (1) technischen Systeme und Funktionen, (2) der<br />

Datenmodelle und (3) der Beschreibung der Arbeitsabläufe.<br />

Die Integration der lokalen Datenmodelle (das „Engineering<br />

Babylon“) wird adressiert, in dem genau die<br />

von den Fachexperten für die Kooperation benutzten<br />

gemeinsamen Konzepte modelliert, auf die lokalen Repräsentationen<br />

der Software-Werkzeuge abgebildet und<br />

so für Maschinen verständlich gemacht werden. In den<br />

folgenden Abschnitten beschreibt der Beitrag die Kernkomponenten<br />

des ASB, spezifiziert den Prozess zum<br />

Entwerfen einer Integrationslösung und diskutiert Vorteile,<br />

Li<strong>mit</strong>ierungen und den benötigten Aufwand.<br />

1. DER AUTOMATION-SERVICE-BUS-ANSATZ<br />

Dieser Abschnitt stellt den Automation Service Bus [3]<br />

vor und beschreibt dessen Hauptkomponenten. Ziel des<br />

Einsatzes des ASB ist das Bereitstellen einer offenen<br />

Plattform zur Integration von heterogenen Software-<br />

Werkzeugen für die Entwicklung von <strong>Automatisierung</strong>ssystemen.<br />

Im Lebenszyklus der Herstellung und Operation<br />

von <strong>Automatisierung</strong>ssystemen lassen sich Software-<br />

Werkzeuge und Systeme als Software-Komponenten [4]<br />

betrachten, deren Beitrag zum Entwicklungsprozess<br />

durch eine bessere Kooperation deutlich effektiver und<br />

effizienter werden kann.<br />

Basierend auf dem in der Wirtschaftsinformatik erfolgreichen<br />

Enterprise Service Bus Ansatz [2] werden dafür<br />

die für das Engineering-Umfeld erforderlichen Verbesserungen<br />

wie eine herstellerneutrale Kommunikation vorgenommen,<br />

um das „Engineering-Polynesien“ der Werkzeuginseln<br />

systematisch zu integrieren (siehe Bild 1).<br />

Software-Werkzeuge sind <strong>mit</strong> dem ASB über Konnektoren<br />

verbunden und stellen an den Schnittstellen Software-<br />

Services [5] bereit, die den Datenaustausch und den Aufruf<br />

von Werkzeugfunktionen als Basis für die <strong>Automatisierung</strong><br />

von Arbeitsabläufen im Engineering erlauben.<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

37


HAUPTBEITRAG<br />

Bild 1 zeigt eine vereinfachte Sicht auf eine konkrete<br />

Lösungskonfiguration <strong>mit</strong> dem ASB, die folgende Elemente<br />

beinhaltet. (1) Spezifische Werkzeuge für Fachexperten<br />

aus dem Anlagen-Engineering, etwa zur Planung von<br />

Rohrleitungs- und Instrumentenfließbildern, Funktionsplänen,<br />

Elektroplänen, Systemkonfigurationen und SPS-<br />

Kontrollprogrammen. (2) Den Service Bus <strong>mit</strong> Konnektoren<br />

zur technischen Verbindung der Software-Systeme<br />

<strong>mit</strong>einander. (3) Die Engineering-Datenbank und die<br />

Engineering-Knowledge-Base, um gemeinsam verwendete<br />

Daten auf Projektebene versioniert zu halten und zur<br />

Übersetzung von gemeinsamen Konzepten auf Projektebene,<br />

die in den Werkzeugen (in Bezug auf Begriffe oder<br />

Datenstrukturen) unterschiedlich repräsentiert sind. (4)<br />

Anwendungen auf Projektebene, die auf die integrierten<br />

Daten und Funktionen aus den Software-Werkzeugen<br />

aufbauen, etwa ein Engineering-Cockpit zur besseren<br />

Projektstatusübersicht oder ein Ticketing System zur Benachrichtigung<br />

relevanter Projektrollen. (5) Die Konfiguration<br />

von Arbeitsabläufen, die Software-Werkzeuge verwenden<br />

und über Regeln gesteuert werden. Nachfolgend<br />

wird näher auf die Kernkomponenten des ASB in Bild 1<br />

eingegangen, die Services anbieten, die die angebundenen<br />

Werkzeuge nicht zur Verfügung stellen.<br />

Datenintegration werden Dateninstanzen entsprechend<br />

dem Datenmodell des Werkzeugs an den ASB geschickt<br />

beziehungsweise vom ASB empfangen. Die entsprechenden<br />

Konnektoren lesen/schreiben Dateninstanzen in<br />

Dateien, die über die Werkzeug-spezifischen Datei-Export/Import-Schnittstellen<br />

verarbeitet werden können.<br />

Werkzeuge, wie Eplan Electric, Eplan Engineering Center<br />

der Hardware-Konfigurator OPM, MS Excel oder MS Visio<br />

gehören zu dieser Kategorie. Bei der Funktionsintegration<br />

werden das Datenmodell und Werkzeug-spezifische<br />

Funktionen bei der Anbindung verwendet. Dies<br />

erfordert eine Kooperation <strong>mit</strong> dem Werkzeughersteller<br />

oder Werkzeugpartner, um Werkzeug-spezifische<br />

Schnittstellen zu implementieren. Der Konnektor tauscht<br />

also <strong>mit</strong> dem Werkzeug Informationen über APIs aus, die<br />

der Werkzeugher-steller bereitstellt. Daraus ergibt sich,<br />

dass die erzielbare Qualität beziehungsweise Tiefe der<br />

Anbindung vom Werkzeughersteller abhängt. Aus dem<br />

Bereich der <strong>Automatisierung</strong>ssysteme wurden die Funktionsplansysteme<br />

Logicad und Logidoc angebunden, aus<br />

dem Bereich Software-Engineering-Werkzeuge beispielsweise<br />

das Ticketing-System Trac zur Sammlung und<br />

Organisation von Aufgaben, die aus dem Änderungsmanagement<br />

entstehen [7].<br />

1.1 Spezifische Werkzeuge für Fachexperten<br />

Software-Werkzeuge stellen für Fachexperten Daten und<br />

Funktionen zur Planung von Anlagen in herstellerspezifischer<br />

Technologie bereit und bieten typischerweise<br />

Schnittstellen an, um auf Daten und Funktionen aus den<br />

Werkzeugen von außen zuzugreifen. Der ASB unterstützt<br />

die Anbindung von Werkzeugen auf zwei Arten. Bei der<br />

1.2 Werkzeugdomänen zur Anbindung von Werkzeugen<br />

Konnektoren verbinden Werkzeuge <strong>mit</strong> dem ASB und bestehen<br />

daher aus einer technisch spezifischen Schnittstelle<br />

zum Werkzeug und einer technisch neutralen<br />

Schnittstelle, die eine Kommunikation <strong>mit</strong> allen anderen<br />

Komponenten am ASB erlaubt. Die neutrale Schnittstelle<br />

– eine Werkzeugdomäne – entspricht einer Standardisie-<br />

BILD 1: Grundlegende Elemente<br />

einer Soft ware-Werkzeugintegration<br />

<strong>mit</strong> dem Automation Service Bus.<br />

BILD 2: Semantische Integration [10] heterogener<br />

Repräsentationen von Engineering-Wissen.<br />

38<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


ung von Konnektoren zu Werkzeugtypen, etwa Hardware-Konfiguratoren,<br />

und ermöglicht einerseits den einfachen<br />

Austausch von Werkzeugdiensten und erlaubt<br />

andererseits anwendenden Fachexperten weiterhin die<br />

gewohnte Verwendung ihrer Werkzeuge (für Details siehe<br />

[8], [9]). Eine neutrale Schnittstellenbeschreibung gestattet<br />

eine von Werkzeugen unabhängige Beschreibung von<br />

Arbeitsabläufen im Projekt und den effizienten Einsatz<br />

von für das Projekt besonders gut passenden Werkzeugen.<br />

1.3 Engineering Knowledge Base<br />

Werkzeugdomänen vermindern die Komplexität der Integration<br />

von Werkzeuginseln. Allerdings sind Konnektoren<br />

und auch Werkzeugdomänen nicht in der Lage, semantisch<br />

heterogene Werkzeuge so an den ASB anzubinden, dass<br />

die unterschiedlichen Datenmodelle für Computer verständlich<br />

werden. Ein wesentlicher Beitrag der Integrationslösung<br />

ist daher die Bereitstellung von Daten, die unterschiedliche<br />

Projektteilnehmer bearbeiten und verwenden,<br />

sogenannten gemeinsamen Konzepten (siehe Bild 2<br />

und Bild 3), in einheitlicher Darstellung auf Projektebene.<br />

Dieses virtuelle gemeinsame Datenmodell lässt sich dynamisch<br />

erzeugen oder an neue Projektbedürfnisse anpassten<br />

und unterscheidet sich dadurch stark von klassischen,<br />

vor Projektbeginn zu definierenden, und starren statischen<br />

Datenmodellen. Die Engineering Knowledge Base (EKB)<br />

[10] repräsentiert das Datenmodell der gemeinsamen Konzepte<br />

auf Projektebene und die Datenmodelle der unterschiedlichen<br />

lokalen Repräsentationen in den Software-<br />

Werkzeugen und erlaubt die notwendigen Transformationen<br />

zwischen den lokalen Datenmodellen.<br />

Das „Engineering-Babylon“ entsteht durch unterschiedliche<br />

lokale Repräsentationen der gemeinsamen<br />

Konzepte des Projektteams in den beteiligten Softwaresystemen<br />

und erfordert vermeidbaren Aufwand von<br />

Fachexperten für wiederkehrende Tätigkeiten, etwa Änderungskaskaden.<br />

Die EKB adressiert dieses Problem<br />

durch die Modellierung der von den Fachexperten für<br />

die Kooperation benutzten gemeinsamen Konzepte, die<br />

Modellierung der lokalen Repräsentationen der Software-Werkzeuge<br />

und die Abbildungen der einzelnen<br />

Konzepte zwischen diesen Modellen (siehe Bild 2) in<br />

einer expliziten und für Computer verständlichen Form,<br />

einer Ontologie. Dadurch wird die Übersetzung zwischen<br />

den unterschiedlichen Darstellungen automatisiert<br />

und die Fachexperten können Abfragen an die Daten<br />

auf Basis der gemeinsamen Konzepte stellen.<br />

Bild 2 zeigt die lokalen Datenmodelle von drei Fachbereichen<br />

(farbige Elipsen) und deren Überlappungsbereiche<br />

(in Weiß), die die gemeinsamen Konzepte beinhalten,<br />

etwa Anforderungen, Geräte, mechatronische<br />

Objekte oder Signale. Diese Überlappungen erlauben es,<br />

ein virtuelles gemeinsames Datenmodell zu erstellen,<br />

das die schematischen und semantischen Informationen<br />

der einzelnen Konzepte beinhaltet und eine Infrastruktur<br />

für semiautomatische Transformationen zwischen<br />

den Konzepten bereitstellt. Die werkzeugunterstützte<br />

Modellierung der Engineering-Konzepte ermöglicht eine<br />

automatische Ableitung der benötigten Transformationsanweisungen.<br />

Ein guter Ansatzpunkt für das Identifizieren<br />

gemeinsamer Konzepte ist die Analyse der Schnittstellen<br />

exportierbarer Daten, die Werkzeuge anbieten,<br />

oder auch von Standards in der Domäne. Sobald die relevanten<br />

Konzepte identifiziert sind, können diese Konzepte<br />

aufeinander abgebildet werden (Bild 2) [11]. Dadurch<br />

lassen sich die Auswirkungen von parallelen<br />

Änderungen in mehreren Engineering-Plänen automatisch<br />

analysieren; dies erlaubt den Abgleich von Engineering-Modellen<br />

aus unterschiedlichen Fachbereichen<br />

in kürzeren Zyklen <strong>mit</strong> signifikant geringerem Aufwand<br />

für die Fachexperten. Das Finden von Risiken und Beheben<br />

von Fehlern kann früher stattfinden.<br />

1.4 Engineering Database<br />

Die Engineering Database (EDB) [12] ist eine Datenbank,<br />

die zu den im vorigen Unterabschnitt beschriebenen gemeinsamen<br />

Konzepten die Datenbeiträge aus allen relevanten<br />

Werkzeugen versioniert speichert und zum Datenaustausch<br />

sowie für Abfragen zur Verfügung stellt.<br />

Dadurch wird es möglich, jeglichen Datenzustand zu<br />

einem bestimmten Zeitpunkt zu reproduzieren und zeitliche<br />

Analysen über Systemereignisse durchzuführen,<br />

zum Beispiel die Anzahl der Änderungen pro Benutzer<br />

im Gesamtprojekt.<br />

Bild 3 zeigt dazu den grundlegenden Ablauf: Die Verwendung<br />

des virtuellen Datenmodells (1), welches in der<br />

EKB explizit in Form einer Ontologie spezifiziert wurde,<br />

ermöglicht die effiziente und effektive Ableitung und<br />

Herstellung der zur Laufzeit notwendigen Transformationen<br />

(2) zwischen den ausgetauschten Werkzeugdaten.<br />

Die derartig transformierten Daten werden dann in der<br />

EDB (3) abgelegt. Ein Beispiel für eine derartige Transformation<br />

ist im unteren Teil von Bild 3 dargestellt. Hier<br />

wird die Instanz von Cust_Signal namens Cust S1 in eine<br />

Instanz von FB_Signal namens FB 1 transformiert. Die<br />

Darstellung des Inhalts der EDB zeigt, dass sich die gemeinsamen<br />

Elemente beider Konzepte am Anfang des<br />

Eintrags befinden, während am Ende des Eintrags die<br />

werkzeugspezifischen Elemente der Werkzeuge Elektroplan<br />

und Funktionsplan angehängt werden.<br />

1.5 Anwendungen auf Projektebene<br />

Auf Basis der versionierten Werkzeugdaten in der EDB<br />

und der Abfragemöglichkeiten der EKB können auf Projektebene<br />

neue Auswertungs- und Kommunikationsmöglichkeiten<br />

bereitgestellt werden. Das Engineering-Cockpit<br />

[13] ist eine Kollaborationsplattform für Projektmanager<br />

und Ingenieure und kann, basierend auf der Analyse<br />

von automatisch erfassten Prozessdaten, etwa dem<br />

Projektmanager Informationen über den Projektfortschritt<br />

(siehe Bild 4), absehbare Risiken und Unterlagen<br />

für Claim Management ohne zusätzlichen Aufwand<br />

bereitstellen. Die Grundlage für eine Analyse sind die<br />

abgelegten Modelle in der EKB und die Instanzen in der<br />

EDB. Abfragen über die Daten aus mehreren Werkzeugen,<br />

etwa Signale, Planungs- oder Implementierungsstände<br />

und die Team-Konfiguration im Projekt können kombiniert<br />

werden, etwa, um zu sehen, welche Personen in<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

39


HAUPTBEITRAG<br />

BILD 3: Virtuelles gemeinsames Datenmodell und Transformationen.<br />

einem Zeitraum welche Änderungen an den Signalen<br />

eines Engineering-Objekts durchgeführt haben. Ein Ticket-System<br />

ermöglicht es, die Aufgaben im Team im<br />

Überblick zu behalten, etwa Änderungsbedarfe aufgrund<br />

einer Änderungskaskade, die nicht automatisch adressiert<br />

werden können. Vorkonfigurierte Soll-Werte aus<br />

den Erfahrungen <strong>mit</strong> Projekten ähnlicher Größe können<br />

dem Projektmanager als zusätzliche Vergleichsbasis dienen,<br />

um über Abweichungen vom Soll-Wert mögliche<br />

Risiken frühzeitig zu erkennen.<br />

Bei der Qualitätssicherung im Engineering und der Inbetriebnahme<br />

einer Anlage müssen Fachexperten zwischen<br />

gemeinsamen Konzepten, etwa Signalen oder Geräten,<br />

in Plänen aus unterschiedlichen Bereichen navigieren,<br />

um die Plausibilität und Konsistenz abzusichern.<br />

Die Software-Werkzeuge der Fachbereiche vernetzen die<br />

gemeinsamen Konzepte oft nicht vollständig und effizient,<br />

sodass die Experten diese in unzureichend vernetzten<br />

Software-Plänen relativ aufwendig suchen müssen.<br />

Durch die Verbindung von gemeinsamen Konzepten können<br />

Anwender effizient zwischen unterschiedlichen Plänen<br />

und Werkzeugen navigieren und behalten dabei den<br />

Kontext, zu dem sie Informationen suchen. Das Netz an<br />

Abbildungen zwischen lokalen und gemeinsamen Konzepten<br />

in der EKB zeigt konkrete Navigationsmöglichkeiten<br />

zwischen Ausgangs- und Zielwerkzeug auf.<br />

1.6 Konfiguration von Arbeitsabläufen<br />

Ein wesentlicher Nutzen des ASB ist die technologieunabhängige<br />

Beschreibung von (bestehenden) Engineering-<br />

Prozessen und deren <strong>Automatisierung</strong>, um die Fachexperten<br />

von Tätigkeiten zu entlasten, die Software-Werkzeuge<br />

übernehmen sollen. Die in den ASB integrierte<br />

Workflow-Engine unterstützt die automatisierte Ausführung<br />

von Arbeitsabläufen zwischen Werkzeugen und ist<br />

daher für das Management von Regeln und Ereignissen<br />

beziehungsweise für die korrekte Ausführung von Engineering-Workflows<br />

verantwortlich. Technisch beschreibt<br />

ein in einer Sprache wie BPMN modellierter und in die<br />

ASB-Umgebung transformierter Engineering-Workflow<br />

konfigurierbare Prozessschritte, die die gewünschte Art<br />

der Integration der einzelnen Werkzeuge im Projekt darstellen.<br />

Die vom Prozessmanager erarbeiteten und zu<br />

konfigurierenden Schritte [6] basieren auf den in der EKB<br />

beschriebenen Datenmodellen (Rollen, Verantwortlichkeiten,<br />

Gewerken, Signalen, Einschränkungen) und auf<br />

für die Ausführung relevanten Werkzeugdomänen (inklusive<br />

deren Datenmodelle und Funktionen) beziehungsweise<br />

den in der Projektkonfiguration spezifizierten<br />

konkreten Werkzeuginstanzen. Eine im ASB laufende<br />

Komponente zur Prozessanalyse sammelt während<br />

der Ausführung Informationen über die Zustände der<br />

einzelnen Prozesse, um den wirklichen Ablauf <strong>mit</strong> dem<br />

im BPMN beschriebenen Verlauf zu vergleichen und so<br />

Abweichungen vom Sollzustand zu identifizieren.<br />

Für den Anwendungsfall von Änderungskaskaden und<br />

der automatischen Notifizierung von Projekt<strong>mit</strong>arbeitern<br />

über Änderungen <strong>mit</strong>hilfe eines Ticketing-Systems ist<br />

das projektspezifische Zusammenspiel aller zuvor erwähnten<br />

Komponenten zu beschreiben, zum Beispiel: die<br />

notwendigen Iterationen für eine Überprüfung, die Art<br />

einer Änderungsanfrage, der Umgang <strong>mit</strong> parallelen Aktivitäten<br />

und <strong>mit</strong> Konflikten [7, 14]. Änderungen in einem<br />

Werkzeug können je nach Art der Anbindung entweder<br />

direkt aus dem Werkzeug heraus oder über die Export-<br />

Schnittstelle des Werkzeugs dem ASB <strong>mit</strong>geteilt werden.<br />

Dies hat zur Folge, dass der aktuelle Datenbestand des<br />

Werkzeugs in der EDB abgelegt wird. Dieser Vorgang wird<br />

über einen Engineering-Workflow gesteuert, der durch<br />

die Versionierung der Daten in der EDB Änderungen im<br />

Datenbestand erkennt, und auf Basis der Abbildungen<br />

zwischen Datenmodellen über gemeinsame Konzepte in<br />

der EKB in der Lage ist, Werkzeuge oder deren Benutzer<br />

zu identifizieren, die über diese Änderung informiert<br />

werden sollten. Je nach Konfiguration des Ablaufs werden<br />

den identifizierten Experten über die Werkzeugdomäne<br />

Ticketing neue Tickets zugeordnet beziehungsweise die<br />

Änderungen nach Durchführung der spezifizierten<br />

40<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


BILD 4: Auswertungen im Engineering-Cockpit –<br />

etwa die Anzahl der Signale nach Projektphase.<br />

Transformationsschritte entweder sofort oder nach erfolgter<br />

Bestätigung durch die Ingenieure zum jeweiligen<br />

Werkzeug geleitet. Dadurch ist es möglich, den Ablauf<br />

der Änderungskaskaden einfach und flexibel an die Bedürfnisse<br />

der Projektteilnehmer anzupassen.<br />

2. ARBEITSSCHRITTE UND AUFWAND<br />

Dieser Abschnitt beschreibt die Arbeitsschritte und<br />

den Aufwand, um <strong>mit</strong> dem ASB zu einer auf Projektbedürfnisse<br />

abgestimmte Integrationslösung zu kommen.<br />

Im ersten Schritt „Datenmodellierung“ erstellen<br />

die Werkzeugexperten die Datenmodelle für die jeweiligen<br />

im Projekt verwendeten Werkzeuge einer Werkzeugdomäne<br />

[15]. In einem weiteren Schritt definieren<br />

die Experten gemeinsam das dazu passende Datenmodell<br />

der Werkzeugdomäne. Das Resultat sind in der<br />

EKB gespeicherte semantische Beschreibungen [16] der<br />

Modelle und Abbildungen zwischen den Datenmodellen.<br />

Abschließend werden die Modelle <strong>mit</strong> qualitätssichernden<br />

Maßnahmen auf Korrektheit und Gültigkeit<br />

überprüft [17, 18]. Die in der EKB verwendete Datenmodellierungsmethode<br />

benutzt Ontologien, wodurch<br />

sich klare Vorteile ergeben in Bezug auf dynamische<br />

Erweiterbarkeit der Datenmodelle, explizite semantische<br />

Beschreibung der Datenmodelle und Unterstützung<br />

von automatisierten Regel- und Abfragesprachen.<br />

Herausforderungen in der Verwendung von Ontologien<br />

ergeben sich aus nicht garantierbaren Laufzeiten von<br />

Abfragen und aus der <strong>mit</strong> der Handhabung von Ontologien<br />

verbundenen Komplexität.<br />

Im nächsten Schritt „Prozessbeschreibung“ werden<br />

die Arbeitsprozessbeschreibungen [7] (etwa in der BPMN<br />

[19]) analysiert und auf die Funktionen abgebildet, die<br />

die zu verwendenden Werkzeugdomänen bereitstellen.<br />

Die Architektur des ASB ist darauf ausgelegt, ein flexibles<br />

Zusammenspiel der vorgestellten Konzepte zu ermöglichen.<br />

Ein Vorteil ist die iterative Umsetzbarkeit von<br />

Integrationslösungen, die eine schrittweise Migration<br />

bestehender Integrationslösungen Richtung ASB <strong>mit</strong><br />

überschaubaren Risiken und Kosten [20, 21] erlaubt.<br />

Im darauffolgenden Schritt „Prozessumsetzung“ erfolgt<br />

die konkrete Umsetzung der Integration, indem die<br />

erfassten Modelle und Arbeitsabläufe dazu verwendet<br />

werden, um projektspezifische ASB-Artefakte wie Konfigurationsdateien,<br />

Quellcode und Testszenarien semiautomatisiert<br />

abzuleiten. In diesem Schritt werden Vorlagen<br />

für Werkzeugkonnektoren erstellt, die neben der<br />

konkreten Anbindung an das Zielwerkzeug die Funktionalität<br />

der Werkzeugdomäne beziehungsweise Gültigkeitsüberprüfungen<br />

von Dateninstanzen implementieren,<br />

(b) Schnittstellen und Funktionsaufrufe der Werkzeugdomänen<br />

angelegt, (c) Transformationsinstruktionen<br />

zwischen Datenmodellen abgeleitet, um zwischen<br />

Werkzeugen Daten semantisch korrekt austauschen zu<br />

können und (d) Testszenarien erstellt, um die Anbindung<br />

der Werkzeuge an den ASB testen zu können. Die<br />

ASB-Integrationslösung kann dann auf einem Server,<br />

etwa in einer Java VM, zur Verwendung im Projekt bereitgestellt<br />

werden.<br />

Erfahrungen aus der Anwendung des ASB <strong>mit</strong> Software-Werkzeugherstellern<br />

und Fachexperten in der Anlagenplanung<br />

haben folgenden Aufwand ergeben: ein bis<br />

zwei Workshop-Tage für die Analyse der Datenmodelle<br />

für Werkzeugkonnektoren und zu unterstützende Arbeitsabläufe,<br />

einige Personentage für die Umsetzung<br />

eines Werkzeugkonnektors als Java beziehungsweise C#<br />

Klassen anhand des Datenmodells durch Werkzeug- und<br />

ASB-Experten. Werkzeughersteller können unterschiedliche<br />

Versionen von Werkzeugkonnektoren anbieten,<br />

Werkzeugdomänen halten die Auswirkungen von Änderungen<br />

der Werkzeugspezifika auf ASB-Anwendungen<br />

möglichst gering. Die Beschreibung der Transformationsmodelle<br />

ist typischerweise in ein bis zwei Tagen<br />

möglich, allerdings kann Mehraufwand entstehen, falls<br />

Daten in der Organisation bisher inkonsistent verwendet<br />

wurden, was durch die Analyse und den Einsatz der<br />

automatischen Datenabgleiche oft erstmals auffällt.<br />

Die Einbindung bekannter Werkzeuge in etablierte<br />

Standardarbeitsabläufe ist typischerweise in einigen<br />

Personentagen erzielbar. Wesentlicher Aufwand entsteht<br />

durch die Abstimmung und Entwicklung organisationsspezifischer<br />

Arbeitsabläufe, insbesondere gut verständlicher<br />

Anwenderschnittstellen, die je nach Anforderungen<br />

und Umfang typischerweise einige Personenwochen<br />

erfordert. In den ASB-Projekten hat sich eine iterative<br />

Vorgehensweise in Projektphasen über zwei bis drei Monate<br />

bewährt, um nützliche und überschaubare Integrationsschritte<br />

zu setzen.<br />

Mit Bezug zum Aufwand für die Integration ist es wichtig<br />

zu unterscheiden, ob es sich um Initialaufwand oder<br />

um Aufwand für Änderungen der Integrationslösung handelt.<br />

Einen wichtigen Unterschied zu anderen Integrationsansätzen<br />

stellt die explizite Verfügbarkeit von Wissen<br />

über Arbeitsabläufe oder verwendete Software-Werkzeuge<br />

in Form von Ontologien dar, wodurch eine automatisierte<br />

und maschinenverständliche Verwendung dieses<br />

Wissens ermöglicht wird. Der Inititialaufwand anderer<br />

Integrationsansätze ist daher etwas niedriger, da für die<br />

ASB-Integration das explizite Wissen über Arbeitsabläufe<br />

und Software-Werkzeuge zusätzlich modelliert werden<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

41


HAUPTBEITRAG<br />

muss. Dieses externalisierte Wissen macht jedoch Änderungen<br />

der Integrationslösung leichter. Zusätzlich unterstützt<br />

das Konzept der Werkzeugdomänen effektiv die<br />

Stabilität von Arbeitsabläufen, auch bei Änderungen an<br />

Software-Werkzeugen, die lokal in den Konnektoren adressiert<br />

werden können. Einen weiteren Vorteil bietet der<br />

ASB im Bereich von qualitätssichernden Maßnahmen.<br />

Durch die explizite Verfügbarkeit von Wissen über Arbeitsläufe<br />

und Software-Werkzeuge wird die automatisierte<br />

Durchführung von qualitätssichernden Maßnahmen<br />

erleichtert, wodurch die konsistente und plausible<br />

Datenhaltung verbessert wird; zusätzlich können automatisiert<br />

Testfälle abgeleitet werden, um die Integrationslösung<br />

bereits vor der Inbetriebnahme zu testen.<br />

ZUSAMMENFASSUNG UND AUSBLICK<br />

Dieser Beitrag hat den Automation Service Bus (ASB)<br />

vorgestellt, einen offenen herstellerneutralen Ansatz zur<br />

Integration von Software-Werkzeugen. Die Vision des<br />

ASB ist die offene Integration von Daten und Funktionen<br />

aus Software-Werkzeugen, um Abläufe in Engineering-<br />

Projekten systematisch zu automatisieren. Wesentliche<br />

Eigenschaften des ASB sind die herstellerneutrale, offene<br />

Anbindung von Software-Werkzeugen an eine Integrationsplattform.<br />

Diese Plattform beschreibt die Datenmodelle<br />

der anzuschließenden Werkzeuge in expliziter<br />

Form <strong>mit</strong>hilfe von Ontologien, und ermöglicht dadurch<br />

einerseits die effiziente Konfiguration benötigter Modelltransformationen<br />

und andererseits die versionierte Speicherung<br />

von Werkzeugdaten. Gleichzeitig erlaubt der<br />

ASB die werkzeugunabhängige Definition von Arbeitsabläufen,<br />

die auch bei Austausch von konkreten Werkzeugversionen<br />

weitgehend stabil bleiben.<br />

Der ASB-Ansatz ermöglicht, vorhandene Engineering-<br />

Prozesse sichtbar und analysierbar zu machen und diese<br />

Prozesse nach dem Bedarf der Fachexperten zu automatisieren<br />

oder anzupassen. Der ASB-Ansatz wurde<br />

anhand realer Projekterfordernisse von Industriepartnern<br />

aus dem Bereich des industriellen Anlagenbaus<br />

konzipiert, iterativ verbessert und evaluiert. Die Erstellung<br />

von Konnektoren für Software-Werkzeuge durch<br />

die einschlägigen Experten ließ sich je nach Umfang der<br />

anzubindenden Daten und Funktionen in zwei bis zehn<br />

Tagen erledigen. Durch die Integration von Daten und<br />

Funktionen werden neue Funktionen auf Projektebene<br />

ermöglicht, etwa die Navigation zwischen Sichten auf<br />

ein mechatronisches Objekt in den unterschiedlichen<br />

Werkzeugen oder die Datenauswertungen auf Projektebe-<br />

REFERENZEN<br />

[1] Drath, R. und Barth, M.: Concept for interoperability between<br />

independent engineering tools of heterogeneous disciplines.<br />

In: Proceedings Emerging Technologies & Factory Automation<br />

(ETFA 2011), S. 1-8, 2011<br />

[2] Chappell, D.: Enterprise Service Bus - Theory in Practice.<br />

O’Reilly, 2004<br />

[3] Biffl, S. und Schatten, A.: A Platform for Service-Oriented<br />

Integration of Software Engineering Environments. In:<br />

Proceedings SoMeT 09, S. 75–92, 2009<br />

[4] Szyperski, C.: Component Software: Beyond Object-Oriented<br />

Programming. Addison-Wesley, 2002<br />

[5] Papazoglou, M.P. und Heuvel, W.-J.: Service oriented<br />

architectures: approaches, technologies and research<br />

issues. The VLDB Journal 16(3), S. 389 415, 2007<br />

[6] Sunindyo, W., Moser, T., Winkler, D., Mordinyi, R., Biffl, S.:<br />

Workflow Validation Framework in Distributed Engineering<br />

Environments. In: Proceedings 3rd International Workshop<br />

on Information Systems in Distributed Environment (ISDE'11),<br />

S. 1 10, 2011<br />

[7] Winkler, D., Moser, T., Mordinyi, R., Sunindyo, W.D., Biffl, S.:<br />

Engineering Object Change Management Process Observation<br />

in Distributed Automation Systems Projects. In: Proceedings<br />

18th European System & Software Process Improvement<br />

and Innovation, S. 1-12, 2011<br />

[8] Biffl, S., Mordinyi, R., Moser, T.: Automated Derivation of<br />

Configurations for the Integration of Software(+) Engineering<br />

Environments. In: Proceedings 1st International Workshop on<br />

Automated Configuration and Tailoring of Applications<br />

(ACoTA 2010), S. 6 13, 2010<br />

[9] Mordinyi, R., Moser, T., Biffl, S., Dhungana, D.: Flexible<br />

Support for Adaptable Software and Systems Engineering<br />

Processes. In: Proceedings 23rd International Conference on<br />

Software Engineering and Knowledge Engineering (SEKE<br />

2011), S. 1 5, 2011<br />

[10] Moser, T. und Biffl, S.: Semantic Integration of Software and<br />

Systems Engineering Environments. IEEE Transactions on<br />

Systems, Man, and Cybernetics, C-42(1), S. 38 50, 2012<br />

[11] Moser, T., Schimper, K., Mordinyi, R., Anjomshoaa, A.: SAMOA<br />

- A Semi-Automated Ontology Alignment Method for Systems<br />

Integration in Safety-Critical Environments. In: Proceedings<br />

International Conference on Complex, Intelligent and<br />

Software Intensive Systems, S. 724 729, 2009<br />

[12] Waltersdorfer, F., Moser, T., Zoitl, A., Biffl, S.: Version<br />

Management and Conflict Detection Across Heterogeneous<br />

Engineering Data Models. In: Proceedings 8th IEEE International<br />

Conference on Industrial Informatics (INDIN 2010), S.<br />

928 935, 2010<br />

[13] Moser, T., Mordinyi, R., Winkler, D., Biffl, S.: Engineering<br />

Project Management Using The Engineering Cockpit. In:<br />

Proceedings 9th IEEE International Conference on Industrial<br />

Informatics (INDIN'2011), S. 579 584, 2011<br />

[14] Mordinyi, R., Moser, T., Winkler, D., Biffl, S.: Navigating<br />

between Tools in Heterogeneous Automation Systems<br />

Engineering Landscapes. In: Proceedings 38th Annual<br />

Conference of the IEEE Industrial Electronics Society (IECON<br />

2012), S. 6182 6188, 2012<br />

[15] Moser, T., Mordinyi, R., Mikula, A., Biffl, S.: Making Expert<br />

Knowledge Explicit to Facilitate Tool Support for Integrating<br />

42<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


ne über heterogene Datenmodelle aus den verwendeten<br />

Software-Werkzeugen.<br />

Der ASB wurde seit 2010 <strong>mit</strong> Industriepartnern konzipiert<br />

und entwickelt. Aktuell laufen Evaluierungsprojekte<br />

<strong>mit</strong> mehreren Werkzeugpartnern und Anwendern aus dem<br />

Bereich Anlagenbau, deren Ergebnisse zum Teil bereits in<br />

realen Projekten eingesetzt werden. Eine Open-Source-<br />

Variante des ASB, durchläuft den Prozess Richtung Apache-Projekt.<br />

Gemeinsam <strong>mit</strong> dem Unternehmenspartner<br />

Logicals wird der ASB laufend verbessert, um die Konfiguration<br />

und Verwendung nicht nur für Softwareentwickler<br />

<strong>mit</strong> Kenntnis der Modellierungssprachen, sondern<br />

auch für Anwendungsexperten leicht zugänglich zu machen,<br />

und da<strong>mit</strong> die Entwicklungszeiten zu verkürzen.<br />

Die Entwicklung und Anwendung systematischer Ansätze<br />

zur offenen Integration von Daten (etwa AutomationML<br />

[22]) und Funktionen (etwa der Automation Service<br />

Bus) beschleunigen die Innovation von Software-<br />

Werkzeugen für das Engineering. Sie stärken durch<br />

Verbesserungen der Effizienz im Engineering die Wettbewerbsfähigkeit<br />

der europäischen Industrie.<br />

MANUSKRIPTEINGANG<br />

02.04.2012<br />

Im Peer-Review-Verfahren begutachtet<br />

Complex Information Systems in the ATM Domain. In:<br />

Proceedings International Conference on Complex, Intelligent<br />

and Software Intensive Systems(CISIS '09), S. 90 97, 2009<br />

[16] Moser, T., Mordinyi, R., Winkler, D.: Extending Mechatronic<br />

Objects for Automation Systems Engineering in Heterogeneous<br />

Engineering Environments. In: Proceedings 17th<br />

IEEE Conference on Emerging Technologies and Factory<br />

Automation (ETFA), S. 1-8, 2012<br />

[17] Biffl, S., Mordinyi, R., Schatten, A: A Model-Driven<br />

Architecture Approach Using Explicit Stakeholder Quality<br />

Requirement Models for Building Dependable Information<br />

Systems. In: Proceedings 5th International Workshop on<br />

Software Quality, Minneapolis, S. 6, 2007<br />

[18] Biffl, S., Mordinyi, R., Moser, T., Wahyudin, D.: Ontologysupported<br />

quality assurance for component-based<br />

systems configuration. In: Proceedings the 6th international<br />

Workshop on Software Quality (WoSQ), S. 59 64, 2008<br />

[19] Allweyer, T.: BPMN 2.0 Introduction to the Standard for<br />

Business Process Modeling. Books on Demand, 2010<br />

[20] Biffl, S., Mordinyi, R., Moser, T.: Anforderungsanalyse für<br />

das integrierte Engineering Mechanismen und Bedarfe<br />

aus der Praxis, <strong>atp</strong> <strong>edition</strong> – <strong>Automatisierung</strong>stechnische<br />

Praxis 54(5), S. 28 35, 2012<br />

[21] Biffl, S., Moser, T., Mordinyi, R.: Automation Service Bus<br />

löst Software-Problematik, Computer & AUTOMATION<br />

2012(6), S. 41-44, 2012<br />

[22] Drath, R.: Datenaustausch in der Anlagenplanung <strong>mit</strong><br />

AutomationML: Integration von CAEX, PLCopen XML und<br />

COLLADA. Springer, Berlin Heidelberg, 2010<br />

AUTOREN<br />

Ao. Univ. Prof. DI Mag. Dr.<br />

techn. STEFAN BIFFL (geb. 1967)<br />

ist Leiter des Christian Doppler<br />

Forschungslabors „Software<br />

Engineering Integration für<br />

flexible <strong>Automatisierung</strong>ssysteme“<br />

(CDL-Flex) an der Fakultät<br />

für Informatik der Technischen<br />

Universität Wien. Seine Forschungsinteressen<br />

liegen im Bereich der Produktund<br />

Prozessverbesserung für Software-intensive<br />

Systeme sowie der empirischen Evaluierung im<br />

industriellen Umfeld.<br />

Technische Universität Wien,<br />

Favoritenstr. 9-11/188, A-1040, Wien,<br />

Tel. +43 (0) 1 58 80 11 88 10,<br />

E-Mail: stefan.biffl@tuwien.ac.at<br />

DI Mag. Dr. techn. RICHARD<br />

MORDINYI (geb. 1979) ist Postdoc<br />

im Christian Doppler Forschungslabor<br />

„Software Engineering<br />

Integration für flexible <strong>Automatisierung</strong>ssysteme“<br />

(CDL-Flex)<br />

an der Fakultät für Informatik<br />

der Technischen Universität<br />

Wien. Seine Forschungsinteressen<br />

liegen im Bereich der Modell-getriebenen<br />

Konfiguration von Integrationsplattformen, Agiler<br />

Softwarearchitekturen und sicherer Koordinationsstrategien<br />

in komplexen verteilten Systemen.<br />

Technische Universität Wien,<br />

Favoritenstr. 9-11/188, A-1040, Wien,<br />

Tel. +43 (0) 1 588 01 18 80 51,<br />

E-Mail: richard.mordinyi@tuwien.ac.at<br />

Mag. Dr. rer. soc. oec. THOMAS<br />

MOSER (geb. 1981) ist Postdoc<br />

im Christian Doppler Forschungslabor<br />

„Software<br />

Engineering Integration für<br />

flexible <strong>Automatisierung</strong>ssysteme“<br />

(CDL-Flex) an der Fakultät<br />

für Informatik der Technischen<br />

Universität Wien. Seine Forschungsinteressen<br />

liegen im Bereich der Datenmodellierung<br />

und Datenintegration für Softwareintensive<br />

Systeme sowie im Bereich Semantic Web.<br />

Institut für Softwaretechnik und interaktive Systeme,<br />

Technische Universität Wien,<br />

Favoritenstr. 9-11/188, A-1040 Wien,<br />

Tel. +43 (0) 1 588 01 18 80 51,<br />

E-Mail: thomas.moser@tuwien.ac.at<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

43


HAUPTBEITRAG<br />

Feldgeräte und semantische<br />

Informationsmodelle<br />

Plug-and-play-Integration und dynamische Orchestrierung<br />

Programmierung und Rekonfiguration von Anlagensteuerungen sind <strong>mit</strong> sehr vielen manuellen<br />

Tätigkeiten verbunden und daher zeitaufwendig und fehleranfällig. Konkrete<br />

semantische Informationsmodelle und Middlewareparadigmen schaffen Abhilfe. Sie sind<br />

daher die Basis für automatisierte Vorgänge wie beispielsweise bei der Feldgeräteintegration<br />

oder der dynamischen Anpassung von Produktionsprozessen zur Laufzeit. Dieser<br />

Beitrag erläutert Arten der Wissensrepräsentation, diskutiert existierende Wissensquellen<br />

zum Aufbau von konkreten Informationsmodellen und weist Nutzenpotenziale auf.<br />

SCHLAGWÖRTER Feldgeräteprofil / Plug-and-play / Dynamische Orchestrierung /<br />

Informationsmodell<br />

Semantic information models for field device control –<br />

Plug-and-play integration and dynamic orchestration<br />

Programming and reconfiguration of control systems are combined with many manual<br />

operations and therefore timeconsuming and error prone. Specific semantic information<br />

models and middleware paradigms remedy and are the basis for automated procedures<br />

at field device integration or the dynamic adaption of production processes at runtime.<br />

This treatise explains different kinds of knowledge representation, discusses existing<br />

knowledge sources for the setup of specific information models and presents potential<br />

benefits.<br />

KEYWORDS field device profile / plug&play / dynamic orchestration / information model<br />

44<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


STEFAN HODEK, MATTHIAS LOSKYLL, JOCHEN SCHLICK,<br />

Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI)<br />

Heutige Produktionsanlagen bestehen aus einer<br />

Vielzahl unterschiedlicher Feldgeräte. Die Intelligenz<br />

der Feldgeräte erlaubt dezentrale und<br />

verteilte Steuerungskonzepte, was eine Interaktion<br />

zwischen Feldgeräten und Steuerungen<br />

über industrielle Kommunikationssysteme voraussetzt.<br />

Kernproblem bei der Realisierung ist die Integration der<br />

unterschiedlichen Feldgeräte zu einem Gesamtsystem.<br />

Zentraler Aspekt: die Feldgeräteansteuerung durch verschiedene<br />

Systeme. Beispiele für solche Systeme sind<br />

SPSen, Qualitätsleitrechner, Betriebsdatenerfassung,<br />

Auftragsverwaltung oder Liniensteuerung. Die Ansteuerung<br />

von Feldgeräten setzt bei der Systemintegration<br />

detaillierte Kenntnisse des Ingenieurs über die aktivierbaren<br />

Funktionalitäten voraus. Diese Kenntnisse bilden<br />

die Basis für das Programmieren von Steuerungen sowie<br />

für den elektronischen Datenaustausch und da<strong>mit</strong> für<br />

die horizontale und vertikale Integration.<br />

Die Aktivierung dieser Funktionen erfolgt meist<br />

durch Steuer- und Statuswörter, die <strong>mit</strong>hilfe von industriellen<br />

Kommunikationssystemen übertragen werden.<br />

Die Bedeutung der Wörter ist in der Dokumentation in<br />

Fließtext und Tabellen beschrieben und wird durch den<br />

Systementwickler nachgeschlagen und in Form von<br />

Programmcodes in die Steuerung implementiert. Die<br />

zu übertragenden Nutzdaten müssen daher manuell<br />

und explizit eingerichtet werden, was zu einem hohen<br />

Arbeitsaufwand führt. Die Qualität der Dokumentation<br />

und die Erfahrung des Ingenieurs sind maßgebend für<br />

den zeitlichen Arbeitsaufwand bei der Feldgeräteintegration.<br />

Die Integrationsphase ist da<strong>mit</strong> schwer abzuschätzen<br />

und eines der wesentlichen Hemmnisse für<br />

wandelbare Fabriken.<br />

Die Plug-and-play-Feldgeräteintegration intendiert<br />

die automatische Erkennung, Konfiguration und Integration<br />

von Feldgeräten in die Steuerungsprogramme<br />

von <strong>Automatisierung</strong>ssystemen während der Betriebsphase<br />

[1]. Neu angeschlossene Peripheriegeräte und<br />

deren Basisfunktionalitäten lassen sich ohne manuelle<br />

Arbeitsschritte nach dem elektromechanischen Einbringen<br />

sofort nutzen. Der Integrationsaufwand wird<br />

folglich auf nahezu Null reduziert. Die dynamische<br />

Orchestrierung [2] bildet eine konzeptionelle Weiterentwicklung<br />

des Plug-and-play-Gedankens und geht<br />

davon aus, dass abstrakt beschriebene Programmabläufe<br />

erst un<strong>mit</strong>telbar vor ihrer Ausführung, das heißt<br />

in der Lebenszyklusphase des produktiven Betriebs,<br />

auf die in der Anlage verfügbaren Geräte abgebildet<br />

werden. Der zur Fertigung eines bestimmten Produkts<br />

beziehungsweise einer Produktvariante benötigte konkrete<br />

(ausführbare) Prozessablauf wird also ad hoc gebildet,<br />

beispielweise in dem Moment, in dem ein Rohprodukt<br />

in die Anlage eingebracht wird. Da<strong>mit</strong> ein<br />

solches Plug-and-play und eine dynamische Orchestrierung<br />

realisierbar sind, muss der Datenaustausch auf<br />

einer semantisch beschriebenen Ebene beruhen [3].<br />

Grundvoraussetzung ist es, ein explizites semantisches<br />

Informationsmodell zur Beschreibung der Datensemantik<br />

zu verwenden.<br />

In diesem Beitrag werden drei Aspekte zur Charakterisierung<br />

von Informationsmodellen unterschieden –<br />

Grundkonzepte der Modellierung, Arten der Wissensrepräsentation<br />

und konkrete Instanzen von Informationsmodellen<br />

(siehe Bild 1). Modellierungsprinzipien oder<br />

Grundkonzepte sind Hierarchie, Aggregation, Variablen,<br />

Funktionen, Referenzierung, Klassen, Methoden, Vererbung<br />

und Datentypen [4]. Da der Zusammenhang zwischen<br />

Informationsmodellen und Modellierungsprinzipien<br />

<strong>mit</strong> Bezug zu existierenden Standards bereits in der<br />

genannten Veröffentlichung untersucht wurde, werden<br />

diese hier nicht weiter behandelt. Abschnitt 1 erläutert<br />

stattdessen verschiedene Arten der Wissensrepräsentation,<br />

welche unterschiedliche Grundkonzepte der Modellierung<br />

benutzen, und legt da<strong>mit</strong> einen Grundstein<br />

zur Bewertung existierender Standards und zur Weiterentwicklung<br />

von Programmierweisen bei <strong>Automatisierung</strong>ssystemen.<br />

Weiterhin liefern die Autoren einen Überblick und<br />

eine Bewertung bestehender Standards zur Beschreibung<br />

von Feldgerätefunktionalitäten (Abschnitt 2). Ziel<br />

ist es, die Erstellung von Instanzen bei der Modellierung<br />

von <strong>Automatisierung</strong>ssystemen durch Wiederver-<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

45


HAUPTBEITRAG<br />

GLOSSAR<br />

wendung exsistierender Standards zu erleichtern. Einsatzmöglichkeiten<br />

und Mehrwerte solcher Instanzen<br />

(explizite semantische Informationsmodelle) werden<br />

anhand der Plug-and-play-Feldgeräteintegration und<br />

der dynamischen Orchestrierung beschrieben (Abschnitt<br />

3). Erst diese einheitliche Abbildung des Datenund<br />

Informationsraums in Kombination <strong>mit</strong> einer Abstraktion<br />

der Kommunikation in Form einer Middleware<br />

[5] ermöglicht die postulierte Reduzierung des<br />

Engineeringaufwands, wie es die zwei genannten Anwendungen<br />

darstellen.<br />

1. ARTEN DER EXPLIZITEN WISSENSREPRÄSENTATION<br />

Konkrete semantische Informationsmodelle beschreiben<br />

explizites Wissen, wie beispielsweise konkrete Feldgerätefunktionalitäten,<br />

und werden <strong>mit</strong>tels einer ausgewählten<br />

Art der expliziten Wissensrepräsentation modelliert.<br />

Semantische Informationsmodelle machen es<br />

möglich, Daten formal zu beschreiben und so<strong>mit</strong> eine<br />

semantische Verarbeitung dieser Daten durch Maschinen<br />

zu gewährleisten, das heißt die Interpretation elektronisch<br />

gespeicherter Informationen hinsichtlich ihrer<br />

Inhalte und Bedeutung, zu gewährleisten. Der Bereich<br />

der expliziten Wissensrepräsentation umfasst die Modellierung<br />

des Wissens und die Definition formaler Logiken,<br />

welche Regeln bereitstellen, um Schlüsse über die<br />

modellierte Wissensbasis ziehen zu können. Die explizite<br />

Definition der Semantik komplexer Wissenszusammenhänge<br />

ermöglicht die eindeutige Interpretation der<br />

Bedeutung von Information durch Maschinen. Hierdurch<br />

lassen sich Inkonsistenzen und Widersprüche<br />

automatisiert erkennen. Des Weiteren bilden semantische<br />

Technologien die Grundlage für einen strukturierten<br />

Informationsaustausch zwischen heterogenen Systemen<br />

(semantische Interoperabilität). Der entscheidende<br />

Mehrwert semantischer Technologien besteht in der<br />

Möglichkeit, automatisiert Schlussfolgerungen (logische<br />

Konsequenzen) ziehen und aus explizit modelliertem<br />

Wissen neues implizites Wissen ableiten zu können.<br />

Es existieren verschiedene Konzepte zur expliziten<br />

Wissensrepräsentation, die sich in ihrer Ausdrucksstärke<br />

und semantischen Mächtigkeit unterscheiden [6], siehe<br />

Infokasten.<br />

Glossar: eine einfache Auflistung von Begriffen und deren Erklärung.<br />

Taxonomie: eine hierarchische, strukturierte Auflistung von Begriffen ohne<br />

komplexe Beziehungen zwischen diesen.<br />

Thesaurus: ähnlich der Taxonomie, erweitert um Relationen, die Ähnlichkeiten<br />

und Synonyme beschreiben.<br />

Topic Map: erweitert Thesauri um objektorientierte Prinzipien (Unterteilung<br />

in Klassen und Instanzen) und beliebige Relationstypen (zum Beispiel:<br />

istTeilVon oder nutztInterface).<br />

Ontologie: erweitert zuvor genannte Repräsentationsarten um logische<br />

Regeln, um ein komplexes Wissensnetzwerk zu bilden und automatisches<br />

Reasoning zu ermöglichen.<br />

Die semantisch reichhaltigste Form der expliziten Wissensrepräsentation<br />

stellen Ontologien dar. Als Ontologie<br />

wird eine explizite formale Spezifikation einer gemeinsamen<br />

Konzeptualisierung bezeichnet [7]. Das bedeutet,<br />

dass Ontologien einen bestimmten Wissensbereich <strong>mit</strong>hilfe<br />

einer standardisierten Terminologie sowie Beziehungen<br />

und Ableitungsregeln zwischen den dort definierten<br />

Begriffen beschreiben.<br />

Im Laufe der letzten Jahre wurden diverse standardisierte<br />

Beschreibungssprachen zur Abbildung semantischer<br />

Informationsmodelle entwickelt. Dabei hat sich die<br />

Web Ontology Language (OWL) als die durch das W3C<br />

empfohlene Ontologie-Beschreibungssprache durchgesetzt.<br />

OWL basiert auf RDF (Resource Description Framework)<br />

und auf einer Beschreibungslogik, die eine Untermenge<br />

der Prädikatenlogik erster Stufe darstellt. Jedes in<br />

OWL modellierte Objekt (Klasse, Instanz, Relation) wird<br />

<strong>mit</strong>tels eines Uniform Resource Identifiers der Ontologie<br />

und des entsprechenden Objektnamens identifiziert. Ein<br />

großer Vorteil von OWL ist die Möglichkeit, <strong>mit</strong>hilfe von<br />

Reasoning-Systemen Schlussfolgerungen auf Basis der<br />

Ontologie ziehen zu können. Diese erlauben beispielsweise<br />

die automatische Prüfung der Systeminteroperabilität<br />

sowie den Abgleich zwischen benötigten und angebotenen<br />

Feldgerätefunktionalitäten (Abschnitt 3).<br />

2. BESCHREIBUNG VON GERÄTEN UND FUNKTIONEN<br />

2.1 Typisierung von Standards<br />

Spezifische Informationen über die <strong>Automatisierung</strong>stechnik<br />

sind in unterschiedlichsten Standards hinterlegt. Beispiele<br />

dafür: Prozessbeschreibungen, Produktbeschreibungen,<br />

Klassifizierungssysteme, Merkmalleisten, Kommunikationsprotokolle,<br />

Gerätebeschreibungen und Feldgeräteprofile<br />

(siehe Bild 2). Im Folgenden werden diese<br />

erläutert und hinsichtlich ihres Informationsgehaltes über<br />

Feldgerätefunktionalitäten zur Wiederverwendung beim<br />

Erstellen von Modellinstanzen argumentativ bewertet.<br />

Die Prozessbeschreibungen in der VDI 2411 (Förderwesen)<br />

oder VDI 2860 (Handhabungstechnik) definieren Elementarfunktionen<br />

und Prozessschritte. Zur Realisierung<br />

dieser Elementarfunktionen ist oft ein Zusammenspiel<br />

mehrerer Feldgeräte notwendig. Diese Art von Standards<br />

eignet sich daher zur Beschreibung der Fähigkeiten komplexer<br />

mechatronischer Einheiten. Basisfunktionalitäten<br />

einzelner Feldgeräte lassen sich da<strong>mit</strong> nicht erklären.<br />

STEP (STandard for the Exchange of Product model<br />

data, ISO-Norm 10303) ist ein Standard zur Beschreibung<br />

von Produktdaten, der neben den physischen auch funktionale<br />

Aspekte eines Produktes erläutert. Sogenannte<br />

Anwendungsprotokolle (Application Protocols) geben<br />

die oberste Gliederung vor und decken unterschiedliche<br />

Industriezweige ab. Der Fokus von STEP liegt auf der<br />

Beschreibung von Dimensionen, mechanischen Eigenschaften,<br />

elektrischen Anschlüssen und Strukturen.<br />

Über Kommunikationsnetzwerke aufrufbare Funktionen<br />

sind darin nicht für einzelne Feldgeräteklassen in ausreichendem<br />

Maße beschrieben.<br />

Klassifizierungssysteme, wie ecl@ss und Unspsc für<br />

Produkte oder ETIM und IEC 61360-4 für elektrische<br />

46<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


Grundkonzepte der Modellierung<br />

Prozessbeschreibungen<br />

• Begriffe im Förderwesen (VDI 2411) und Handhabungstechnik (VDI 2860)<br />

Produktbeschreibungen<br />

• STEP (ISO 10303)<br />

Arten der Wissensrepräsentation<br />

Klassifizierungssysteme<br />

• eCl@ss, UNSPSC, ETIM, ICS, IEC 61360-4<br />

Merkmalleisten<br />

• Prolist (NE 100), Elektrische Komponenten (IEC 61360-4)<br />

Konkrete Instanzen von Informationsmodellen<br />

Kommunikationsprotokolle<br />

• Industrielle Kommunikationsnetze (DIN IEC61784-1), Manufacturing Message<br />

Specification (ISO 9506), Feldbusanwendungsprofile (DIN IEC 61158-500 u.600)<br />

Go<br />

6000<br />

3000<br />

10<br />

FB_MoveAbsolute<br />

Execute Done<br />

Position Active<br />

Velocity ErrorID<br />

Acceleration<br />

Finish<br />

Gerätebeschreibungssprachen<br />

• GSD, EDD, FDT/DTM, FDI, EDS, FDCML, XIF<br />

Feldgeräteprofile<br />

• Siehe Bild 3<br />

BILD 1: Aspekte zur Charakterisierung<br />

von Infomationsmodellen<br />

BILD 2: Übersicht zu Typen von Standards<br />

<strong>mit</strong> Beispielen<br />

Produkte, sind planmäßige Sammlungen von abstrakten<br />

Typen oder Kategorien, die zur Abgrenzung und Ordnung<br />

verwendet werden. Objekte werden anhand von<br />

Merkmalen einzelnen Kategorien zugeordnet und dadurch<br />

hierarchisiert. Zu den Typen gehörende Funktionen<br />

oder Methoden sind nicht standardisiert. Bei den in<br />

dieser Abhandlung dargestellten Anwendungen (siehe<br />

Abschnitt 3) unterstützen sie daher lediglich die Einteilung<br />

von Feldgeräten im Vorfeld der Modellierung, jedoch<br />

nicht den Aufbau aufrufbarer Schnittstellen.<br />

Merkmalleisten weisen eine große Ähnlichkeit zu<br />

Klassifizierungssystemen auf, jedoch steht bei ihnen<br />

nicht die Klassifizierung von Produktspektren, sondern<br />

die Standardisierung von Produktmerkmalen im Vordergrund.<br />

Prolist (Namur-Empfehlung NE 100) stellt eine<br />

solche Merkmalleiste für Produkte und Systeme aus dem<br />

Bereich der Prozessleittechnik (Elektro- und MSR-Technik)<br />

dar. Die Merkmale umfassen keine Beschreibung<br />

der aufrufbaren Feldgerätefunktionen.<br />

Kommunikationsprotokolle, auch Kommunikationsprofile<br />

oder Feldbusprofile genannt, sind Vereinbarungen,<br />

nach denen die Datenübertragung zwischen zwei<br />

oder mehreren Parteien abläuft. Diese beschreiben nicht<br />

die anwendungsbezogenen Fähigkeiten der Kommunikationspartner,<br />

sondern deren Fähigkeiten zur Kommunikation.<br />

Beispiele sind DIN IEC 61158-500&600 (Feldbusanwendungsprofile),<br />

DIN IEC 61784-1 (Industrielle<br />

Kommunikationsnetze – Feldbusprofile) oder ISO 9506<br />

(Manufacturing Message Specification).<br />

Gerätebeschreibungen (beispielsweise GSD, EDD, EDS,<br />

FDCML, XIF) und Integrationskonzepte (FDT/DTM, FDI)<br />

machen Informationen und Funktionen von Feldgeräten<br />

zugänglich und erlauben so<strong>mit</strong> das Bedienen, Ansteuern<br />

und Parametrieren von Feldgeräten über ein Kommunikationssystem.<br />

Feldgeräteparameter und -funktionen<br />

sind zwar in einer formalen Sprache beschrieben, jedoch<br />

herstellerindividuell festgelegt. Anwendungsbezogene<br />

Semantik ist daher nicht standardisiert.<br />

Zusammenfassung: Die Typisierung und Bewertung<br />

unterschiedlichster Standards hinsichtlich ihrer Eignung<br />

als Wissensquellen zum Aufbau von semantischen<br />

Informationsmodellen für die Plug-and-play-Feldgeräteintegration<br />

und die dynamische Orchestrierung hat<br />

ergeben, dass bestehende Richtlinien (beispielsweise<br />

die VDI 2411 und VDI 2860) Elementarfunktionen von<br />

komplexen mechatronischen Einheiten vorgeben können.<br />

Die Fähigkeiten einzelner Feldgeräte sind zwar<br />

computerlesbar in Gerätebeschreibungssprachen enthalten,<br />

jedoch ist die Semantik der Feldgerätefunktionen<br />

nicht geräteklassenübergreifend standardisiert. Klassifizierungssysteme<br />

und Merkmalleisten stellen dagegen<br />

eine wichtige Grundlage zur Einordnung und Abgrenzung<br />

im Vorfeld der Modellierung dar. Kommunikationsprotokolle<br />

und Produktbeschreibungen liefern den<br />

für die hier definierte Zielsetzung geringsten wiederverwendbaren<br />

Informationsgehalt.<br />

2.2 Feldgeräteprofile als Basis für Instanzen<br />

Aufgrund der fehlenden Anwendungssemantik eignen<br />

sich die zuvor genannten Standards nur eingeschränkt<br />

für den Aufbau konkreter semantischer Informationsmodelle<br />

zur Beschreibung der Feldgeräteansteuerung.<br />

Eine weiterführende Analyse hat ergeben, dass die benötigte<br />

Information primär in Feldgeräteprofilen enthal-<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

47


HAUPTBEITRAG<br />

ten ist. Beispiele für Feldgeräteprofile und deren zugehörige<br />

Anwendungsgebiete zeigt Tabelle 1.<br />

Zu unterscheiden sind Sammlungen von Feldgeräteprofilen<br />

(beispielsweise CiA device profile, CIP oder spezielle<br />

Applikationsprofile der PNO), die für spezielle<br />

Kommunikationssysteme definiert sind und solche für<br />

einzelne Gerätetypen. Zur Verdeutlichung des in Feldgeräteprofilen<br />

enthaltenen Wissens werden einige Antriebsprofile<br />

nachfolgend vorgestellt:<br />

Das CiA 402 drives and motion control device profile<br />

beschreibt auf 274 Seiten allgemeine Definitionen, Betriebszustände,<br />

Anwendungsdaten, Operation Modes zur<br />

Abbildung verschiedener Betriebsarten sowie anwendungsunabhängige<br />

Parameter (Metadaten) wie Motortyp,<br />

Katalognummer, Hersteller und Fehlercodes.<br />

Das CIP Volume 1 enthält auf zwölf der insgesamt 1494<br />

Seiten ein Profil für AC- und DC-Antriebe, welches optionale<br />

und vorgeschriebene Objekte von Antrieben vorgibt,<br />

zugehörige Parameter festlegt und auf Wertebereiche<br />

referenziert.<br />

Das Profidrive-Profil der PNO (Zeile drei in Tabelle 1)<br />

definiert auf 287 Seiten Betriebsmodi, Gerätezustände,<br />

Datentypen, funktionale Objekte, Anwendungsszenarien,<br />

Kommunikationsbeziehungen, Kommunikationsdienste<br />

sowie Abbildungsvorschriften der Kommunikationssysteme<br />

Profibus und Profinet.<br />

PLCopen Motion Control definiert auf 141 Seiten Funktionsblöcke<br />

für die Antriebssteuerung. Ein Zustandsdiagramm<br />

erklärt, in welchem Zustand welche Funktionen<br />

möglich sind.<br />

Zusammenfassende Bewertung: Kerninhalt von Feldgeräteprofilen<br />

ist die Definition von Parametern, Funktionen<br />

und Verhalten von Feldgeräteklassen. Dabei sind jedoch<br />

erhebliche Unterschiede in Bezug auf die zugrunde liegenden<br />

Modellierungskonzepte, die Art der Wissensrepräsentation<br />

sowie den Grad und Umfang der standardisierten<br />

Inhalte die Regel. Die Art der Wissensrepräsentation bei<br />

Feldgeräteprofilen folgt meist dem Steuer-/Statuswort-Paradigma,<br />

das heißt, unterschiedliche Funktionen werden<br />

auf Bitstreams abgebildet. Ein direktes und intuitives Ablesen<br />

von Funktionen oder Parametern aus dem Profil wird<br />

dadurch erschwert. Zur Reduzierung des Engineeringaufwands<br />

ist die Anhebung der Abstraktionsebene auf eine<br />

funktionsorientierte, taxonomieähnliche Wissensrepräsentation<br />

notwendig. Durch Abbildung der Beziehungen zwischen<br />

den einzelnen Funktionen und Parametern, beispielsweise<br />

<strong>mit</strong>hilfe von Ontologien, kann darüber hinaus<br />

die Semantik der Daten dem Computer verständlich gemacht<br />

werden, was so<strong>mit</strong> neue Wege des computergestützten<br />

Engineerings eröffnet. Trotz ihrer Unterschiede enthalten<br />

Feldgeräteprofile einen hohen Anteil anwendungsbezogener<br />

Semantik, wodurch die Basis für Anwendungsfälle<br />

wie die Plug-and-play-Feldgeräteintegration oder die<br />

dynamische Prozessorchestrierung vorhanden ist.<br />

2.3 Ontologiebasierte Informationsmodelle<br />

Neben der Möglichkeit, bestehende Standards zur Erstellung<br />

konkreter Instanzen von semantischen Informationsmodellen<br />

zu nutzen, bietet sich die Wiederverwendung<br />

existierender Ontologien an. Trotz des steigenden Interesses<br />

an der semantischen Modellierung im Bereich der <strong>Automatisierung</strong>stechnik,<br />

siehe [8] und [9], existieren nur<br />

wenige wiederverwendbare und frei verfügbare Ontologien.<br />

Dieses Defizit ist insbesondere auf die aufwendige und<br />

komplexe Modellierung von Ontologien zurückzuführen.<br />

Neben der fehlenden Unterstützung durch intuitive Modellierungswerkzeuge,<br />

die auch von Nicht-Experten genutzt<br />

werden können, mangelt es insbesondere an Möglichkeiten<br />

zur effizienten Wissensakquisition. Diese umfasst<br />

die Identifizierung geeigneter Wissensquellen sowie<br />

die Extraktion des enthaltenen Wissens als Grundlage zur<br />

Erstellung semantischer Informationsmodelle. Der in diesem<br />

Beitrag verfolgte Lösungsansatz besteht in der Nutzung<br />

existierender Standards (Abschnitt 2.1), um einerseits<br />

den Wissensakquisitionsprozess effizienter zu gestalten<br />

und andererseits eine breite Akzeptanz der erstellten<br />

Informationsmodelle zu erreichen.<br />

Bei der Untersuchung existierender wiederverwendbarer<br />

Ontologien wird deutlich, dass es sich dabei meist<br />

um Ontologien handelt, die domänenunabhängiges Allgemeinwissen<br />

definieren (zum Beispiel Sumo, Cyc). Mit<br />

Mason, Adacor und Avilus existieren jedoch auch produktionsspezifische<br />

Ontologien, die grundlegende Terminologien<br />

und Begriffszusammenhänge darstellen,<br />

beispielsweise über Produkte, Produktions<strong>mit</strong>tel und<br />

Funktionen. Diese Ontologien bilden durch die Festlegung<br />

einer anwendungsübergreifenden Terminologie<br />

eine wichtige Grundlage, um eine semantische Interoperabilität<br />

zwischen heterogenen Systemen zu gewährleisten.<br />

Es mangelt jedoch weiterhin an konkreten, formal<br />

definierten Domänenontologien zur Abbildung<br />

verschiedener Terminologien von Feldgerätefunktionalitäten<br />

wie sie sich beispielsweise aus Feldgeräteprofilen<br />

und Richtlinien extrahieren lassen.<br />

3. ANWENDUNGSFÄLLE<br />

3.1 Plug-and-play-Feldgeräteintegration<br />

Die Inbetriebnahme und Integration von Feldgeräten<br />

lässt sich in den mechanischen Einbau inklusive Verkabelung<br />

(I), die Einzelinbetriebnahme der Feldgeräte (II),<br />

die Konfiguration der Kommunikationsverbindung (III),<br />

die Programmierung der SPS (IV) und den Test des Gesamtprogramms<br />

(V) gliedern. Durch die Plug-and-play-<br />

Feldgeräteintegration lassen sich die Schritte II und III<br />

sowie große Teile des Schrittes IV automatisieren. Dazu<br />

sind abstrakte Programmierschnittstellen, selbstkonfigurierende<br />

Kommunikationssysteme sowie laufzeitadaptierbare<br />

SPS-Programme nötig. Abstrakte Programmierschnittstellen<br />

stellen aufrufbare Funktionen für<br />

einzelne Feldgeräteklassen zur Verfügung. Dadurch<br />

muss das später zu verwendende Feldgerät zum Zeitpunkt<br />

der Programmentwicklung nicht bekannt sein.<br />

Ein Gerätetausch zur Betriebszeit erfordert darüber hinaus<br />

eine um spezielle Softwaremodule erweiterte SPS.<br />

Neben einem Gerätemanager, der unter anderem die<br />

Konfigurationssätze aller benötigten Feldgeräte vorhält,<br />

muss das den Produktionsprozess beschreibende SPS-<br />

Programm auf Basis abstrakt definierter Programmierschnittstellen<br />

erstellt sein. Letztere sind ein Beispiel für<br />

48<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


konkrete semantische Informationsmodelle. Bei bekannter<br />

Geräteposition kann eine SPS dadurch einen<br />

Abgleich zwischen der weggefallenen und der neu hinzugefügten<br />

Gerätefunktionalität vornehmen und so ein<br />

Ersatzgerät automatisch einbinden. Weitere Details eines<br />

ersten Konzeptdemonstrators können [1] entnommen<br />

werden. Dieser ist Teil der Versuchsanlage der<br />

Technologie-Initiative Smartfactory kl e.V. (Bild 3).<br />

3.2 Dynamische Orchestrierung von Produktionsprozessen<br />

Der Ansatz der dynamischen Orchestrierung baut auf<br />

Ideen zur digitalen Veredelung von Anlagenkomponenten<br />

auf, bei der die mechatronischen Funktionalitäten<br />

von Feldgeräten einer Anlage, beispielsweise dem Paradigma<br />

der Serviceorientierung folgend, zusammen<br />

<strong>mit</strong> der ausführenden Hardware gekapselt werden. Eine<br />

Implementierung dieses Ansatzes erfolgt oft <strong>mit</strong>hilfe<br />

von Webservices, also über Internetprotokolle aufrufbare,<br />

abgeschlossene Anwendungen, deren Schnittstellen<br />

<strong>mit</strong> standardisierten Beschreibungssprachen definiert<br />

werden. Die so<strong>mit</strong> durch Webservices bereitgestellten<br />

Funktionalitäten von Feldgeräten lassen sich<br />

zu höherwertigen Prozessen kombinieren und zur Anlagensteuerung<br />

nutzen.<br />

Eine dynamische Orchestrierung ist auf Basis heutiger<br />

Standardtechnologien (zum Beispiel WSDL, BPEL) jedoch<br />

kaum möglich, da diese auf syntaktischer Ebene arbeiten.<br />

Die Bedeutung der hinter einer Webservice-Definition<br />

Name Anwendungsgebiet Ersteller Implementierung<br />

CiA device profile<br />

Diverse Geräte der<br />

<strong>Automatisierung</strong>stechnik<br />

CAN in Automation<br />

CAN, Canopen,<br />

Ethercat, Powerlink<br />

Common Industrial<br />

Protocol<br />

Diverse Geräte der<br />

<strong>Automatisierung</strong>stechnik<br />

Open DeviceNet Vendor<br />

Association (ODVA)<br />

Componet, Controlnet,<br />

Devicenet, Ethernet/IP<br />

Spezifische<br />

Applikationsprofile<br />

Diverse Geräte der<br />

<strong>Automatisierung</strong>stechnik<br />

Profibus Profinet Nutzerorganisation<br />

(PNO)<br />

Profibus, Profinet<br />

Controller-to-<br />

Controller Profile<br />

DIN EN 61800-7-1/-20x/<br />

-30x: Antriebsprofile<br />

Antriebe Sercos international e.V. Ethercat, Sercos<br />

Antriebe<br />

Deutsches Institut für Normung<br />

CiA, CIP, Profidrive,<br />

Sercos<br />

DriveCom Profile Antriebe DriveCom User Group e.V. Interbus<br />

PLCopen Motion Control<br />

Function Blocks<br />

Antriebe PLCopen organization in SPSen<br />

OPC UA ADI (Analyzer<br />

Device Interface)<br />

Mess- & Analysegeräte der<br />

Verfahrenstechnik<br />

OPC Foundation<br />

OPC UA<br />

PackML: Packaging<br />

Machine Language V3.0<br />

Verpackungsmaschinen<br />

Organization for Machine Automation<br />

and Control (OMAC)<br />

continuous flow process<br />

colored soap production<br />

discret handling process<br />

bottling, handling, labeling, QC, packaging...<br />

TABELLE 1: Auswahl von<br />

Feldgeräteprofilen in der<br />

<strong>Automatisierung</strong>stechnik<br />

BILD 3:<br />

Die Versuchsanlage<br />

Smart Factory<br />

Kaiserslautern<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

49


HAUPTBEITRAG<br />

BILD 4:<br />

Ausschnitt einer Ontologie<br />

zur Beschreibung von<br />

Feldgerätefunktionalitäten<br />

liegenden Funktionalität wird durch Maschinen also<br />

nicht verstanden. Durch die semantische Annotation von<br />

Webservices kann die zur Verfügung gestellte Funktionalität<br />

in einer maschinenverständlichen Art und Weise<br />

beschrieben werden, wodurch beispielsweise Webservices<br />

<strong>mit</strong> gleicher oder ähnlicher syntaktischer Beschreibung<br />

hinsichtlich der Semantik ihrer Schnittstellen- und<br />

Funktionsbeschreibungen unterschieden werden können.<br />

Des Weiteren wird es möglich, <strong>mit</strong>tels Reasoning-<br />

Prozessen, basierend auf der semantischen Beschreibung,<br />

einen automatischen Abgleich und eine entsprechende<br />

Selektion geeigneter Funktionalitäten umzusetzen.<br />

Grundgedanke des realisierten Anwendungsfalls ist<br />

die Orchestrierung von Produktionsprozessen ausgehend<br />

von einer abstrakten Prozess- und Produktbeschreibung<br />

abhängig vom konkreten Aufbau der Produktionsanlage<br />

und der von den Feldgeräten angebotenen Funktionalitäten.<br />

Zudem können Produktionsprozesse dynamisch sogar<br />

zur Laufzeit an vorkommende Ereignisse (zum Beispiel<br />

Ausfall eines Feldgeräts) angepasst werden, indem<br />

ähnliche Funktionalitäten anderer Feldgeräte gefunden<br />

und in den Prozess eingebunden werden.<br />

Der beschriebene Anwendungsfall einer dynamischen<br />

Orchestrierung entstand im Rahmen der Smart Factory<br />

Kaiserslautern. Dazu wurden verschiedene Feldgeräte der<br />

Anlage <strong>mit</strong> Mikrokontrollern ausgestattet, über die die<br />

Funktionalitäten der Feldgeräte als Webservices im Netzwerk<br />

der Anlage angeboten und durch ein Orchestrierungsprogramm<br />

von einem zentralen PC aufgerufen werden<br />

[10]. Das Orchestrierungsprogramm er<strong>mit</strong>telt, ausgehend<br />

von der abstrakten Prozessbeschreibung des zu<br />

fertigenden Produkts, welche Webservices in der vorliegenden<br />

Anlage aktuell verfügbar sind und wie diese orchestriert<br />

werden müssen, um den gewünschten Prozess<br />

zu realisieren. Dabei findet ein semantischer Abgleich der<br />

benötigten und vorhandenen Funktionalitäten statt. Die<br />

semantische Beschreibung der Webservices erfolgt durch<br />

Annotation <strong>mit</strong> den Konzepten verschiedener OWL-Ontologien,<br />

die beispielsweise Feldgerätefunktionalitäten,<br />

Geräteklassen sowie Anlagenstrukturen beinhalten.<br />

Bild 4 zeigt einen Ausschnitt einer Ontologie zur semantischen<br />

Beschreibung von Feldgerätefunktionalitäten.<br />

Neben den zur Annotation genutzten Instanzen von Funktionalitäten<br />

(zum Beispiel Write, Hold) werden aktuell im<br />

System vorhandene Webservices durch Instanzen repräsentiert<br />

(zum Beispiel Camera_Keyence_CA900011).<br />

REFERENZEN<br />

[1] Hodek, S. und Schlick, S.: Plug&Play Feldgeräteintegration<br />

– Methoden, Softwarekonzepte und technische Realisierungsformen<br />

für eine ad hoc Feldgeräteintegration. In:<br />

Tagungsband Automation, S. 63-66, VDI, 2012<br />

[2] Loskyll, M., Heck, I., Schlick, J., Schwarz, M.: Contextbased<br />

Orchestration for Control of Resource-efficient<br />

Manufacturing Processes. Future Internet 4(3), 737-761,<br />

2012<br />

[3] Zühlke, D.: SmartFactory – Towards a factory-of-things,<br />

IFAC journal Annual reviews in control 34(1), 129 138, 2010<br />

[4] Mahnke, W., Gössling, A., Urbas, L.: Informationsmodellierung<br />

für Middleware in der <strong>Automatisierung</strong>. In: Tagungsband<br />

Automation, S. 119-124, VDI, 2011<br />

[5] VDI/VDE 2657: Middleware in der <strong>Automatisierung</strong>stechnik,<br />

Dezember 2010<br />

[6] Blumauer, A. und Pellegrini, T.: Semantic Web und<br />

semantische Technologien: Zentrale Begriffe und<br />

Unterscheidungen. In: T. Pellegrini und A. Blumauer (Hrsg.)<br />

50<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


FAZIT<br />

Die Realisierung eines Plug-and-play erfordert die Existenz<br />

einer Schnittstelle, die es zur Betriebszeit erlaubt, den Funktionsaufruf<br />

im SPS-Programm einer zur Entwurfszeit unbekannten<br />

Feldgerätefunktionalität zuzuordnen. Ein semantisches<br />

Informationsmodell, welches die Funktionalitäten<br />

der Feldgeräte beschreibt, gewährleistet die Interoperabilität<br />

dieser Schnittstelle. Die dynamische Orchestrierung basiert<br />

auf dem semantischen Vergleich von Eigenschaften von<br />

Feldgerätefunktionalitäten zur Laufzeit. Kern dieses Beitrags<br />

ist die Untersuchung existierender Standards zur Wissensextraktion<br />

bei der Instanziierung dieser semantischen Informationsmodelle.<br />

Das Ergebnis: Vor allem Feldgeräteprofile<br />

stellen eine grundlegende Wissensquelle dar, da hier<br />

bereits herstellerübergreifend einzelne Funktionalitäten von<br />

Feldgeräteklassen genormt sind. Diese Vereinheitlichung<br />

basiert jedoch meist auf Bit/Byte-Ebene und einer Prosa-<br />

Beschreibung der Funktionalität, was eine manuelle Formalisierung<br />

notwendig macht. Spezifische semantische Informationsmodelle<br />

und Middleware-Paradigmen sind da<strong>mit</strong><br />

Grundlage dafür, den Integrationsaufwand erheblich zu<br />

reduzieren und so<strong>mit</strong> den Weg zur flexiblen und wandelbaren<br />

Fabrik zu ebnen.<br />

MANUSKRIPTEINGANG<br />

01.07.2012<br />

DANKSAGUNG<br />

Im Peer-Review-Verfahren begutachtet<br />

Die hier beschriebenen Arbeiten wurden teilweise <strong>mit</strong><br />

Mitteln des Bundesministeriums für Bildung und<br />

Forschung unter dem Förderkennzeichen 01IA11001<br />

(Projekt RES-COM) gefördert. Die Verantwortung für<br />

den Inhalt dieser Veröffentlichung liegt bei den Autoren<br />

AUTOREN<br />

Dipl-Ing. STEFAN HODEK<br />

(geb. 1981) studierte<br />

Elektrotechnik an der TU<br />

Kaiserslautern. Seit 2008 ist<br />

er Researcher am DFKI und<br />

Mitglied im VDI Fachausschuss<br />

für Middleware.<br />

Seine Forschungstätigkeiten<br />

liegen im Bereich von<br />

Steuerungs- und Kommunikationssystemen im<br />

Allgemeinen und in der Feldgeräteintegration<br />

im Speziellen.<br />

Deutsches Forschungszentrum<br />

für Künstliche Intelligenz,<br />

Trippstadter Str. 122, D-67663 Kaiserslautern,<br />

Tel. +49 (0) 631 205 75 34 07,<br />

E-Mail: stefan.hodek@dfki.de<br />

M.Sc. MATTHIAS LOSKYLL<br />

(geb. 1984) studierte Informatik<br />

an der Universität des<br />

Saarlandes. Seit 2009 ist er<br />

als Researcher am DFKI im<br />

Forschungsbereich „Innovative<br />

Fabriksysteme“ tätig.<br />

Seine Forschungsaktivitäten<br />

beschäftigen sich hauptsächlich<br />

<strong>mit</strong> der Anwendung semantischer Technologien<br />

in der <strong>Automatisierung</strong>stechnik.<br />

Deutsches Forschungszentrum<br />

für Künstliche Intelligenz,<br />

Trippstadter Str. 122, D-67663 Kaiserslautern,<br />

Tel. +49 (0) 631 205 75 52 85,<br />

E-Mail: matthias.loskyll@dfki.de.<br />

Semantic Web. Wege zur Wissensgesellschaft,<br />

S. 9-25. Springer, 2006<br />

[7] Gruber, T.: A Translation Approach to Portable Ontology<br />

Specifications. Knowledge Acquisition 5(2), 199-220, 1993<br />

[8] Wollschlaeger, M., Runde, S., Brauen, A., Mühlhause, M.,<br />

Drumm, O., Thomalla, C., Sabov, A., Lindemann, L.:<br />

Semantische Integration im Lebenszyklus der Automation.<br />

In: Tagungsband Automation, S. 169-170. VDI, 2009<br />

[9] Runde, S., Dibowski, H., Fay, A., Kabitzsch, K.: A semantic<br />

requirement ontology for the engineering of building<br />

automation systems by means of OWL. In: Proceedings<br />

14th IEEE International Conference on Emerging Technologies<br />

and Factory Automation (ETFA’09), S. 1-8, 2009<br />

[10] Loskyll, M., Schlick, S., Hodek, S., Ollinger, L., Gerber, T.,<br />

Pîrvu, B.: Semantic Service Discovery and Orchestration<br />

for Manufacturing Processes. In: Proceedings 16th IEEE<br />

International Conference on Emerging Technologies and<br />

Factory Automation (ETFA’11), S. 1-8, 2011<br />

Dr.-Ing. JOCHEN SCHLICK<br />

(geb. 1974) promovierte<br />

2005 an der TU Kaiserslautern<br />

im Bereich von kognitiven<br />

Mikromontagesystemen.<br />

Nach einer mehrjährigen<br />

Tätigkeit in der strategischen<br />

Produktionsoptimierung<br />

bei Bosch kehrte er<br />

2009 als stellvertretender Forschungsbereichsleiter<br />

für innovative Fabriksysteme in die<br />

Forschung zurück.<br />

Deutsches Forschungszentrum<br />

für Künstliche Intelligenz,<br />

Trippstadter Str. 122, D-67663 Kaiserslautern,<br />

Tel. +49 (0) 631 205 75 34 05,<br />

E-Mail: jochen.schlick@dfki.de<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

51


HAUPTBEITRAG<br />

<strong>Automatisierung</strong> <strong>mit</strong> <strong>FASA</strong><br />

Eine Architektur für flexible, verteilte Systeme<br />

Multicore-Prozessoren werden vermehrt in der <strong>Automatisierung</strong>stechnik eingesetzt. Dies<br />

erzeugt neue Herausforderungen für die Softwareentwicklung: Einerseits soll die vorhandene<br />

Hardware optimal ausgenutzt, andererseits müssen strenge Echtzeitanforderungen<br />

auch von paralleler Software erfüllt werden, und die Systeme sollen flexibel bleiben, um<br />

zeitnah auf Änderungen der Systemanforderungen reagieren zu können. Der Beitrag befasst<br />

sich <strong>mit</strong> Fasa (Future Automation System Architecture), einer komponentenbasierten<br />

Architektur und Ausführungsumgebung für modulare, verteilte und dynamische <strong>Automatisierung</strong>ssysteme<br />

<strong>mit</strong> Multicore-Prozessoren. Die Architektur vereinfacht die deterministische<br />

verteilte Ausführung von Applikationen. Fasa bietet Features wie softwarebasierte<br />

Fehlertoleranz und Softwareupdates zur Laufzeit als einfach zu nutzende Dienste<br />

für den Anwendungsentwickler.<br />

SCHLAGWÖRTER Verteilte Systeme / Multicore / Modularität / Fehlertoleranz<br />

Flexible distributed automation systems with <strong>FASA</strong> –<br />

A software architecture for parallel real-time systems<br />

The advent of multicore CPUs in automation raises some challenges for software engineering.<br />

On the one hand, existing hardware should be optimally used. On the other hand,<br />

strict real-time requirements must be satisfied by parallel software. At the same time,<br />

systems should remain flexible to be able to react quickly to changing system requirements.<br />

Fasa is a component-based architecture and execution environment for modular, dynamic<br />

automation systems with multicore CPUs and distributed execution. Fasa simplifies the<br />

deterministic distributed execution of applications and offers novel features such as<br />

software-based fault tolerance and software updates during runtime as transparent and<br />

easy-to-use services for application developers.<br />

KEYWORDS distributed systems / multicore / modularity / fault tolerance<br />

52<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


MICHAEL WAHLER, THOMAS GAMER, MANUEL ORIOL, ATUL KUMAR, MARTIN NAEDELE,<br />

ABB Corporate Research, Industrial Software Systems<br />

Die Zeit des Free Lunch [3] ist leider vorbei, in<br />

der regelmäßig immer schnellere Prozessoren<br />

entwickelt wurden, auf denen herkömmliche<br />

sequenzielle Software immer schneller lief.<br />

Performancegewinne werden in Zukunft nur<br />

<strong>mit</strong> einer größeren Anzahl von CPU-Cores erzielt. Sequenzielle<br />

Software aber läuft auf mehreren Cores nicht<br />

schneller. Von Multicore-Prozessoren kann nur profitieren,<br />

wer Software parallelisiert. Das ist jedoch nicht<br />

einfach, da parallele Software die Synchronisierung von<br />

parallelen Threads erfordert, was in der Praxis zu fehlerhaften<br />

Abläufen (race conditions) oder zum Stillstand<br />

des Systems (deadlocks) führen kann. Als wäre das nicht<br />

genug, müssen Softwareentwickler die immer komplexeren<br />

CPU-Architekturen berücksichtigen, in denen es<br />

mehrere Cache-Levels gibt und manche Caches von mehreren<br />

Cores gemeinsam benutzt werden.<br />

Diese Probleme werden <strong>mit</strong> der zukünftigen Hardwareentwicklung<br />

sogar noch zunehmen. Während es<br />

relativ einfach ist, die eigene Software an Dual-Core-<br />

Prozessoren anzupassen, ist es ungleich schwieriger,<br />

Software für 16, 48 oder 100 Cores zu skalieren. Daher<br />

muss schon während der Entwicklung einer Ausführungsumgebung<br />

und deren Softwarearchitektur darauf<br />

geachtet werden, dass potenziell eine große Anzahl an<br />

Ausführungsressourcen (CPUs in einem Multi-CPU-<br />

System oder Cores in einer Multicore-CPU) zur Verfügung<br />

steht.<br />

In diesem Beitrag stellen die Autoren Fasa (Future<br />

Automation System Architecture) vor, eine Softwarearchitektur<br />

und Ausführungsumgebung für zukünftige<br />

<strong>Automatisierung</strong>ssysteme <strong>mit</strong> Multicore-Prozessoren<br />

und verteilter Ausführung. Fasa kombiniert<br />

eine flexible Erstellung und Verteilung von Anwendungen<br />

<strong>mit</strong> streng statischer, deterministischer Ausführung.<br />

Dabei bietet Fasa dem Anwendungsentwickler<br />

vollständige Transparenz bezüglich des Ausführungsortes:<br />

Je nach Systemkonfiguration lässt sich die gleiche<br />

Anwendung auf einem CPU-Core, auf mehreren Cores<br />

der gleichen CPU, oder auf mehreren CPUs verteilt über<br />

mehrere Rechnerknoten (Controller) ausführen. Hierfür<br />

wird beim Deployment ein Schedule errechnet, der die<br />

zeitlichen Anforderungen der Anwendungen, Abhängigkeiten<br />

zwischen Komponenten und Latenzen der<br />

Kommunikationsmechanismen berücksichtigt. Darüber<br />

hinaus bietet Fasa neuartige Features wie softwarebasierte<br />

Fehlertoleranz und unterbrechungsfreie<br />

Softwareupdates zur Laufzeit, die für den Anwendungsentwickler<br />

transparent sind.<br />

Bild 1 zeigt die grundlegende Architektur von Fasa.<br />

Auf Hardwareseite gibt es eine beliebige Anzahl von<br />

Prozessoren, die über einen Echtzeit-Bus kommunizieren<br />

können. Das Fasa-Runtime-Framework bietet eine<br />

Abstraktion der Hardware und eine Ausführungsumgebung<br />

für Applikationen. Applikationen werden, wie<br />

im Bild gezeigt, transparent in dieser Ausführungsumgebung<br />

ausgeführt.<br />

1. GRUNDKONZEPTE VON <strong>FASA</strong><br />

Fasa stellt einige Basiskonzepte und -mechanismen zur<br />

Verfügung, die die Grundlage für komplexere Mechanismen<br />

bilden, beispielsweise Softwareupdates oder softwarebasierte<br />

Fehlertoleranz.<br />

1.1 Komponenten, Blöcke und lineare statische Schedules<br />

Fasa ist ein Framework für die Entwicklung und Ausführung<br />

zyklischer Kontrollanwendungen. Fasa unterstützt<br />

eine komponentenbasierte Definition der Kontrollanwendungen;<br />

durch die erreichte Modularität<br />

bietet Fasa eine erhöhte Flexibilität und Anpassbarkeit.<br />

Komponenten bestehen aus einem oder mehreren Blöcken,<br />

die die elementaren Ausführungsbausteine darstellen.<br />

Jeder Block realisiert genau einen Aspekt der<br />

Funktionalität seiner Komponente, das heißt, Blöcke<br />

implementieren in sich abgeschlossene Funktionalitäten.<br />

Blöcke in Fasa dürfen daher nicht blockieren und<br />

müssen immer terminieren [2]. Eine Komponente hat<br />

einen Zustand, auf den die in ihr enthaltenen Blöcke<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

53


HAUPTBEITRAG<br />

zugreifen können. Zudem kann eine Komponente Parameter<br />

definieren, welche während der Laufzeit durch<br />

eine definierte Schnittstelle von außen verändert werden<br />

können. Alle Blöcke derselben Komponente haben<br />

gemeinsamen Zugriff auf den Zustand und die Parameter<br />

der Komponente. Zustandsdaten in unterschiedlichen<br />

Komponenten sind jedoch streng voneinander<br />

getrennt. Da die Blöcke selbst zustandslos sind (nur die<br />

sie umgebende Komponente hat einen Zustand), lassen<br />

sich diese sehr einfach während der Laufzeit austauschen.<br />

Der Kontext der Blöcke bleibt durch die Zustandshaltung<br />

in den Komponenten jedoch erhalten. In<br />

Bezug auf das Deployment einer Anwendung stellen<br />

Komponenten die kleinste Einheit in Fasa dar, das<br />

heißt, eine Komponente kann nicht verteilt ausgeführt<br />

werden. Das bedeutet, dass Blöcke derselben Komponente<br />

nicht auf unterschiedlichen Ressourcen ausgeführt<br />

werden können. Die verschiedenen Komponenten<br />

einer Anwendung können hingegen auf unterschiedlichen<br />

Ressourcen zur Ausführung gebracht werden.<br />

Blöcke können über Ports <strong>mit</strong> anderen Blöcken Daten<br />

austauschen. Dazu werden die Ports über Kanäle verbunden.<br />

Kanäle in Fasa sind unidirektional und 1-zu-1. Das<br />

bedeutet, dass höchstens ein Block auf einen gegebenen<br />

Kanal schreiben kann und höchstens ein Block davon<br />

lesen kann. Durch diese Elemente kann jede Anwendung<br />

in Fasa als gerichteter Graph dargestellt werden, in welchem<br />

Knoten die Blöcke repräsentieren und Kanten die<br />

Kanäle.<br />

Kanäle sind lediglich für den Datentransport verantwortlich.<br />

Sie über<strong>mit</strong>teln Daten ohne jegliche Prüfung,<br />

jedoch muss jedes Paar von Out-Port und In-Port, die<br />

<strong>mit</strong>einander verbunden sind, denselben Datentyp haben.<br />

Die Prüfung der Daten auf Plausibilität und Aktualität<br />

ist die Aufgabe des jeweiligen Blocks. Blöcke können<br />

über das Framework zur Laufzeit feststellen, welche ihrer<br />

Ports über einen Kanal verbunden sind. Bei <strong>mit</strong>einander<br />

verbundenen Blöcken stellt das Framework sicher,<br />

dass ein übertragenes Datenelement an den In-Port des<br />

Zielblocks geschrieben worden ist, bevor es <strong>mit</strong> der Ausführung<br />

des Zielblocks beginnt.<br />

Bild 2 zeigt eine Beispielanwendung in Fasa. Die Anwendung<br />

ist ein kaskadierter PID-Controller und besteht<br />

aus sechs Komponenten (dargestellt durch grüne Rechtecke),<br />

die <strong>mit</strong> ihrer ID (zum Beispiel I1, P1) und dem jeweiligen<br />

Komponententyp (zum Beispiel Feldbus In, PID<br />

Controller) beschriftet sind. Mit Ausnahme der Komponente<br />

I1 vom Typ Feldbus In, welche zwei Blöcke (dargestellt<br />

durch blaue Rechtecke) bereitstellt, haben alle<br />

Komponenten nur jeweils einen Block. Kanäle sind<br />

durch Pfeile verdeutlicht und <strong>mit</strong> ihrem Datentyp beschriftet.<br />

In-Ports sind links von ihrem zugehörigen<br />

Block als kleine Quadrate erkenntlich. Out-Ports sind<br />

rechts von ihrem Block durch kleine Quadrate am Beginn<br />

der gerichteten Verbindung dargestellt.<br />

Eine weitere Besonderheit von Fasa ist, dass die Firmware<br />

selbst modular aufgebaut ist. Ähnlich wie im<br />

Microkernel-Konzept von Betriebssystemen gibt es einen<br />

kleinen Kern, der für die Ausführung von Komponenten<br />

zuständig ist. Die meisten Systemfunktionalitäten<br />

(zum Beispiel Netzwerkkommunikation) sind als<br />

Komponenten realisiert. Dadurch genießen diese Systemfunktionalitäten<br />

die gleichen Vorteile wie normale<br />

Applikationen, zum Beispiel dynamische Softwareupdates.<br />

Anwendungen in Fasa werden zyklisch ausgeführt.<br />

Hierfür kann entweder für die gesamte Anwendung oder<br />

für jeden einzelnen Block eine Ausführungsfrequenz<br />

(Periodizität) definiert werden.<br />

Fasa unterstützt die lineare Ausführung von Anwendungen<br />

<strong>mit</strong> einem statischen Schedule. Das bedeutet,<br />

dass zur Zeit des Deployments eine lineare Ordnung<br />

über alle Blöcke, die in den Komponenten einer Anwendung<br />

definiert sind, berechnet wird. Grundlage für diese<br />

Ordnung ist die Abhängigkeit zwischen den Blöcken,<br />

die sich durch den über die Kanäle definierten Datenfluss<br />

ergibt. Das heißt, dass ein Block A, der ein Datenelement<br />

an einen anderen Block B sendet, auch vor diesem<br />

ausgeführt werden muss. Diese lineare Ordnung ist<br />

die Grundlage für die Abarbeitungssequenz der Blöcke<br />

in jedem Zyklus. Dabei wird die Ausführung eines einzelnen<br />

Blocks nie unterbrochen. Auf einem Fasa-System<br />

können mehrere unterschiedliche Schedules hinterlegt<br />

sein, die jeweils in einer Konfiguration abgelegt sind. Zu<br />

jedem Zeitpunkt ist genau eine Konfiguration aktiv.<br />

Zu jeder Anwendung können mehrere oder auch keine<br />

Linearisierung existieren. Sollte keine Linearisierung<br />

möglich sein, muss der Anwendungsumfang reduziert<br />

werden. Bild 3 zeigt eine Linearisierung der Beispielanwendung<br />

aus Bild 2.<br />

Rückkopplungen sind ein häufig eingesetztes Gestaltungselement<br />

in der <strong>Automatisierung</strong>stechnik, da sie es<br />

erlauben, die Ausgangswerte eines Prozesses als Eingangswerte<br />

für die nächste Iteration des Prozesses zu<br />

verwenden. Die einfachste Art der Rückkopplung ist in<br />

Bild 4 (a) durch einen Kanal dargestellt, der einen Out-<br />

Port eines Blocks <strong>mit</strong> einem In-Port verbindet. Um eine<br />

semantisch korrekte lineare Ordnung zwischen den Blöcken<br />

zu erreichen, werden Rückkopplungen in Fasa realisiert,<br />

wie in Bild 4 (b) gezeigt: Statt eines Kanals wird<br />

das für die Rückkopplung benötigte Datenelement von<br />

einem Hilfsblock (Mem) im Zustand der Komponente<br />

abgelegt. Bei der Ausführung liest Block 1 jenes Datenelement<br />

dann aus dem Zustand, anstatt es von seinem<br />

In-Port zu lesen wie in Bild 4 (a). Auch kompliziertere<br />

Rückkopplungsmechanismen lassen sich durch eine solche<br />

Konstruktion realisieren.<br />

Mit zunehmender Anzahl von Komponenten und Abhängigkeiten<br />

zwischen Komponenten wird es schwieriger,<br />

korrekte Linearisierungen zu berechnen. In verteilten<br />

Systemen (<strong>mit</strong> Multicore-Prozessoren und/oder mehreren<br />

Rechnerknoten) müssen zudem auch mehrere<br />

Ausführungsressourcen synchronisiert werden, die<br />

parallel jeweils einen linearen Schedule ausführen.<br />

Hierbei müssen auch unterschiedliche Latenzen betrachtet<br />

werden, da die Kommunikation zwischen zwei CPU-<br />

Cores im Allgemeinen schneller abläuft als zwischen<br />

zwei Hosts in einem verteilten <strong>Automatisierung</strong>ssystem.<br />

Ebenfalls muss berücksichtigt werden, dass manche<br />

Komponenten nur auf bestimmten Ausführungsressourcen<br />

laufen können, wenn zum Beispiel ein spezieller I/O<br />

benötigt wird. Im nächsten Abschnitt wird beschrieben,<br />

54<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


wie sich die Scheduleberechnung automatisieren lässt<br />

und da<strong>mit</strong> auch Anwendungen transparent auf einem<br />

verteilten System ausgeführt werden können.<br />

1.2 Verteilte Ausführung und globaler Schedule<br />

Ausführungsressourcen werden in Fasa Hosts genannt.<br />

Jeder Host führt eine Instanz des Fasa-Kernels aus. Ein<br />

solcher Host ist entweder ein Single-Core-Computer oder<br />

ein einzelner Core in einem Multicore-Computer. In beiden<br />

Fällen wird ein Echtzeitbetriebssystem vorausgesetzt.<br />

In einem komplexen System <strong>mit</strong> mehreren Hosts<br />

und einer Vielzahl von Anwendungen können Komponenten<br />

derselben Anwendungen auf mehrere Hosts verteilt<br />

oder Komponenten unterschiedlicher Anwendungen<br />

auf dem gleichen Host geladen werden. Hierbei wird<br />

vorausgesetzt, dass alle Hosts zeitsynchronisiert werden,<br />

zum Beispiel nach dem Precision-Time-Protocol (IEEE<br />

1588, [5]), welches <strong>mit</strong> Fokus auf lokale Netze und geringem<br />

Aufwand bezüglich Bandbreite und Rechenzeit entwickelt<br />

wurde.<br />

Um eine verteilte Ausführung zu erreichen, muss<br />

beim Deployment ein System-Schedule berechnet werden.<br />

Der System-Schedule bestimmt, welcher Block zu<br />

welcher Zeit (Offset) im Zyklus auf welchem Host ausgeführt<br />

wird. Bild 5 zeigt einen solchen Schedule für<br />

die Beispielanwendung aus Bild 2 für ein System <strong>mit</strong><br />

zwei Hosts.<br />

Bei der Berechnung des System-Schedules ist eine<br />

Vielzahl von Parametern zu berücksichtigen: Die<br />

partielle Ordnung der Blöcke, die maximale Laufzeit<br />

jedes Blocks (worst-case execution time, WCET) auf<br />

den verschiedenen Hosts, die Frequenz der einzelnen<br />

Blöcke, und die Zyklenlängen auf den jeweiligen<br />

Hosts. Darüber hinaus hängt die Zeit, die benötigt<br />

wird, um ein Datenelement von einem Block A an<br />

einen Block B zu schicken, von der relativen Position<br />

von A und B ab. Blöcke auf verschiedenen Hosts<br />

kommunizieren über IPC-Mechanismen, falls die<br />

Hosts auf verschiedenen Cores derselben CPU laufen,<br />

oder über Netzwerk-Proxies, falls die Hosts auf verschiedenen<br />

Systemen laufen. Schließlich soll es am<br />

Ende jedes Zyklus noch eine Schlupfzeit (slack time)<br />

<strong>FASA</strong> Runtime Framework<br />

CPU Core<br />

CPU Core<br />

Controller<br />

Anwendungen<br />

CPU Core<br />

CPU Core<br />

...<br />

CPU Core<br />

CPU Core<br />

Echtzeit-Bus<br />

BILD 1: Die Architektur<br />

von Fasa im Überblick<br />

CPU Core<br />

Controller<br />

CPU Core<br />

I1:<br />

Feldbus In<br />

Temp<br />

Druck<br />

I2:<br />

Ethernet<br />

Track<br />

float<br />

float<br />

bool<br />

P1:<br />

PID<br />

Controller<br />

PidCC<br />

M1:<br />

Mathematik<br />

Bibliothek<br />

Offset<br />

float<br />

float<br />

P2:<br />

PID<br />

Controller<br />

PidCC<br />

float<br />

O1:<br />

Feldbus Out<br />

Ventil<br />

BILD 2: Eine Beispielanwendung<br />

in Fasa<br />

I1:Temp P1:PidCC I2:Track I1:Druck M1:Offset P2:PidCC O1:Ventil<br />

t 0 t 1<br />

BILD 3: Schedule für die Beispielanwendung<br />

C1: T1<br />

C1: T1<br />

Zustand<br />

Block 1 Block 1 Mem<br />

I1:Temp I1:Druck P1:PidCC<br />

t 0 t 1<br />

I2:Track<br />

M1:Offset P2:PidCC O1:Ventil<br />

(a)<br />

(b)<br />

BILD 4: Beispiel für die Realisierung<br />

von Rückkopplungen in Fasa<br />

t 0 t 1<br />

BILD 5: System-Schedule der Beispielanwendung auf zwei Hosts<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

55


HAUPTBEITRAG<br />

geben, die es dem Betriebssystem erlaubt, andere Threads<br />

auszuführen.<br />

Für das Deployment von Fasa-Applikationen muss also<br />

zunächst ein verteiltes Scheduling-Problem gelöst werden.<br />

Dies wird offline durchgeführt, das heißt, bevor das<br />

System startet, und resultiert in jeweils einem statischen,<br />

linearen Schedule für jeden Fasa-Host. Ein solches Scheduling-Problem<br />

besteht aus zwei Teilen: eine Zuweisung<br />

jeder Komponente auf einen Host und die Berechnung<br />

eines Zeitintervalls für die Ausführung eines jeden<br />

Blocks. Die Zuweisung muss hierbei den Speicherbedarf<br />

der Komponenten und den verfügbaren Speicher auf jedem<br />

Host berücksichtigen. Die Zeitintervalle dürfen sich<br />

für Blöcke, die auf dem gleichen Host ausgeführt werden,<br />

nicht überlappen.<br />

Die Länge eines Zeitintervalls entspricht für die Lösung<br />

des Scheduling-Problems der WCET des jeweiligen<br />

Blocks. Es wird dabei angenommen, dass Blöcke bei jeder<br />

Ausführung ihre WCET in Anspruch nehmen. Da diese<br />

Annahme in der Praxis selten zutrifft, führt sie zu einer<br />

suboptimalen Ausnutzung der verfügbaren Rechenzeit.<br />

Dadurch, dass der Dispatcher jeden Block zu der durch<br />

die WCET bestimmten Zeit startet, wird jedoch der Jitter<br />

zwischen Zyklen minimiert, da die Abstände zwischen<br />

zwei Ausführungen eines jeden Blocks konstant sind.<br />

Das verteilte Scheduling-Problem in Fasa ähnelt typischen<br />

Job-Shop-Problemen, was dieses NP-schwer<br />

macht. Da<strong>mit</strong> ist es praktisch unmöglich, ein solches<br />

Problem selbst für <strong>mit</strong>telgroße Systeme zu lösen [1]. Um<br />

Fasa skalierbar zu machen, ist eine automatisierte Lösung<br />

notwendig. Fasa benutzt einen Constraint-Programming-basierten<br />

Ansatz, um System-Schedules automatisiert<br />

zu berechnen [6].<br />

1.3 Abstrahierung der Plattform<br />

Um die Wiederverwendbarkeit des Frameworks sowie<br />

der Anwendungen, Komponenten und Blöcke zu gewährleisten,<br />

bietet Fasa eine Schicht, um eine Abstraktion<br />

von der Hardware und vom verwendeten Betriebssystem<br />

zu gewährleisten. Hierfür müssen nur für wenige plattformspezifische<br />

Mechanismen Abstraktionen angeboten<br />

werden:<br />

Anwendungen<br />

<strong>FASA</strong> Kernel<br />

P1:<br />

PID<br />

Controller<br />

Speicher<br />

P1‘:<br />

PID<br />

Controller<br />

Plattformabstraktion<br />

PidCC<br />

PidCC<br />

Betriebssystem<br />

v1<br />

v2<br />

BILD 6: Plattformabstrahierung<br />

... PidCC ... ... PidCC ...<br />

Schedule 1 Schedule 2<br />

BILD 7: Softwareupdate zwischen zwei Versionen von PID-Controller<br />

Host 1<br />

Host 2<br />

Host 3<br />

I1:Temp<br />

Mu<br />

Se 1 Se 2<br />

Se 4<br />

P1:PidCC<br />

Re 3 Re 4<br />

Voter<br />

Re 2<br />

P1‘:PidCC<br />

Re 1<br />

P1‘:PidCC Se 3<br />

BILD 8:<br />

System-Schedule<br />

des kritischen<br />

Pfads der<br />

redundanten<br />

Beispielanwendung<br />

auf drei Hosts<br />

t 0<br />

56<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


Timer erlauben es dem Framework, die Echtzeitanforderungen<br />

umzusetzen. Beispiel: zyklischer Start<br />

der Schedule-Ausführung.<br />

Datenübertragung (beispielsweise Message Queues<br />

oder Shared Memory) wird für die Implementierung<br />

von Kanälen benötigt.<br />

Synchronisierung (zum Beispiel Mutex oder Semaphoren)<br />

werden zur Benachrichtigung innerhalb des<br />

Frameworks verwendet.<br />

Threads werden vom Framework benutzt, um Applikationen<br />

<strong>mit</strong> höchster Priorität und Verwaltungsaufgaben<br />

<strong>mit</strong> niedriger Priorität auszuführen.<br />

In unserer Referenzimplementierung [2] wird die Plattformabstraktion<br />

durch eine Reihe von Wrapperklassen<br />

und Klassentemplates in C++ realisiert. Als Beispiel kapselt<br />

eine Klasse Thread den Zugriff auf die Threadbibliotheken<br />

des Betriebssystems, in unserer Implementierung<br />

auf die pthread-Bibliothek des POSIX-Standards.<br />

Diese Aufteilung ist in Bild 6 visualisiert.<br />

2. ERWEITERTE FEATURES VON <strong>FASA</strong><br />

Aufbauend auf den bereits vorgestellten Grundkonzepten<br />

bietet Fasa eine Reihe von erweiterten Features, die<br />

die Performanz, Verfügbarkeit und Skalierbarkeit von<br />

<strong>Automatisierung</strong>ssystemen verbessern. Da diese für den<br />

Anwendungsentwickler transparent sind, lassen sie sich<br />

einfach und kostengünstig nutzen beziehungsweise in<br />

die Anwendung integrieren.<br />

2.1 Softwareupdates zur Laufzeit<br />

Die komponentenbasierte Architektur von Fasa erlaubt<br />

es nicht nur, zur Entwurfszeit eine Komponente durch<br />

eine andere zu ersetzen, sondern auch zur Laufzeit. Im<br />

Gegensatz zu existierenden Lösungen ist es in Fasa<br />

möglich, die Applikationen (also die Verknüpfung von<br />

Komponenten) zu verändern, und Teile der Firmware<br />

auszutauschen. Durch die Microkernel-inspirierte Architektur<br />

von Fasa (Systemkomponenten wie zum Beispiel<br />

der Netzwerktransport werden genau wie Applikationskomponenten<br />

behandelt) und durch Verwendung<br />

von dynamischem Links kann so ein Großteil der<br />

Firmware ausgewechselt werden. Das ist auch im laufenden<br />

Betrieb ohne Beeinträchtigung des Systems<br />

möglich [4].<br />

Es gibt mehrere Gründe, weshalb solch dynamische<br />

Softwareupdates notwendig sind. Zum einen kann selbst<br />

durch intensives Testen nicht ausgeschlossen werden,<br />

dass ein Bug im System verblieben ist. Durch dynamische<br />

Updates können entdeckte Bugs im laufenden Betrieb<br />

behoben werden. Ein weiterer Grund sind Security-<br />

Patches, da sich über die Lebensdauer eines Systems die<br />

Angriffsfläche eines Systems verändert. Ein Beispiel ist<br />

der Hashing-Algorithmus MD5, der lange Zeit als sicher<br />

galt, später aber durch zunehmende Rechenleistung und<br />

verbesserte Angriffsvarianten gebrochen wurde [9].<br />

Schließlich können Softwareupdates zur Laufzeit dazu<br />

dienen, im Rahmen eines Servicevertrags die installierte<br />

Software auf dem neuesten Stand zu halten oder zusätzliche<br />

Software zu installieren.<br />

Bei dynamischen Updates für kritische Systeme ist es<br />

besonders wichtig, dass die Applikationen, die auf dem<br />

zu aktualisierenden System laufen, nicht gestört werden.<br />

Fasa ermöglicht es, Komponenten zur Laufzeit zu ersetzen,<br />

ohne das System anzuhalten oder auch nur einen<br />

Zyklus zu verpassen. Dies wird realisiert durch die Aufteilung<br />

des Updates in zwei Phasen: Vorbereitung und<br />

Umschaltung.<br />

In der Vorbereitungsphase wird der Code der neuen<br />

Komponenten zuerst auf das System kopiert (zum Beispiel<br />

<strong>mit</strong> dem SSH-basierten Secure Copy) und die gewünschten<br />

Komponenteninstanzen werden initialisiert.<br />

Gleichzeitig wird eine neue Konfiguration <strong>mit</strong> einem<br />

aktualisierten Schedule übertragen, der aber noch nicht<br />

aktiv ist. All diese Aktivitäten sind nicht zeitkritisch<br />

und werden als Thread parallel zu den Applikationen<br />

ausgeführt. In unserer Referenzimplementierung werden<br />

die auszuführenden Blöcke in jedem Zyklus in einem<br />

Thread <strong>mit</strong> höchster Priorität ausgeführt. Zwischen dem<br />

Ende des letzten Blocks und dem Beginn des nächsten<br />

Zyklus – also in der Schlupfzeit – blockiert dieser Thread.<br />

So kann das Betriebssystem Threads <strong>mit</strong> niedrigerer<br />

Priorität ausführen und zum Beispiel neue Komponenten<br />

laden.<br />

Bild 7 zeigt ein Beispiel für ein dynamisches Softwareupdate.<br />

Dabei wird eine Instanz der Komponente<br />

PID Controller in Version 1 (v1) durch eine neuere Version<br />

(v2) ersetzt. Das System führt vor dem Update den<br />

Schedule von Konfiguration 1 aus. Beim Softwareupdate<br />

wird zuerst in der Vorbereitungsphase eine Instanz P1‘<br />

der neuen Komponentenversion instanziiert und initialisiert.<br />

Dann wird eine neue Konfiguration 2 erzeugt,<br />

deren Schedule statt dem PidCC-Block von P1 denjenigen<br />

von P1‘ aufruft. Sobald P1‘ initialisiert ist und Konfiguration<br />

2 erzeugt wurde, kann <strong>mit</strong>tels API-Aufruf vom<br />

alten auf den neuen Schedule umgeschaltet werden.<br />

Sobald diese Vorbereitungsphase beendet ist, signalisiert<br />

das System, dass es bereit zum Umschalten ist. Das<br />

Umschalten erfolgt quasi-atomar zu Beginn eines neuen<br />

Zyklus durch das Umsetzen eines einzigen Zeigers. So<br />

wird verhindert, dass Teile des alten Schedules und Teile<br />

des neuen Schedules im selben Zyklus ausgeführt<br />

werden. Falls die Schedules von mehreren Hosts gleichzeitig<br />

geändert werden müssen, zum Beispiel wenn ein<br />

Update eine verteilt ausgeführte Anwendung betrifft,<br />

lassen sich die Updates durch Angabe eines gemeinsamen<br />

Zeitpunkts zum Umschalten synchronisieren.<br />

Nach dem Umschalten auf den neuen Schedule bleibt<br />

der alte Schedule zunächst im Speicher erhalten, ebenso<br />

wie eventuell nicht mehr benötigte Komponenten. Dies<br />

ist notwendig, um ein Rollback zu ermöglichen, falls das<br />

System nach dem Update nicht wie erwartet funktioniert.<br />

Falls das System korrekt funktioniert, können<br />

nicht mehr benötigte Komponenten und Schedules aus<br />

dem Speicher gelöscht werden.<br />

Einen Sonderfall beim dynamischen Update bilden<br />

zustandsbehaftete Komponenten. Hier muss der Zustand<br />

der alten Komponente zur neuen Komponente transfe-<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

57


HAUPTBEITRAG<br />

riert werden. Die Schwierigkeit ist einerseits, dass sich<br />

die Struktur des Zustands ändern kann, zum Beispiel<br />

können sich Messwerte von km/h in m/s ändern. Andererseits<br />

kann es vor allem passieren, dass der Zustand<br />

von einzelnen Komponenten so umfangreich ist, dass er<br />

sich nicht innerhalb eines Zyklus übertragen lässt. Falls<br />

mehrere Zyklen zur Übertragung notwendig sind, kommt<br />

es vor, dass sich ein Teil des Zustands der Quellkomponente,<br />

der bereits zur Zielkomponente übertragen wurde,<br />

wieder ändert. Hierfür bietet Fasa einen Mechanismus<br />

zur Zustandsübertragung, der in [4] ausführlich erklärt<br />

ist. Im bereits genannten Beispiel des Updates der Komponente<br />

PID Controller von Version 1 auf Version 2 wird<br />

die Zustandsübertragung in der Vorbereitungsphase<br />

nach dem Initialisieren der Instanz P1‘ ausgeführt. Das<br />

System schaltet erst auf den neuen Schedule um, nachdem<br />

der Zustand von P1 vollständig auf P1‘ übertragen<br />

wurde.<br />

2.2 Softwarebasierte Fehlertoleranz und Safety<br />

Mithilfe der softwarebasierten Fehlertoleranz lässt sich<br />

eine hohe Verfügbarkeit für die <strong>mit</strong> Fasa ausgeführten<br />

Anwendungen erreichen. Dieses erweiterte Feature zeigt<br />

auch, dass Fasa aufgrund seiner Modularität und Flexibilität<br />

in der Lage ist, derartige erweiterte Features aufgrund<br />

der einfachen Wiederverwendbarkeit von Komponenten<br />

und der flexiblen Ausführungsumgebung<br />

schnell und vor allem transparent für den Anwendungsentwickler<br />

umzusetzen. Transparenz bedeutet in diesem<br />

Kontext, dass Fehlertoleranz beziehungsweise Redundanz<br />

in Fasa als Service für den Anwender angeboten<br />

wird. Dieser muss lediglich auswählen, dass er<br />

diesen Dienst nutzen möchte und einige grundlegende<br />

Parameter konfigurieren, zum Beispiel welches Redundanzmuster<br />

verwendet werden soll, welche Art von<br />

Fehler toleriert werden soll oder wie viele Fehler toleriert<br />

werden sollen. Die Berechung des Deployments,<br />

eines dazu passenden Schedules sowie die eigentliche<br />

Integration zusätzlich benötigter Komponenten in die<br />

Applikation übernimmt Fasa – der Anwendungsentwickler<br />

muss diese also weder selbst implementieren<br />

noch in seine Applikation integrieren. Darüber hinaus<br />

ermöglicht Fasa erfahrenen Anwendern, direkt Einfluss<br />

auf Detailebene zu nehmen, das heißt, beispielsweise<br />

das Deployment zu beeinflussen oder zu nutzende Algorithmen<br />

auszuwählen.<br />

Eine erste Design-Entscheidung, die im Kontext von<br />

Fehlertoleranz in Fasa getroffen werden musste, war<br />

die Frage nach der Granularität der Redundanz. Da<br />

Fasa ein komponentenbasiertes System ist, ließe sich<br />

Redundanz auf allen Ebenen anbieten. Redundanz auf<br />

Block-Ebene erbringt jedoch nur einen geringen Mehrwert,<br />

da Fehlertoleranz in diesem Fall auf einzelne<br />

Blöcke auf demselben Host – und da<strong>mit</strong> auf den vergleichsweise<br />

unwahrscheinlichen Fall eines auf den<br />

Block begrenzten Fehlers – eingeschränkt wäre. Fehlertoleranz<br />

in Fasa ist daher auf Ebene der Komponenten<br />

angesiedelt. Dies hat mehrere Vorteile: Da Komponenten<br />

einen Zustand haben können, schließt Fehlertoleranz<br />

auf Komponenten-Ebene neben der Verfügbarkeit<br />

der Komponente auch deren Zustand <strong>mit</strong> ein.<br />

Außerdem ist eine feingranulare Abstufung für Verfügbarkeit<br />

möglich, das heißt, nur kritische Teile einer<br />

Anwendung müssen redundant ausgelegt werden, und<br />

so<strong>mit</strong> können möglicherweise Ressourcen im Vergleich<br />

zur heute gebräuchlichen Anwendungsredundanz eingespart<br />

werden. Zudem können redundante Komponenten<br />

auf verschiedenen Cores oder Hosts ausgeführt<br />

werden. So<strong>mit</strong> werden deutlich mehr Fehlerszenarien,<br />

beispielsweise auch der Ausfall eines Controllers oder<br />

einer Netzwerkverbindung, abgedeckt als dies bei der<br />

Block-Redundanz der Fall wäre. Auch die Fehlertoleranz<br />

auf Applikations-Ebene kann realisiert werden,<br />

da dies lediglich eine Erweiterung der Komponenten-<br />

Redundanz darstellt.<br />

Die im Folgenden beschriebene beispielhafte Umsetzung<br />

des Redundanzmusters M-out-of-N [8] (die Komponente<br />

wird N-fach redundant ausgeführt; mindestens M<br />

dieser Instanzen müssen übereinstimmen, was <strong>mit</strong>tels<br />

eines Voters überprüft wird) dient dem besseren Verständnis<br />

der Zusammenhänge. Stellt beispielsweise die<br />

Komponente P1 aus Bild 2 die kritische Komponente der<br />

Anwendung dar, und wurde das Redundanzmuster M-<br />

out-of-N angefordert, sowie ein Fehlermodell beschrieben,<br />

welches den Ausfall eines Hosts beziehungsweise<br />

Links abdecken soll und annimmt, dass keine externen<br />

Mechanismen zur Fehlererkennung zur Verfügung stehen,<br />

könnte Fasa das in Bild 8 dargestellte Deployment<br />

und einen dazu passenden Schedule berechnen. Hierbei<br />

ist zu sehen, dass Fasa zum Erreichen der Fehlertoleranz<br />

ein 2-out-of-3 Muster gewählt hat, sowie die zusätzlich<br />

benötigten Komponenten zur Umsetzung – einen Multiplier<br />

(Mu) für den Sensor-Input, einen Voter (Vo), mehrere<br />

Netzwerk-Proxies (Sender Se und Empfänger Re)<br />

und die redundanten Komponenten (P1‘) – automatisch<br />

hinzugefügt und im Schedule berücksichtigt hat. Dass<br />

im gezeigten Setup lediglich ein Voter genutzt wird, ist<br />

ebenfalls eine Vereinfachung. Um den Single-Point-of-<br />

Failure zu vermeiden, könnte auch der Voter repliziert<br />

werden. Alternativ lässt sich auch die Flexibilität und<br />

Anpassbarkeit von Fasa nutzen, um im Fehlerfall durch<br />

eine schnelle, bereits im Hintergrund vorgehaltene neue<br />

Konfiguration auf einen Standby-Voter umzuschalten.<br />

Idealerweise sollte auch die Sensorik redundant ausgelegt<br />

werden. Ist dies nicht möglich, kann die Verteilung<br />

der Input-Werte <strong>mit</strong>hilfe der von Fasa angebotenen Multiplier-Komponente<br />

erfolgen, welche zur Vermeidung<br />

eines Single-Point-of-Failure dann auch redundant ausgelegt<br />

werden sollte.<br />

Mithilfe der erläuterten Fehlertoleranz können verschiedene<br />

Anwendungsfälle abgedeckt werden; unter<br />

anderem sind dies das Hinzufügen von Redundanz, der<br />

Austausch des verwendeten Voting-Algorithmus, der<br />

Austausch des verwendeten Redundanzmusters, das<br />

Wiederherstellen der Fehlertoleranz nach einem Fehler<br />

und natürlich die eigentliche Maskierung eines Fehlers<br />

zur Sicherstellung der Verfügbarkeit einer Applikation.<br />

Alle diese Anwendungsfälle werden während der Ausführung<br />

einer Applikation unterstützt, ohne die eigentliche<br />

Funktion der Applikation zu stören und ohne dass<br />

58<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


die Anwendung in spezieller Weise dafür vorbereitet<br />

werden muss. Der für die Anwendung von Fehlertoleranz<br />

in Kauf zu nehmende Overhead ist am Beispiel von<br />

M-out-of-N eine zusätzliche Verzögerung bei der Ausführung<br />

der Applikation durch die Ausführung des Voters<br />

sowie die eventuell benötigte Wartezeit auf die N<br />

Inputs für das Voting.<br />

Fehlertoleranz ist nicht auf das Redundanzmuster M-<br />

out-of-N beschränkt, sondern lässt auch andere Redundanzmuster<br />

zu. Umgesetzt wurden beispielsweise auch<br />

die Muster Hot Standby und Warm Standby. Auch hier<br />

werden verschiedene Basisdienste von Fasa in Anspruch<br />

genommen. Außerdem werden zusätzliche erweiterte<br />

Features benötigt, die dem Benutzer von Fasa aber ebenfalls<br />

als Service zur Verfügung gestellt und transparent<br />

angewendet werden. Beispielsweise wird beim Redundanzmuster<br />

Warm Standby zur Replikation des Zustands<br />

zwischen der Primary- und der Secondary-Komponente<br />

die Funktionalität der Zustandssynchronisierung benötigt.<br />

Auch das erweiterte Feature des Exception Handling,<br />

das heißt, die Benachrichtigung nachfolgender<br />

Blöcke und Komponenten über intern erkannte Fehler,<br />

lässt sich in die Fehlertoleranz integrieren.<br />

Auch wenn der Fokus des erweiterten Features Fehlertoleranz<br />

bisher auf der hohen Verfügbarkeit der Applikation<br />

lag, ist die Anwendung desselben Features ebenso<br />

zur Erfüllung von Safety-Anforderungen nutzbar. Hier<br />

sind weitere Randbedingungen zu beachten, zum Beispiel<br />

eine den Zertifizierungsrichtlinien entsprechende<br />

Dokumentation der Entwicklung oder die Berechnung<br />

der Fehlerwahrscheinlichkeiten. Dies war bisher nicht<br />

im Fokus der Entwicklung.<br />

3. VERWANDTE TECHNOLOGIEN UND SYSTEME<br />

Das Konzept der Blöcke in Fasa ist <strong>mit</strong> den Funktionsblöcken<br />

aus den Standards IEC 61131 und IEC 61499<br />

[10] verwandt. Allerdings gibt es keine 1-zu-1-Beziehung:<br />

So existieren beispielsweise in Fasa keine Execution<br />

Control Charts wie in IEC 61499, und die in Fasa<br />

mögliche Organisation von Blöcken in Komponenten<br />

ist zwar verwandt <strong>mit</strong> zusammengesetzten Funktionsblöcken<br />

(Composite Control Blocks), entspricht ihnen<br />

aber semantisch nicht vollständig. Der Fokus von Fasa<br />

liegt auf der transparenten Verteilung von Anwendungen<br />

und erweiterten Features wie Fehlertoleranz. Daher<br />

kann Fasa als eine Art Assemblersprache für Hochsprachen<br />

wie IEC 61499 gesehen werden: In einem unserer<br />

Arbeitspakete wird zur Zeit untersucht, wie geeignete<br />

REFERENZEN<br />

[1] Lombardi, M. und Milano, M.: Optimal Methods for Resource<br />

Allocation and Scheduling: a Cross-disciplinary Survey. Constraints<br />

17(1), S. 51-85, 2012<br />

[2] Richter, S., Wahler, M., Kumar, A.: A Framework for Component-<br />

Based Real-Time Control Applications. In: Proceedings 13 th Real-Time<br />

Linux Workshop, S. 107-115, 2011<br />

[3] Sutter, H.: A fundamental turn toward concurrency in software.<br />

Dr. Dobb’s Journal 2005(30), S. 202-210, 2005.<br />

(http://www.drdobbs.com/architecture-and-design/184405990)<br />

[4] Wahler, M., Richter, S., Kumar, S., Oriol, M:. Non-disruptive Largescale<br />

Component Updates for Real-Time Controllers. In: 3rd<br />

Workshop on Hot Topics in Software Upgrades (HotSWUp 2011),<br />

Proceedings IEEE 27 th International Conference on Data Engineering<br />

Workshops (ICDEW), S. 174-178, 2011<br />

[5] IEEE 1588: Standard for a Precision Clock Synchronization Protocol<br />

for Networked Measurement and Control Systems. 2002<br />

[6] Oriol, M., Wahler, M., Steiger, R., Stoeter, S., Vardar, E., Koziolek, H.,<br />

Kumar, A.: <strong>FASA</strong>: A Scalable Software Framework for Distributed Control<br />

Systems. In: Proceedings 3rd International ACM Sigsoft Symposium on<br />

Architecting Critical Systems (ISARCS 2012), S. 51-60, 2012<br />

[7] Garcia, C., Prett, D. M., Morari, M.: Model predictive control: Theory<br />

and practice – A survey. Automatica 25(3), S. 335–348, 1989<br />

[8] Avizienis, A. A.: The N-Version Approach to Fault-Tolerant Software.<br />

IEEE Transactions on Software Engineering SE–11(12), S. 1491-1501, 1985<br />

[9] Stevens, M., Lenstra, A., de Weger, B.: Chosen-prefix collisions for<br />

MD5 and applications. Applied Cryptography 2(4), S. 322-359, 2012<br />

[10] Vyatkin, V.: IEC 61499 Function Blocks for Embedded and Distributed<br />

Control Systems Design. ISA, 2007<br />

[11] Fieldbus Foundation. http://www.fieldbus.org<br />

[12] Kopetz, H., Merker, W.: The Architecture of MARS. In: Proceedings 25 th<br />

International Symposium on Fault-Tolerant Computing, S. 50-55, 1995<br />

[13] Schneider, S.A., Chen, V.W., Pardo-Castellote, G.: The ControlShell<br />

component-based real-time programming system. In: Proceedings<br />

IEEE International Conference on Robotics and Automation,<br />

S. 2381-2388, 1995<br />

[14] Xu Ke, Sierszecki, K., Angelov, C.: COMDES-II: A Component-Based<br />

Framework for Generative Development of Distributed Real-Time<br />

Control Systems. In: Proceedings 13 th IEEE International Conference<br />

on Embedded and Real-Time Computing Systems and Applications<br />

(RTCSA), S. 198-208, 2007<br />

[15] Ando, N., Suehiro, T., Kitagaki, K, Kotoku, T., Woo-Keun Yoon:<br />

RT-Middleware: Distributed Component Middleware for RT (Robot<br />

Technology). In: Proceedings IEEE/RSJ International Conference on<br />

Intelligent Robots and Systems (IROS), S. 3933-3938, 2005<br />

[16] Yau, S.S. und Bing Xia: An approach to distributed component-based<br />

real-time application software development. In: Proceedings 1st<br />

International Symposium on Object-Oriented Real-time Distributed<br />

Computing (ISORC), S. 275-283, 1998<br />

[17] Hill, J.H.: Towards Heterogeneous Composition of Distributed<br />

Real-Time and Embedded (DRE) Systems Using the CORBA Component<br />

Model. In: Proceedings 37 th EUROMICRO Conference on Software<br />

Engineering and Advanced Applications (SEAA), S. 73-80, 2011<br />

[18] Uppaal PORT. http://www.uppaal.org/port<br />

[19] SAVE IDE: http://sourceforge.net/projects/save-ide/<br />

[20] Kindel, O. und Friedrich, M.: Softwareentwicklung <strong>mit</strong> AUTOSAR:<br />

Grundlagen, Engineering, Management in der Praxis. dpunkt Verlag, 2009<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

59


HAUPTBEITRAG<br />

AUTOREN<br />

Dr. MICHAEL WAHLER (geb. 1978) leitet die Gruppe<br />

Software Systems am ABB Forschungszentrum in Baden-<br />

Dättwil und ist aktiver Forscher. Der Schwerpunkt seiner<br />

Arbeit liegt auf der Architektur und dem Engineering von<br />

nachhaltiger Software für <strong>Automatisierung</strong>ssysteme.<br />

ABB Schweiz AG Corporate Research,<br />

Industrial Software Systems,<br />

Segelhofstr. 1K, CH-5405 Baden-Dättwil,<br />

Tel. +41 (0) 58 58 6 81 67, E-Mail: michael.wahler@ch.abb.com<br />

Dr. THOMAS GAMER (geb. 1979) ist Scientist am ABB<br />

Forschungszentrum in Ladenburg. Der Schwerpunkt<br />

seiner Arbeit liegt auf Softwarearchitekturen und Softwareengineering<br />

für zukünftige <strong>Automatisierung</strong>ssysteme,<br />

Fehlertoleranz und Gebäudeautomation.<br />

ABB AG Corporate Research Center Germany,<br />

Industrial Software Systems,<br />

Wallstadter Str. 59, D-68526 Ladenburg,<br />

Tel. +49 (0) 6203 71 60 24, E-Mail: thomas.gamer@de.abb.com<br />

Dr. MANUEL ORIOL (geb. 1975) ist Principal Scientist am<br />

ABB Forschungszentrum in Baden-Dättwil. Der Schwerpunkt<br />

seiner Arbeit liegt auf dynamischen Softwareupdates,<br />

Middleware, Softwaretests und Echtzeitsystemen.<br />

ABB Schweiz AG Corporate Research,<br />

Industrial Software Systems,<br />

Segelhofstr. 1K, CH-5405 Baden-Dättwil,<br />

Tel. +41 (0) 58 58 6 70 38, E-Mail: manuel.oriol@ch.abb.com<br />

Dr. ATUL KUMAR (geb. 1974) ist Principal Scientist am ABB<br />

Forschungzentrum Indien in Bangalore. Seine Forschungsinteressen<br />

beziehen sich auf die Bereiche verteilte Systeme,<br />

Softwareengineering, und Internettechnologien. Der<br />

Schwerpunkt seiner Arbeit liegt auf Softwarearchitektur<br />

für die zukünftige Generation von industriellen <strong>Automatisierung</strong>ssystemen.<br />

ABB Corporate Research Center Bangalore,<br />

Industrial Software Systems,<br />

Whitefield Road, Mahadevpura PO, Bangalore 560048 INDIA,<br />

Tel. +91 80 67 57 99 50, E-Mail: atulkumar.d@in.abb.com<br />

Dr. MARTIN NAEDELE (geb. 1972) ist der R&D-Programm-<br />

Manager für Industrial Software Systems in ABB<br />

Corporate Research.<br />

ABB Schweiz AG Corporate Research,<br />

Industrial Software Systems,<br />

Segelhofstr. 1K, CH-5405 Baden-Dättwil,<br />

Tel. +41 (0) 58 58 6 83 39, E-Mail: martin.naedele@ch.abb.com<br />

Untermengen von IEC 61499 auf die Konzepte von Fasa<br />

abgebildet werden können.<br />

Im Gegensatz zum Foundation Fieldbus (IEC 61804-2,<br />

[11]) liegt die Ausrichtung von Fasa auf der Plattformabstraktion,<br />

Flexibilität, und dem Bereitstellen von erweiterten<br />

Features, die für den Benutzer transparent sind,<br />

wie zum Beispiel Fehlertoleranz. Es wäre denkbar, Fasa<br />

<strong>mit</strong> Foundation Fieldbus zu kombinieren: Fasa ließe sich<br />

auf einer höheren Abstraktionsebene zum Erstellen von<br />

fehlertoleranten, verteilten Anwendungen nutzen und<br />

ein Foundation-Fieldbus-System als deren Ausführungsumgebung.<br />

Ein Teil von Fasa ist von Komponenten-Frameworks<br />

inspiriert, die in den letzten 20 Jahren für Echtzeit-Kontrollsysteme<br />

entwickelt wurden, wie Mars [12], ControlShell<br />

[13], Comdes-II [14], RT-middleware [15], Corba [16]<br />

[17], Uppaal Port [18], und die Automotive Open System<br />

Architecture (Autosar) [20]. Das Ziel dieser Systeme ist,<br />

die Flexibilität der komponentenbasierten Softwareentwicklung<br />

<strong>mit</strong> den Anforderungen von Echtzeitanwendungen<br />

zu verbinden. In einigen Fällen bieten diese<br />

Systeme auch Entwicklungsumgebungen (IDEs). So kann<br />

Uppaal Port <strong>mit</strong> der Save IDE [19] als Eclipse-Plugin benutzt<br />

werden.<br />

Während all diese Komponentenplattformen den Programmierern<br />

Komponenten und Kanäle als die hauptsächlichen<br />

Designelemente anbieten, liegt der entscheidende<br />

Unterschied zwischen diesen Systemen und Fasa<br />

in den angebotenen erweiterten Features. Nach dem<br />

Wissen der Autoren ist Fasa die einzige Plattform, die<br />

Features wie dynamische Softwareupdates, transparente<br />

Unterstützung von Multicore-CPUs und verteilter Ausführung<br />

sowie transparente Fehlertoleranz im Kontext<br />

von Echtzeitsystemen bietet.<br />

FAZIT<br />

Die aufkommende Parallelisierung von Prozessoren in<br />

der <strong>Automatisierung</strong>stechnik stellt Softwareentwickler<br />

vor Herausforderungen, bietet aber auch neue Möglichkeiten.<br />

Der Schlüssel zum Bewältigen der Herausforderungen<br />

und zum Ausnutzen der Möglichkeiten paralleler<br />

Systeme liegt in der Softwarearchitektur. Fasa ist ein<br />

Beispiel für eine Architektur, die es erlaubt, Anwendungen<br />

flexibel verteilt auf mehreren Ressourcen (zum Beispiel<br />

CPU-Cores) auszuführen und dabei dem Anwendungsentwickler<br />

vollständige Ausführungstransparenz<br />

zu bieten. Basierend auf einigen Basiskonzepten, wie<br />

Modularität durch Komponenten und deterministische<br />

Ausführung durch statische Schedules, ermöglicht Fasa<br />

fortgeschrittene Features wie werkzeuggestützte Berechnung<br />

komplexer, verteilter Schedules, softwarebasierte<br />

Fehlertoleranz oder unterbrechungsfreie Softwareupdates<br />

zur Laufzeit. Dadurch erzielt Fasa ein hohes Maß<br />

an Flexibilität <strong>mit</strong> zuverlässiger deterministischer Ausführung<br />

von Anwendungen.<br />

MANUSKRIPTEINGANG<br />

26.07.2012<br />

Im Peer-Review-Verfahren begutachtet<br />

60<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


HAUPTBEITRAG<br />

Effizienz durch ergonomische<br />

Benutzungsschnittstelle<br />

Industrielle Mensch-Prozess-Kommunikation gestalten<br />

Wie sich die industrielle Mensch-Prozess-Kommunikation für die operative Prozessführung<br />

gestalten lässt, wird in diesem Beitrag anhand eines Konzepts vorgestellt. Hintergrund<br />

ist die stetig steigende Komplexität der zu überwachenden Produktionsprozesse<br />

und der Arbeitsumgebung in Warten aus der Sicht der Anlagenfahrer. Moderne Anlagenleitstände<br />

und Bedienkonzepte können den Anlagenfahrer über eine leistungsfähige Benutzungsschnittstelle<br />

bei der Ausübung seiner Aufgaben unterstützen und entlasten.<br />

SCHLAGWÖRTER Mensch-Maschine-Schnittstelle / Benutzungsschnittstelle / Mensch-<br />

Prozess-Kommunikation / benutzerzentriertes Visualisierungskonzept /<br />

Leitstandskonzept / Ergonomie<br />

Efficient Plant Operation using ergonomic User Interface –<br />

User-centric design of industrial human-machine-communication<br />

This article presents an operator control concept for designing industrial human-machine-interface<br />

of operational process control. The background of this concept is the constantly<br />

increasing complexity of the processes to be monitored and the working environment<br />

in control rooms from the operator’s perspective. The use of modern plant control<br />

centers and operator control concepts can support and unburden operators in the execution<br />

of their tasks by means of a powerful human-machine-interface.<br />

KEYWORDS human-machine-interface / human-machine-communication / user-centered<br />

concept of visualization / supervisory control / ergonomics<br />

62<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


LUTZ GLATHE, SVEN KEMPF, Siemens<br />

D<br />

ie primäre Aufgabe des Anlagenfahrers ist die<br />

operative Prozessführung auf der Basis von Prozess-<br />

und Anlageninformationen der verfahrenstechnischen<br />

Produktion und deren Logistik- und<br />

Hilfsprozessen [1]. Die operative Prozessführung<br />

hat zum Ziel, den bestimmungsgemäßen, sicheren Betrieb<br />

der Produktionsanlage einzuhalten, die Verfügbarkeit der<br />

Produktion trotz einzelner Störungen zu maximieren und<br />

die Produktqualität trotz schwankender Qualität der eingesetzten<br />

Rohstoffe und Störungen in der Anlage sowie unterschiedlichem<br />

Durchsatz zu gewährleisten [2]. Schließlich<br />

soll der Prozessablauf im Sinne von Kosten, Qualität und<br />

Sicherheit optimiert werden. Insbesondere der hohe Kostendruck<br />

erweitert die primäre Aufgabenstellung des Anlagenfahrers<br />

zum Beispiel durch dispositive Aufgaben, erweiterte<br />

Qualitätssicherung und bedarfsgerechtes Betreiben der<br />

Anlage nach Key-Performance-Indikatoren, wie maximalem<br />

Durchsatz oder optimalem Energieeinsatz. Diese erweiterten<br />

Aufgaben sind traditionell im Bereich der Anlagen- und Betriebsleitebene<br />

angesiedelt. Die dafür notwendigen Informationen<br />

werden dem Anlagenfahrer in zentralen Leitstrukturen,<br />

hauptsächlich über die Anzeige- und Bedienkomponenten<br />

des Prozessleitsystems in der Messwarte präsentiert.<br />

Darüber hinaus müssen dem Anlagenfahrer zur Ausübung<br />

seiner zusätzlichen Aufgaben ergänzende Informationen aus<br />

einer heterogenen Systemwelt, zum Beispiel Process Information<br />

and Management System (PIMS), Enterprise Resource<br />

Planning System (ERP), Laboratory and Information Management<br />

System (LIMS), zur Verfügung gestellt und aufgabenbezogen<br />

präsentiert werden.<br />

Diese gewachsene heterogene <strong>Automatisierung</strong>slandschaft<br />

erzeugt eine stetig ansteigende Komplexität der<br />

Arbeitsumgebung von Leitwarten<strong>mit</strong>arbeitern. Zusätzlich<br />

führt der zunehmende <strong>Automatisierung</strong>sgrad von<br />

heutigen industriellen Produktionsprozessen zur Einsparung<br />

an Leitwartenpersonal und parallel zu einer starken<br />

Zunahme der pro Anlagenfahrer zu überwachenden Prozessinformationen,<br />

beispielsweise durch die Zusammenlegung<br />

von Leitwarten in Produktionsclustern. Abweichungen<br />

von Prozesswerten müssen auch dann schnell<br />

und zuverlässig erkannt werden, wenn hoch automatisierte<br />

Prozesse lange Zeit störungsfrei laufen; das erfordert<br />

vom Anlagenfahrer ständig hohe Konzentration.<br />

Diese steigende Komplexität der Produktionsprozesse<br />

und der Arbeitsumgebung in Warten erschwert es dem<br />

Anlagenfahrer, ein ganzheitliches mentales Modell der zu<br />

überwachenden Anlage und Prozesse zu bilden. Dabei ist<br />

gerade die Generierung eines mentalen Modells enorm<br />

wichtig. „Laut der statistischen Berichte der ICAO oder der<br />

Versicherungsgesellschaften wie Lloyd werden über 70<br />

Prozent aller registrierten Unfälle, Katastrophen und Havarien<br />

durch den menschlichen Faktor verursacht.“ [15]<br />

Jedoch ist die primäre Ursache für das menschliche Versagen<br />

oft nicht die Fehlbedienung beziehungsweise fehlerhafte<br />

Reaktion des Anlagenfahrers, sondern eine unzureichende<br />

technische Gestaltung der Bediensicherheit<br />

unter Berücksichtigung des menschlichen Faktors. Der<br />

menschliche Faktor ist auch aus Sicht des demografischen<br />

Wandels und der da<strong>mit</strong> einhergehenden zunehmenden<br />

Zahl älterer Mitarbeiter in industriellen Bereichen bei der<br />

Gestaltung von Mensch-Maschine-Schnittstellen (Human-<br />

Machine-Interface, abgekürzt HMI) zu berücksichtigen.<br />

Eine Lösung bietet der Einsatz nutzer- und aufgabenorientierter<br />

Konzepte. Diese zielen darauf ab, Arbeitssysteme<br />

ganzheitlich zu gestalten, das heißt den Einsatz von<br />

Technik, Organisation und Qualifikation der Nutzer gemeinsam<br />

zu optimieren. Anstatt die Anpassung des Menschen<br />

an die Technik zu fordern, muss sich die Technik<br />

an den Menschen anpassen [3]. Bereits in der frühen Planungsphase<br />

von verfahrenstechnischen Anlagen sind<br />

diese Aspekte der ergonomischen Prozessvisualisierung<br />

beim Design und der konzeptionellen Festlegung von<br />

Anlagenleitständen und Bedienkonzepten ausreichend<br />

zu berücksichtigen. Diese ergonomische Benutzungsschnittstelle,<br />

leistet dazu einen wesentlichen Beitrag.<br />

Der Beitrag stellt zunächst den Status quo der Prozessvisualisierung<br />

in der Prozessindustrie vor, wie er den<br />

Anforderungen an die Arbeitsbelastung der Anlagenfahrer<br />

und den zugehörigen Standards und Regelwerken<br />

entspricht. Weiterhin wird auf konzeptionelle Ansätze<br />

der Gestaltung von Leitplätzen sowie deren Elemente<br />

und Strukturen eingegangen. Besonders hervorgehoben<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

63


HAUPTBEITRAG<br />

wird die Implementierung von innovativen Visualisierungskonzepten<br />

in Prozessleitsystem-(PLS)-Projekten.<br />

Zur Illustration des diskutierten Konzepts wird eine<br />

Implementierung einer Destillationskolonne <strong>mit</strong>hilfe des<br />

Prozessleitsystems Simatic PCS 7 vorgestellt.<br />

1. STATUS QUO DER PROZESSVISUALISIERUNG<br />

Das Anzeige- und Bedienkonzept für Anlagenfahrer hat<br />

sich in den vergangenen Jahren deutlich verändert. Früher<br />

wurden Anlagen <strong>mit</strong>hilfe einer großflächigen Mosaiktafel<br />

zur zeitgleichen Anzeige aller Instrumente in der<br />

zentralen Messwarte bedient und beobachtet. Heute sitzt<br />

der Anlagenfahrer an einem PC-Bedienplatz <strong>mit</strong> bis zu<br />

vier Bildschirmen. Die Übersichtlichkeit in der Darstellung<br />

des Anlagenstatus und Prozesszustandes ist im Vergleich<br />

zur Mosaiktafel flächenbedingt eingeschränkt,<br />

allerdings sind viele zusätzliche Informationen verfügbar,<br />

zum Beispiel über Diagnosefunktionen. Um trotz<br />

begrenzter Bildfläche (vier Bildschirme) aussagekräftige<br />

Grafikbilder darzustellen und die Orientierung sowie<br />

Bildanwahl zu ermöglichen, wird die Gesamteinheit an<br />

Informationen einer verfahrenstechnischen Anlage hierarchisch<br />

in verfahrens- und leittechnische Darstellungen<br />

gegliedert, wobei die Übergänge fließend sind. Entsprechend<br />

ihrer Lage in der Hierarchie unterscheidet die<br />

VDI 3699-3 [6] Grafikbilder für die Ebenen Anlage, Bereich,<br />

Teilanlage und Anlagenteile (siehe Bild 1).<br />

In der Praxis überwiegen an der Instrumentierung ausgerichtete<br />

Level-3-Grafikbilder auf der Ebene Teilanlage,<br />

die auf der Basis von Rohrleitungs- und Instrumentenfließbildern<br />

entstanden sind. Der Anlagenfahrer benötigt<br />

jedoch zusätzliche informationsorientierte Übersichtsund<br />

Gruppendarstellungen, die seiner Prozessführungsaufgabe<br />

angemessen sind; was gleichzeitig benötigt wird,<br />

ist auch gleichzeitig anzuzeigen. Anderenfalls sind zusätzliche,<br />

zeitaufwendige Anwahlbedienungen sowie<br />

Belastungen des Kurzzeitgedächtnisses durch Merken<br />

notwendig. Des Weiteren werden Prozesswerte numerisch<br />

angezeigt, wodurch eine Bewertung, ob sich der Prozesswert<br />

im Zielbereich bewegt, individuell durch den Anlagenfahrer<br />

erfolgen muss. Ein weiterer Schwerpunkt liegt<br />

im Bereich von Grafikeffekten, wie dreidimensionale<br />

Darstellungen oder der zusätzlichen Anzeige von Gerätestatusinformationen,<br />

die allerdings für die primäre Aufgabe<br />

des Anlagenfahrers keinen Vorteil liefern. Heutige<br />

Visualisierungssysteme und -verfahren erzielen nur in<br />

Teilbereichen gute Ergebnisse; beispielsweise können einzelne<br />

Teilanlagen oder Teilprozesse durch Grafikbilder<br />

entsprechend übersichtlich abgebildet werden. Die eingesetzten<br />

Systemlösungen sind gekennzeichnet durch:<br />

Heterogene Systemwelt unterschiedlicher Geräte<br />

und Softwareprodukte <strong>mit</strong> inhomogenen Bedienoberflächen<br />

(PIMS, ERP, LIMS, Asset-Management-Systeme)<br />

Mehrere Ein- und Ausgabegeräte pro Rechner am<br />

Operator-Arbeitsplatz<br />

Standard-Konfiguration von Operator-Arbeitsplätzen<br />

(beispielsweise grundsätzlich vier Bildschirme pro<br />

Client)<br />

Kostengetriebene Arbeitsplatzgestaltung<br />

Diese Verfahren zur Darstellung von Prozesswerten zeigen<br />

jedoch Schwächen hinsichtlich:<br />

Darstellung des Gesamtzustandes des Prozesses beziehungsweise<br />

der Anlage „Big Picture“<br />

Informationsaufnahme des Bedieners durch den<br />

überwiegenden Einsatz von alphanumerischen Anzeigen<br />

anstatt von Analogdarstellungen <strong>mit</strong> Mustererkennung<br />

Aufmerksamkeitssteuerung des Anlagenfahrers infolge<br />

der Form- und Farbkodierungen<br />

Aufgaben- und tätigkeitsbezogener Visualisierung<br />

Darstellung von Informationen<br />

Des Weiteren wird die Konzept- und Designphase von<br />

konzeptionellen Schwächen begleitet:<br />

Prozessbilder werden auf der Basis eingekreister<br />

Rohrleitungs- und Instrumentenfließbilder <strong>mit</strong> einem<br />

anderen Darstellungszweck erstellt<br />

Gerade in Neuanlagen kann das Bedienpersonal<br />

nicht frühzeitig in den Designprozess eingebunden<br />

werden<br />

Fehlender geräteübergreifender Standard der Prozessvisualisierung<br />

Fehlendes Prozess-Know-how im Design-Prozess<br />

Prozesswissen erfahrener Anlagenfahrer wird unzureichend<br />

in das Design der Prozessvisualisierung<br />

übernommen<br />

2. ERGONOMISCHE PROZESSVISUALISIERUNG<br />

Nachfolgend wird das Konzept einer ergonomischen Benutzungsschnittstelle<br />

zur industriellen Prozessführung<br />

nach EEMUA 201 [10] vorgestellt (siehe Bild 2).<br />

Dieses Konzept vereint bekannte Elemente und Strukturen<br />

von Bedieneinheiten, wie Bedienoberflächen und<br />

deren Bedienverfahren, die Gestaltung von Leitplätzen<br />

und Messwarten und organisatorische Maßnahmen in einem<br />

ganzheitlichen Lösungsansatz. Ausgangspunkt aller<br />

Betrachtungen ist die detaillierte Analyse der Anlagenfahrer-Tätigkeiten<br />

Überwachen, Eingreifen und Diagnose<br />

(siehe Bild 3) hinsichtlich der Prozessführung und zusätzlicher<br />

Aufgaben im Umfeld der Messwarte, siehe Beispiele<br />

in Tabelle 1. Diese Analyse der Anlagenfahrer-Tätigkeiten<br />

wird projektbezogen unter Einbeziehung der Bedienmannschaft<br />

für jede Anlage spezifisch durchgeführt.<br />

Aus der Priorisierung der Anforderungen an die Prozessvisualisierung<br />

(Tabelle 1) lassen sich folgende Themen<br />

zu deren Verbesserung ableiten:<br />

Maßnahmen in der Konzept- und Designphase:<br />

Konzept der Prozessvisualisierung im Design Guide<br />

der Prozessvisualisierung spezifizieren<br />

Bedienpersonal frühzeitig in den Designprozess einbinden,<br />

in der Regel nach Freigabe des Design Guides<br />

der Prozessvisualisierung. Falls nicht möglich, sind<br />

die übergeordneten, abstrakten Gruppendarstellungen<br />

nachträglich in der Optimierungsphase zu erstellen<br />

Experten <strong>mit</strong> Prozess-Know-how (zum Beispiel erfahrene<br />

Anlagenfahrer) einbinden und deren Wissen<br />

(beispielsweise Referenzwerte für Prozessparameter)<br />

in die Prozessbilddarstellungen übernehmen<br />

64<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


Bild 1<br />

Verfahrenstechnik<br />

Anlage<br />

Bereich<br />

Teilanlage<br />

Anlagenteil<br />

Level 4<br />

L1-Übersichtsgrafik<br />

Hierarchie L. 1<br />

Level 3<br />

L2-Übersichtsgrafik<br />

Level 2<br />

L3-Detailgrafik<br />

L4-Detailgrafik<br />

BILD 1: Hierarchieebenen von Grafikbildern<br />

nach VDI 3699-3 [6]<br />

Bild 3<br />

Leittechnik<br />

Anlage<br />

Bereich<br />

Gruppe<br />

Kreis<br />

Aufgabe<br />

Tätigkeit<br />

Prozessführung<br />

Eingreifen Überwachen Diagnose<br />

Handlungsfolge<br />

Operator-Rundgang<br />

Absuchen<br />

Entdecken<br />

Entdecken<br />

Suchen<br />

Erkennen<br />

Zählen Vergleichen<br />

Interpretieren<br />

Entscheiden<br />

Routine-Überwachung<br />

durch System<br />

Signalort<br />

Was ist es?<br />

Wo?<br />

Was bedeutet es?<br />

Gegenmaßnahmen<br />

Messwarte<br />

Suchen<br />

Stellteil<br />

Bild 2<br />

Ausführen<br />

Betätigen Stellteil<br />

Überprüfen<br />

Gewünschte Wirkung<br />

Ergonomische Benutzungsschnittstelle<br />

Bedien- und<br />

Beobachtungssystem<br />

Bedienoberfläche<br />

Operator<br />

Leitplatz<br />

(Operator-<br />

Arbeitsplatz)<br />

Console<br />

Messwarte Organisation /<br />

VT-Anlage<br />

BILD 3: Tätigkeiten und Handlungen des Anlagenfahrers<br />

in der Prozessführungsaufgabe nach VDI/VDE 3699 [5]<br />

Design Implementierung Betrieb<br />

BILD 2: Konzept einer ergonomischen<br />

Benutzungsschnittstelle zur industriellen<br />

Prozessführung nach EEMUA 201 [10]<br />

No. Aufgabe Tätigkeit Handlung Anforderung an die Prozessvisualisierung<br />

1 Prozess führung Überwachen einer<br />

automatisierten Anlage<br />

2 Prozess führung Überwachen einer<br />

automatisierten Anlage<br />

3 Prozess führung Überwachen einer<br />

automatisierten Anlage<br />

4 Materialdisposition<br />

5 Dokumentation<br />

der Prozessführung<br />

6 Erweiterte<br />

Qualitätssicherung<br />

Einsatzstoffe<br />

disponieren<br />

Schichtbuch führen<br />

Überwachen der<br />

qualitätsrelevanten<br />

Prozessparameter<br />

Beobachten von<br />

wesentlichen<br />

Fahrparametern<br />

(verfahrens technische<br />

KPIs)<br />

Erkennen/Wahrnehmen<br />

von Störungen<br />

Suchen/Identifizieren<br />

der Störungsursache<br />

Eingabe von<br />

Rezeptparametern<br />

Relevante Prozesswerte<br />

in Schichtbuch<br />

eintragen<br />

Beobachten von<br />

Qualitäts– KPIs<br />

– Level-2-Übersichtsdarstellungen <strong>mit</strong> wesentlichen Fahrparametern<br />

der zu überwachenden Anlage<br />

– Anzeige der zulässigen Toleranzen<br />

– Anzeige von Grenzwertverletzungen<br />

– Anzeige von Alarmen und deren Prioritäten<br />

– Analoganzeigen zur „Muster-Unterstützung“<br />

– Trendanzeigen zur Situationseinschätzung und Entscheidung<br />

über Fahrstrategie<br />

– Aufmerksamkeitssteuerung durch Farbschema <strong>mit</strong> speziellen<br />

Alarmfarben<br />

– Vermeidung einer kognitiven Überforderung<br />

– Sprungfunktion von Alarmseite zur Messstelle im Prozessbild<br />

TABELLE 1: Anforderungen an die Prozessvisualisierung aufgrund der Aufgaben von Anlagenfahrern<br />

– Einheitliche und geräteneutrale Präsentation der Bedienmasken<br />

– Verwendung der gleichen Ein- und Ausgabegeräte wie zur<br />

Prozessführung<br />

– Präsentation aller relevanten Prozesswerte in einer Darstellung<br />

(Protokoll)<br />

– Visualisierung von Qualitäts-KPIs in Übersichtsdarstellungen<br />

der Prozessführung<br />

– Geräteunabhängige homogene Präsentation der Qualitäts-KPIs<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

65


HAUPTBEITRAG<br />

Bild 4<br />

BILD 4: Serviceschritte zur<br />

Implementierung von<br />

ergonomischen<br />

Visualisierungskonzepten<br />

in PLS-Projekten<br />

PLS HMI<br />

Evaluierung<br />

Konzept<br />

Operator<br />

Workshop<br />

PLS-Projekt<br />

Analyse<br />

Design<br />

BILD 5: Level-2-Übersichtsdarstellung<br />

für die<br />

Destillationskolonne<br />

TABELLE 2: Anforderungen an<br />

die Prozessvisualisierung einer<br />

Destillationskolonne (Auszug)<br />

No. Aufgabe Tätigkeit Handlung Anforderung an die Prozessvisualisierung<br />

1 Prozessführung<br />

2 Prozessführung<br />

3 Prozessführung<br />

4 Prozessführung<br />

5 Prozessführung<br />

6 Prozessführung<br />

Eingreifen<br />

Überwachen<br />

Überwachen<br />

Diagnose<br />

Eingreifen<br />

Überwachen<br />

An- und Abfahren der<br />

Destillations kolonne<br />

Kontinuierliche<br />

Überwachung der<br />

Qualität<br />

Überwachen<br />

der Prozessund<br />

Anlagenverfügbarkeit<br />

Reagieren auf<br />

Prozess abweichungen<br />

Schnelles und<br />

sicheres Reagieren in<br />

kritischen Situationen<br />

Kontinuierliche<br />

Überwachung<br />

der Kolonne im<br />

Kontext weiterer<br />

Teilanlagen<br />

– Detaildarstellung aller Prozessgrößen in Anlagen-topologisch strukturierten<br />

Level-3-Prozessgrafiken<br />

– Bedienbarkeit der Prozessparameter<br />

– Bediendarstellungen für das An- und Abfahren, beispielsweise Ablaufsteuerungen<br />

– Anzahl der Bildschirme ist der Bedienaufgabe angemessen<br />

– Übersichtsdarstellungen aller qualitätsrelevanter Fahrparameter der Kolonne in<br />

aufgabenangemessenen Level-2-Prozessgrafiken<br />

– Anzeige der zulässigen Toleranzen<br />

– Analoganzeigen zur Muster-Unterstützung<br />

– Trendanzeigen zur Situationseinschätzung und Entscheidung über Fahrstrategie<br />

– Übersichtsdarstellungen <strong>mit</strong> wesentlichen Fahrparametern der Kolonne in<br />

aufgabenangemessenen Level-2-Prozessgrafiken<br />

– Anzeige von Grenzwertverletzungen<br />

– Anzeige von Alarmen und deren Priorität<br />

– Trendanzeigen zur Situationseinschätzung und Entscheidung über Fahrstrategie<br />

– Aufmerksamkeitssteuerung durch Farbschema <strong>mit</strong> speziellen Alarmfarben<br />

– Vermeidung einer kognitiven Überforderung<br />

– Sprungfunktion von Alarmseite beziehungsweise Übersichtsdarstellung zur Messstelle<br />

im Detail-Prozessbild<br />

– Detaildarstellung aller Prozessgrößen in Anlagen-topologisch strukturierten<br />

Level-3– Prozessgrafiken<br />

– Bedienbarkeit der Prozessparameter<br />

– Anzahl der Bildschirme ist der Gleichzeitigkeit der Bedienaufgabe angemessen<br />

– Komprimierte Übersichtsdarstellungen wesentlicher Fahrparameter der Kolonne<br />

in aufgabenangemessenen Level-1-Prozessgrafiken<br />

– Komprimierte Übersichtsdarstellung wesentlicher Fahrparameter anderer<br />

Teilanlagen<br />

– Anzeige von Anlagen-KPIs<br />

– Navigation in Bildhierarchie durch Sprungfunktionen<br />

66<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


Systemlösungen:<br />

Multifunktionaler integrierter Operator-Arbeitsplatz<br />

<strong>mit</strong> homogener Bedienoberfläche, Bedienung <strong>mit</strong><br />

gleichen Ein-Ausgabegeräten<br />

Applikationen aller Einzelgeräte nach einem systemweiten<br />

Design Guide der Prozessvisualisierung<br />

Konfiguration des Operatorarbeitsplatzes als Teil der<br />

Leitplatzorganisation<br />

Ergonomische Gestaltung des Operatorarbeitsplatzes<br />

Gestaltung der Warte nach ergonomischen Kriterien<br />

und Anforderungen an Arbeitsstätten<br />

Verfahren zur Darstellung von Prozesswerten:<br />

Zusätzlicher Einsatz von abstrakten Bedienverfahren,<br />

bei denen die Prozesstopologie eine untergeordnete<br />

Rolle spielt, zum Beispiel prozessbezogene<br />

und aufgabenangemessene Übersichts- und Gruppendarstellungen<br />

auf dem Level-1/2 <strong>mit</strong> wesentlichen<br />

Fahrparametern der zu überwachenden Anlage,<br />

in einer Anordnung von Hybridanzeigen <strong>mit</strong><br />

Zielbereich- und Grenzwertvisualisierung, die die<br />

Mustererkennung unterstützt. Die darzustellenden<br />

Fahrparameter werden in Interaktion <strong>mit</strong> dem Bedienpersonal<br />

anhand von Kriterien ausgewählt.<br />

Aufgrund der Gebrauchstauglichkeit dieser Übersichtsdarstellungen<br />

für den Operator erfolgen daraus<br />

erfahrungsgemäß etwa 80 % der Bedienung und<br />

Beobachtung im Normalbetrieb der Anlage.<br />

Teilweiser Ersatz alphanumerischer Anzeigen durch<br />

Analog- und Hybridanzeigen sowie Kurvendarstellungen<br />

Reduktion der Komplexität von Prozessfließbildern<br />

durch aufgaben- und prozesszustandsorientierte<br />

Auswahl der darzustellenden Prozesswerte (dezidierte<br />

Darstellungen für das An- und Abfahren, den<br />

Normalbetrieb, Lastwechsel und Diagnose)<br />

Einsatz eines Farbschemas inklusive Alarmfarben<br />

Prozessbilddarstellungen als Bestandteil der Leitplatzorganisation<br />

Darstellung von Informationen statt Daten, beispielsweise<br />

neuartige Darstellungsobjekte für Temperaturverteilungen,<br />

Trenddarstellungen zur Situationseinschätzung<br />

und Entscheidungsfindung<br />

über Fahrstrategien oder Kiviat-Diagramme zur<br />

komprimierten Darstellung von drei bis zehn Prozesswerten<br />

zwecks Evaluierung für zuvor festgelegte<br />

Kriterien<br />

Das Konzept basiert auf den in der VDI/VDE 3699 „Prozessführung<br />

<strong>mit</strong> Bildschirmen“ [4-9] genannten Regeln<br />

und Empfehlungen für die Gestaltung von Darstellungen<br />

bei Verwendung von Bildschirmsystemen zur Prozessführung.<br />

Die dort getroffenen Empfehlungen werden im<br />

vorliegenden Konzept weitergeführt und in den Kontext<br />

einer ergonomischen Prozessvisualisierung gestellt.<br />

3. IMPLEMENTIERUNG IN PLS-PROJEKTEN<br />

In diesem Abschnitt wird die Implementierung des Konzepts<br />

in PLS-Projekten beschrieben (siehe Bild 4). Übliche<br />

PLS-Projekte sind <strong>Automatisierung</strong>slösungen für<br />

Neuanlagen, Migrationen von Altsystemen, Optimierungsprojekte<br />

oder die Kombination aus Migrationsund<br />

Optimierungsprojekt. Voraussetzungen für eine<br />

umfassende Implementierung sind eine existierende<br />

beziehungsweise bekannte Basisautomatisierung (HMI<br />

zur Evaluierung) und Betriebserfahrungen zur Analyse<br />

der Operator-Aufgaben. Teilimplementierungen, insbesondere<br />

der Messwarten-, Leitstands-, Farb-, Darstellungs-<br />

und Alarmmanagement-Konzepte sind auch für<br />

Neuanlagenprojekte notwendig.<br />

Wie in Bild 4 dargestellt, werden die Implementierungsphasen<br />

Evaluierung, Konzept, Operator Workshop,<br />

Analyse und Design durch einen Service <strong>mit</strong> umfangreichen<br />

prozesstechnischen Kenntnissen erbracht. Die<br />

HMI-Projektierung erfolgt dann im PLS-Projekt. Der Gestaltungsprozess<br />

orientiert sich an den Grundsätzen der<br />

menschzentrierten Gestaltung nach DIN EN ISO 9241-<br />

210 [16] und ist auf die industrielle Praxis der Prozessvisualisierung<br />

ausgerichtet.<br />

Das Visualisierungskonzept sollte gezielt auf die Arbeitsabläufe<br />

der Nutzer abgestimmt sein (siehe Abschnitt<br />

2). Daher ist zu empfehlen, die Anlagenfahrer<br />

aktiv in den Entwicklungsprozess einzubeziehen. Nur<br />

so lassen sich deren oftmals über viele Jahre angesammelte<br />

Erfahrung und das da<strong>mit</strong> verbundene kostbare<br />

Know-how in das Design des Leitstandes einbeziehen<br />

und da<strong>mit</strong> sichern.<br />

Evaluierung<br />

Ein leistungsfähiges Bedien- und Beobachtungskonzept<br />

muss auf den neuesten wissenschaftlichen Erkenntnissen<br />

hinsichtlich Ergonomie und Usability<br />

beruhen. Dazu wird der vorhandene Leitstand im Zuge<br />

eines Evaluierungsprozesses, zum Beispiel nach Kriterien<br />

der EN ISO 11064-5 [14] bewertet:<br />

System-Befugnis<br />

Informationsanforderungen<br />

Effiziente Mensch-System-Schnittstelle<br />

Benutzerorientierte Gestaltung<br />

Erzeugen von Aufmerksamkeit<br />

Anwendung ergonomischer Grundsätze und so weiter<br />

Konzept<br />

Das im Evaluierungsprozess gefundene Potenzial<br />

wird in der Konzeptphase bewertet und ein Maßnahmenkatalog<br />

zur Optimierung des Leitstandes erarbeitet.<br />

Der Umfang dieser Maßnahmen wird in einem<br />

Design Guide verabschiedet und beschreibt folgende<br />

Inhalte:<br />

Umfang der HMI-Maßnahmen<br />

Bildinhalte/-Aussehen/-Navigation<br />

Darstellungsstandards<br />

Design der Bedienkonsolen und Leitstände<br />

Leitwartendesign<br />

Beschreibung des HMI-Design-Prozesses<br />

Operator Workshop<br />

Der verabschiedete Maßnahmenkatalog wird in einem Operator<br />

Workshop erklärt und den Nutzern vertraut gemacht.<br />

Dabei geht es unter anderem um das verwendete Farbkonzept,<br />

die neuartigen informationsorientierten Anzeigen<br />

sowie die aufgaben- und topologieorientierte Darstellung<br />

der Ebene von Prozessgruppen (Level-2-Grafikbilder).<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

67


HAUPTBEITRAG<br />

Analyse<br />

In der Analysephase werden die vorhandenen Prozessbilder<br />

<strong>mit</strong> allen Beteiligten – idealerweise in der Messwarte<br />

am Livesystem – durchgesprochen, um zu erkennen,<br />

inwiefern sie die tatsächlichen Prozesse repräsentieren<br />

und die erforderlichen Bedienabläufe unterstützen.<br />

Design<br />

Aus den in der Analyse gewonnenen Erkenntnissen<br />

werden übergeordnete Prozessgruppendarstellungen<br />

erstellt und die jeweils am besten geeigneten Darstellungsformen<br />

– digital, analog und/oder Kurvendarstellung<br />

– bestimmt. Im Ergebnis entstehen die Level-<br />

2-Prozessbilder, über die künftig 80 Prozent aller Bedienvorgänge<br />

vorgenommen werden sollen. In einer<br />

anschließenden Optimierungsphase haben die Anlagenfahrer<br />

Gelegenheit, diese neuartigen Level-2-Prozessbilder<br />

aus Anwendersicht zu beurteilen und ergänzende<br />

Verbesserungsvorschläge einzubringen.<br />

Implementierung in PLS-Projekt<br />

Nach der Genehmigung durch den Betreiber werden<br />

die Bildentwürfe im Rahmen des PLS-Projektes in die<br />

Visualisierungssoftware umgesetzt.<br />

Eine parallele Bearbeitung des Service und des PLS-<br />

Projektes (siehe Bild 4) ist möglich und bietet folgende<br />

Vorteile:<br />

PLS-Projekte, wie Migrationsprojekte, sind in der Regel<br />

kosten-, termin- und risikogetrieben und lassen<br />

kaum Spielraum für funktionale Erweiterungen<br />

System-Upgrades sind ideale Zeitpunkte für funktionale<br />

Optimierungen und Erweiterungen, weil sich<br />

die Anlagenbediener auf neue Systemmerkmale einstellen<br />

müssen<br />

Optimierungsprojekte können weitestgehend <strong>mit</strong> der<br />

Bedienmannschaft als Ansprechpartner durchgeführt<br />

werden; die knappen Ressourcen, insbesondere<br />

auf der Betreiberseite werden da<strong>mit</strong> berücksichtigt<br />

Für die Bearbeitung von PLS-Projekten und HMI-<br />

Optimierungsprojekten sind unterschiedliche Kompetenzen<br />

erforderlich. Während für PLS-Projekte<br />

eher System- und <strong>Automatisierung</strong>skenntnisse erforderlich<br />

sind, werden für die ergonomische Gestaltung<br />

des HMI sowohl umfangreiche verfahrenstechnische<br />

Kenntnisse als auch Kenntnisse im Usability<br />

Engineering benötigt<br />

In vielen Fällen werden im Zuge von Migrationen<br />

auch Messwarten zusammengelegt; die da<strong>mit</strong> einhergehende<br />

höhere Arbeitslast muss durch ein leistungsfähigeres<br />

HMI-Design kompensiert werden<br />

4. IMPLEMENTIERUNG EINER DESTILLATIONSKOLONNE<br />

Das in den vorigen Abschnitten beschriebene Konzept<br />

wird nachfolgend am Beispiel einer Zweistoff-Destillationskolonne<br />

erläutert. Die Destillation, genauer als Rektifikation<br />

bezeichnet, ist ein in der chemischen und petrochemischen<br />

Industrie häufig angewandtes Verfahren<br />

zur thermischen Trennung von Mehrstoffgemischen. Die<br />

Anforderungen an die Destillation steigen ständig im<br />

Hinblick auf Reinheit und Wirtschaftlichkeit.<br />

Im ersten Schritt wurde die Aufgabenanalyse unter<br />

Einbeziehung der Bedienmannschaft durchgeführt. Wesentliche<br />

Aufgaben des Anlagenfahrers einer Destillationskolonne<br />

sind in der Tabelle 2 aufgeführt (Auszug).<br />

Diese Aufgaben werden im Anzeige- und Bedienkonzept<br />

berücksichtigt, um eine optimale Arbeitsumgebung<br />

für den Operator zu gewährleisten.<br />

Für das An- und Abfahren der Destillationskolonne<br />

(Aufgabe 1 der Tabelle 2) werden die üblichen Level-<br />

3-Detaildarstellungen verwendet, diese sind nicht Gegenstand<br />

der Betrachtung in diesem Beispiel.<br />

Für die Überwachung der relevanten prozesstechnischen<br />

Kenngrößen (Aufgaben 2/3 der Tabelle 2) wird eine<br />

gemeinsame Level-2-Übersichtsdarstellung gewählt (siehe<br />

Bild 4).<br />

Diese beinhaltet die wichtigsten Prozesswerte und Regelungen<br />

der Destillationskolonne. Diese Darstellung hat<br />

den Vorteil, dass viele Daten zu einer komprimierten Informationsdarstellung<br />

zusammengefasst werden können.<br />

Die Aufgabe 2 der Tabelle 2 „Kontinuierliche Überwachung<br />

der Prozessqualität“ wird einerseits durch die<br />

Darstellung des Temperaturprofils und andererseits<br />

durch die Kurvendarstellung des Model Predictive Controller<br />

(MPC, Modell-prädiktiver Regler) im Level-2-Bedienbild<br />

wirksam unterstützt. Wegen des Zusammenhangs<br />

zwischen Temperaturen (hier TI 3113 und TI<br />

3111) und Konzentrationen im Phasengleichgewicht<br />

(von Dampf und Flüssigkeit) wird durch eine Temperaturregelung<br />

indirekt eine Konzentrationsregelung, das<br />

heißt die Qualitätsregelung für den Prozess der Stofftrennung<br />

bei der Destillation erreicht. Der entscheidende<br />

wirtschaftliche Nutzen ergibt sich durch die bedarfsgerechte<br />

Fahrweise der Kolonne, indem die Sollwerte<br />

für die Qualitätsregelung zielgerichtet modifiziert<br />

werden können. Es wird also nicht die bestmögliche<br />

Qualität produziert, sondern die am wirtschaftlichsten<br />

herstellbare zulässige Qualität. In anderen Anlagenkonstellationen<br />

kann es andere Optimierungsziele geben.<br />

Beispielsweise kann der Durchsatz maximiert werden,<br />

indem bei laufender Qualitätsregelung der Zulauf<br />

schrittweise erhöht wird, bis die Heizdampfmenge sich<br />

in der Nähe der Obergrenze einpendelt.<br />

Die Beurteilung des Prozesszustands – hier der Prozessqualität<br />

– anhand der Temperaturen als Analogwertanzeigen<br />

kann nur aus Erfahrung getätigt werden. Visualisiert<br />

man die Temperaturen stattdessen als Temperaturverlauf<br />

des optimalen Arbeitsbereichs, kann die Beurteilung<br />

direkt aus dem Bild abgelesen werden (siehe<br />

Bild 5: Die untere Temperatur TI 3111 weicht um vier<br />

Kelvin vom Arbeitspunkt ab).<br />

Ähnlich verhält es sich <strong>mit</strong> der Beurteilung des Prozessverlaufs.<br />

Die Kurvendarstellung von Soll-, Ist- und<br />

Stellwerten des MPC untertützt die Situationseinschätzung<br />

und die Wahl der geeigneten Fahrstrategie.<br />

Weitere wichtige Kenngrößen, die in der Level-2-Übersichtsdarstellung<br />

der Kolonne dargestellt werden, sind<br />

der Energieverbrauch der Anlage, der Ausstoß, die Betriebszeit,<br />

die Rücklaufparameter, der Kopfdruck, der<br />

Zulauf und deren Temperatur sowie der Dampfstrom.<br />

Das Gros dieser Kenngrößen wird in Form von informationsorientierten<br />

Hybridanzeigen im Prozessbild repräsentiert.<br />

Diese visualisieren den Gutbereich und Grenzwerte<br />

für den Prozesswert (siehe Bild 6). Eine Beurtei-<br />

68<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


lung anhand eines Analogwertes könnte ansonsten nur<br />

<strong>mit</strong> Erfahrung gemacht werden.<br />

Auch das Farbschema, <strong>mit</strong> der restriktiven Verwendung<br />

der gesättigten Farben Rot und Gelb für die Visualisierung<br />

von Grenzwerten, erfüllt die Anforderungen<br />

an die Prozessvisualisierung hinsichtlich Aufmerksamkeitssteuerung<br />

der Anlagenfahrer. Für die Überwachung<br />

der relevanten prozesstechnischen Kenngrößen der Gesamtanlage<br />

(Aufgaben 6 der Tabelle 2) wird eine gemeinsame<br />

Level-1-Übersichtsdarstellung <strong>mit</strong> einer komprimierten<br />

Darstellung der wesentlichen Fahrparameter<br />

gewählt (siehe Bild 7). So werden die Kenngrößen der<br />

Reaktoren <strong>mit</strong> Kiviat-Diagrammen visualisiert.<br />

Die Optimierung eines HMI hin zu einer ergonomischen<br />

Benutzungsschnittstelle erzielt messbaren Nutzen (siehe<br />

Bild 8). Einheitliche Produktqualität, höhere Verfügbarkeit,<br />

weniger Ausschuss oder schnellere Anfahr- und<br />

Produktwechselzeiten können messbar schichtübergreifend<br />

verbessert und gemessen werden. Weiterhin werden<br />

Fehlbedienungen der Anlagenfahrer durch rasches Erkennen<br />

von Abweichungen vermieden und zielgerichtetes<br />

Reagieren ermöglicht. Die Komplexität wird durch<br />

einheitliche und vereinfachte Benutzungsschnittstellen,<br />

effektives Alarmmanagement und einheitliche Datenschnittstellen<br />

reduziert. Die aktive Einbeziehung der<br />

Anlagenfahrer in die Gestaltung des Bedienkonzepts<br />

trägt zur hohen Akzeptanz und zur kontinuierlichen<br />

Verbesserung des Gesamtprozesses bei und steigert die<br />

Operational Excellence.<br />

Bild 6<br />

5. ERWARTETER NUTZEN<br />

ZUSAMMENFASSUNG UND AUSBLICK<br />

Mit dem vorgeschlagenen ergonomischen Visualisierungskonzept<br />

soll ein ganzheitlicher Lösungsansatz gefunden<br />

werden, um der steigenden Komplexität der zu<br />

Bild 8<br />

Warnung oben<br />

Alarm oben<br />

Produktivität<br />

und<br />

Wirtschaftlichkeit<br />

Produktivität, typisch 5-12%<br />

Quelle: ASM Consortium 2009 [13]<br />

Gutbereich<br />

Prozesswert<br />

unterhalb des<br />

Gutbereichs<br />

Prozesswert <strong>mit</strong><br />

Einheit<br />

Zustand<br />

Simulation<br />

Prozesswert im<br />

Zustand Warnung<br />

Warnung oben<br />

Prozesswert im Zustand<br />

Alarm<br />

Alarm oben<br />

Qualität<br />

Operabilität<br />

und<br />

Verfügbarkeit<br />

Reproduzierbarkeit der<br />

Anlagenfahrweise durch Design<br />

Schwankungsbreite von Qualitäts-<br />

Parametern<br />

Toleranz geg. Rohstoffschwankungen<br />

Störungsempfindlichkeit<br />

HMI-Komplexität<br />

BILD 6: Neuartige Hybridanzeigen ermöglichen die Anzeige von<br />

Gutbereich und Grenzwerten<br />

Qualität der Prozessführung<br />

Arbeitslast des Bedienpersonals<br />

Beherrschung des Bedienerwechsels<br />

Bedienbarkeit<br />

Aufmerksamkeitssteuerung durch<br />

Farbkonzept<br />

Bediensicherheit<br />

Trainingszeiten<br />

Umweltschutz<br />

Gefahr / Risiko durch Fehlbedienung<br />

BILD 8: Nutzen von Konzepten ergonomischer<br />

Benutzungsschnittstellen<br />

BILD 7: Level-1-Übersichtsdarstellung für die Gesamtanlage<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

69


HAUPTBEITRAG<br />

überwachenden Prozesse und der Arbeitsumgebung in<br />

Warten aus der Sicht der Anlagenfahrer wirksam zu begegnen<br />

[11]. Aspekte, wie der sichere Betrieb der Produktionsanlagen<br />

durch die Vermeidung von Bedienfehlern,<br />

die erweiterte Aufgabenstellung der Operatoren, der<br />

Verlust an Betriebs-Know-how durch Mitarbeiterfluktation<br />

und nicht zuletzt die erhöhte Arbeitslast durch Zusammenlegen<br />

von Messwarten, rechtfertigen die Investitionen<br />

in moderne Benutzungsschnittstellen beziehungsweise<br />

erfordern die Umgestaltung traditioneller<br />

Bedienkonzepte. Die Erhöhung der Bediensicherheit von<br />

Prozessanlagen durch eine sichere Ausführung der Bedienkonzeption<br />

wird darüber hinaus durch eine Reihe<br />

von Vorschriften und Richtlinien gefordert. Erste Erfahrungen<br />

bedeutender Anwender sprechen für den Einsatz<br />

dieses Konzeptes [12].<br />

Zukünftige Weiterentwicklungen des Konzeptes im<br />

Rahmen nachhaltiger Visualisierungslösungen für mehr<br />

Effizienz und Rentabilität berücksichtigen unter anderem<br />

folgende Anforderungen:<br />

Effiziente Implementierungskonzepte<br />

Die Benutzungsschnittstelle im demografischen<br />

Wandel<br />

Adaption von Benutzungsschnittstellen, das heißt<br />

Anpassung an die zur Laufzeit vorherrschenden<br />

Randbedingungen, zum Beispiel Benutzerrolle oder<br />

Anlagenzustand.<br />

MANUSKRIPTEINGANG<br />

20.07.2012<br />

Im Peer-Review-Verfahren begutachtet<br />

REFERENZEN<br />

AUTOREN<br />

[1] NA 120: Operator-Arbeitsplatz aus Sicht der Mensch-<br />

Prozess-Kommunikation. Namur, 2008<br />

[2] Charwat, H.J.: Lexikon der Mensch-Maschine<br />

Kommunikation. Oldenbourg Industrieverlag,<br />

München 1994<br />

[3] Wickens, C.D. und Holland, J.G. (2000). Engineering<br />

psychology and human performance. Prentice Hall,<br />

New Jersey, 2000.<br />

[4] VDI/VDE 3699-1: Prozessführung <strong>mit</strong> Bildschirmen,<br />

Blatt 1 Begriffe. Beuth, 2005<br />

[5] VDI/VDE 3699-2: Prozessführung <strong>mit</strong> Bildschirmen,<br />

Blatt 2 Grundlagen. Beuth, 2005<br />

[6] VDI/VDE 3699-3: Prozessführung <strong>mit</strong> Bildschirmen,<br />

Blatt 3 Fließbilder. Beuth, 1999<br />

[7] VDI/VDE 3699-4: Prozessführung <strong>mit</strong> Bildschirmen,<br />

Blatt 4 Kurven. Beuth, 1997<br />

[6] VDI/VDE 3699-5: Prozessführung <strong>mit</strong> Bildschirmen,<br />

Blatt 5 Meldungen. Beuth, 1998<br />

[9] VDI/VDE 3699-6: Prozessführung <strong>mit</strong> Bildschirmen,<br />

Blatt 6 Bedienverfahren und Bediengeräte. Beuth, 2002<br />

[10] EEMUA 201: Process Plant Control Desk utilising<br />

Human-Computer-Interfaces - A Guide to Design,<br />

Operational and Human-Computer Interface Issues“. 2002<br />

[11] Kempf, S. und Glathe, L.: Moderne Anlagenleitstände<br />

und Bedienkonzepte. In: Tagungsband Automation<br />

2011, S.173–176. VDI, 2011<br />

[12] Glathe, L.: Innovatives Bedienkonzept. process news<br />

2012(2), 22 23, 2012<br />

[13] Abnormal Situation Management Consortium. Benefits<br />

- http://mycontrolroom.com/site/content/view/16/29/<br />

[14] EN ISO 11064-5: Ergonomische Gestaltung von Leitzentralen<br />

– Teil 5: Anzeigen und Stellteile. 2008<br />

[15] Galabov, V.: Bediendiagnose - eine Beitrag zur<br />

Steigerung der Mensch-Maschine-Systemverfügbarkeit.<br />

<strong>atp</strong> - <strong>Automatisierung</strong>stechnische Praxis <strong>atp</strong><br />

42(6), 58 63, 2000<br />

[16] DIN EN ISO 9241-210: Ergonomie der Mensch-System-<br />

Interaktion - Teil 210: Prozess zur Gestaltung<br />

gebrauchstauglicher interaktiver Systeme. 2011<br />

Dipl.-Ing. LUTZ GLATHE<br />

(geb. 1962) beschäftigt sich<br />

seit 1990 bei der Siemens AG<br />

(und Vorgängerunternehmen)<br />

in Frankfurt am Main <strong>mit</strong><br />

<strong>Automatisierung</strong>slösungen<br />

und Konzepten. Derzeit ist er<br />

Projektleiter für das HMI-<br />

Consulting und war maßgeblich<br />

an der Entwicklung des Konzeptes beteiligt.<br />

Er ist Mitglied im FA 5.32 „Nutzergerechte<br />

Gestaltung von Prozessleitsystemen (3699)“ des<br />

VDI/VDE-GMA und Gast im Namur-Arbeitskreis<br />

2.9 „Mensch-Prozess-Kommunikation“.<br />

Siemens AG,<br />

Industriepark Höchst, Geb. B598,<br />

D-65926 Frankfurt am Main,<br />

Tel. +49 (0) 69 79 78 46 12,<br />

E-Mail: lutz.glathe@siemens.com<br />

Dipl.-Ing. SVEN KEMPF<br />

(geb. 1972) beschäftigt sich<br />

seit 2000 bei der Siemens<br />

AG in Karlsruhe <strong>mit</strong> dem<br />

Schwerpunkt Leittechnik.<br />

Er arbeitet seit 2004 im<br />

technischen Vertrieb als<br />

Manager für technologische<br />

Konzepte. Seine<br />

Schwerpunkte sind Verfügbarkeitsthemen,<br />

IT-Security und die Optimierung der verfahrenstechnischen<br />

Prozessführung.<br />

Siemens AG,<br />

G. Braun Str. 18, D-76187 Karlsruhe,<br />

Tel. +49 (0) 721 595 60 42,<br />

E-Mail: sven.kempf@siemens.com<br />

70<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


Die Referenzklasse für die<br />

<strong>Automatisierung</strong>stechnik<br />

Erfahren Sie auf höchstem inhaltlichen Niveau, was die<br />

<strong>Automatisierung</strong>sbranche bewegt. Alle Hauptbeiträge<br />

werden in einem Peer-Review-Verfahren begutachtet,<br />

um Ihnen maximale inhaltliche Qualität zu garantieren.<br />

Sichern Sie sich jetzt dieses erstklassige Lektüreerlebnis.<br />

Als exklusiv ausgestattetes Heft sowie als praktisches<br />

e-Paper – ideal für unterwegs, auf mobilen Endgeräten<br />

oder zum Archivieren.<br />

Gratis für Sie: Der Tagungsband AALE 2012 als e-Paper<br />

Das Kompendium bietet eine Zusammenstellung der Fachreferate des 9. Fachkolloquiums<br />

für angewandte <strong>Automatisierung</strong>stechnik in Lehre und Entwicklung an Fachhochschulen.<br />

Die Veranstaltung versteht sich als Forum für Fachleute der <strong>Automatisierung</strong>stechnik aus<br />

Hochschulen und Wirtschaft. Sie wird von der Fakultät Mechatronik und Elektrotechnik der<br />

Hochschule Esslingen <strong>mit</strong> Unterstützung des VFAALE und dem Kompetenzzentrum<br />

Mechatronik BW e.V. organisiert und ausgerichtet.<br />

1. Aufl age 2012, 399 Seiten, Broschur<br />

<strong>atp</strong> <strong>edition</strong> erscheint in : DIV Deutscher Industrieverlag GmbH, Arnulfstraße 124, 80636 München<br />

www.<strong>atp</strong>-online.de<br />

Vorteilsanforderung per Fax: +49 (0) 931 / 4170 - 492 oder im Fensterumschlag einsenden<br />

Ja, ich möchte <strong>atp</strong> <strong>edition</strong> im Abo-plus-Paket lesen.<br />

Bitte schicken Sie mir die Fachpublikation für zunächst ein Jahr (12 Ausgaben) als gedrucktes Heft<br />

+ digital als e-Paper (PDF-Datei als Einzellizenz) für € 638,40 (Deutschland) / € 643,40 (Ausland).<br />

Als Dankeschön erhalte ich den Tagungsband AALE 2012 gratis als e-Book.<br />

Nur wenn ich nicht bis von 8 Wochen vor Bezugsjahresende kündige, verlängert sich der Bezug um<br />

ein Jahr.<br />

Die sichere, pünktliche und bequeme Bezahlung per Bankabbuchung wird <strong>mit</strong> einer Gutschrift von<br />

€ 20,- auf die erste Jahresrechung belohnt.<br />

Firma/Institution<br />

Vorname/Name des Empfängers<br />

Straße/Postfach, Nr.<br />

Land, PLZ, Ort<br />

Telefon<br />

Telefax<br />

Antwort<br />

Leserservice <strong>atp</strong><br />

Postfach 91 61<br />

97091 Würzburg<br />

E-Mail<br />

Branche/Wirtschaftszweig<br />

Bevorzugte Zahlungsweise □ Bankabbuchung □ Rechnung<br />

Bank, Ort<br />

Bankleitzahl<br />

✘<br />

Kontonummer<br />

Widerrufsrecht: Sie können Ihre Vertragserklärung innerhalb von 14 Tagen ohne Angabe von Gründen in Textform (Brief, Fax, E-Mail) oder durch<br />

Rücksendung der Sache widerrufen. Die Frist beginnt nach Erhalt dieser Belehrung in Textform. Zur Wahrung der Widerrufsfrist genügt die rechtzeitige<br />

Datum, Unterschrift<br />

PAATPE0312<br />

Absendung des Widerrufs oder der Sache an den Leserservice <strong>atp</strong>, Franz-Horn-Str. 2, 97082 Würzburg.<br />

Nutzung personenbezogener Daten: Für die Auftragsabwicklung und zur Pfl ege der laufenden Kommunikation werden personenbezogene Daten erfasst, gespeichert und verarbeitet. Mit dieser Anforderung er kläre ich mich da<strong>mit</strong> einverstanden, dass ich von<br />

DIV Deutscher Industrieverlag oder vom Vulkan-Verlag □ per Post, □ per Telefon, □ per Telefax, □ per E-Mail, □ nicht über interessante, fachspezifi sche Medien- und Informationsangebote informiert und beworben werde. Diese Erklärung kann ich <strong>mit</strong> Wirkung für<br />

die Zukunft jederzeit widerrufen.


HAUPTBEITRAG<br />

Semantikvielfalt <strong>mit</strong><br />

AutomationML beherrschen<br />

Vorgehensmodell für die Standardisierung von Datenmodellen<br />

Mit der Einführung eines Konzeptes zur Beherrschung heterogener Datenmodelle im<br />

Austausch von Engineering-Daten hat AutomationML in 2011 und 2012 einen erheblichen<br />

Fortschritt erzielt. Dieser Beitrag beschreibt, warum ein gemeinsames und neutrales<br />

Standard-Datenmodell im Engineering bisher nicht gelungen ist und wie AutomationML<br />

den Umgang <strong>mit</strong> Semantikvielfalt ermöglicht. Daraus entwickeln die Autoren ein evolutionäres<br />

Standardisierungs-Reifegradmodell. Das Konzept ist reif für die industrielle<br />

Einführung und bietet Vorteile für Industrie, Gremien und Akademia.<br />

SCHLAGWÖRTER AutomationML / Datenaustausch / CAEX / Reifegradmodell<br />

Handling semantic heterogeneity with AutomationML –<br />

An approach for the standardization of data models<br />

In 2011, the AutomationML consortium has achieved significant technical progress – the<br />

introduction of a concept that masters different semantics in the data exchange process<br />

of a heterogeneous engineering tool landscape. This contribution gives an overview about<br />

the current technical developement state of the data exchange format AutomationML.<br />

KEYWORDS AutomationML / data exchange / CAEX / COLLADA / PLCopen XML<br />

72<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


RAINER DRATH, MIKE BARTH, ABB Forschungszentrum<br />

Für Ingenieure ist AutomationML ein Hilfs<strong>mit</strong>tel<br />

zum Austausch von Engineering-Daten in einer<br />

heterogenen Werkzeuglandschaft. SPS-Programmierer<br />

tauschen Ablaufsequenzen, Hardwarehierarchien<br />

oder Signaldaten untereinander oder<br />

<strong>mit</strong> Ingenieuren der HMI- oder Elektroplanung aus. Roboterprogrammierer<br />

speichern Bahnverläufe oder importieren<br />

3D-Geometrien und Kinematiken.<br />

Diese unterschiedlichen Sichtweisen lassen die dahinterstehende<br />

Problemstellung erahnen: In der Anlagenplanung<br />

sind viele Personen <strong>mit</strong> jeweils individuellen Planungswerkzeugen<br />

beteiligt. Alle diese Gewerke sind in<br />

einer unsichtbaren Wertschöpfungskette <strong>mit</strong>einander<br />

verbunden: In einem Werkzeug werden Daten erzeugt,<br />

welche in mehreren weiteren Werkzeugen benötigt werden.<br />

Durch fortwährende Anreicherung, durch wiederholtes<br />

Kopieren und Verteilen von Engineering-Daten in<br />

einem solchen Werkzeugnetzwerk entstehen zwangsläufig<br />

Redundanzen und Inkonsistenzen. Deren Identifizierung<br />

und Behebung verursacht erheblichen manuellen<br />

Aufwand [1]. Mit Hinblick auf die Inbetriebnahme (virtuell<br />

oder real) ist die konsistente Zusammenführung<br />

aller Engineering-Daten dabei von besonderer Bedeutung.<br />

Gerade in der Fertigungsautomatisierung werden Antriebe,<br />

SPSn, Roboter oder Sicherheitseinrichtungen verschiedener<br />

Hersteller <strong>mit</strong>einander kombiniert. Jeder<br />

Gerätehersteller stellt dabei seine eigene Engineering-<br />

Software bereit <strong>mit</strong> ihren langjährig gereiften, sinnvollen<br />

und berechtigten Datenmodellen. Im Ergebnis entstehen<br />

eine heterogene Werkzeuglandschaft sowie eine erhebliche<br />

Semantikvielfalt.<br />

1. GRUNDPROBLEM DER SEMANTIKVIELFALT<br />

Warum ist Semantikvielfalt ein Problem? Dies lässt sich<br />

anhand menschlicher Kommunikation darstellen: Menschen<br />

können einen Text verstehen, wenn sie über ein gemeinsam<br />

vereinbartes Modell des Alphabets (die Syntax)<br />

sowie der Bedeutung ihrer Elemente (Semantik) verfügen.<br />

Schrift ist ein selbstverständliches Mittel der Kommunikation.<br />

Dennoch sind Fehler bei der Übertragung <strong>mit</strong>tels<br />

Sprache allgegenwärtig: Kommunikation wird erschwert,<br />

wenn Verfasser und Leser über ein unterschiedliches Alphabet<br />

verfügen, unterschiedliche Syntax verwenden oder<br />

über unterschiedliche Semantikmodelle derselben Sprache<br />

verfügen, zum Beispiel Doppeldeutigkeiten. Gleiche Begriffe<br />

unterschiedlicher Bedeutung oder unterschiedliche Begriffe<br />

gleicher Bedeutungen führen regelmäßig zu Missverständnissen.<br />

Semantische Vielfalt ist keine Spezialität der<br />

<strong>Automatisierung</strong>stechnik, sondern allgegenwärtig.<br />

Der Datenaustausch zwischen Engineering-Werkzeugen<br />

in einer heterogenenen Werkzeuglandschaft leidet an denselben<br />

Problemen: Es fehlt ein vereinbartes gemeinsames<br />

Datenmodell, syntaktisch und semantisch. Um dies zu<br />

beheben, beschreibt die Literatur zwei grundsätzliche<br />

Konzepte: Entweder werden die Werkzeuge <strong>mit</strong>einander<br />

in einer gemeinsamen Datenbank auf einem gemeinsamen<br />

Datenmodell integriert (und so<strong>mit</strong> voneinander abhängig),<br />

oder sie gehen eine lose Kopplung <strong>mit</strong> einem dateibasierten<br />

Datenaustausch ein und bleiben unabhängig. Beide<br />

Ansätze haben ihre Existenzberechtigung (siehe [2], [4]).<br />

Dem dateibasierten Datenaustausch kommt in der Praxis<br />

eine besondere Bedeutung zu, denn die Mehrzahl der<br />

am Markt befindlichen Werkzeuge stammt nicht von<br />

einem Hersteller, ist nicht aufeinander abgestimmt und<br />

besitzt aufgrund ihrer langjährigen Reifung ein eigenes,<br />

bewährtes und berechtigtes Datenmodell. Ihre Werkzeugintegration<br />

ist aufgrund wirtschaftlicher Eigentumsverhältnisse<br />

und Marktbedingungen nicht zu erwarten:<br />

Die Werkzeuge und ihre Datenmodelle liegen in<br />

der Hoheit des jeweiligen Werkzeugherstellers und unterliegen<br />

ständiger Veränderung. Folglich wird ein übergreifendes<br />

gemeinsames Datenaustauschformat benötigt.<br />

1.1 Motivation für AutomationML<br />

Aufgrund fehlender Datenaustauschformate existieren zwischen<br />

den Gewerkegrenzen nach wie vor erhebliche Brüche<br />

im Engineeringworkflow – eine Hauptursache für die von<br />

der AIDA in 2005 bezifferten Engineeringkosten von 50 %<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

73


HAUPTBEITRAG<br />

Bild 1<br />

der Gesamtautomatisierungslösung im Automobilbau [3]. Bild verdeutlicht die Architektur von AutomationML.<br />

Vor diesem Hintergrund initiierte die Daimler AG 2006 unter<br />

anderem gemeinsam <strong>mit</strong> ABB, Siemens und Kuka einen 62424 [5] standardisierte Format CAEX (Computer Aided<br />

Das Rückgrat von AutomationML bildet das in der IEC<br />

Arbeitskreis <strong>mit</strong> dem Ziel, erstmalig ein Datenformat zu Engineering eXchange). Dieses ermöglicht das Modellieren<br />

und Speichern von Objektnetzwerken <strong>mit</strong>samt deren<br />

entwickeln, das möglichst alle Engineering-Disziplinen<br />

und -Phasen abdeckt. Im Ergebnis entstand ein schlankes Attributen, Schnittstellen, Relationen sowie Bibliotheken.<br />

AutomationML definiert darüber hinaus einen Re-<br />

Datenformat, das bestehende Datenformate kombiniert und<br />

lediglich deren Verwendung und Interaktion definiert. ferenzmechanismus, <strong>mit</strong> dem sich Geometrie- und Ki-<br />

Bild 2<br />

CAEX IEC 62424<br />

Dachformat<br />

Anlagentopologie -<br />

information<br />

• Anlage<br />

• Zelle<br />

• Komponente<br />

• Attribute<br />

• Schnittstellen<br />

• Relationen<br />

• Referenzen<br />

Object A<br />

AutomationML<br />

Engineeringdaten<br />

Object A 1<br />

Object A 2<br />

Bild 3<br />

BILD 1: AutomationML-Architektur<br />

COLLADA<br />

Geometrie<br />

Kinematik<br />

PLCopen XML<br />

Verhalten<br />

Abfolgen<br />

a<br />

h<br />

Standardisierung<br />

Praktischer Einsatz<br />

BILD 2: Standardisierungs-<br />

Deadlock<br />

g<br />

DB<br />

Quell-<br />

Tool<br />

1<br />

Exporter<br />

2<br />

3<br />

Ziel-<br />

Tool<br />

Importer<br />

DB<br />

4<br />

BILD 3:<br />

Idealer Datenaustausch<br />

<strong>mit</strong> CAEX<br />

Mapping<br />

Quell – Neutral<br />

Bild 4<br />

AutomationML<br />

Mapping<br />

Neutral – Ziel<br />

Quell-<br />

Tool<br />

Daten liegen gemischt<br />

neutral/privat vor<br />

DB<br />

1<br />

Exporter 2<br />

3<br />

Mapping<br />

1. Quell – neutral<br />

AutomationML<br />

Ziel-<br />

Tool<br />

Importer<br />

DB<br />

4<br />

Mapping<br />

1. neutral – Ziel<br />

2. Quell CAEX – Ziel<br />

BILD 4:<br />

Realer Datenaustausch<br />

<strong>mit</strong> CAEX<br />

74<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


nematikdaten eines Objektes referenzieren lassen. Diese<br />

werden in einer separaten Collada-Datei gespeichert.<br />

Darüber hinaus kann diskretes Verhalten in separaten<br />

PLCopen XML-Dateien beschrieben werden. Einen vertiefenden<br />

Einblick in AutomationML gibt [4].<br />

Bezüglich Geometrie, Kinematik und diskreter Logik<br />

besitzt AutomationML bereits eine definierte Syntax und<br />

Semantik. AutomationML ist aber mehr als nur Geometrie<br />

oder Logik: Auch Objektmodelle sind <strong>mit</strong> CAEX modellierbar,<br />

beispielsweise eine Hardwarehierarchie. CAEX liefert<br />

jedoch keine fertigen Objekt-Bibliotheken, keine Ontologien<br />

oder gar ein Engineering-Weltmodell. Stattdessen trennen<br />

die Entwickler von CAEX bewusst Syntax und Semantik.<br />

CAEX schreibt kein Objektmodell vor, sonden bietet<br />

Mechanismen zur Modellierung beliebiger nutzerdefinierter<br />

Datenmodelle. Diese werden syntaktisch neutralisiert,<br />

die Semantik hingegen bleibt nutzerdefiniert. Auf diese<br />

Weise kann CAEX von Anbeginn unterschiedliche Objektmodelle<br />

abbilden und so Semantikvielfalt aufnehmen.<br />

Da<strong>mit</strong> ist es für zukünftige Standard-Datenmodelle gerüstet.<br />

Doch die Standardisierungs-Community hat bis heute<br />

kein Engineering-Weltmodell etabliert – die Beherrschung<br />

der Semantikvielfalt ist bisher nicht gelungen. Warum?<br />

1.2 Das Grundproblem der Semantik-Standardisierung<br />

Die Ur-Idee eines neutralen Datenformates besteht darin,<br />

Daten herstellerneutral und verlustlos zu speichern. Es<br />

liegt daher der Gedanke nahe, die Semantikvielfalt durch<br />

ein Super-Datenmodell zu beherrschen, das sämtliche<br />

Konzepte aller verwendeten Datenmodelle vereint und<br />

eine eindeutige und verlustlose Abbildung aller Daten<br />

ermöglicht. Dies ist die treibende Kraft aller Standardisierungsaktivitäten.<br />

Da<strong>mit</strong> eine solche Standardisierung<br />

gelingt, müssen folgende Schritte absolviert werden:<br />

1.2.1 Schrittfolge einer Semantik-Standardisierung<br />

a | Eine Gruppe von Experten trägt für jedes beteiligte<br />

Gewerk beziehungsweise Engineeringwerkzeug<br />

alle benötigten Datenmodelle und Konzepte bei.<br />

b | Experten einigen sich auf die gemeinsamen Grundkonzepte.<br />

c | Experten einigen sich auf ein neutrales semantisches<br />

Datenmodell, das alle Grundkonzepte berücksichtigt,<br />

zum Beispiel UML.<br />

d | Experten einigen sich auf eine neutrale Syntax,<br />

beispielsweise basierend auf XML.<br />

e | Die gemeinsamen Grundkonzepte, das semantische<br />

Datenmodell und die Umsetzung in einer gemeinsamen<br />

Syntax werden in einem Dokument niedergeschrieben,<br />

beispielsweise in einem Normtext<br />

oder White Paper.<br />

f | Die Industrie und Akademia schaffen die Voraussetzungen<br />

dafür, dass genügend Experten zur Verfügung<br />

stehen, die den Standard beurteilen und<br />

implementieren können.<br />

g | Anwender und Werkzeughersteller implementieren<br />

und nutzen den Standardentwurf in ihren<br />

Werkzeugen.<br />

h | Erfahrungen aus der praktischen Nutzung des Standards<br />

fließen in (a) zurück und tragen zur Standard-Reifung<br />

bei.<br />

1.2.2 Der Standardisierungs-Deadlock<br />

Die Entwicklung neutraler Datenmodelle wurde und wird<br />

in unterschiedlichen Aktivitäten versucht, zum Beispiel<br />

NE100 [6], Plant-XML [7], STEP [8], Engineering Service<br />

Bus [9], <strong>mit</strong> wissensbasierten Systemen [10] oder ISO 15926<br />

[11]. Ein Engineering-Weltmodell ist dennoch nicht in<br />

Sicht und unter globalen Randbedingungen vermutlich<br />

nicht erreichbar. Während die Standardisierung nur reifen<br />

kann, wenn Erfahrungen aus der praktischen Nutzung<br />

einfließen, warten Werkzeughersteller typischerweise auf<br />

einen gereiften Standard, bevor sie ihre Software <strong>mit</strong> Exund<br />

Importern ausstatten. Daraus resultiert der in Bild 2<br />

veranschaulichte Standardisierungs-Deadlock: die Rückführungen<br />

(g) und (h) sind gestört.<br />

Ein bekanntes Beispiel für dieses Paradoxon ist die STEP-<br />

Initiative. In diesem Ansatz beschreiben tausende Textseiten<br />

vielfältige Aspekte der Anlagenplanung und deren Life-<br />

Cycle. Diese Aktivität hat unter jahrelangen Bemühungen<br />

(a) bis (e) erfolgreich durchlaufen, scheitert in der Praxis<br />

jedoch aufgrund seiner Komplexität an (f), (g) und (h).<br />

Ein anderes Beispiel ist PlantXML. Innerhalb eines<br />

Unternehmens wurden über mehrere Jahre für eine Auswahl<br />

von Werkzeugen hunderte Attribute und Objekttypen<br />

standardisiert. PlantXML hat erfolgreich (a) bis (h)<br />

durchlaufen und ist produktiv. Leider ist es für andere<br />

Unternehmen oder Gewerke nicht wiederverwendbar,<br />

da es an seine Werkzeuge gebunden ist. Folglich besitzt<br />

es Schwächen in (f), (g) und (h) – es ist keine Anwendung<br />

außerhalb ihrer Entstehungsquelle bekannt.<br />

Fazit: Die Erfahrung zeigt, dass das Engineering-Weltmodell<br />

aufgrund der Vielzahl von Werksnormen, regionalen<br />

und nationalen Standards nicht in einem Schritt<br />

erreichbar ist. Es wird daher ein Konzept benötigt, welches<br />

bereits heute den Umgang <strong>mit</strong> der Semantik-Vielfalt<br />

ermöglicht, statt auf ein künftiges übergreifendes Semantik-Modell<br />

zu warten.<br />

2. UMGANG MIT HETEROGENEN DATENMODELLEN<br />

2.1 Grundlagen und Herleitung<br />

Die ursprüngliche Idee eines neutralen Datenformates<br />

beruht darauf, Daten herstellerunabhängig und verlustfrei<br />

zu modellieren und zu speichern. Das vorgestellte<br />

Konzept leitet sich direkt aus den in Bild 3 dargestellten<br />

Aufgaben idealer CAEX-Exporter und -Importer der teilnehmenden<br />

Werkzeuge ab.<br />

Schritt 1: Ein CAEX-Exporter exportiert Daten aus<br />

einer proprietären Datenbank eines Quell-Engineering-Werkzeugs.<br />

Dazu benötigt er Zugriff auf die<br />

Quelldaten.<br />

Schritt 2: Der CAEX-Exporter transformiert die proprietären<br />

Daten verlustfrei in das vereinbarte neutrale<br />

CAEX-Datenmodell und speichert dies als Au-<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

75


HAUPTBEITRAG<br />

tomationML-Dokument ab. Dazu benötigt er Wissen<br />

über das proprietäre Datenmodell sowie das neutrale<br />

Datenmodell und zugleich über zugehörige Transformationsregeln.<br />

Schritt 3: Der CAEX-Importer liest das AutomationML-<br />

Dokument und transformiert die Daten aus dem<br />

neutralen Datenmodell in das proprietäre Datenmodell<br />

des Zielwerkzeugs. Dazu benötigt er Wissen<br />

über das neutrale und das proprietäre Datenmodell<br />

des Zielwerkzeugs sowie über die zugehörigen<br />

Transformationsregeln.<br />

Schritt 4: Der CAEX-Importer importiert die transformierten<br />

Daten in das proprietäre Datenmodell des<br />

Zielwerkzeugs. Dazu benötigt er Zugriff auf die Daten<br />

des Zielwerkzeugs.<br />

Leider fehlt das neutrale Datenmodell. Für eine Vielzahl<br />

vereinzelter Objekte finden sich zwar aus aktuellen Standardisierungsergebnissen<br />

Daten-Teilmodelle, beispielsweise<br />

für ein Signal (NE 100) oder einen Sensor (ISO<br />

15926). Für viele Daten lassen sich in Schritt 2 jedoch keine<br />

oder wenige Transformationsregeln implementieren.<br />

2.2 Die Idee eines gemischten Datenmodells<br />

Was passiert, wenn man private Datenmodelle zuließe,<br />

statt sie zu vermeiden? Fehlende neutrale Datenmodelle<br />

sind für AutomationML kein Hindernis: CAEX erlaubt<br />

explizit das Speichern gemischt proprietär/neutraler<br />

Daten-Teilmodelle. Proprietäre Daten werden immerhin<br />

syntaktisch neutralisiert, semantisch bleiben sie proprietär.<br />

Auch wenn das Zielwerkzeug diese Daten nicht<br />

interpretieren kann (zu Beginn ein sehr wahrscheinlicher<br />

Fall), stellt dies bereits einen erheblichen Gewinn<br />

dar: Erstmalig werden proprietäre Datenmodelle außerhalb<br />

ihres Werkzeugs syntaktisch neutralisiert und explizit<br />

sichtbar. Dies erleichtert die Schritte (a) und (b) der<br />

beschriebenen Standardisierungskette. Dies ändert die<br />

Aufgabe des Exporters (Bild 4):<br />

Schritt 2: Der Exporter transformiert nur diejenigen<br />

proprietären Daten, für die ein neutrales Datenmodell<br />

vorliegt. Die privaten Daten lässt er unverändert<br />

und überträgt sie 1:1 nach CAEX. Das resultierende<br />

CAEX-Dokument enthält in diesem Fall<br />

eine Mischung aus neutralen und privaten Daten-<br />

Teilmodellen.<br />

Andere Engineering-Werkzeuge können diese Datei zumindest<br />

öffnen, Inhalte untersuchen, Änderungsberechnungen<br />

durchführen und Versionsmanagement betreiben. Während<br />

neutrale Datenmodelle identifiziert und importiert<br />

werden können, gelingen die Interpretation und der Import<br />

proprietärer Daten nicht un<strong>mit</strong>telbar. Dazu muss ein Zielwerkzeug<br />

den Absender wissen und dessen Datenmodelle<br />

kennen, um geeignete Transformationsroutinen aufrufen<br />

zu können. Dies ändert die Aufgabe des Importers:<br />

Bild 5<br />

Schritt 3: Der Importer transformiert die neutralen<br />

Daten in das proprietäre Datenmodell des Zielwerkzeugs.<br />

Private Daten müssen jedoch <strong>mit</strong>hilfe zuge-<br />

Reifegrad 1<br />

Reifegrad 2<br />

Reifegrad 3<br />

Reifegrad 3 3<br />

Reifegrad 4<br />

Standardisierungsgrad = 0%<br />

Standardisierungsgrad > 0%<br />

lokaler<br />

Standardisierungsgrad = 100%<br />

übergreifender Standard<br />

Praktischer<br />

Einsatz<br />

Praktischer<br />

Einsatz<br />

Praktischer<br />

Einsatz<br />

Praktischer<br />

Einsatz<br />

Unbek. priv. Datenmodelle<br />

Kandidaten für das<br />

Lastenheft?<br />

Unbek. priv. Datenmodelle<br />

Kandidaten für das<br />

Lastenheft?<br />

Neutrale Datenmodelle<br />

NeutraleTransformationen<br />

Standard Datenmodelle<br />

Standard Transformationen<br />

SW-Entwicklung<br />

SW-Entwicklung<br />

Bekannte priv. Datenmodelle<br />

Private Transformationen<br />

Kandidaten für lokale<br />

Standardisierung?<br />

Bekannte priv. Datenmodelle<br />

Priv.Transformationen<br />

Neutrale Datenmodelle<br />

Neutrale Transformationen<br />

Standardisierung<br />

Lokale Standardisierung<br />

von Mini-Datenmodellen<br />

BILD 5: Reifegrade der<br />

semantischen Standardisierung<br />

76<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


schnittener privater Transformationsregeln interpretiert<br />

werden, oder sie werden ignoriert.<br />

2.3 Identifikation des Quellwerkzeugs<br />

Doch wie kann ein Importer erkennen, welche privaten<br />

Transformationsroutinen angewendet werden müssen?<br />

AutomationML führt dazu erstmalig einen standardisierten<br />

Etikettiermechanismus ein. Die CAEX-Datei bekommt<br />

ein Etikett, dieses wird während des Exports in Schritt 2<br />

eingebettet und enthält Informationen über das Quellwerkzeug<br />

(siehe Abschnitt 1). Ein Importer kann dieses<br />

Etikett auswerten und private Transformationsroutinen<br />

anstoßen. Dies führt für den Praktiker zu schnellen Lösungen<br />

ohne Warten auf das Engineering-Weltmodell.<br />

Doch ist das nicht ein Rückfall in die Situation, in der<br />

jedes Werkzeug seine Daten in seinem eigenen proprietären<br />

Datenformat exportiert? Nein! Folgende Aspekte verdeutlichen<br />

das:<br />

Das Etikettierkonzept erlaubt die automatische Absendererkennung.<br />

Excel-Sheets und andere bekannte<br />

Austauschmechanismen verfügen über keine<br />

standardisierte Methodik dafür.<br />

Das neutrale Datenformat ermöglicht die Neutralisierung<br />

proprietärer Datenmodelle auf Syntax-<br />

Ebene. Dies ermöglicht datenmodellunabhängige<br />

Operationen wie Versionsmanagement oder Änderungsberechnungen<br />

([2], [9]). Derartige Funktionalität<br />

müsste für jedes proprietäre Datenformat erneut<br />

entwickelt werden. Basierend auf einem neutralen<br />

Datenformat genügt eine einzige Implementierung.<br />

Ein Großteil des Importers kann daher<br />

unabhängig vom Quellwerkzeug wiederverwendet<br />

werden.<br />

2.4 Praktische Relevanz<br />

Der vorgeschlagene Ansatz ändert den Weg zu einem<br />

neutralen Datenmodell erheblich: Eine AutomationML-<br />

Datei wird nach dem Datenexport teilweise proprietär.<br />

Dies verletzt die Ur-Idee eines neutralen Datenformates<br />

und verlässt scheinbar bewährte Pfade. Zu Recht: Der<br />

hier vorgeschlagene Ansatz nutzt die Heterogenität bewusst,<br />

anstatt sie überwinden zu wollen.<br />

Entwickler von Exportern und Importern müssen<br />

nicht mehr auf einen gereiften Standard warten.<br />

Dies überwindet den beschriebenen Deadlock<br />

(Bild 2) und beschleunigt die Entwicklung von Datenaustauschlösungen.<br />

Für die Gremien ist die Mischung von privaten und<br />

neutralen Daten-Teilmodellen ein fruchtbarer Boden<br />

für eine erfolgreiche schrittweise Evolution der<br />

Standardisierung. Sie erlaubt, gänzlich ohne Standardisierung<br />

<strong>mit</strong> ausschließlich privaten Daten zu<br />

beginnen, um schrittweise eine vollständige Standardisierung<br />

zu erreichen. Dabei werden Zwischenschritte<br />

durchlaufen, aus denen die Autoren ein<br />

Reifegradmodell ableiten.<br />

3. REIFEGRADE DER STANDARDISIERUNG<br />

3.1 Überblick<br />

Aus der Idee eines gemischt privat/neutralen Datenmodells<br />

entwickeln die Autoren ein Reifegradmodell der<br />

semantischen Standardisierung, dessen Stufen in Bild 5<br />

abgebildet sind. Das Ziel dieses Reifegradmodells besteht<br />

darin, den erläuterten Standardisierungs-Deadlock zu<br />

durchbrechen und den Datenaustausch in einem heterogenen<br />

Werkzeugumfeld auch ohne beziehungsweise<br />

nur <strong>mit</strong> teilweiser Standardisierung durchführen zu<br />

können. Im Vordergrund jedes Reifegrades steht immer<br />

dessen praktischer Einsatz. Die Entwicklung neutraler<br />

Daten-Teilmodelle erfolgt schrittweise und ist nicht<br />

mehr Voraussetzung für den praktischen Einsatz. Dies<br />

bedeutet, dass die Standardisierung der Nutzung folgt,<br />

nicht umgekehrt wie bisher.<br />

3.2 Reifegrad 1 – das vollständig private Datenmodell<br />

Reifegrad 1 beginnt <strong>mit</strong> einem Standardisierungsgrad<br />

von 0 % (das heißt <strong>mit</strong> 100 % privaten Daten). Betrachten<br />

wir den Exporter und Importer eines Quell- und Ziel-<br />

Engineering-Werkzeugs nach Reifegrad 1: Beide verwenden<br />

keinerlei lokale/globale Vereinbarungen oder Standards,<br />

die Werkzeuge sind völlig unabhängig. Der Exporter<br />

exportiert die Daten in Schritt 2 nach CAEX unter<br />

Verwendung der CAEX-Syntax, aber unter Verwendung<br />

des privaten Datenmodells des Quellwerkzeugs.<br />

Die Entwicklung des quellwerkzeugspezifischen Exporters<br />

ist wegen des fehlenden Standards besonders einfach,<br />

der Aufwand wird maßgeblich durch die Offenheit des<br />

Quellwerkzeugs bestimmt [12]. Den Erfahrungen der Autoren<br />

zufolge ist ein Exporter, je nach angestrebter Produktreife,<br />

in wenigen Tagen zu implementieren [15].<br />

Die Entwicklung des quellwerkzeugspezifischen Importers<br />

erfordert mehr Aufwand, wird durch das beschriebene<br />

Konzept aber erheblich unterstützt. Aufgrund<br />

der standardisierten CAEX-Syntax kann der Importer<br />

(selbst ohne Wissen über das Quell-Datenmodell)<br />

die Datei öffnen, durchsuchen und darstellen. Doch das<br />

ist nicht alles: Darüber hinaus sind wesentliche Funktionen<br />

eines Importers wie Navigation, Änderungsberechnungen<br />

sowie Versions-Managementfunktionen unabhängig<br />

vom Datenmodell und lassen sich generisch entwickeln<br />

und wiederverwenden – nicht denkbar <strong>mit</strong> einem<br />

syntaktisch unstandardisierten Datenformat wie<br />

beispielsweise einer Excel-Liste.<br />

Das Etikettierkonzept ermöglicht dem Importer, das<br />

Quellwerkzeug festzustellen. Dies ist der Schlüssel zum<br />

„Erkennen“ von privaten Datenmodellen. Zu Beginn<br />

wird der Importer keine bekannten Datenmodelle (Klassen)<br />

finden (siehe Bild 5), dafür müssen zuerst geeignete<br />

private quellwerkzeugspezifische Subroutinen für die<br />

Interpretation und den Import entwickelt werden. Dies<br />

wird ebenfalls unterstützt: Der Importer kann konzeptbedingt<br />

unbekannte private Datenmodelle explizit erkennen<br />

und in einer CAEX-Bibliothek speichern. Aus<br />

dieser lässt sich der Standardisierungsbedarf automatisch<br />

ableiten und anhand von Häufigkeitsuntersuchun-<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

77


HAUPTBEITRAG<br />

gen sogar priorisieren. Private Transformationsroutinen<br />

können <strong>mit</strong> diesem Wissen schnell und in lokaler Verantwortung,<br />

das heißt ohne Abhängigkeiten zu höheren/<br />

öffentlichen Standardisierungsaktivitäten, entwickelt<br />

werden. Dies könnte auch eine Quick–and-dirty-Lösung<br />

sein, das Konzept ist nicht an ein kommerzielles Produkt<br />

eines Werkherstellers gebunden. Das Ziel ist der Einsatz<br />

und die Reifung unter realen Bedingungen.<br />

Im Ergebnis werden aus unbekannten so<strong>mit</strong> bekannte<br />

Datenmodelle. Die entwickelten privaten Transformationsroutinen<br />

lassen sich für jeden weiteren Datenaustausch<br />

<strong>mit</strong> demselben Quellwerkzeug wiederverwenden.<br />

Die Vorteile von Reifegrad 1 liegen in seiner un<strong>mit</strong>telbaren<br />

Einsetzbarkeit: Da ein Standard nicht abgewartet<br />

werden muss, können zwei Werkzeughersteller oder<br />

-nutzer un<strong>mit</strong>telbare Export-Import-Partnerschaften eingehen.<br />

Ein dritter Teilnehmer kann sich (auch später)<br />

einbinden, je mehr Teilnehmer, desto geringer der Gesamtaufwand.<br />

Lediglich die werkzeugpaarspezifischen<br />

Transformationsroutinen sind unterschiedlich.<br />

Reifegrad 1 kombiniert die Kosteneffizienz eines<br />

leichtgewichtigen Excel-basierten Datenaustausches <strong>mit</strong><br />

den Vorteilen höherwertiger Funktionen wie Änderungsmanagement.<br />

Kosteneinsparungen werden zeitnah erzielt.<br />

Zudem bietet Reifegrad 1 einen weiteren neuartigen<br />

Vorteil: Ein Importer kann alle Objekttypen feststellen,<br />

die ihm unbekannt sind. Auf diese Weise werden nicht<br />

nur alle bekannten, sondern auch alle unbekannten Daten<br />

explizit sichtbar. Diese Sichtbarkeit ist ein Schlüssel<br />

für die Identifizierung von Standardisierungsbedarf und<br />

eröffnet den Weg zu einer automatischen Erzeugung von<br />

Lastenheften. Der Wissensaufbau im Umgang <strong>mit</strong> CAEX<br />

erfolgt schrittweise. Der Datenaustausch kann so bedacht<br />

eingeführt und praktiziert werden und reifen.<br />

Reifegrad 1 ist so<strong>mit</strong> ein wichtiger Meilenstein in der<br />

Evolution eines Standardisierungsprozesses. Er erleichtert<br />

die Schritte (a) und (b) und belebt die Rückführung<br />

von Erfahrungen (h) aus Bild 2. Dies löst den Standardisierungs-Deadlock.<br />

Dieser Reifegrad ist für Werkzeuge <strong>mit</strong> wenigen Datenaustauschpartnern<br />

geeignet und möglicherweise sogar<br />

ausreichend. Die Entwicklung privater Transformationsroutinen<br />

benötigt deutlich weniger Aufwand als eine<br />

Standardisierung. Reifegrad 1 ist weiterhin ideal für<br />

Werkzeuge, die lediglich ihre eigenen Daten archivieren<br />

beziehungsweise extern manipulieren und anschließend<br />

wieder einlesen möchten.<br />

Mit der Zeit und wachsender Zahl von Teilnehmern<br />

wird eine Bibliothek aus Transformationsroutinen entstehen.<br />

Dies ist ein geeigneter Indikator für den Start<br />

einer Konsolidierung des Entwicklungsaufwandes und<br />

so<strong>mit</strong> ein guter Übergangspunkt zu Reifegrad 2, denn<br />

ähnliche Datenmodelle sind Kandidaten für eine erste<br />

Standardisierung.<br />

3.3 Reifegrad 2 –<br />

das gemischt standardisierte/private Datenmodell<br />

Reifegrad 2 entsteht aus der Konsolidierung der Standardisierungskandidaten<br />

aus Reifegrad 1 (siehe Bild 5). Für<br />

ähnliche private Datenmodelle entwickelt sich im Kreise<br />

der Teilnehmer der Wunsch nach lokaler Standardisierung<br />

im Zuge einer kosteneffizienten Softwareentwicklung.<br />

Dies erhöht die Standardisierungsbereitschaft<br />

und führt zu ersten neutralen Mini-Datenmodellen.<br />

Jede solche Standardisierung wird belohnt: Für jedes<br />

neutralisierte Mini-Datenmodell kann in jedem Importer<br />

die Zahl (n) der privaten Transformationsroutinen für n<br />

Quellwerkzeuge auf eine einzige Transformationsroutine<br />

reduziert werden. Auf diese Weise entsteht ein Pool<br />

an neutralen Datenmodellen, während der Pool privater<br />

Transformationsroutinen schrumpft.<br />

Wichtig dabei ist das Verständnis für den Evolutionsprozess<br />

hin zu Reifegrad 2, welcher ausschließlich aus<br />

praktischen Projektbedürfnissen getrieben wird. Dies<br />

stellt einen natürlichen und evolutionären Prozess dar.<br />

Unter Verwendung erster neutraler Daten-Teilmodelle<br />

erzeugt ein Exporter in Reifegrad 2 ein gemischt standardisiert/privates<br />

CAEX-Datenmodell. Ein Importer<br />

kann alle bekannten Datenmodelle anhand ihres Klassennamens<br />

sowie des Etiketts erkennen, interpretieren<br />

und importieren. Hierbei können dieselben Transformationsroutinen<br />

wiederverwendet werden, die in Reifegrad<br />

1 entstanden sind. Aus erkannten unbekannten Datenmodellen<br />

lässt sich auch hier automatisiert Standardisierungsbedarf<br />

ableiten. Bild 6 illustriert anhand privater<br />

oder unbekannter Objekttypen Kandidaten, die als<br />

Standardisierungs- beziehungsweise Entwicklungskandidaten<br />

in Frage kommen. Reifegrad 2 ist für überschaubare<br />

und feststehende Datenaustauschszenarien geeignet<br />

und in vielen Fällen sogar ausreichend.<br />

3.4 Reifegrad 3 – das neutrale Datenmodell<br />

Reifegrad 3 wird erreicht, wenn alle benötigten Daten-<br />

Teilmodelle durch neutrale Datenmodelle abgebildet<br />

werden – er ist das Gegenstück zu Reifegrad 1 – der Anteil<br />

an privaten Datenmodellen beträgt 0 Prozent. Seine<br />

Reife erlangt er durch Erfahrungen im praktischen Einsatz.<br />

Reifegrad 3 ist nicht an internationale Standards<br />

gebunden – es könnte ebenso ein Standard eines einzelnen<br />

Projektes oder eines Konsortiums sein. Dieser Reifegrad<br />

kommt der eigentlichen Idee eines neutralen Datenaustauschformates<br />

bereits nahe: private Transformationsroutinen<br />

sind nicht mehr notwendig – das Datenmodell<br />

ist aus Erfahrungen der Reifegrade 1–2 gewachsen<br />

und gereift. Als Beispiel könnte das für das Engineering<br />

von <strong>Automatisierung</strong>ssystemen zentrale Element „Signal“<br />

international standardisiert werden, wohingegen<br />

ein anderes Datenmodell „Safety IO Module“ zunächst<br />

proprietär oder lokal standardisiert bliebe.<br />

3.5 Reifegrad 4 –<br />

das standardisierte neutrale Datenmodell<br />

Reifegrad 4 wird erreicht, wenn mehrere Reifegrad 3<br />

Standards zu einem übergeordneten Standard kombiniert<br />

werden (siehe Bild 5). Die Datenmodelle aus Reifegrad<br />

3 bilden aufgrund praktischer Erfahrungen eine<br />

belastbare Basis für die Schritte (a) und (b) eines übergreifenden<br />

Standardisierungsvorhabens, zum Beispiel<br />

78<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


für einen internationalen Standard. Dieser Reifegrad ist<br />

als langfristiges Ziel zu verstehen und ein evolutionäres<br />

Ergebnis des Durchlaufens der vorigen Reifegrade.<br />

4. DISKUSSION DES KONZEPTES<br />

4.1 Vorteile<br />

Das vorgestellte Reifegradmodell der Semantik-Standardisierung<br />

ist ein neuer Ansatz und eröffnet eine Vielzahl<br />

neuer Möglichkeiten und Vorteile.<br />

Vorteil 1: Schnellstart <strong>mit</strong> hoher<br />

Wiederverwendungsquote<br />

Werkzeughersteller oder Anwender können un<strong>mit</strong>telbar<br />

starten. Sobald ein Datenaustauschbedarf identifiziert<br />

ist, kann der Projektleiter eine individuelle Entwicklung<br />

der wichtigsten Subroutinen für den automatischen Import<br />

privater Daten aus einem Quell-Engineering-Werkzeug<br />

in das von ihm gewünschte Zielwerkzeug initiieren.<br />

Die privaten Transformationsroutinen eines Importers<br />

können später von Projekt zu Projekt wiederverwendet<br />

werden. Der Aufwand zur CAEX-Programmierung<br />

wird <strong>mit</strong> [15] abschätzbar.<br />

Vorteil 2: Datenmodelle werden explizit sichtbar<br />

Normalerweise sind Datenmodelle in ihren Werkzeugen<br />

verborgen und sind nur Experten zugänglich. Das von<br />

AutomationML verfolgte Konzept macht proprietäre und<br />

unbekannte Datenmodelle jedoch explizit sichtbar. Dies<br />

Bild 6<br />

vereinfacht die Entwicklung im Projekt, befördert die<br />

Diskussion über Datenmodelle und beschleunigt die<br />

Standardisierungsschritte (a)–(c).<br />

Vorteil 3: Automatische Ableitung von Entwicklungsund<br />

Standardisierungsbedarf<br />

Konzeptbedingt können unbekannte Datenmodelle erkannt<br />

und in Bibliotheken gespeichert werden. Diese<br />

Bibliotheken lassen sich als Lastenheft für eine Importer-<br />

Softwareentwicklung einsetzen, da sie die privaten Datenmodelle<br />

möglicher Datenaustauschkandidaten explizit<br />

spezifizieren. Mithilfe von Häufigkeitsuntersuchungen<br />

lassen sich sogar Prioritäten ableiten.<br />

Statistische Analysen beflügeln wiederum den Standardisierungsprozess,<br />

da sie die Schritte (a) und (b) vereinfachen.<br />

Der vorgestelle evolutionäre Ansatz optimiert<br />

das Verhältnis zwischen dem Aufwand zur Entwicklung<br />

privater Transformationsroutinen und der Standardisierung.<br />

Durch das explizite Wissen über unbekannte oder<br />

ähnliche Datenmodelle können Standardisierungsaktivitäten<br />

fokussiert werden. Dies wird durch einen impliziten<br />

Regelkreis erreicht: Die Entwicklung privater<br />

Transformationsroutinen für jedes Quellwerkzeug ermöglicht<br />

schnelle Ergebnisse, führt aber <strong>mit</strong> der Zeit zu<br />

redundanter Entwicklung pro Quellwerkzeug. Diese<br />

Kosten sind Treiber für eine vernünftige und zielgerichtete<br />

Standardisierung, die <strong>mit</strong>telfristig die Entwicklungskosten<br />

senkt. Seltene private Datenmodelle können<br />

in privaten Transformationsroutinen verbleiben. Aus<br />

diesen Gründen behindert das Etikettierkonzept nicht<br />

die Standardisierung, sondern fördert sie.<br />

Neutrale Objekt-Typen<br />

Neutral_Signal<br />

Neutral_Master_Controller<br />

Neutral_Fieldbus_Device<br />

Neutral_IO_Module<br />

Private Objekt-Typen<br />

Force_Torque_Sensor<br />

Unbekannte Objekt-Typen<br />

HMI_Panel<br />

IPC_Socket<br />

BILD 6: Automatisch er<strong>mit</strong>telter Entwicklungs- und Standardisierungsbedarf<br />

Bereits<br />

standardisiert<br />

Standardisierungskandidat<br />

Kandidat für das<br />

Entwicklungslastenheft<br />

Bild 8<br />

Private Klassen-Bibliothek<br />

Standard Klassen-Bibliothek<br />

Private Interface Class library<br />

Standard Interface Class library<br />

BILD 8: CAEX-Modelle <strong>mit</strong> privaten<br />

und standardisierten Daten<br />

BILD 7: AutomationML-Beispiel-Etikett<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

79


HAUPTBEITRAG<br />

Vorteil 4: Speed-Standardisierung von<br />

Mini-Datenmodellen<br />

Das Etikettierkonzept sowie die Mischung privater und<br />

neutraler Daten eliminiert den Bedarf nach einem umfassenden<br />

und gereiften Engineering-Weltmodell: Der<br />

Schwerpunkt verlagert sich stattdessen auf kleine und<br />

flexible Mini-Datenmodelle, wie beispielsweise das „Signal“.<br />

Signallisten werden vielfältig ausgetauscht, die Standardisierung<br />

eines Signalobjektes ist im Fertigungsumfeld<br />

realisierbar und bereits aus rein praktischen Erwägungen<br />

ein lohnenswertes und erreichbares Ziel. Eine solche<br />

Speed-Standardisierung kann von erfahrenen Projektleitern<br />

oder Lead-Ingenieuren in kurzer Zeit erfolgen. Das<br />

Ergebnis dieser Arbeit ist ein lokaler Standard und lässt<br />

sich umgehend in Importer und Exporter implementieren<br />

und im Praxisgebrauch prüfen. Kostenersparnisse könnten<br />

vor Ort un<strong>mit</strong>telbar von den Beteiligten im Initialprojekt<br />

realisiert und in Nachfolgeprojekten vervielfacht werden.<br />

Diese Mikro-Standardisierung zwischen zwei Werkzeugen<br />

ist ein agiler, pragmatischer Weg auch für kleinere<br />

Ingenieurbüros, ohne jede Abhängigkeit von Standards.<br />

Die Standardisierungsschritte (a) bis (c) können<br />

sogar automatisiert werden, (f) wird innerhalb des Teams<br />

gelöst und (h) wird durch die un<strong>mit</strong>telbare praktische<br />

Anwendung erreicht.<br />

Vorteil 5: Zeitliche Entkopplung von<br />

Standardisierung und Projektarbeit<br />

Die Behandlung privater Transformationsroutinen erfolgt<br />

in der Verantwortung und Zeitleiste des Projektes und<br />

kann schnell umgesetzt und lokal priorisiert werden. Die<br />

Standardisierung hingegen erfolgt außerhalb in einem<br />

übergeordneten Regelkreis und fließt erst <strong>mit</strong> seiner Finalisierung<br />

in das Projekt ein. Diese Entkopplung ermöglicht<br />

das gleichzeitige Agieren in kurzfristigen Projekterfordernissen<br />

und in langfristigen Standardisierungsaktivitäten.<br />

Vorteil 6: Einführung von Standard-Etiketten<br />

Das Etikettierkonzept ist nicht nur geeignet, um Quellwerkzeuge<br />

zu identifizieren, es kann ebenso auf einen<br />

oder mehrere zugrundeliegende Standards verweisen.<br />

Eine AutomationML-Datei teilt erstmalig aktiv <strong>mit</strong>, welche<br />

Semantik-Standards sie verwendet.<br />

4.2 Diskussion und Potenziale<br />

Natürlich wäre es einfacher, wenn ein Engineering-Weltmodell<br />

zur Verfügung stünde. Die Standardisierungsgremien<br />

und Softwarehersteller haben frühzeitig den Wert<br />

eines gemeinsamen Datenmodells erkannt und verfolgen<br />

beziehungsweise benötigen mehrheitlich Reifegrad 3 oder<br />

4. Dieser Beitrag zeigt, dass das Ziel sinnvoll, der Weg jedoch<br />

fraglich ist – ein reifer Standard benötigt Erfahrungen<br />

aus der industriellen Anwendung. Für die Praxis<br />

macht es keinen Sinn, sogleich <strong>mit</strong> dem Reifegrad 3 oder<br />

4 zu beginnen, zumindest – bei einem so weiten Kontext<br />

wie der <strong>Automatisierung</strong>splanung – nicht in einem Schritt.<br />

Die Evolution beginnt <strong>mit</strong> Reifegrad 1. Die Reifegrade 1-4<br />

wachsen aneinander, ein Merkmal der Evolution.<br />

REFERENZEN<br />

[1] Drath R. und Barth M.: Concept for interoperability<br />

between independent engineering tools of heterogeneous<br />

disciplines. In: Proceedings IEEE Conference on Emerging<br />

Technologies and Factory Automation (ETFA), 2011.<br />

[2] Drath R., Fay A., Barth M.: Interoperabilität von Engineering-<br />

Werkzeugen. at – <strong>Automatisierung</strong>stechnik 59(9), 598-607,<br />

2011<br />

[3] AIDA (2005): Garcia, A. und Drath, R.: AutomationML<br />

verbindet Werkzeuge der Fertigungsplanung.<br />

http://www.automationml.org – Whitepaper_Automation-<br />

ML_2007-11-20_v05.pdf.<br />

[4] Drath, R.: Datenaustausch in der Anlagenplanung <strong>mit</strong><br />

AutomationML: Integration von CAEX, PLCopen XML und<br />

COLLADA. Springer, Berlin Heidelberg, 2009<br />

[5] IEC 62424:2008: Representation of process control<br />

engineering - Requests in P&I diagrams and data exchange<br />

between P&ID tools and PCE-CAE tools<br />

[6] NE 100: Merkmalleisten zur Erstellung von PLT-Gerätespezifikationen.<br />

Namur, 2003<br />

[7] Anhäuser, F., Richert, H., Temmen, H.: Degussa Plant-XML<br />

- integrierter Planungsprozess <strong>mit</strong> flexiblen Bau-steinen.<br />

<strong>atp</strong> – <strong>Automatisierung</strong>stechnische Praxis 46(4), 63-72, 2004<br />

[8] ISO10303: Automation systems and integration - Product<br />

data representation and exchange<br />

[9] Moser, T. und Biffl, S.: Semantic Tool Interoperability for<br />

Engineering Manufacturing Systems, In: Proceedings IEEE<br />

Conference on Emerging Technologies and Factory<br />

Automation (ETFA’10), S. 1-8, 2010<br />

[10] Wiesner A., Wiedau M., Marquardt W., Temmen H.,<br />

Richert H., Anhäuser F.: Wissensbasierte Integration und<br />

Konsolidierung von heterogenen Anlagenplanungsdaten.<br />

<strong>atp</strong> <strong>edition</strong> – <strong>Automatisierung</strong>stechnische Praxis, 52(4),<br />

48-58, 2010<br />

[11] ISO 15926: Industrial automation systems and integration<br />

- Integration of life-cycle data for process plants including<br />

oil and gas production facilities<br />

[12] Fay, A., Drath, R., Barth, M., Zimmer,F., Eckert K.:<br />

Bewertung der Fähigkeit von Engineering-Werkzeugen<br />

zur Interoperabilität <strong>mit</strong>hilfe einer Offenheitsmetrik.<br />

In: Tagungsband Automation 2012, S. 37-40. VDI, 2012<br />

[13] IEC 62714-1 CD: AutomationML Architecture, 2011<br />

[14] www.automationml.org<br />

[15] Drath R.: Let’s talk AutomationML: What is the effort for<br />

AutomationML programming? In: Proceedings IEEE<br />

Conference on Emerging Technologies and Factory<br />

Automation (ETFA’12), 2012<br />

80<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


Solange die beteiligten Werkzeuge offen genug sind<br />

[12], wird die semantische Vielfalt <strong>mit</strong> dem vorgestellten<br />

Konzept beherrschbar. Hersteller und Anwender können<br />

leicht Exporter für ihre Werkzeuge erstellen, ohne sich<br />

auf einen Standard beziehen zu müssen.<br />

Generische Importer sind erst <strong>mit</strong> Reifegrad 3–4 sinnvoll<br />

und deshalb heute für weite Bereiche der Anlagenplanung<br />

nicht anzutreffen. Um die semantische Vielfalt<br />

zu beherrschen, sind für die Reifegrade 1–2 quellwerkzeugspezifische<br />

Importer erforderlich.<br />

Das vorgestellte Konzept vereinfacht deren Entwicklung<br />

maßgeblich, weil große Teile typischer Importfunktionalitäten<br />

generisch angelegt werden können. Anwender<br />

können diese in Eigenregie deutlich leichter und<br />

schneller als bisher entwickeln. Gerade für das Umsetzen<br />

abzählbarer Datenaustauschpartner ist der Entwicklungsaufwand<br />

für solche Importer deutlich geringer als<br />

das Standardisieren eines Weltmodells. Zudem können<br />

Werkzeughersteller im Sinne des Know-how-Schutzes<br />

<strong>mit</strong> kommerziellen Importern gezielter als bisher beeinflussen,<br />

welche Quellwerkzeuge sie <strong>mit</strong> welchem Detaillierungsgrad<br />

unterstützen.<br />

5. UMSETZUNG MIT AUTOMATIONML<br />

5.1 Etikettierung einer AutomationML-Datei<br />

Zur Etikettierung einer CAEX-Datei schreibt der AutomationML-Standard<br />

[13] eine Reihe von Parametern vor.<br />

Bild 7 zeigt eine vollständige Liste der vorgeschriebenen<br />

Etikett-Bestandteile im CAEX-XML-Code. Mithilfe der<br />

frei verfügbaren AutomationML-Engine [14] lassen sich<br />

diese Parameter <strong>mit</strong> vertretbarem Aufwand einfügen<br />

oder auslesen, eine Einführung hierfür gibt [15].<br />

5.2 Speicherung gemischt privater/neutraler Daten<br />

Die Speicherung privater Datenmodelle ist eine der Kernfunktionalitäten<br />

von CAEX. Bild 7 zeigt einen CAEX-<br />

Export, der sowohl private als auch standardisierte Klassen<br />

und Schnittstellen enthält. Ein gemischt privat/neutraler<br />

Objektbaum wird aus Instanzen dieser Klassen<br />

erstellt. Analog zu einem veredelten Obstbaum, an dem<br />

Früchte unterschiedlicher Arten hängen, entsteht in<br />

CAEX ein Objektbaum, der mehrere Datenmodelle zugleich<br />

verwaltet, deren Elemente jedoch identifizierbar<br />

und so<strong>mit</strong> beherrschbar sind.<br />

ZUSAMMENFASSUNG UND AUSBLICK<br />

In diesem Beitrag wurde die Deadlock-Situation vieler semantischer<br />

Standardisierungsbemühungen diskutiert und<br />

ein neues Konzept zur Lösung dieser Probleme vorgestellt.<br />

Hierin wird nicht wie bisher versucht, die bestehende Heterogenität<br />

von Engineering-Werkzeugen und Datenmodellen<br />

durch Vereinheitlichung zu überwinden; das Konzept<br />

verfolgt vielmehr das Anliegen, den Datenaustausch<br />

in einem heterogenen Werkzeugumfeld auch ohne beziehungsweise<br />

nur <strong>mit</strong> teilweiser Standardisierung durch-<br />

führen zu können. Die Ur-Idee eines neutralen Datenformates<br />

wird hierbei bewusst verletzt – aber Innovationen<br />

werden oft dann erreicht, wenn bekannte Pfade verlassen<br />

oder zuvor gesetze Einschränkungen hinterfragt werden.<br />

Das Konzept zur Speicherung gemischt privat/neutraler<br />

standardisierter Daten in einem AutomationML-Dokument<br />

führt zu sinnvollen und neuartigen Vorteilen<br />

und ist un<strong>mit</strong>telbar anwendbar. Das Warten auf einen<br />

Standard ist nicht mehr nötig. Der praktische Einsatz<br />

steht in jedem Reifegrad im Vordergrund, die Standardisierung<br />

folgt der Nutzung, nicht umgekehrt. Der Praktiker<br />

erhält über die Erkennung unbekannter Datenmodelle<br />

automatisch ein Lastenheft für die Softwareentwicklung.<br />

Proprietäre Datenmodelle werden explizit<br />

sichtbar. Industrie, Akademia und Gremien können<br />

aufgrund der expliziten Sichtbarkeit proprietärer Daten-<br />

Teilmodelle Ähnlichkeitsanalysen durchführen und<br />

erstmalig Standardisierungsbedarf inklusive Priorisierung<br />

automatisch ableiten.<br />

Die für eine Standardisierung von Datenmodellen notwendigen<br />

Schritte werden deutlich vereinfacht. Kurzfristiger<br />

Projektdruck und langfristige Standardisierungsvorhaben<br />

werden zeitlich entkoppelt und so<strong>mit</strong><br />

harmonisierbar. Das Konzept eliminiert den Standardisierungs-Deadlock,<br />

ist sofort einsetzbar und ebnet zugleich<br />

einen erfolgversprechenden evolutionären Weg<br />

zur Standardisierung.<br />

MANUSKRIPTEINGANG<br />

29.06.2012<br />

AUTOREN<br />

Im Peer-Review-Verfahren begutachtet<br />

Dr.-Ing. RAINER DRATH (geb. 1970) ist Senior<br />

Principal Scientist im ABB Forschungszentrum<br />

in Ladenburg. Er beschäftigt sich <strong>mit</strong><br />

der Entwicklung neuer Konzepte und<br />

Methoden zur Verbesserung des Engineerings<br />

von <strong>Automatisierung</strong>ssystemen.<br />

ABB Forschungszentrum,<br />

Wallstadter Str 59, D-68526 Ladenburg,<br />

Tel. +49 (0) 6203 71 64 71,<br />

E-Mail: rainer.drath@de.abb.com<br />

Dr.-Ing. MIKE BARTH (geb. 1981) ist<br />

Scientist am ABB Forschungszentrum in<br />

Ladenburg. Seine Forschungsschwerpunkte<br />

umfassen Methoden und Werkzeuge<br />

für ein effizientes Engineering von <strong>Automatisierung</strong>ssystemen.<br />

ABB Forschungszentrum<br />

Wallstadter Straße 59, D-68526 Ladenburg,<br />

Tel. +49 (0) 6203 71 64 61,<br />

E-Mail: mike.barth@de.abb.com<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012<br />

81


IMPRESSUM / VORSCHAU<br />

IMPRESSUM<br />

VORSCHAU<br />

Verlag:<br />

DIV Deutscher Industrieverlag GmbH<br />

Arnulfstraße 124, 80636 München<br />

Telefon + 49 89 203 53 66-0<br />

Telefax + 49 89 203 53 66-99<br />

www.di-verlag.de<br />

Geschäftsführer:<br />

Carsten Augsburger, Jürgen Franke<br />

Spartenleiter:<br />

Jürgen Franke<br />

Herausgeber:<br />

Dr. T. Albers<br />

Dr. G. Kegel<br />

Dipl.-Ing. G. Kumpfmüller<br />

Dr. N. Kuschnerus<br />

Beirat:<br />

Dr.-Ing. K. D. Bettenhausen<br />

Prof. Dr.-Ing. Ch. Diedrich<br />

Prof. Dr.-Ing. U. Epple<br />

Prof. Dr.-Ing. A. Fay<br />

Prof. Dr.-Ing. M. Felleisen<br />

Prof. Dr.-Ing. G. Frey<br />

Prof. Dr.-Ing. P. Göhner<br />

Dipl.-Ing. Th. Grein<br />

Prof. Dr.-Ing. H. Haehnel<br />

Dr.-Ing. J. Kiesbauer<br />

Dipl.-Ing. R. Marten<br />

Dipl.-Ing. G. Mayr<br />

Dr. J. Nothdurft<br />

Dr.-Ing. J. Papenfort<br />

Dr. A. Wernsdörfer<br />

Dipl.-Ing. D. Westerkamp<br />

Dr. Ch. Zeidler<br />

Organschaft:<br />

Organ der GMA<br />

(VDI/VDE-Gesell schaft Messund<br />

<strong>Automatisierung</strong>s technik)<br />

und der NAMUR<br />

(Interessen gemeinschaft<br />

<strong>Automatisierung</strong>s technik der<br />

Prozessindustrie).<br />

Redaktion:<br />

Anne Hütter (ahü)<br />

(verantwortlich)<br />

Telefon + 49 89 203 53 66-58<br />

Telefax + 49 89 203 53 66-99<br />

E-Mail: huetter@di-verlag.de<br />

Gerd Scholz (gz)<br />

Einreichung von Hauptbeiträgen:<br />

Prof. Dr.-Ing. Leon Urbas<br />

(Chefredakteur, verantwortlich<br />

für die Hauptbeiträge)<br />

Technische Universität Dresden<br />

Fakultät Elektrotechnik<br />

und Informationstechnik<br />

Professur für Prozessleittechnik<br />

01062 Dresden<br />

Telefon +49 351 46 33 96 14<br />

E-Mail: urbas@di-verlag.de<br />

Fachredaktion:<br />

Dr.-Ing. M. Blum<br />

Prof. Dr.-Ing. J. Jasperneite<br />

Dr.-Ing. B. Kausler<br />

Dr.-Ing. N. Kiupel<br />

Dr. rer. nat. W. Morr<br />

Dr.-Ing. J. Neidig<br />

Dipl.-Ing. I. Rolle<br />

Dr.-Ing. S. Runde<br />

Prof. Dr.-Ing. F. Schiller<br />

Bezugsbedingungen:<br />

„<strong>atp</strong> <strong>edition</strong> – <strong>Automatisierung</strong>stechnische<br />

Praxis“ erscheint<br />

monatlich <strong>mit</strong> Doppelausgaben im<br />

Januar/Februar und Juli/August.<br />

Bezugspreise:<br />

Abonnement jährlich: € 468,– + € 30,–/<br />

€ 35,- Versand (Deutschland/Ausland);<br />

Heft-Abbonnement + Online-Archiv:<br />

€ 638,40; ePaper (PDF): € 468,–;<br />

ePaper + Online-Archiv: € 608,40;<br />

Einzelheft: € 55,– + Versand;<br />

Die Preise enthalten bei Lieferung<br />

in EU-Staaten die Mehrwertsteuer,<br />

für alle übrigen Länder sind es<br />

Nettopreise. Mitglieder der GMA: 30%<br />

Ermäßigung auf den Heftbezugspreis.<br />

Bestellungen sind jederzeit über den<br />

Leserservice oder jede Buchhandlung<br />

möglich.<br />

Die Kündigungsfrist für Abonnementaufträge<br />

beträgt 8 Wochen zum Bezugsjahresende.<br />

Abonnement-/<br />

Einzelheftbestellung:<br />

Leserservice <strong>atp</strong><br />

Postfach 91 61, 97091 Würzburg<br />

Telefon + 49 931 41 70-4 94<br />

Telefax + 49 931 41 70-4 92<br />

E-Mail: leserservice@di-verlag.de<br />

Verantwortlich für<br />

den Anzeigenteil:<br />

Inge Matos Feliz<br />

Telefon + 49 89 203 53 66-22<br />

Telefax + 49 89 203 53 66-99<br />

E-Mail: matos.feliz@di-verlag.de<br />

Es gelten die Preise der Mediadaten 2012<br />

Anzeigenverwaltung:<br />

Brigitte Krawczyk<br />

Telefon + 49 89 2 03 53 66-12<br />

Telefax + 49 89 2 03 53 66-99<br />

E-Mail: krawczyk@di-verlag.de<br />

Art Direction / Layout:<br />

deivis aronaitis design | dad |<br />

Druck:<br />

Druckerei Chmielorz GmbH<br />

Ostring 13,<br />

65205 Wiesbaden-Nordenstadt<br />

Gedruckt auf chlor- und<br />

säurefreiem Papier.<br />

Die <strong>atp</strong> wurde 1959 als „Regelungstechnische<br />

Praxis – rtp“ gegründet.<br />

DIV Deutscher Industrieverlag<br />

GmbH München<br />

Die Zeitschrift und alle in ihr enthaltenen<br />

Beiträge und Abbildungen sind urheberrechtlich<br />

geschützt. Mit Ausnahme der<br />

gesetzlich zugelassenen Fälle ist eine<br />

Verwertung ohne Ein willigung des Verlages<br />

strafbar.<br />

Gemäß unserer Verpflichtung nach § 8<br />

Abs. 3 PresseG i. V. m. Art. 2 Abs. 1c DVO<br />

zum BayPresseG geben wir die Inhaber<br />

und Beteiligungsverhältnisse am Verlag<br />

wie folgt an:<br />

DIV Deutscher Industrieverlag GmbH,<br />

Arnulfstraße 124, 80636 München.<br />

Alleiniger Gesellschafter des Verlages<br />

ist die ACM-Unternehmensgruppe,<br />

Ostring 13,<br />

65205 Wiesbaden-Nordenstadt.<br />

ISSN 2190-4111<br />

DIE AUSGABE 1-2 / 2013 DER<br />

ERSCHEINT AM 18.02.2013<br />

MIT AUSGEWÄHLTEN BEITRÄGEN DER<br />

NAMUR-HAUPTSITZUNG 2012:<br />

Erfahrungen zum Einsatz<br />

WEB-basierter „As-Built“-<br />

Dokumentation<br />

IT im Kontext der Architektur<br />

eines Prozessleitsystem. Teil 2:<br />

Cloud Computing<br />

Versagenseigenschaften<br />

von Software <strong>mit</strong> bekannter<br />

Betriebserfahrung bei<br />

wechselndem<br />

Anforderungsprofil<br />

Integriertes Engineering<br />

Interview <strong>mit</strong><br />

Dr. Jörg Kiesbauer<br />

...und vielen weiteren Themen.<br />

Aus aktuellem Anlass können sich die Themen<br />

kurzfristig verändern.<br />

LESERSERVICE<br />

E-MAIL:<br />

leserservice@di-verlag.de<br />

TELEFON:<br />

+ 49 931 41 70-4 94<br />

82<br />

<strong>atp</strong> <strong>edition</strong><br />

12 / 2012


Erreichen Sie die Top-Entscheider<br />

der <strong>Automatisierung</strong>stechnik.<br />

Sprechen Sie uns an wegen Anzeigenbuchungen<br />

und Fragen zu Ihrer Planung.<br />

Inge Matos Feliz: Tel. +49 89 203 53 66-22<br />

E-Mail: matos.feliz@di-verlag.de

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!