12.06.2014 Aufrufe

atp edition Konzept offener Regler: FPGA in der Antriebstechnik (Vorschau)

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

6 / 2014

56. Jahrgang B3654

DIV Deutscher Industrieverlag GmbH

Automatisierungstechnische Praxis

Konzept offener Regler:

FPGA in der Antriebstechnik | 26

Engineering-Effizienz

automatisch messen – Teil 2 | 34

OPC UA für Industrie 4.0 | 44

Virtuelle Inbetriebnahme

in der Prozessindustrie | 52


update

ATP EDITION | | BRANCHE | | VERANSTALTUNGEN | | FORSCHUNG | | PRODUKTE

IHR NEWSLETTER FÜR

DIE AUTOMATION

Aktuell, kompetent und auf den Punkt

Jetzt anmelden und sofort lesen:

www.atpinfo.de/newsletter


EDITORIAL

Industrie 4.0 –

mehr als ein Hype!

Internet-Technologien haben unsere Welt in vielen Bereichen

nachhaltig verändert. Die Geschäftsmodelle vieler Bereiche wie

Versandhandel, Musikindustrie oder Printmedien wurden teilweise

auf den Kopf gestellt. Google, Wikipedia, Facebook und

Twitter sind Anwendungen, für die es vor zehn bis 15 Jahren noch

nicht einmal ein Geschäftsmodell gab!

Wird das „Internet der Dinge“ nun die industrielle Produktion

in gleicher Weise umwälzen? Werden auch im Industriesektor in

zehn bis 15 Jahren milliardenschwere Konzerne entstanden sein,

deren Geschäftsmodelle in unserer heutigen Vorstellung noch

gar nicht vorkommen?

Die globale Vernetzung von Industrien stellt allerdings deutlich

strengere Anforderungen an das Internet der Dinge. Auch in

einem globalen Netz muss es mathematische, determinierte Modelle

für Sicherheit und Verfügbarkeit geben, die weit über die

heute verfügbaren Technologien hinausgehen. Hier sind Forschungs-

und Entwicklungsaufwendungen erforderlich, die von

einzelnen Unternehmen nicht geleistet werden können, ja vielleicht

nicht einmal geleistet werden dürfen – ein europäischer

Kraftakt, für den zahlreiche Köpfe aus der Industrie, vor allem

aber aus der Forschung notwendig sind. Ohne determinierte Sicherheit

und Verfügbarkeit wird das industrielle Internet der

Dinge auf immer aus proprietären Insellösungen bestehen – weit

entfernt von der Vision Industrie 4.0.

Sicherheit und Verfügbarkeit im Internet der Dinge sind nichts

anderes als eine unabdingbar notwendige Infrastruktur für die

erfolgreiche Weiterentwicklung industrieller Tätigkeit in

Deutschland und Europa. Für den Aufbau dieser Infrastruktur

sind Industrie, Verbände, Forschung und Politik gleichermaßen

gefordert. Hunderte von Einzelprojekten aus Dutzenden unterschiedlicher

Fördertöpfe sind der falsche Weg. Nur eine gebündelte

Aktion kann hier zielführend sein!

DR.-ING.

GUNTHER KEGEL,

Vorsitzender der

Geschäftsleitung

Pepperl+Fuchs GmbH

atp edition

6 / 2014

3


INHALT 6 / 2014

FORSCHUNG

6 | DFKI Bremen testet Tauchroboter realitätsnah und

witterungsunabhängig in großem Salzwasserbecken

Call for Experts: System-of-Systems Automation

VERBAND

8 | Westerkamp koordiniert VDI-Fachgesellschaften –

GMA bekommt einen neuen Geschäftsführer

Profibus-Nutzer bestätigen Vorstand und Beirat

Der Zusammenschluss von Fieldbus Foundation und

Hart Communication Foundation rückt näher

BRANCHE

10 | Sensorik und Messtechnik optimistisch:

2014 soll erneut ein Plus von sieben Prozent erzielt werden

Elektrische Automation erhofft leichtes Plus –

Prozessautomatisierer wachsen gegen den Trend

11 | Leitplanken für Industrie 4.0: Verbände wollen das

Internet der Dinge geordnet aufs Gleis setzen

VDI/VDE-Richtlinienentwurf: Praxistipps für die Nutzung

berührungsloser Temperaturmesstechnik

PRAXIS | SENSORTECHNIK

12 | Embedded-Messsysteme für Oberflächen und Fluide:

Farbsensoren bieten viele Möglichkeiten

16 | Intelligent und effizient: Temperaturmessung mit

Grenzwertschaltern schützt Mensch und Anlage

18 | Kontinuierliche Messung des pH-Werts zeigt Lecks

in Kühlanlagen mit Ammoniak zuverlässig an

20 | Laufende Echtzeitmessung des Alkoholgehalts im

Destillat sorgt für höchste Qualität der Brände

22 | Wo hoch präzise Glasmaßstäbe schwächeln,

punkten induktive Wegsensoren mit Robustheit

4

atp edition

6 / 2014


PRAXIS

24 | Aufgearbeitet statt neu:

Perfektes Nachschleifen vervielfacht

die Lebensdauer von Werkzeugen

HAUPTBEITRÄGE

Produkte,

Systeme

und Service

für die

Prozessindustrie?

Natürlich.

26 | Konzept offener Regler:

FPGA in der Antriebstechnik

P. ZAHN, I. LAPTEV UND A. VERL

34 | Engineering-Effizienz

automatisch messen – Teil 2

R. DRATH, C. MESSINGER, B. SCHRÖTER, N. LI

UND G. GUTERMUTH

44 | OPC UA für Industrie 4.0

K.-H. DEIRETSBACHER UND W. MAHNKE

HAUPTBEITRAG | NAMUR-HAUPTSITZUNG

52 | Virtuelle Inbetriebnahme

in der Prozessindustrie

RUBRIKEN

R. CHAN UND M. KRAUSS

3 | Editorial

58 | Impressum, Vorschau

Ist Ihre Produktionsanlage auf dem

neuesten Stand? Sind alle Korrekturen

im Leitsystem eingespielt? Sind alle

Sicherheitslücken geschlossen?

Ist Ihr System gegen Cyber-Angriffe

und Bedrohungen geschützt?

Läuft Ihre Anlage optimal? Ist sie

vollständig und korrekt konfiguriert?

Automation Sentinel gibt die Antwort.

Keine Sicherheit ohne Automation

Sentinel.

www.abb.de/controlsystems

Wussten Sie, dass Ihnen ABB

neben maßgeschneiderten

Leitsystemen ein umfassendes

Portfolio für die Instrumentierung,

herausragende Produkte und

Lösungen für die Analysentechnik

sowie erstklassigen Service bietet?

Lesen Sie mehr unter:

www.abb.de/

prozessautomatisierung

ABB Automation GmbH

Tel.: +49 (0) 1805 26 67 76

marketing.control-products@de.abb.com


FORSCHUNG

DFKI Bremen testet Tauchroboter realitätsnah und

witterungsunabhängig in großem Salzwasserbecken

3,4 MILLIONEN LITER SALZWASSER fasst das

neue Testbecken für Robotik-Forschung. Bild: DFKI

Das Deutsche Forschungszentrum für Künstliche Intelligenz

(DFKI) hat in Bremen seine Maritime Explorationshalle

eröffnet. Kernstück der europaweit

einmaligen Testanlage für Tauchroboter ist ein 3,4 Mio.

Liter fassendes Salzwasserbecken. Hier entwickeln

Wissenschaftler künftig Systeme, die zur Inspektion

von Schiffen und Pipelines, zur Erkundung unbekannter

Gewässer oder zur Reparatur von Offshore-

Anlagen wie Windparks eingesetzt werden. Ein weiteres

Anwendungsfeld ist das Erschließen von Bodenschätzen

und Energiereserven aus der Tiefsee.

Das 23 Meter lange, 19 Meter breite und acht Meter

tiefe Salzwasserbecken schafft dafür ideale Forschungs-

bedingungen, denn: „Testläufe sind von der Witterung

unabhängig, kontrollier- und beobachtbar und vor allem

realitätsnah“, erläutert Professor Dr. Frank Kirchner,

Standortleiter des DFKI in Bremen und Direktor des

Forschungsbereichs Robotics Innovation Center. Zusätzliche

Labore komplettieren die neue Halle. Darunter

sind eine Druckkammer, in der Komponenten bei

Wasserdrücken geprüft werden, die bis zu 6000 Meter

Tiefe entsprechen, weitere separate Wasserbassins und

eine virtuelle 3D-Testumgebung.

Mit der neuen Anlage erweitert das DFKI in Bremen

seine Laborlandschaft, die bereits seit 2010 über eine

Weltraum-Explorationshalle verfügt. Hier werden Roboter

für Einsätze im All entwickelt und getestet. Beide

Anwendungsfelder haben Gemeinsamkeiten: Sowohl

unter Wasser als auch im Weltraum herrschen harsche

Bedingungen, die spezielle Herausforderungen an autonom

handelnde Roboter stellen, darunter Schwerelosigkeit,

eingeschränkte Kommunikations- und Sichtmöglichkeiten.

Ziel ist es, Erkenntnisse aus der Weltraumtechnik,

die bereits seit 2006 intensiv erforscht

wird, in maritime Technologien zu übertragen. Rund

3,65 Mio. Euro wurden aus dem Europäischen Fonds für

regionale Entwicklung (EFRE) und aus Mitteln des Landes

Bremen für den Neubau zur Verfügung gestellt. Das

DFKI kofinanzierte vier Mio. Euro.

(gz)

DEUTSCHES FORSCHUNGSZENTRUM FÜR

KÜNSTLICHE INTELLIGENZ GMBH, DFKI,

Trippstadter Straße 122, D-67663 Kaiserslautern,

Tel. +49 (0) 631 20 57 50, Internet: www.dfki.de

Call for atp experts: System-of-Systems Automation

IN AUSGABE 56(12) DER ATP EDITION im

Dezember 2014 diskutiert die atp edition

die Standardisierung von Modulen und

die Komposition von neuen Systemen aus

bestehenden Systemen. Dieser Ansatz

stellt einen Weg dar, um höhere Engineering-Effizienz

und geringere Kosten

durch Skaleneffekte zu erzielen.

Die Ingenieurkunst bei dieser Aufgabe

liegt nun darin, anstatt jedes Mal aus

dem Vollen zu schnitzen die richtigen

Systeme auszuwählen und diese mit minimalem

Aufwand zu einem Gesamtsystem

zusammenzustellen. Insbesondere

in der Automobilindustrie, im Schiffbau

und in der Kraftwerksindustrie wird dieser

Lösungsweg erfolgreich eingeschlagen.

In Ausgabe 56(12) wollen wir einen

aktuellen Blick auf wissenschaftliche

Grundlagen werfen und Ihre Lösungsansätze

und praktischen Erfahrungen vorstellen.

Wir bitten Sie, bis zum 8. August zu diesem

Themenschwerpunkt einen gemäß

der Autorenrichtlinien der atp edition

ausgearbeiteten Hauptbeitrag per E-Mail

an urbas@di-verlag.de einzureichen.

Die atp edition ist die hochwertige Monatspublikation

für Fach- und Führungskräfte

der Automatisierungsbranche. In

den Hauptbeiträgen werden die Themen

mit hohem wissenschaftlichem und technischem

Anspruch und vergleichsweise

abstrakt dargestellt. Im Journalteil werden

praxisnahe Erfahrungen von Anwendern

mit neuen Technologien, Prozessen

oder Produkten beschrieben. Alle Beiträge

werden von einem Fachgremium begutachtet.

Sollten Sie sich selbst aktiv an

dem Begutachtungsprozess beteiligen

wollen, bitten wir um kurze Rückmeldung.

Für weitere Rückfragen stehen wir

Ihnen selbstverständlich gerne zur Verfügung.

Redaktion atp edition

Leon Urbas, Aljona Hartstock,

Gerd Scholz

CALL FOR

Aufruf zur Beitragseinreichung

Thema: System-of-Systems Automation

Kontakt: urbas@di-verlag.de

Termin: 08. August 2014

6

atp edition

6 / 2014


Skalierbare Steuerungstechnik

Offen ‒ Flexibel ‒ Kompakt

PERSPECTO ® -Control-Panel

PFC200

Programmierbare

Feldbuscontroller

• Unterstützung der gängigsten Feldbusprotokolle & ETHERNET-Standards

• Konfigurieren und visualisieren per integriertem Web-Server

• Programmierbar mit CODESYS gemäß IEC 61131-3

• Hohe Sicherheit durch SSH und SSL möglich

• Integriert in das WAGO-I/O-SYSTEM 750 – modular, kompakt, vielfältig

www.wago.com


VERBAND

Westerkamp koordiniert VDI-Fachgesellschaften

– GMA bekommt einen neuen Geschäftsführer

Dipl.-Ing. Dieter Westerkamp hat die Leitung

des Bereichs „Technik und Wissenschaft“

im VDI übernommen. Er folgt damit

auf Volker Wanduch, der nach 35 Jahren im

DIETER WESTER- VDI altersbedingt ausscheidet. An wen Dieter

Westerkamp seine bisherige Aufgabe als

KAMP: Als VDI-

Bereichsleiter Geschäftsführer der VDI/VDE-Gesellschaft

für Wissenschaft Mess- und Automatisierungstechnik (GMA)

und Technik abgibt, war bis Redaktionsschluss dieser

koordiniert er nun Ausgabe der atp edition noch nicht bekannt.

unter anderem die Westerkamp ist Ingenieur der Elektrotechnik

und wechselte 1998 nach beruf-

zwölf Fachgesellschaften.

Bild: VDI lichen Stationen im Anlagenbau zum VDI.

Hier begann er als Wissenschaftlicher Mitarbeiter

in der VDI/VDE-Gesellschaft Mess- und Automatisierungstechnik

(GMA), deren Geschäftsführung

er 2002 übernahm. Im weiteren Verlauf wurden

ihm im VDI Tätigkeiten als Abteilungsleiter und als

Stellvertreter des Bereichsleiters „Technik und Wissenschaft“

übertragen.

Zu seinen Aufgaben gehört die Koordination der Aktivitäten

der zwölf VDI-Fachgesellschaften mit ihren

großen Netzwerken von etwa 10.000 ehrenamtlich tätigen

Experten aus Wirtschaft, Wissenschaft und Verwaltung.

In rund 600 Fach- und Richtlinienausschüssen

erfolgt für alle Beteiligten ein wertvoller Wissens- und

Erfahrungstransfer. Ein einzigartiges Know-how wird

dort gebündelt. Die Ergebnisse der Gremientätigkeit münden

unter anderem jährlich in über 230 VDI-Richtlinien,

die den aktuellen Stand der Technik wiedergeben und

eine wichtige Unterstützung und Entscheidungsgrundlage

für die Arbeit von Ingenieuren darstellen. (gz)

VDI – VEREIN DEUTSCHER INGENIEURE E.V.,

VDI-Platz 1, D-40468 Düsseldorf,

Tel. +49 (0) 211 621 40, Internet: www.vdi.de

Profibus-Nutzer bestätigen Vorstand und Beirat

Vorstand und Beirat der Profibus-Nutzerorganisation

(PNO) bleiben nahezu unverändert. Die Mitgliederversammlung

bestätigte die drei Vorstandsmitglieder für

weitere drei Jahre in ihren Ämtern: den Vorstandsvorsitzenden

Karsten Schneider (Siemens AG) sowie als weitere

Vorstandsmitglieder Klaus-Peter Lindner (Endress + Hauser

Process Solutions) und Prof. Dr. Frithjof Klasen (Institut

Automation & Industrial IT, AIT) der FH Köln.

Wiedergewählt wurden ebenfalls die Beiräte Dr. Thomas

Albers (Wago), Christoph Behler (Mitsubishi Electric),

Jürgen George (Pepperl+Fuchs), Uwe Gräff (Festo),

Ernst Jäger (Emerson), Martin Müller (Phoenix Contact)

sowie Gerhard Mutter (Sick). Neu aufgenommen in den

Beirat wurde Henk van der Bent von Yokogawa.

Der Beirat steuert technische Ausrichtung und Weiterentwicklung

von Profibus, Profinet und IO-Link. Die

Beiräte werden in ihrer Arbeit durch die Leiter der sechs

Technical Committees der PNO unterstützt. (gz)

PROFIBUS-NUTZERORGANISATION,

Haid-und-Neu-Straße 7, D-76131 Karlsruhe,

Tel. +49 (0) 721 965 85 90, Internet: www.profibus.com

8

Der Zusammenschluss von Fieldbus Foundation

und Hart Communication Foundation rückt näher

Der Zusammenschluss der Fieldbus Foundation mit

der Hart Communication Foundation rückt offenbar

in Reichweite. Die Fieldbus Foundation verkündete

jüngst, die Verhandlungen über eine Fusion seien erheblich

vorangekommen.

Beide Organisationen hatten im September ein Memorandum

of Understanding unterzeichnet. Seither haben

Teams beider Seiten die Aspekte des möglichen Zusammenschlusses

diskutiert. Untersucht werden dabei mögliche

Vorteile für Endnutzer, Zulieferer und die beiden

Organisationen selbst, mögliche Strukturen einer fusionierten

Organisation sowie die finanziellen und rechtlichen

Aspekte. Erste Ergebnisse ließen den Zusammenschluss

als sinnvoll erscheinen.

Wenn die Arbeitsgruppen ihre Untersuchungen beendet

haben, sollen sie den Vorständen beider Organisati-

atp edition

6 / 2014

onen einen Ergebnisbericht und Empfehlungen vorlegen.

Fieldbus- und Hart-Vorstände entscheiden dann

separat über die Fortführung der Fusionsbemühungen.

Fieldbus Foundation und Hart Communication Foundation

kennen sich schon lange aufgrund intensiver

Zusammenarbeit. Beispielsweise kooperierten beide bei

Entwicklung gemeinsamer internationaler Standards

wie der Electronic Device Description Language (EDDL)

und zuletzt bei der Spezifikation für die Field Device

Integration (FDI).

(gz)

FIELDBUS FOUNDATION,

9005 Mountain Ridge Drive, Bowie Bldg – Suite 200,

Austin, TX 78759-5316, USA,

Tel. +1 (0) 512 794 88 90,

Internet: www.fieldbus.org


Die Referenzklasse für die

Automatisierungstechnik

www.atp-edition.de

atp edition ist das Fachmagazin für die Automatisierungstechnik.

Die Qualität der wissenschaftlichen Hauptbeiträge

sichert ein strenges Peer-Review-Verfahren. Bezug

zur automatisierungstechnischen Praxis nehmen außerdem

die kurzen Journalbeiträge aus der Fertigungs- und

Prozessautomatisierung.

Sichern Sie sich jetzt diese erstklassige Lektüre! Als exklusiv

ausgestattetes Heft oder als praktisches ePaper – ideal für

unterwegs, auf mobilen Endgeräten oder zum Archivieren.

Wählen Sie einfach das Bezugsangebot, das Ihnen zusagt:

• Heft

• ePaper

• Heft + ePaper

25% ersten Bezugsjahr

Rabatt im

atp edition erscheint in der DIV Deutscher Industrieverlag GmbH, Arnulfstr. 124, 80636 München

WISSEN FÜR DIE

ZUKUNFT

Vorteilsanforderung per Fax: +49 Deutscher 931 Industrieverlag / 4170-494 GmbH | Arnulfstr. oder 124 abtrennen | 80636 München und im Fensterumschlag einsenden

Ja, ich möchte atp edition regelmäßig lesen und im ersten Bezugsjahr 25 % sparen.

Bitte schicken Sie mir die Fachpublikation für zunächst ein Jahr (10 Ausgaben)

als Heft für € 389,25 zzgl. Versand

(Deutschland: € 30,- / Ausland: € 35,-).

als ePaper (Einzellizenz) für € 389,25

als Heft + ePaper für € 536,03

inkl. Versand (Deutschland) / € 541,03 (Ausland).

Alle Preise sind Jahrespreise und verstehen sich inklusive Mehrwertsteuer. Nur wenn ich nicht bis 8 Wochen

vor Bezugsjahresende kündige, verlängert sich der Bezug zu regulären Konditionen um ein Jahr.

Firma/Institution

Vorname, Name des Empfängers

Straße / Postfach, Nr.

Land, PLZ, Ort

Antwort

Leserservice atp

Postfach 91 61

97091 Würzburg

Telefon

E-Mail

Branche / Wirtschaftszweig

Telefax

Widerrufsrecht: Sie können Ihre Vertragserklärung innerhalb von zwei Wochen ohne Angabe von Gründen in Textform (z.B.

Brief, Fax, E-Mail) oder durch Rücksendung der Sache widerrufen. Die Frist beginnt nach Erhalt dieser Belehrung in Textform. Zur

Wahrung der Widerrufsfrist genügt die rechtzeitige Absendung des Widerrufs oder der Sache an den Leserservice atp, Postfach

9161, 97091 Würzburg.


Ort, Datum, Unterschrift

PAATPE2014

Nutzung personenbezogener Daten: Für die Auftragsabwicklung und zur Pflege der laufenden Kommunikation werden personenbezogene Daten erfasst und gespeichert. Mit dieser Anforderung erkläre ich mich damit einverstanden,

dass ich vom DIV Deutscher Industrieverlag oder vom Vulkan-Verlag per Post, per Telefon, per Telefax, per E-Mail, nicht über interessante, fachspezifische Medien und Informationsangebote informiert und beworben werde.

Diese Erklärung kann ich mit Wirkung für die Zukunft jederzeit widerrufen.


BRANCHE

Sensorik und Messtechnik optimistisch: 2014 soll

erneut ein Plus von sieben Prozent erzielt werden

Die Unternehmen der Sensorik und Messtechnik gehen

mit breiter Brust in die Messe Sensor + Test Anfang

Juni in Nürnberg. Die Branche hat in den vergangenen

knapp zehn Jahren ein enormes Wachstum erlebt

– und rechnet für 2014 mit einer Fortsetzung des positiven

Trends. Trotz des Einbruchs von 2009 ergibt sich

im Mittel seit 2005 ein jährliches Plus von 6,3 Prozent.

„Die Geschäftserwartungen unserer Mitglieder stehen

auf Wachstum“, fasst Thomas Simmons, Geschäftsführer

des AMA Verband für Sensorik und Messtechnik,

die aktuelle Branchenauswertung zusammen. „Eine

‚Industrie 4.0‘ ist ohne intelligente Sensoren und Mess-

Umsatz Sensorik und Messtechnik

Jahreswerte, Vergleich mit 2005 (Index 100%)

180%

160%

140%

120%

100%

2008

2009

zum Vergleich:

+6,3% pro Jahr

2005 2006 2007 2008 2009 2010 2011 2012 2013 2014

DER GIPFELSTURM

GEHT WEITER:

Die Branche hat den

Einbruch von 2009

komplett wettgemacht.

Quelle: AMA Verband für

Sensorik und Messtechnik

technik nicht umsetzbar, nicht zuletzt deshalb blickt

unsere Branche zuversichtlich auf das laufende Geschäftsjahr.“

Aus einer Umfrage des AMA unter seinen Mitgliedern

ergibt sich, dass der Branchenumsatz 2013 um drei Prozent

zulegte. Für das laufende Jahr erwarten die AMA-

Mitglieder ein weiteres, deutliches Umsatzwachstum

von sieben Prozent.

Sehr hoch liegt die Quote der Forschungs- und Entwicklungsausgaben

bei den Unternehmen der Sensorik

und Messtechnik. Die überwiegend mittelständischen

Unternehmen investieren zehn Prozent des Umsatzes in

Forschung und Entwicklung. Die Exportquote der AMA

Mitglieder stabilisierte sich 2013 mit 40 Prozent auf Vorjahresniveau.

Exporte ins europäische Ausland stiegen

wieder um drei Prozentpunkte auf 25 Prozent an. Die

Exportquote ins nicht europäische Ausland sank um

zwei Prozentpunkte auf 17 Prozent.

Die Branche investiert und steigerte die Investitionen

im letzten Jahr um weitere drei Prozent, für das Geschäftsjahr

2014 rechnen AMA-Mitglieder mit einem

Investitionsanstieg von acht Prozent. Auch die Zahl der

Mitarbeiter dürfte weiter zunehmen.

(gz)

AMA FACHVERBAND FÜR SENSORIK E.V.,

Sophie-Charlotten-Str. 15,

D-14059 Berlin,

Tel. +49 (0) 30 221 90 36 20,

Internet: www.ama-sensorik.de

10

Elektrische Automation erhofft leichtes Plus –

Prozessautomatisierer wachsen gegen den Trend

Die deutsche Automatisierungsindustrie geht von einer

Rückkehr zu leichtem Wachstum im laufenden

Jahr aus, nachdem man 2013 eine Stagnation erlebte. Die

Teilbranche Prozessautomatisierung allerdings konnte

im vorigen Jahr mit einem Plus von 2,8 Prozent besser

abschneiden. Daniel Huber, im Vorstand des ZVEI-Fachverbands

Automation für diese Technologie zuständig,

berichtet: „Nach dem starken Wachstum in den USA

durch die Fracking-Technologie in den zurückliegenden

Jahren, betrug der Umsatz-Zuwachs 2013 dort nur noch

0,5 Prozent. Nur das Geschäft mit China konnte 3,7 Prozent

Wachstum generieren.“

„Die gesamte Elektroindustrie erwartet 2014 etwa

zwei Prozent Wachstum. Von der Automation glauben

wir, dass sie noch eine Schippe drauflegen kann“, gab

sich Dr.-Ing. Gunther Kegel, Vorstandsvorsitzender des

ZVEI-Fachverbands Automation, vorsichtig optimistisch.

Der Umsatz mit elektrischer Automatisierungstechnik

ist im gesamten Jahr 2013 um 0,3 Prozent auf

47,5 Milliarden Euro zurückgegangen.

Der Export konnte 2013 um 2,2 Prozent auf 33,1 Milliarden

Euro zulegen nach plus 3,8 Prozent im Jahr zuvor.

atp edition

6 / 2014

Die Exportquote der deutschen Automatisierungsindustrie

liegt damit weiterhin über 80 Prozent. „Die stärksten

Exportmärkte waren China mit 13 Prozent und die USA

mit elf Prozent Anteil. Beide kamen auf ein Wachstum

von jeweils sechs Prozent“, so Kegel.

Die Importe von elektrischer Automatisierungstechnik

sind um 3,8 Prozent auf 17,7 Milliarden Euro gewachsen.

Das Wachstum der Einfuhren aus China betrug

8,4 Prozent auf 1,6 Milliarden Euro. Der überwiegende

Teil davon sind laut ZVEI ‚Inter-Company-Importe‘ deutscher

Unternehmen. Risiken für die Automatisierungskonjunktur

sieht Kegel im Konflikt um die Ukraine.

Bereits jetzt verschöben oder stornierten russische Unternehmen

Investitionen. 2013 exportierte die Automationsbranche

Produkte für eine Milliarde Euro nach

Russland und der Bestand an Direktinvestitionen liegt

bei 1,2 Milliarden Euro.

(gz)

ZVEI – ZENTRALVERBAND ELEKTROTECHNIK- UND

ELEKTRONIKINDUSTRIE E.V.,

Lyoner Straße 9, D-60528 Frankfurt am Main,

Tel. +49 (0) 69 630 20, Internet: www.zvei.org


Leitplanken für Industrie 4.0: Verbände wollen

das Internet der Dinge geordnet aufs Gleis setzen

Das Zukunftsthema Industrie 4.0 wollen mehrere Verbände

nicht dem Zufall überlassen, sondern in erfolgversprechende

Bahnen lenken. Um die Diskussion voranzubringen,

hat etwa der VDI kürzlich drei Statusberichte

zu Wertschöpfungsketten, Komponenten und Referenzmodellen

zum Thema Industrie 4.0 in Deutschland

veröffentlicht. Die VDI/VDE-Gesellschaft Mess- und

Automatisierungstechnik (GMA) hebt in diesem Zusammenhang

hervor, damit Industrie 4.0 Realität werde,

müssten die richtigen Voraussetzungen geschaffen werden.

Es seien globale Standards notwendig. Den weltweiten

Wettlauf werde jenes Land gewinnen, das die beste

Strategie sowie nutz- und gewinnbringende Ideen für

Geschäftsmodelle präsentiere. Ob Deutschland in Zukunft

die Nase vorn haben werde, sei eine Frage der

schnellen Umsetzung, der gemeinsamen Überwindung

von Herausforderungen wie Standardisierung, sichere

IT-Strukturen sowie geeignete Businessmodelle. Unter

www.vdi.de/industrie40 stehen die Reporte zur Einsicht

bereit. Die Statusberichte „Industrie 4.0 – IT Security“

und „Industrie 4.0 – Leitsystem“ sollen noch 2014 folgen.

Die Experten der DKE arbeiteten beim Industrial Automation

Forum der International Electronic Commission

(IEC) mit Kollegen aus der ganzen Welt an grundlegenden

Standards für das industrielle Internet der

Dinge. Entscheidend für die Realisierung von Industrie

4.0, so betont man bei der DKE, werde die Fähigkeit etwa

von Produkten oder Maschinen sein, in einer vernetzten

Umgebung Informationen über sich zu liefern. Hierfür

sei es notwendig, dass für alle Einheiten des Produktionsprozesses

Merkmale hinterlegt sind, die sie eindeutig

identifizieren. Die Experten arbeiteten daher weiter an

der internationalen Normenreihe IEC 61987, die im Hinblick

auf die Semantik die nötigen Festlegungen liefert.

Ebenfalls diskutiert wurde die internationale Norm

IEC 62541 zum Software-Schnittstellen-Standard OPC

UA (Unified Architecture) als Middleware-Lösung der

Industrieautomation. Sie ermöglicht die Kommunikation

zwischen Programmen und Geräten und normt hier-

für Dienste die sich für Industrie 4.0 sehr gut eignen.

Zudem gingen die Experten das Auseinanderklaffen der

Lebenszyklen von Software und Anlagen in einer Industrie-4.0-Umgebung

an. Mit der künftigen IEC 62890 zum

Life-Cycle-Management wollen sie die Grundlage für

vertragliche Vereinbarungen liefern, mit denen sich Anlagenbetreiber

üblicherweise vor Nachrüstungen oder

Re-Engineering-Maßnahmen in Maschinen und Anlagen,

die allein aufgrund eines Softwarewechsels notwendig

werden, schützen wollen.

Zudem haben DKE und ETSI (European Telecommunications

Standards Institute) eine Zusammenarbeit im

Bereich Industrie 4.0 beschlossen. Im Rahmen der Kooperation

könnte ETSI Spezifikationen im Bereich der

Kommunikation beistellen, die etwa IEC-Komitees über

eine noch festzulegende Schnittstelle nutzen. ETSI will

bis zum Sommer kommunikationsbezogene Spezifikationen

für die Weiterentwicklung der deutschen Normungroadmap

über Industrie 4.0 identifizieren. (gz)

DKE: www.dke.de

GMA: www.vdi.de; www.vdi.de/industrie40

IEC: www.iec.ch

DIE VORTEILE VON

INDUSTRIE 4.0

werden sich nur

umfassend nutzen

lassen, wenn dafür

die Voraussetzungen

wie etwa akzeptierte

Normen geschaffen

werden.

Bild: Thomas Ernsting/LAIF

VDI/VDE-Richtlinienentwurf: Praxistipps für die

Nutzung berührungsloser Temperaturmesstechnik

Wenn Temperaturen berührungslos zur Prozesskontrolle

oder -regelung gemessen werden müssen,

kommen Strahlungsthermometer zum Einsatz.

Im Richtlinienentwurf VDI/VDE 3511 Blatt 4.5 gibt der

Fachausschuss 2.51 Angewandte Strahlungsthermometrie

der VDI/VDE-Gesellschaft Mess- und Automatisierungstechnik

(GMA) nun Anleitungen für die Praxis.

Unter dem Titel „Technische Temperaturmessung;

Strahlungsthermometrie; Praktische Anwendung von

Strahlungsthermometern“ wird etwa beschrieben, wie

Medien zwischen dem Messobjekt und Thermometer,

die Messfeldgröße und die Einstellzeit des Thermome-

ters die Messgenauigkeit beeinflussen. Es werden auch

Hinweise zur Auswahl des geeigneten Wellenlängenbereichs

für die Messung gegeben. Nach der sechsmonatigen

Einspruchsfrist und der Behandlung etwaiger

Einsprüche, die die gesamte interessierte Öffentlichkeit

erheben kann, wird die Richtlinie als zweisprachige

Fassung in Deutsch und Englisch veröffentlicht. (gz)

VDI/VDE-GESELLSCHAFT MESS- UND

AUTOMATISIERUNGSTECHNIK (GMA),

VDI-Platz 1, D-40468 Düsseldorf,

Tel. +49 (0) 211 621 40, Internet: www.vdi.de

atp edition

6 / 2014

11


PRAXIS | SENSORTECHNIK

Embedded-Messsysteme für Oberflächen und

Fluide: Farbsensoren bieten viele Möglichkeiten

Methode muss passend zu den Eigenschaften der zu untersuchenden Substanz gewählt werden

Bei der Entwicklung von Embedded-Farbmesssystemen

ist es wichtig zu wissen, welche Messgenauigkeit

und Systemelektronik benötigt wird. Soll es ein

Handheld-Gerät oder ein Inline-System sein? Dieser

Beitrag zeigt, wie fluid- oder farbstoffbasierte Anwendungen

von intelligenten Messsystemen und -aufbauten

profitieren können.

Bei der Farbmessung ist es je nach Anwendung wichtig

zu wissen, wie genaue Messwerte ohne Drifteffekte

erzielt werden können. Farbmessung und Farbwahrnehmung

beruhen auf drei Variablen: Objekt, Licht,

Beobachter.

‚Weißes Licht‘ wird oft als farblos wahrgenommen,

aber in Wirklichkeit beinhaltet es alle Farben des sichtbaren

Spektrums. Wenn weißes Licht ein Objekt erreicht,

wird nur eine ausgewählte Menge an Farbe blockiert

beziehungsweise reflektiert. Was bleibt, ist die

Farbe, die wahrgenommen wird.

Wenn eine oder mehrere Variablen sich ändern,

kann Farbe anders wahrgenommen werden. Diese Variablen

können bei einem Projekt hilfreich sein oder

ein technologisches Hindernis darstellen. Deshalb ist

es wichtig, den gesamten Messaufbau zu bewerten,

bevor ein allgemeiner technologischer Ansatz ausgewählt

wird.

Änderungen der Variablen können beabsichtigt sein,

um die Werte für die statistische Auswertung verwenden

zu können (siehe Regressionsanalyse). Diese Methode

schätzt die Beziehungswerte zwischen den Variablen

ein und ermöglicht Rückschlüsse, die auf Unterschieden

in Farbe und Spektrum basieren. Selbst bei

scheinbar farblosen Objekten oder Flüssigkeiten lassen

sich deren spezifische Eigenschaften über das hyperspektrale

Verfahren analysieren.

So kann der Ausgabewert der jeweiligen Applikation

stark abweichen, wenn sich beispielsweise der Einfallswinkel

verschiebt oder die Verwendung des Beobachters

(Detektors) verändert wird.

Im Folgenden werden Anwendungsbeispiele zur Qualitätskontrolle

sowie der Automatisierungs-, Lebensmittel-

und Verarbeitungsindustrie genauer betrachtet.

Was mit True-Color-Sensoren (XYZ-Sensoren mit

Normspektralwertfunktion) oder Multi-Spektral-Sensoren

(Quasi-Spektrale-Sensoren) möglich ist, wird

anhand von Messwerten und Genauigkeiten gezeigt.

GLUKOSE, PH UND CHEMIKALIEN

Die häufigsten Messungen in Bio-Analytik, Qualitätsmanagement,

Lebensmittelverarbeitung oder der medizinischen

Industrie sind Glukose- oder pH-basiert.

Das Pyranoseoxidase-Verfahren wird für Glukosemessungen

mit Farbsensoren genutzt. Für diesen auf

Transmission basierenden Testaufbau wurden Glukosemessungen

über indirekte Bestimmung durchgeführt.

Dabei wurde ABTS als Redox-Indikator für den

sichtbaren Spektralbereich verwendet. Der Anteil des

einfallenden Lichts bei einer bestimmten Wellenlänge

ließ sich so messen.

Einige der untersuchten Substanzen waren farblos

und wurden zum Beispiel via Fluoreszenz-Verfahren

gemessen. Farblose Chemikalien reagieren bei diesem

Verfahren unterschiedlich bei bestimmten Wellenlängen

und lassen sich somit analysieren. Als Indikator

wurde ABTS verwendet. Er bewirkt, dass die gemessenen

Substanzen zu einem grünen Farbbereich

reagieren.

Mit dem Testaufbau wurden außerdem Glukose-Messungen

von Softdrinks vorgenommen. Der Glukose-

Anteil bei Cola und Sprite beträgt etwa 95+ mg/l, bei

Eistee 50+ mg/l und fast 40 mg/l bei Fruko, einem regionalen

Erfrischungsgetränk aus der Türkei.

Mit Handheld-Geräten können Proben unterwegs

analysiert werden. Um eine Messung einzuleiten, wird

eine Zero-Messung der Probe durchgeführt. Es wird der

entsprechende Indikator zugegeben, eine zweite Messung

ermöglicht eine genaue Bestimmung der Probenzusammensetzung.

Mit dieser Methode lassen sich nicht nur Glukoseoder

pH-Werte ermitteln, sondern auch andere chemische

Zusammensetzungen in den Proben. Zum Beispiel

Chlor, Kupfer, Nitrit oder Phosphat.

Bei der pH-Wertermittlung mittels Absorptionsmessung

wurden Genauigkeitswerte im Bereich von 0,1

erzielt. Wenn das Prinzip der Absorptionsmessung

nicht genau genug ist, können die Ergebnisse mit Hilfe

von Fluoreszenz-Messungen verbessert werden. Im

Testaufbau gelang es, Rodamin 6G und Cumarin 1 mit

einer Genauigkeit von 10-6 mol/l zu messen. Bei einer

Schichtdicke von 200 µm Toluidinblau konnte eine

Konzentration von 10 µmol detektiert werden.

SPRIT UND MINERALÖLE

Kraftstoffe und Erdölerzeugnisse sind meist strengen

Regulierungen der internationalen Industrie unterzogen.

Die Farbe des Kraftstoffs oder Petroleums ist ein

Indikator für verschiedene Elemente, beispielsweise

Steuerklassen oder Nutzungsdomänen.

Die ASTM D1500, Pt-Co- oder Gardner-Farb skalen

beschreiben Farbunterschiede von gelb-weißlich bis

dunkel-orange-braun.

Die Norm ASTM D 6045 beschreibt das Normspektral-Wertmessverfahren

von Saybolt und ASTM Farben.

Die Farbpalette ähnelt jener im Bild rechts (Erdöl-Farbtafel).

Die Saybolt-Farbskala wird zur Einstufung

von hellen Erdölprodukten, einschließlich Flugkraftstoffen,

Kerosin sowie Naphtha, Weißölen oder

Kohlenwasserstoffen verwendet. Die ASTM-Farbskala

wird hingegen für dunklere farbige Erdölprodukte

eingesetzt. Es ist eine komplexe Aufgabe, den Unterschied

zwischen einzelnen Saybolt-Proben zu messen,

da die Farbunterschiede mit dem menschlichen

Auge oft kaum sichtbar sind.

12

atp edition

6 / 2014


MnO 4

0,55mg/l 11

pH

11,5

NH 4

0,05mg/l

MITTELS FARBMESSUNG

lassen sich selbst

scheinbar farblose

Substanzen bestimmen.

QUASISPEKTRUM

VON RODAMIN 6G

(absorptions- und

emmissionsbasierend).

Bilder: Mazet

SOFTDRINK-GLUKOSEMESSUNGEN

via Farbsensoren.

BEISPIELHAFTE

DARSTELLUNG

einer üblichen

Erdöl-Farbtafel.

NORMSPEKTRALWERTANALYSE von Saybolt-Proben.

Bei einem spezifischen Testaufbau sind die Sensoren

in der Lage, selbst feine Farbunterschiede zu erkennen.

Um jedoch die besten Ergebnisse in Flüssigkeitsmessungen

oder anderen auf Flüssigkeit basierenden Anwendungen

zu erreichen, sollten die mathematischen

Algorithmen hinter dem Detektionsprozess optimiert

werden. So können spektrale Informationen mit hoher

Genauigkeit erfasst werden.

Dabei können Simulationen von komplexen Nachweismethoden

helfen. Der Algorithmus der Partikelschwarm-Optimierung

betrachtet zum Beispiel die

bekannten Eigenschaften der verwendeten Farbsen-

atp edition

6 / 2014

13


PRAXIS | SENSORTECHNIK

soren. Mithilfe solcher Optimierungsverfahren lassen

sich Unterschiede zwischen scheinbar gleichfarbigen

Flüssigkeiten detektieren.

Die folgenden Messungen zeigen die Farbkoordinaten

von mehreren gemessenen Flüssigkeitsproben im Saybolt-Bereich

innerhalb des CIE-Farbraums. Die Bereichswerte

sind in der Norm festgelegt und zeigen, wie

genau ein Farberkennungssystem sein muss, um die

gegebene Norm zu erfüllen.

DRUCKINDUSTRIE

Die Druckindustrie hat hohe Ansprüche an Farben und

deren Reproduzierbarkeit. Was passiert, wenn die Corporate-Farben

sich während einer Inline-Produktion

ändern? Wird die Produktion in dieser Zeit angehalten

werden? Kostet jeder Druckfehler zusätzlich Geld?

Ziel war es, einen Testaufbau zu entwerfen, der

absolute Farbwerte für Druckfarben liefert. Die gemessenen

Werte wurden mit den Referenzwerten

eines Spektrometers verglichen, um die erforderliche

Zielgenauigkeit bewerten zu können. Ein Vorteil von

Multi-Spektral-Sensoren ist die höhere Genauigkeit

und die Möglichkeit, spektrale Näherungsverfahren

verwenden zu können. Wenn die Druckfarben bekannt

sind, können Ergebnisse durch Kalibrierung

der spezifischen Farben verbessert werden. Eine absolute

Genauigkeit von ∆E00


CYAN-DRUCKFARB-BEISPIEL nach

Optimierung bei einem Wert von ∆E00 = 0,25.

BEISPIELHAFTE PROBENMESSREIHE

im CIE1931-Farbraum.

schiedliche Anwendungsbereiche zu entwickeln. Die

kompakte Baugröße ermöglicht den Einsatz in mobilen

Geräten oder engen Umgebungen. Es ist notwendig zu

wissen, welche Art von Detektor im Testaufbau eingesetzt

wird und wie die Messungen durchgeführt werden

sollen.

Die Wahl der richtigen Messmethode (Emission, Remission,

Transmission) ist für eine genaue Bewertung

von verschiedenen Substanzen oder Elementen sehr

wichtig. Zum Beispiel reagieren Flüssigkeiten anders

als feste Objekte, Reflexion oder Fluoreszenz erfordern

einen veränderten Messaufbau.

Die Messungen bestätigen, dass die Farbwahrnehmung

nicht mit üblichen physikalischen Größen wie

Spannung, Druck oder Dichte verglichen werden kann.

Da die Hauptvariablen der Farberkennung sich applikativ

stark unterscheiden (Objekt, Licht und Beobachter),

sollten Farbmessaufgaben auf die jeweilige Anwendung

optimiert und kalibriert werden. Definierte Referenzoder

Zielwerte müssen gesetzt werden, um das spezifische

∆E00 von Farbkoordinaten in bestimmten Farbräumen

zu vergleichen.

Bei allen Messungen konnte die Genauigkeit der Werte

durch Einsatz von intelligenten Optimierungsprozessen

und Algorithmen gesteigert werden.

AUTOREN

M.A. KEVIN

JENSEN ist

zuständig für

International

Sales &

Marketing bei

Mazet in Jena.

Dipl.-Inf. (FH)

MICHAEL

GÖPFERT ist

Application

Engineer bei

Mazet in Jena.

B. Eng.

PAUL-GERALD

DITTRICH ist

Netzwerkmanager

bei

SpectroNet in

Jena.

Mazet GmbH,

Göschwitzer Straße 32, D-07745 Jena,

Tel. +49 (0) 3641 28 09 47, E-Mail: kevin.jensen@mazet.de

atp edition

6 / 2014

15


PRAXIS | SENSORTECHNIK

Intelligent und effizient: Temperaturmessung mit

Grenzwertschaltern schützt Mensch und Anlage

Überwachung elektrischer Maschinen mit Interfacemodulen als Alternative zu Prozessleitsystemen

MODULE DES K-SYSTEMS werden auf

dem Power Rail montiert – redundante

Versorgung und Sammelfehlermeldung

inklusive.

Bilder: Pepperl+Fuchs

z. B.

PT100

*-GUT-*

DAS INTERFACEMODUL

überwacht die Temperatur

mit einer Dreileitermessung

und schaltet

beim Überschreiten

eines Grenzwertes ein

Relais am Ausgang.

Elektrische Maschinen sind aus der Automatisierungstechnik

nicht wegzudenken. Vor allem als

Antriebe beispielsweise für Förderschnecken und -bänder

sowie für Pumpen erfüllen sie elementare Funktionen.

Ausfall, Überlastung oder Fehlfunktion von elektrischen

Maschinen können in der Prozessindustrie

weitreichende Auswirkungen haben. Daher sind Überwachungskonzepte

erforderlich, die sicherheitsrelevante

Störungen erkennen und Maschinen abschalten

können. Diese Aufgabe müssen nicht zwingend Prozessleitsysteme

oder SPSen übernehmen. Eine wirtschaftliche

Lösung lässt sich auch durch den Einsatz

von Trennbausteinen mit Grenzwertrelais realisieren.

FEHLFUNKTIONEN STELLEN GEFAHREN

FÜR MENSCH UND ANLAGE DAR

Die Auswirkungen der Fehlfunktionen elektrischer

Maschinen können beachtlich sein. Die falsche Drehrichtung

einer Welle aufgrund einer umgekehrten Phasenfolge

am Motor führt dazu, dass Transportgut auf

Bändern oder Schnecken in die falsche Richtung befördert

wird. Eine zu hohe Drehzahl kann zu mechanischen

Schäden der Wellenlager führen. Werden Synchronmaschinen

beispielsweise bei Inselnetzen zu

stark belastet, droht die Gefahr eines Stillstandes. Die

Überhitzung von Komponenten aufgrund mechanischer

oder elektrischer Wärmeentwicklung kann zu

Schäden an den Geräten selbst führen, aber auch zu

einer Gefahr für Personal und Anlage werden.

ÜBERWACHUNGSZIELE AM BEISPIEL

DER TEMPERATURMESSUNG

Daher muss es das Ziel eines Überwachungskonzeptes

sein, sicherheitsrelevante Parameter zuverlässig zu kontrollieren

und im Störfall das betreffende Gerät abzuschalten.

So können Gefahren für Mensch und Natur,

Beschädigungen der Maschine sowie ein Anlagenstillstand

verhindert werden.

Bei Temperaturmessungen an elektrischen Maschinen

sind vor allem die Messwerte von Stator, Lagern

und Oberflächen relevant. Sie spiegeln beispielsweise

Anomalien bei Erregerströmen, Schmiermitteldruck

oder Kühlung wider. Ist die elektrische Maschine als

Antrieb einer Pumpe eingesetzt, kann auch die Überwachung

der Temperaturen von Förderflüssigkeiten

sinnvoll sein, um eine Überlastung des Antriebes zu

verhindern. Hier kann eine Temperaturüberwachung

zur Erkennung und Vermeidung von unzulässig hohen

Temperaturen dazu genutzt werden, das Anfahren der

Pumpe solange zu verzögern bis der Stockpunkt des

Fördermediums über der Umgebungstemperatur liegt.

Im Gegensatz zu Parametern wie Drehzahl oder Drehrichtung

sind Temperaturänderungen nicht offensichtlich

und mit menschlichen Sinnen nicht ohne weiteres

zu erfassen. Die Messung von Temperaturen ist zudem

durch Nicht-Linearität gekennzeichnet, die bei Messung,

Übertragung und Auswertung der Größe berücksichtigt

werden muss.

REALISIERUNG MIT TRENNBAUSTEINEN

Grenzwerte können beim Vorhandensein eines Prozessleitsystems

oder einer SPS in der zentralen Steuerung

hinterlegt werden, sodass beim Erreichen oder Überschreiten

dieser Werte definierte Prozesse ausgelöst

werden – im einfachsten Fall die Abschaltung der betreffenden

Komponente.

Aufgrund der in der Regel langen und damit störanfälligen

Signalwege zwischen Feldebene und Steuerung

sind Trennbausteine zu verwenden – entweder als

Trennbarrieren, um den explosionsgefährdeten Bereich

vor zu hohem Energieeintrag zu schützen oder als Signaltrenner

für den sicheren Bereich: Auch zwischen

16

atp edition

6 / 2014


den nicht-explosionsgefährdeten Bereichen im Feld

und der Steuerung ist dringend eine galvanische Trennung

geboten. Sie bietet wirksamen Schutz gegen Potentialverschiebungen

und Ausgleichsströme durch

Erdschleifen oder nach dem Austausch von Eingangskarten

in der Steuerung, gegen elektromagnetische Störungen

oder auch gefährlich hohe Spannungen auf den

Signalleitungen im Fehlerfall.

Trennungen in der Steuerung befinden sich in der

Regel zwischen den Eingangskarten und der Prozessoreinheit

und können daher nicht den Schutz von Signaltrennern

ersetzen. Werden als Trennbausteine

Temperaturmessumformer mit parametrierbaren

Grenzwertausgängen ausgeführt, stehen am Relaisausgang

bereits Schaltsignale zur Verfügung, ohne auf eine

zentrale Steuerung zurückgreifen zu müssen.

SYSTEM BESTIMMT DEN BENEFIT

Die effiziente Realisierung der Überwachung von sicherheitsrelevanten

Parametern ist an einige Voraussetzungen

geknüpft. So sollten Temperaturmessumformer

für alle Arten von bei Temperaturmessungen vorkommenden

Messgrößen geeignet sein (Thermoelement, Widerstandsthermometer,

Potentiometer oder Spannung).

Schaltpunkte müssen frei einstellbar sein. Zudem muss

das Modul über eine Leitungs- und Sensorbruchüberwachung

verfügen, um Messwerte zulässig zu übermitteln.

Der Temperaturmessumformer mit Grenzwerten

KFD2-GUT des K-Systems von Pepperl+Fuchs bietet

neben diesen Grundvorausetzungen eine Reihe weiterer

Vorteile. Das Modul nimmt die Temperatur auf und

schaltet bei Erreichen des Grenzwerts den Relaisausgang.

Es ist sowohl für den Einsatz in explosionsgefährdeten

Bereichen wie auch als Signaltrenner für Signale

aus dem sicheren Bereich verfügbar.

Das Modul ist Teil der K-System-Produktfamilie mit

weiteren Grenzwertschaltern, sodass praktisch alle

kritischen Parameter nach dem selben Prinzip zu überwachen

sind

Drehzahlüberwachung

Gleichlaufüberwachung

Transmitterspeisung mit programmierbarem

Hoch- oder Tiefalarm

Die Versorgung der Module erfolgt über das sogenannte

Power Rail, ein Tragschienenprofil mit Einlegeteil.

Die Tragschienenmontage erlaubt das einfache Aufstecken

der Module. Das Power Rail versorgt die Geräte

mit Versorgungsspannung und bietet die Möglichkeit

einer Sammelfehlermeldung. Dies reduziert den Verdrahtungsaufwand.

FAZIT

Die zuverlässige Überwachung sicherheitsrelevanter

Parameter von elektrischen Maschinen kann vor Ge-

fahren für Mensch und Natur sowie für die Maschine

und eine Anlage insgesamt wirksam schützen. Eine

interessante Alternative zu Prozessleitsystemen oder

SPSen bei der Überwachung einzelner Messwerte ist

der Einsatz von Trennbausteinen mit Grenzwert relais.

AUTOR


Quality by tradition

ANDREAS GRIMSEHL ist Produkt-

Marketing-Manager bei der

Pepperl+Fuchs GmbH in Mannheim.

Pepperl+Fuchs GmbH,

Division Process Automation,

Interface Technology,

Lilienthalstraße 200, D-68307 Mannheim,

Tel. +49 (0) 621 776 17 94,

E-Mail: agrimsehl@de.pepperl-fuchs.com

Er verbindet ein großes Kalibriervolumen und Temperaturbereiche

von -35…165 °C mit dem bewährten Bedienkonzept mittels eines

7“ Farb-Touchscreens.

Benutzerfreundliche und intuitive Menüführung

Netzwerk- und USB-Host-Anschluss bieten weltweiten Zugriff sowie

Erweiterbarkeit und damit Zukunftssicherheit.

Weitere Infomationen

finden Sie unter:

atp614.sika.net

NEU

Verfügbar ab: 2. Quartal

Kalibrier-Komfort in neuer Dimension!

Der Temperaturkalibrator TP 37 166 E

Elektronische Messund

Kalibriertechnik

atp edition

6 / 2014

17


PRAXIS | SENSORTECHNIK

Kontinuierliche Messung des pH-Werts zeigt Lecks

in Kühlanlagen mit Ammoniak zuverlässig an

Alternative zu klassischen Methoden – Austretendes Kältemittel bedroht Mensch und Umwelt

AMMONIAK IST IN WASSER LÖSLICH:

Aus pH-Wert und Temperatur lässt sich die

Mol-Konzentration des Ammoniaks im Wasser

ermitteln. Bilder: Jumo

LÄSST EIN LECK Ammoniak

in den kühlenden Wasserkreislauf

austreten, so

kann das durch Messung

des pH-Wertes vor und

nach dem Kondensator

fest gestellt werden.

SICHER AUF DEM

KUNSTEIS: Das Eis für

die Bahn im schweizerischen

Wengen wird mit

Ammoniak als Kältemittel

erzeugt. Vor

Unfällen durch Austritt

des Kälte mittels schützt

eine Lecküberwachung

per pH-Wert-Messung.

IM KONDENSATOR wird Ammoniak komprimiert

und durch Wärmeentzug verflüssigt.

Im Verdampfer geht das flüssige Ammoniak

wieder in den gasförmigen Zustand über und

entzieht der Umgebung dabei Wärme.

Werden Kälte- und Kühlanlagen mit Ammoniak betrieben,

so kann ein Austreten dieses Kältemittels

für Mensch und Umwelt verheerende Auswirkungen

haben. Daher besitzt die Lecküberwachung derartiger

Systeme höchste Bedeutung. Als Alternative zu den

bisher bekannten Methoden bietet sich hier die Überwachung

mittels pH-Wert-Messung an. Bei einer Kunsteisbahn

im schweizerischen Wengen kommt diese Methode

seit einigen Jahren erfolgreich zum Einsatz.

Kälte- und Kühlanlagen werden in vielen Bereichen

eingesetzt. Die geforderte Kälteleistung zu erbringen, ist

dabei nur ein Ziel. Ebenso sollten sie sicher, umweltverträglich,

wirtschaftlich und energieeffizient sein. Ammoniak

(NH 3 ) ist ein Kältemittel, das seit dem Verbot

der Fluorchlor-Kohlenwasserstoffe (FCKW) und Halogenfluorchlor-Kohlenwasserstoffe

(HFCKW) in neuen

Kälteanlagen wieder an Bedeutung gewonnen hat.

GIFTIG, FARBLOS UND ÄTZEND

Ammoniak liegt in Kühlkreisläufen teilweise als Flüssigkeit,

teilweise als Gas vor. Unter Normalbedingungen

(0°C und 1013 mbar) ist Ammoniak ein farbloses,

giftiges und ätzendes Gas. Flüssig liegt es komprimiert

oder tiefkalt vor (Verdampfungspunkt bei –33,4°C, 1013

mbar). Ammoniak ist in Wasser löslich, die Lösung

heißt Salmiakgeist. Aufgrund der Temperatur und der

Mol-Konzentration des Ammoniaks im Wasser lässt

sich der pH-Wert ermitteln.

Um eine Kühlung zu erreichen, werden in den meisten

Anlagen Kompressions-Kältemaschinen eingesetzt.

Dabei wird das gasförmige Ammoniak vom Verdichter

angesogen und komprimiert. Die Temperatur

des Ammoniaks steigt dadurch an. Am darauf folgenden

Kondensator wird diese Wärme dem Ammoniak,

zum Beispiel durch eine Wasserkühlung, entzogen,

wodurch es sich verflüssigt. Nun wird das Ammoniak

am Drosselorgan dekomprimiert und kühlt sich dabei

ab. Die resultierende Wärmeenergie ist nun kleiner als

vor dem Verdichten, daher kann am Verdampfer Wärme

aus der Umgebung aufgenommen werden; es wird

also gekühlt. Das Ammoniak wechselt dabei den Aggregatzustand

und wird wieder gasförmig. Danach

wird es erneut vom Verdichter angesogen und der

Kreislauf ist geschlossen.

18

atp edition

6 / 2014


Ihr Erfolg durch

unsere Erfahrung

DIFFERENZ UND ABSOLUTWERT ÜBERWACHT

Eine Schwachstelle kann der Kondensator sein, wo

das Ammoniak unter hohem Druck steht. Entweichen

an dieser Stelle auch nur kleine Mengen Ammoniak,

so hat das verheerende Auswirkungen auf Mensch

und Umwelt. Wie schon erwähnt, beeinflusst die Ammoniakkonzentration

den pH-Wert einer Flüssigkeit.

Tritt nun an einer Stelle Ammoniak in den kühlenden

Wasserkreislauf, so kann das durch Messung des pH-

Wertes vor und nach dem Kondensator festgestellt

werden. Beim Entweichen von großen Mengen Ammoniak

tritt sofort eine Differenz der beiden Messungen

auf. Bei kleinen Mengen ergibt sich keine

große Differenz, der absolute pH-Wert wird sich aber

allmählich erhöhen. Eine Überwachung sowohl der

Differenz als auch des Absolutwertes ist also unerlässlich.

Weiter spricht die Differenzüberwachung

auch bei einem eventuellen Driften (Alterung) der

pH-Sonden an, was dem System eine gewisse Sicherheit

verleiht. Dieses Verfahren eignet sich nur für

Kühlkreisläufe mit Wasser. Denn bei Verwendung

von Äthylen-Glykol-Zusätzen wird der pH-Wert durch

austretendes Ammoniak zu wenig beeinflusst.

GRENZWERTÜBERSCHREITUNG LÖST ALARM AUS

In der Kunsteisbahn im schweizerischen Wengen

wird seit einigen Jahren mit Erfolg dieses Prinzip der

Überwachung eingesetzt. Dabei wird Gletscherwasser

zur Kühlung des Kondensators verwendet. Das

erwärmte Wasser dient anschließend zur Heizung des

Badewassers eines Freiluftschwimmbeckens. Zur pH-

Messung werden pro Kreislauf (Kondensator und

Verdampfer) je zwei Jumo pH-Sonden mit angeschlossenen

Messumformern dTRANS pH02 eingesetzt. Die

Messwerte werden durch ein di308-Anzeigegerät

miteinander verglichen, sowie auf deren Absolutwert

überprüft. Bei Überschreitung der vorbestimmten

Grenzwerte wird sofort Alarm ausgelöst. In Anlagen,

wo die Kühlung des Kondensators mit Luft erfolgt,

wird nur der Verdampferkreislauf überwacht.

Besuchen Sie uns:

MEORGA Rheinland

Smidt-Arena,

Leverkusen

04.06.2014

Halle A2

Stand 14

Stellungsregler Bauart 3730 und 3731

• Komfortables Bedienen vor Ort und über

Prozessleitsystem (HART ® , PROFIBUS-PA

oder FOUNDATION fieldbus)

• Robuste Anbausätze für Hub- und

Schwenkantriebe

• Geeignet für den Einsatz in sicherheitsgerichteten

Kreisen (SIL 3 gem. IEC 61508)

• Integrierte Ventildiagnose für Regel- und

Auf/Zu-Armaturen (z. B. Teilhubtest (PST))

• Global einsetzbar durch nationale und

internationale Explosionsschutz-

Zulassungen (Ex ia oder Ex d)

Bewährte Stellungsregler mit

hoher Regelgüte

AUTOR

WALTER WÜEST

ist Branchenmanager

Bahntechnik bei Jumo.

JUMO GmbH & Co. KG,

Moritz-Juchheim-Straße 1,

D-36039 Fulda,

Tel. +49 (0) 661 60 03 27 22,

E-Mail: walter.wueest@jumo.net

A01147DE

SAMSON AG · MESS- UND REGELTECHNIK

Weismüllerstraße 3 · 60314 Frankfurt am Main

Telefon: 069 4009-0 · Telefax: 069 4009-1507

E-Mail: samson@samson.de · www.samson.de

SAMSON GROUP · www.samsongroup.net


PRAXIS | SENSORTECHNIK

Laufende Echtzeitmessung des Alkoholgehalts im

Destillat sorgt für höchste Qualität der Brände

Per elektronischem Dichtemesser optimiert Haidvogl die Prozesskontrolle in Schnapsbrennereien

ENTSCHEIDEND

FÜR DIE QUALITÄT

hochwertiger

Brände ist die

laufende präzise

Steuerung des

Alkoholgehaltes

über den gesamten

Produktions prozess.

STATT MITTELS

DISKONTINUIERLICHER

SPINDELABLESUNG

erfolgt die Ermittlung

der aktuellen Alkoholkonzentration

durch

Dichtemessung mit

einem Dichtemesser

Liquiphant M Dichte als

Glasspindel-Ersatz.

ZU DEN SPEZIALGEBIETEN der Haidvogl Film KG

gehört die Destillationstechnik. Für Praxiserprobung

und Entwicklungsoptimierung betreibt der innovative

Betrieb in Alberndorf eine Versuchsanlage für 150

Liter auf dem aktuellen Stand der Technik.

Bilder: Endress+Hauser

„MIT DEM LIQUIPHANT M DICHTE von Endress+Hauser

an der von uns konstruierten Alkoholvorlage lässt sich

die auf 0,1 vol. % genaue Alkoholmessung während des

Destillationsbetriebes sicherstellen“, erläutert Leopold

Haidvogl (rechts), hier im Bild mit Herbert Springer,

Projektverantwortlicher bei Endress+Hauser in Wien.

Laufende Messungen des Alkoholgehaltes während

des gesamten Produktionsablaufes gewährleisten

die Qualität von Destillaten aus Landprodukten. Bisher

erfolgen diese meist diskontinuierlich mit Spindeln.

Die Haidvogl Film KG, als Hersteller von Steuerungssystemen

für Destillationsanlagen, nutzt moderne industrielle

Messtechnik in Form des Inline-Dichtemessgerätes

Liquiphant M Dichte von Endress+Hauser zur

zeitnahen Steuerung des Brennvorgangs und hilft

Schnapsbrennern, die Qualität ihrer Erzeugnisse zu

sichern und auszubauen.

Das Mühlviertel genießt beste Imagewerte. Vor allem

ist die oberösterreichische Region nördlich der Donau

bekannt für ihre hervorragenden Lebens- und Genussmittel.

Dazu gehören auch die hochwertigen Brände,

zu denen zahlreiche Betriebe regionale Produkte veredeln.

Nicht dieser Branche zurechnen würde man auf den

ersten Blick die Haidvogl Film KG in Alberndorf. 1983

von Leopold Haidvogl gegründet, hatte das Unternehmen

bis 2004 seinen Tätigkeitsschwerpunkt in der

Filmproduktion und betrieb sogar einige Jahre lang

einen Regionalsender. Geblieben ist davon nur der

Name. Schon 2003 kehrte das Unternehmen zu seinen

eigentlichen Wurzeln zurück und beschäftigt sich unter

anderem wieder mit Datenfunk und Mikrowellenfunktechnik.

Mit Internet- und EDV-Dienstleistungen,

Mikroelektronik-Entwicklung und mechanischer CNC-

Fertigung sowie Messtechnik ist die kleine, innovative

Firma nun schon lange ein Hightech-Allrounder.

Auf dieser, die verschiedenen Disziplinen übergreifenden

Basis, spezialisierte sich Haidvogl im Jahr 2010

auf die Optimierung der Destillationstechnik. „Die

zugrunde liegende Idee war, mit einer branchenspezi-

20

atp edition

6 / 2014


fischen Lösung die Lücke zwischen einfacher Temperaturregelung

und teurer Industriesteuerung zu schließen“,

sagt Eigentümer Leopold Haidvogl. „Speziell für

Fachleute im Bereich Destillationstechnik entwickelt,

unterstützt unsere DPC (Destillen Process Control) 400

diese mit bis zu zwölf überwachten Temperaturwerten

dabei, ihre Qualität zu sichern und zu steigern.“ Ihre

Präzision und Zuverlässigkeit überzeugte einen führenden

deutschen Destillations-Kesselhersteller, der

die Steuerung seither als Hauptabnehmer in seine Anlagen

integriert. Mittlerweile stellt Haidvogl mit DPC

100 und DPC 50 auch Systeme für kleinere Anwendungen

her.

In die Entwicklung flossen neben Erfahrungswerten

namhafter Hersteller aus der Brennkesseltechnik auch

Erkenntnisse aus Wissenschaft und Forschung ein. So

steuerten etwa die Spezialisten für Gärtechnik der

FH Wels für Ernährungstechnik wichtige Daten und

Parameter für die Entwicklung bei. Der Praxiserprobung

und Entwicklungsoptimierung dient eine hauseigene

Versuchsanlage für 150 Liter auf dem aktuellen

Stand der Technik.

FEHLERQUELLEN UND ZEITAUFWAND ENTFALLEN

Ziel der Haidvogl-Steuerung ist nicht, den Brennmeister

zu ersetzen, sondern diesen von Beobachtungsaufgaben

zu entlasten. Entscheidend für das reproduzierbare

Halten und Steigern der Qualität von Destillaten

ist die Überwachung nicht nur verschiedener Temperaturdifferenzen,

sondern darüber hinaus des aktuellen

Alkoholgehaltes während der Produktion, denn sie ist

maßgebend für das Separieren der Fraktionen Vorlauf,

Mittellauf und Nachlauf.

Bisher – und in den meisten Fällen wohl auch weiterhin

– geschah dies durch Ablesen einer amtlich geeichten

Spindel in einem Glasgefäß mit der zu untersuchenden

Flüssigkeit. Ermittelt wurde deren Alkoholgehalt

vom Brennmeister anschließend anhand amtlicher Tabellen.

„Neben der Gefahr von Ablesefehlern und der

mangelnden Temperaturkompensation ist die Prozedur

lästig, zudem vergeht zwischen der Entnahme des Destillats

und der Bestimmung ihres Alkoholgehaltes einige

Zeit“, nennt Haidvogl die Nachteile der bisherigen

Praxis. „Wir gaben uns damit nicht zufrieden und

suchten eine Möglichkeit, diese Werte in höchster Genauigkeit,

vor allem aber laufend in Echtzeit zu messen.“

DICHTEMESSUNG NACH DEM SCHWINGGABELPRINIZIP

Gleich bleibt dabei die Messung in der Schnapsvorlage

als Messglas. In der Schnapsvorlage selbst kommt als

Ersatz für die Glasmessspindel ein Dichtemesser Liquiphant

M Dichte von Endress+Hauser mit einem Dichte-

Elektronikeinsatz FEL50D zum Einsatz. Dieser arbeitet

nach dem Schwinggabel-Prinzip, das darauf beruht, dass

die Resonanzfrequenz der Schwinggabel von der Dichte

der Flüssigkeit, der Prozesstemperatur und dem Prozess-

druck abhängt. Zur Gewährleistung höchster Präzision

wird ein Abgleich über drei Messpunkte durchgeführt.

Im Einlaufröhrchen der Schnapsvorlage ist ein Sensor

für die Temperaturmessung integriert, dessen Werte

zur Kompensation der Temperatureinflüsse herangezogen

werden. Der Dichterechner FML621 – ebenfalls

von Endress+Hauser – errechnet mittels komplexer

mathematischer Funktionen aus den Messwerten für

Temperatur und Dichte laufend in Echtzeit den wahren

Alkoholgehalt.

KONTROLLE MIT GENAUIGKEIT VON 0,1 PROZENT

„Im Interesse der Genauigkeit konstruierten wir eine

Alkoholvorlage mit dem kleinsten möglichen Volumen“,

berichtet Haidvogl. „Nur so lässt sich jede kleinste

Änderung des Alkoholgehaltes sofort messtechnisch

erfassen und die auf 0,1 vol. % genaue Alkoholmessung

während des Destillationsbetriebes sicherstellen.“

Als einer der weltweit führenden Partner der Prozessindustrie

für die Inline-Messung von Füllstand, Druck,

Durchfluss, Temperatur und verschiedener anderer physikalischer

Größen an Medien war Endress+Hauser für

Haidvogl von vornherein erste Wahl. Das Familienunternehmen

hatte zudem erst wenige Jahre zuvor das exakt

passende Produkt entwickelt. „Da unter den Aspekten

Qualitätsüberwachung, Prozesskontrolle und

Umwelt die Erfassung von Dichte und Konzentration der

gemessenen Stoffe in industriellen Produktionsprozessen

immer mehr an Bedeutung gewinnt, wurde der bewährte

Pegelschalter Liquiphant M weiterentwickelt“,

sagt Herbert Springer, Projektverantwortlicher bei

Endress+Hauser in Wien. „Als vollwertiges Inline-Dichtemessgerät

nach dem Schwinggabelprinzip dient es zur

kostengünstigen Überwachung wichtiger Prozessdaten

im hygienischen Prozessumfeld in Echtzeit.“

AUTOR

MARKUS SCHMID ist

Produktmanager Füllstandmesstechnik

bei

Endress+Hauser in Weil

am Rhein.

Endress+Hauser Messtechnik GmbH + Co. KG,

Colmarer Strasse 6, D-79576 Weil am Rhein,

Tel. +49 (0) 7621 97 53 06,

E-Mail: markus.schmid@de.endress.com

atp edition

6 / 2014

21


PRAXIS | SENSORTECHNIK

Wo hoch präzise Glasmaßstäbe schwächeln,

punkten induktive Wegsensoren mit Robustheit

Lagerhersteller erspart sich mit neuer Messtechnik den ständigen Austausch zerstörter Geräte

Die Kugel- und Rollenlagerwerk Leipzig GmbH

(KRW) arbeitet beim Schleifprozess mit Genauigkeiten

im Mikrometerbereich. Eigentlich ein Fall für

optische Messsysteme. Aber die im Schleifprozess erforderliche

Kühl-Schmierstoff-Emulsion setzte den

bislang zur Messung eingesetzten Glasmaßstäben so

stark zu, dass sie oft nach einem halben Jahr getauscht

werden mussten – zu Stückkosten im vierstelligen Bereich.

Mit Turcks berührungslosem Linearwegsensor

LI-Q25 hat KRW nun eine robuste und verschleißfreie

Dauerlösung und erspart sich den regelmäßigen Austausch

defekter Glasmaßstäbe.

Man sieht sie nicht, man hört sie nicht und doch vertrauen

wir alltäglich darauf, dass sie gute Arbeit leisten:

Ohne Wälzlager bewegt sich heute nur wenig – schon

gar nicht in der Industrie. In Leipzig behauptet die Kugel-

und Rollenlagerwerk Leipzig GmbH erfolgreich

ihre Marktnische in diesem Feld. Der Hidden Champion

KRW spezialisierte sich auf Hochpräzisions-Wälzlager,

Spezialanfertigungen und Kleinserien.

Ein weiterer Vorteil, mit dem die Sachsen bei ihren

Kunden weltweit punkten können, sind Flexibilität und

Liefergeschwindigkeit. „Unsere Genauigkeit liegt immer

im Mikrometer-Bereich“, sagt Karl Wolter, Direktor

Marketing und Vertrieb bei KRW, und beschreibt die

Dimensionen: „Wenn Sie ein Blatt Standard-Druckerpapier

nehmen und in zehn Lagen teilen, dann ist eine

dieser Lagen ein Mikrometer stark.“

HÖCHSTE ANFORDERUNGEN AN DIE PRÄZISION

Aus dieser Marktpositionierung erwachsen spezielle

Anforderungen an die eingesetzte Sensorik. Die Messsysteme

bei KRW müssen hochpräzise sein. Magnetostriktive

und andere magnetische Systeme scheiden

aus, da sie durch die starken Magnetfelder beeinflusst

werden, welche die Werkstücke fixieren.

In der Regel setzt KRW daher auf optische Systeme,

denn die Anforderungen an die Genauigkeit lassen fast

keine anderen Messsysteme zu. Der Nachteil der optischen

Systeme ist allerdings ihre hohe Anfälligkeit

in dieser rauen Fertigungsumgebung. „Wir haben in der

Schleiferei das Problem, dass die Kühl-Schmierstoff-

Emulsion, die wir verwenden, in die Sensorik eindringt.

Durch die Rotation des Werkzeugs beim Schleifen

zerstäubt das Medium und es entsteht eine Gischt,

die sich auf den Maschinen und den Sensoren trotz

Schutzmaßnahmen und Sperrluft niederschlägt“, erklärt

der Leiter der Schleiferei, Frank Schubert.

SCHMIERSTOFF IST GIFT FÜR DIE GLASMASSSTÄBE

Dieser Schmierstoff – auch Slurry genannt – hat eine

sehr geringe Oberflächenspannung. Im Prozess ist das

gewünscht, die Slurry kann so bis in die engste Ritze

kriechen. Für die empfindlichen Glasmaßstäbe ist diese

Eigenschaft allerdings Gift. „Durch die Bewegung

des Positionsgebers dringt an der Dichtlippe des Sensors

immer auch etwas Slurry ein. Nach zirka sechs

Monaten war der optische Sensor an der Vorschleifmaschine

in der Regel defekt“, beschreibt KRW-Instandhalter

Holger Lietsch den Nachteil des bislang eingesetzten

Glasmaßstabs.

Im Vorschleifprozess werden die Flächen der Außenund

Innenringe etlicher Wälzlager geschliffen. Es ist

in der Regel der erste Bearbeitungsschritt nach dem

Härtungsverfahren. Hier ist zunächst noch eine Genauigkeit

im Hundertstel-Millimeter-Bereich ausreichend.

Die entscheidende Präzision der Lager wird

später beim Fertigschleifen und Finishen erreicht. Je

nach Charge lassen sich auf der Vorschleifmaschine

Ringe bis zu 500 Millimeter Höhe schleifen. Ein starker

Elektromagnet hält dazu die Außenringe auf dem Maschinentisch.

Der Werkzeugsupport fährt auf den zu

bearbeitenden Ring und die Anzeige des LI-Sensors

wird auf Null gesetzt. Von diesem gesetzten Referenzpunkt

ist es dem Maschinenbediener möglich, zu sehen,

wie viel Materialabtrag bis zur durchgeschliffenen

Fläche erfolgte.

MAGNETISCHE SENSOREN KOMMEN NICHT IN FRAGE

„Magnetische Sensoren kann man hier aufgrund der

starken Magnetfelder nicht einsetzen. Wir haben den

starken Elektromagneten und außerdem direkt neben

dem Sensor einen 30-kW-Motor, der die Hauptspindel

antreibt“, erklärt Lietsch. Insofern blieb KRW bislang

nur übrig, in den sauren Apfel zu beißen und die Glasmaßstäbe

einzusetzen.

Ausgefallene Geräte gingen dann zur Befundung

zum Hersteller, der sie teilweise aufarbeiten konnte.

Allerdings ist dieser Reinigungsprozess meist nur einmal

möglich. Danach muss ein neuer Sensor angeschafft

werden. Die Reparaturkosten lagen pro Stück

im vierstelligen Euro-Bereich, eine Neuanschaffung

ist noch teurer. Außerdem musste KRW noch die Arbeitszeit

des Instandhaltungspersonals in die Kalkulation

einbeziehen. Die Schleifmaschine selbst konnte

zwar weiter betrieben werden, allerdings nur konventionell.

Ohne den Sensor müssen die Mitarbeiter

die Maschine anhand einer analogen Anzeige justieren.

Die Skalierung ist am Handrad aufgezeichnet und

kann daher nicht exakt auf Null gesetzt werden.

Seit Herbst 2013 erfasst ein induktiver Linearwegsensor

von Turck die Schleiftiefe an der Vorschleifmaschine

auf 10 Mikrometer genau. Die LI-Sensoren arbeiten

nach dem Resonator-Messprinzip, bei dem die Positionserfassung

nicht über einen magnetischen Positionsgeber

erfolgt, sondern induktiv über ein schwingfähiges

System aus Kondensator und Spule. Das berührungslose

System erlaubt es, das Gehäuse des Sensors komplett

zu vergießen und damit dauerhaft Schutzart IP67

zu erfüllen. Auch unter widrigsten Bedingungen kann

keine Substanz in den Sensor eindringen und seine

Funktion stören.

22

atp edition

6 / 2014


AUF DEM

BEDIENPULT

der Flachschleifmaschine

zeigt

die Digitalanzeige

den Messwert des

LI-Sensors an.

EMV-RESISTENT:

Der hinter dem

Faltenbalg

montierte 30-kW-

Elektromotor der

Hauptspindel

stört Turcks

LI-Q25 nicht im

Geringsten.

Fotos: Turck

DIE IM SCHLEIF-

PROZESS

erforderliche

Kühl-Schmierstoff-Emulsion

machte die

bislang verwendeten

Glasmaßstäbe

nach sechs

Monaten

unbrauchbar.

GROSSE LAGER – HOHE PRÄZISION: Bei Fertigungstoleranzen

im Mikrometer-Bereich ist präzise Messtechnik

gefragt, der auch die im Schleifprozess erforderlichen

aggressiven Schmiermittel nichts anhaben können.

UNEMPFINDLICH GEGEN UMWELTEINFLÜSSE

Gegenüber magnetostriktiven Linearwegsensoren

punktet das induktive Messsystem von Turck mit seiner

hohen Unempfindlichkeit: Obwohl sich der Elektromotor

für den Hauptspindelantrieb nah am Sensor befindet,

beeinträchtigt er dessen Funktion überhaupt nicht.

Auch die magnetische Fixiereinrichtung des Maschinentischs

hat keinen negativen Einfluss auf die Zuverlässigkeit

der Messung des LI-Q25.

KRW-Instandhalter Holger Lietsch setzt beim LI-Q25

auf eine digitale Signalübertragung. Das verwendete

SSI-Signal arbeitet mit Hilfe der sogenannten Differenzübertragung.

Eine einstrahlende Störquelle hat

somit nicht den negativen Einfluss, den sie auf ein

analoges Signal ausüben könnte. KRW verzichtet deshalb

hier auf aufwendig geschirmte Leitungen. Der

Linearwegsensor liefert sein Signal an eine digitale

Anzeige, die am Bedienpult der Schleifmaschine

montiert ist.

Anfangs spielten Sensor und Anzeige noch nicht optimal

zusammen. Nach einer Firmware-Anpassung des

Sensors für diese spezielle Anzeige funktioniert das

System zuverlässig und störungsfrei. Die Mitarbeiter in

der Schleiferei können jetzt den Schleifprozess präzise

durchführen. Das Plan- beziehungsweise Flachschleifen

legt den Grundstein für die späteren Bearbeitungsschritte.

Fehler, die hier entstehen, können später nur

schwer korrigiert werden.

AUTOR

JENS GIERKE ist

Vertriebsspezialist bei

Turck in Mülheim.

Hans Turck GmbH & Co. KG,

Witzlebenstraße 7,

D-45472 Mülheim an der Ruhr,

Tel. +49 (0) 3592 316 37,

E-Mail: jens.gierke@turck.com

atp edition

6 / 2014

23


PRAXIS

Aufgearbeitet statt neu: Perfektes Nachschleifen

vervielfacht die Lebensdauer von Werkzeugen

Exakte Schneidkantenpräparation und optimale Neubeschichtung entscheiden über die Qualität

AUFARBEITUNG

BEIM HERSTEL-

LER LOHNT SICH,

wie eine Fallstudie

zeigte: Durch

Performance- und

Standzeitvorteile

ergab sich in der

Gesamtbetrachtung

eine 70-prozentige

Einsparung.

NACHSCHLEIFEN: Fachgerechtes

Reconditioning mit Originalgeometrie und

Original beschichtung garantiert hohe

Standzeiten und Prozesssicherheit.

UNKOMPLIZIERT: Die Box wird mit verschlissenen

Werkzeugen befüllt und vom Hersteller abgeholt.

HALBIERTE KOSTEN: Beim dritten Nachschliff sinken

die Werkzeugkosten um 50 Prozent. Bilder: Walter AG

Nachhaltigkeit steht nicht nur für die Schonung von

Ressourcen und Umwelt, sondern ist auch im hohen

Maß relevant für die Wirtschaftlichkeit der Unternehmen.

In der metallzerspanenden Industrie lassen

sich beispielsweise durch fachgerechtes Nachschleifen

und Neubeschichten von Zerspanungswerkzeugen erhebliche

Kosten sparen.

Für die Walter AG aus Tübingen, Spezialist für Hochleistungs-Zerspanungswerkzeuge,

haben deshalb der

ganzheitliche Produktzyklus ihrer Werkzeuge und dessen

nachhaltige Gestaltung einen hohen Stellenwert. Den zweiten

Schritt im Lebenszyklus der Walter-Produkte stellt konsequenterweise

die Wiederaufbereitung dar. Die Kunden

des Unternehmens lassen ihre Werkzeuge drei- bis fünfmal

in speziellen Reconditioning Centern nachschleifen und

neu beschichten. Innerhalb von 14 Tagen erhalten sie die

zuvor abgenutzten Werkzeuge in Originalqualität zurück

– fast wie neu. Reconditioning ist für Walter ein entscheidender

Bestandteil des – verlängerten, kosten- und ressourcenschonenden

– Produktlebenszyklus.

24

atp edition

6 / 2014


VOLLSTÄNDIG GESCHLOSSENER PRODUKTKREISLAUF

Sind die Werkzeuge endgültig verschlissen, bietet Walter

den Rückkauf des Hartmetallwertstoffs zu Kilopreisen

an und organisiert den Rücktransport. Das Material

wird dann in den Recyclingwerken des Unternehmens

in seine Bestandteile zersetzt, zu reinem Wolframcarbid

verarbeitet und wieder für die Produktion

neuer Werkzeuge eingesetzt. So entsteht ein vollständig

geschlossener Produktkreislauf.

Bei den Kunden spielt das Reconditioning für die

Wirtschaftlichkeit eine entscheidende Rolle. Denn hier

schlummert – im Vergleich zur Anschaffung neuer Ersatzwerkzeuge

– ein enormes Einsparungspotenzial.

Daher stellt die Wiederaufbereitbarkeit von Werkzeugen

inzwischen einen festen Bestandteil bei der Entwicklung

von Neu-Werkzeugen dar.

Eine immens wichtige Stellschraube für Leistung und

Standzeit ist die exakte Schneidkantenpräparation. Aus

diesem Grund sind verschlissene Werkzeuge beim Reconditioning-Service

des Herstellers in den besten Händen.

Denn nur dieser kann die Bohrer wieder mit allen

Feinheiten versehen und somit in einen Fast-wie-neu-

Zustand versetzen. Das gilt auch für die Beschichtung.

Nach nur dreimaligem Wiederaufbereiten lassen sich so

bereits 50 bis 60 Prozent der Werkzeugkosten einsparen.

KURZFRISTIGE EINSPARUNGEN RECHNEN SICH NICHT

Walter hat das Nachschleifen nicht erfunden, betreibt

es aber auf hohem Niveau. Die Wiederaufbereitung

durch die Walter Reconditioning-Experten erfolgt mit

Originalgeometrie und der leistungsfähigen Original-

Beschichtung. Ein herkömmlicher Nachschliff mit

Standardbeschichtung würde zu deutlich geringeren

Standzeiten und geringerer Prozesssicherheit führen.

Dass Qualität ihren Preis hat, ist eine alte Binsenweisheit,

die für die Reconditioning-Spezialisten von Walter

sehr konkrete Bedeutung hat: Lokale Nachschleifbetriebe

konkurrieren häufig mit geringeren Service-Preisen.

Doch Qualität ist auch ihren Preis wert – und führt

in der Gesamtbetrachtung letztlich doch zu Einsparungen.

So konnte Walter in einer Fallstudie mit einem

großen Kunden, einem Hersteller von Zubehörteilen für

den Automobilbereich, zeigen, dass kurzfristige Kosteneinsparungen

beim Nachschleifen langfristig betrachtet

die Produktionskosten deutlich erhöhen.

Der Kunde bearbeitete ein Werkstück aus legiertem

Stahl mit dem Hochleistungsfräser Proto max ST. Nach

Verschleiß des Werkzeugs wurde dieses in einem lokalen

Betrieb, zu dem langjährige Geschäftsbeziehungen

bestanden, nachgeschliffen – zu einem günstigeren

Preis im Vergleich zum Angebot von Walter. Im Feldversuch

ging es nun darum, die Performance der beiden

Alternativen gegeneinander zu testen. Gleich zu Beginn

ergab sich eine überraschende Erkenntnis: Die vom lokalen

Betrieb nachgeschliffenen Werkzeuge wurden

mit um 40 Prozent niedrigeren Bearbeitungsparame-

tern gefahren, als die von Walter wiederaufbereiteten

Werkzeuge. Leider ist das eine häufige Vorgehensweise,

die manchem Werkleiter vielleicht gar nicht bewusst

ist: Der Maschinenbediener hat seine Erfahrungswerte

mit dem nachgeschliffenen Werkzeug – in diesem Fall

eine schlechtere Leistung – und passt die Maschine

entsprechend an.

PRODUKTIONSKOSTEN UM 70 PROZENT GESENKT

Trotz dieser künstlichen Drosselung ergab sich im

zweiten Schritt ein noch überraschenderes Ergebnis:

Die Werkzeuglebensdauer des von Walter nachgeschliffenen

Fräsers war um ein Vielfaches höher als die des

lokalen Nachschliffs. Ein enormer Performanceunterschied,

der sich unterm Strich auch sehr deutlich in

den Herstellungskosten bemerkbar macht. Trotz der

höheren Kosten des Original-Nachschliffs ließen sich

durch das Walter Reconditioning rund 70 Prozent an

Produktionskosten gegenüber dem lokalen Nachschliff

einsparen. Deshalb ist es enorm wichtig, wie beim Neu-

Teil, auf das Know-how des Original-Herstellers zu

setzen. Die Werkzeuge, die vom Walter Reconditioning-

Service kommen, haben praktisch die gleiche Qualität

wie Neuwerkzeuge. Entsprechend können sie auch mit

denselben Bearbeitungsparametern gefahren werden.

Das spart Maschinenzeit und -kosten. Außerdem ist die

Werkzeuglebensdauer deutlich länger, als bei durch

Wettbewerber nachgeschliffenen Werkzeugen. Dadurch

sind beispielsweise weniger Werkzeugwechsel nötig

und die Produktivität erhöht sich.

Jenen Kunden, bei dem die Fallstudie durchgeführt

wurde, haben diese gewichtigen Argumente überzeugt.

Dort ist Walter Reconditioning nun fester Bestandteil

eines wirtschaftlich optimierten Herstellungsprozesses.

AUTOR

JENS-PETER SCHNECK

ist Reconditioning &

Recycling Manager bei der

Walter AG.

Walter AG,

Derendinger Str. 53, D-72072 Tübingen,

Tel. +49 (0) 7071 701 12 34,

E-Mail: jens-peter.schneck@walter-tools.com

atp edition

6 / 2014

25


HAUPTBEITRAG

Konzept offener Regler:

FPGA in der Antriebstechnik

Modulare Architektur löst spezialisierte Anforderungen

Systeme mit programmierbarer Logik in Form von Field Programmable Gate Arrays

(FPGA) werden zunehmend für die Antriebstechnik interessant. Die Gründe dafür

sind die mit einer Hardware-Implementierung vergleichbare Leistung, die Flexibilität

im Entwurfsprozess und im Feld sowie die Skalierbarkeit des Funktionsumfangs.

Das im Beitrag vorgestellte Konzept zeigt Struktur, Funktionsweise und Entwurf

einer komponentenorientierten Architektur für ein Antriebssystem. Der Fokus

liegt dabei auf der günstigen Nutzung der resultierenden Freiheitsgrade in Hard- und

Software. Es wird gezeigt, dass die Architektur den industriellen Standards und

speziellen Anforderungen einer beispielhaften Anwendung hinsichtlich Robustheit

und Flexibilität gerecht wird.

SCHLAGWÖRTER FPGA-Technologie / Antriebstechnik / Architekturkonzept /

Offenheit / Reglersystem

Concept Open Controller: FPGA in Drive Technology –

A Modular Architecture for Specialized Requirements

Systems with programmable logic are becoming more and more interesting in drive

engineering. This is due to the performance, which can be compared to a hardware

based implementation, the flexibility in the design process and the range of applications,

as well as the scalability. The concept shows structure, functionality and

design of a component-based architecture for a drive control system. The focus is on

the beneficial use of the resulting degrees of freedom in hardware and software. The

article shows that the architecture is able to meet industrial standards as well as

special requirements for a typical application regarding robustness and flexibility.

KEYWORDS FPGA technology / drive engineering / architectural concept / openness /

closed loop control system

26

atp edition

6 / 2014


PETER ZAHN, IGOR LAPTEV, ALEXANDER VERL, Universität Stuttgart

Das Institut für Steuerungstechnik der

Werkzeugmaschinen und Fertigungseinrichtungen

der Universität Stuttgart (ISW)

beschäftigt sich im Rahmen von Forschungsvorhaben

mit Architekturen für

offene Reglersysteme. Die Offenheit zielt dabei auf

möglichst hardwareunabhängige Strukturen und

Schnittstellen, sodass die Austauschbarkeit von

Komponenten und der Zugriff auf beliebige interne

Signale möglich ist. Entsprechende Konzepte und

Implementierungen wurden im Rahmen der Entwicklung

der offenen Antriebsreglerplattform [1, 2]

umgesetzt.

Derartige Systeme eignen sich für einen universellen

Einsatz in der Antriebstechnik. Wesentlicher

Aspekt dabei ist die Nutzung von programmierbarer

Logik in Form von Field Programmable Gate Arrays

(FPGA). Speziell kleine Stückzahlen und Prototypen

profitieren von der erhöhten Flexibilität im Entwurfsprozess,

die die gegenüber klassischen mikrocontrollerbasierten

Systemen höheren Kosten aufwiegt. Die

Entwurfswerkzeuge ermöglichen es einerseits, ein

hierarchisches Design mit unabhängig arbeitenden

Subsystemen zu strukturieren, andererseits trotzdem

vollen Zugriff auf die internen Signalpfade zu behalten.

Das vorgestellte Konzept stellt ein neuartiges

Reglersystem auf FPGA-Basis dar, das sich dank modularem

Aufbau und der Verwendung üblicher industrieller

Schnittstellen vielseitig in der Antriebstechnik

einsetzen lässt. Bild 1 zeigt die mögliche

Ausgestaltung einer solchen Antriebsreglerplattform.

Für Standardanwendungen existieren bereits zahlreiche

kommerziell verfügbare Antriebssysteme. Im

Falle von spezielleren Anwendungen weisen sie oft

nicht genug Flexibilität auf. Beispielhaft für eine solche

Anwendung steht in diesem Beitrag der Antrieb

einer aktiv angetriebenen Knieprothese. Da hier hohe

Leistungsdichte, Integration und Robustheit gefordert

werden und unterschiedliche Lastsituationen und Einsatzbereiche

vorherrschen, müssen die entsprechenden

Entwicklungsprozesse und die eingesetzten Algorithmen

berücksichtigt werden.

1. GRUNDLEGENDE UND SPEZIELLE ANFORDERUNGEN

Im Hinblick auf eine universelle Verwendung in der Antriebstechnik

muss das offene Reglersystem robuste, industrieübliche

Schnittstellen aufweisen. Traditionell sind

dies zum Beispiel analoge und digitale Spannungsschnittstellen

mit von üblicher Digitaltechnik abweichenden

Pegeln. Weiterhin müssen unterschiedliche Gebersysteme

einlesbar sein sowie Schnittstellen zur Leistungselektronik,

wie gegebenenfalls zu einer übergeordneten Steuerungsebene,

vorgesehen werden. Zur optimalen Anpassung

an die jeweilige Anwendung ist eine gute Skalierbarkeit

wünschenswert. Die einzelnen funktionalen Primitive

von der Benutzerinteraktion und Bahngenerierung

über die Regelung bis zur Stromvektormodulation müssen

modular eingebunden oder an ein bestehendes externes

System angebunden werden können.

Prinzipiell sind diese Anforderungen bereits durch die

Nutzung konventioneller Automatisierungskomponenten

auf Mikrocontroller- beziehungsweise PC-Basis erfüllbar.

Unterschiede ergeben sich jedoch, wenn besonders bei

Prototypen oder kleinen Stückzahlen die Flexibilität ein

wesentlicher Aspekt ist. Nachfolgend wird deshalb ein

exemplarischer Anwendungsbereich vorgestellt, der von

der FPGA-basierten Architektur profitiert.

1.1 Anwendungsbeispiel Knieprothese

Ein beispielhaftes Einsatzgebiet für die vorgestellte Plattform

ist die Entwicklung des Antriebs einer aktiv angetriebenen

Knieprothese im Rahmen eines gemeinsamen

Forschungsprojekts mit Hochschul- und Industriepartnern.

Bedingt durch die Zunahme von Gefäßerkrankungen

steigt die Zahl der Patienten mit amputierten

Extremitäten, die durch Prothesen versorgt werden müssen.

Derzeit marktübliche passive Systeme stellen eine

hohe Belastung für den Träger dar, da der Mensch die zur

Fortbewegung notwendige Energie komplett über den verbleibenden

Bewegungsapparat generieren muss. Der hier

umgesetzte Ansatz, um die Energiebilanz beim Gehen zu

verbessern, ist ein aktiver elektrischer Antrieb des Knie-

atp edition

6 / 2014

27


HAUPTBEITRAG

gelenks. Am ISW wird für diesen Prototyp die notwendige

Antriebsregelung entworfen und implementiert.

Die Anforderungen an das Reglersystem ergeben sich

aus der Notwendigkeit, für die Evaluierung situationsgerechter

Steuerungsmuster die Regelung zur Laufzeit

zwischen unterschiedlichen Betriebsarten (zum Beispiel

Lage- oder Momentenregelung) umschalten zu

können. Aufgrund von Unbekannten im Hinblick auf

biologische Bewegungsmuster müssen strukturell viele

Freiheitsgrade und eine umfangreiche Parametrierbarkeit

vorgesehen werden.

Eine exemplarische Besonderheit ergibt sich dabei

aus dem biologischen Vorbild: Beim menschlichen Gehen

wird der Gangzyklus wiederholt durchlaufen, der

sich beim Gehen in der Ebene in zwei Phasen gliedert,

dargestellt nach [3] in Bild 2.

Die Standphase beginnt mit dem Aufsetzen der Ferse

und umfasst das Abrollen des Fußes mit Bodenkontakt.

Dabei wird das Moment im Knie in die Vorwärtsbewegung

des Körperschwerpunkts umgesetzt. Mit dem Abheben

der Fußspitze folgt die Schwungphase, in der das Bein,

beziehungsweise die Prothese, wieder nach vorne bewegt

wird. Hierbei wird das frei schwingende Bein vom Kniemoment

gegen seine Trägheit beschleunigt und verzögert.

Das dynamische Verhalten des menschlichen Bewegungssystems

variiert dabei zyklisch: In der Standphase

bewirkt der Prothesenantrieb die relativ langsame

Vorwärtsbewegung des Körperschwerpunktes, in der

Schwungphase die Beschleunigung der Prothese auf

hohe Winkelgeschwindigkeiten. Durch kontinuierliche

Nachführung der Regelparameter über den Verlauf

dieses Gangzyklus lässt sich dies berücksichtigen

und in jedem Betriebspunkt optimales Verhalten der

Regelung erzielen. Dies entspricht dem in [4] vorgestellten

Verfahren des Linear Parameter-Varying Gain

Scheduling beziehungsweise der parameterabhängigen

PI-Regelung nach [5].

In der industriellen Antriebstechnik verfügen Antriebsregler

über umfangreiche Parametersätze, mit

denen sich der Antrieb an die Anwendung anpassen

lässt. Normalerweise erfolgt dies im Rahmen der Inbetriebnahme

mittels herstellerspezifischer Software. Um

eine sichere Funktion in allen Betriebsbereichen zu

gewährleisten, müssen dabei die Regelparameter konservativ

gewählt werden. Diese können im Betrieb nicht

mehr verändert werden. Gain Scheduling ist in einem

solchen System nicht realisierbar, weshalb hier ein

strukturell anderer Ansatz gewählt wird.

Bei der vorgestellten Architektur sind die Parameter

sämtlicher Regelungskomponenten im Betrieb zugänglich

und können im gleichen Takt wie die Vorgabe von

Sollwerten modifiziert werden. Dies erlaubt es, die Regelung

kontinuierlich an die Dynamik der Anwendung

anzupassen und somit auch bei wechselnder Last und

Dämpfung eine hohe Güte der Regelung zu erreichen.

Praktisch werden für mehrere Betriebspunkte geeignete

Reglerparameter ermittelt und Zwischenwerte

interpoliert. Die numerische Steuerung, die zum Beispiel

PC-basiert auf derselben Plattform realisiert werden

kann, übergibt diese zyklisch gemeinsam mit entsprechenden

Sollwerten an die Regelung.

2. POTENZIAL DER FPGA-TECHNOLOGIE

Gängige digitale Signalprozessoren (DSP) verfügen über

eine hohe Rechenleistung, allerdings bedingt die sequentielle

Befehlsabarbeitung Abhängigkeiten zwischen

Software-Modulen. Zur Einhaltung eines deterministischen

Verhaltens müssen diese berücksichtigt

werden, worunter die Skalierbarkeit leidet. Da ein Regelungssystem

für die genannte Aufgabe sich gut in

parallel arbeitende Funktions-Module mit kontinuierlichem

Datendurchsatz untergliedern lässt, bieten anwendungsspezifisch

konfigurierbare Logikbausteine

(FPGA) eine sinnvolle Plattform zur Umsetzung.

Insbesondere in der Entwicklung und bei kleinen

Stückzahlen stellt die Rekonfigurierbarkeit einen Vorteil

dar, der erhöhte Kosten für leistungsfähige FPGA kompensiert.

Die entsprechende Beschreibung der Logik in

einer Hardware-Beschreibungssprache, wie zum Beispiel

Very High Speed Integrated Circuit Hardware Description

Language (VHDL), eignet sich ebenso für die Umsetzung

in maskenprogrammierte Logik. Somit lässt sich

die Implementierung des funktionalen Verhaltens von

konkreter Hardware und Stückzahlen entkoppeln. Bei

den in der Antriebstechnik üblichen Regeltakten, Stromregelung

bis zu 50 kHz, sind mittels Pipelining komplexe

Berechnungen möglich, gleichfalls die Verwendung unterschiedlicher

Takte innerhalb eines Systems.

Zur Vereinfachung des Entwurfsprozesses existieren

unterschiedliche Konzepte zur Strukturierung der FPGA-

Designs. Verwendet wird die Software QSYS des FPGA-

Herstellers Altera, die ein System on a Programmable

Chip (SOPC) erzeugt. Dazu werden einzelne Komponenten

aus einer Bibliothek instanziiert und grafisch miteinander

verschaltet. Die Komponenten in der Bibliothek

können dabei selbst implementiert und von Dritten

bereitgestellt werden. Die Software übernimmt die Generierung

von Verbindungen und Busleitungen. Voraussetzung

dafür ist die Einhaltung von spezifizierten

Schnittstellentypen. Dies ermöglicht einen effizienteren

Entwurfsprozess und eine bessere Wiederverwertung

bei gleichzeitiger Reduzierung von Fehlerquellen.

Grundsätzlich erzeugen solche grafischen Entwurfswerkzeuge

ihre Ausgabe in einer Hardwarebeschreibungssprache,

sodass manuelle Eingriffe oder die Verifikation

des generierten Codes möglich sind.

3. EBENENKONZEPT DER SYSTEMARCHITEKTUR

Das offene Regelungssystem lässt sich logisch in Ebenen

untergliedern, die in Bild 3 dargestellt sind und

nachfolgend beschrieben werden. Hervorgehoben ist

dabei der Bereich, den das SOPC-Design umfasst. Wesentlich

hierbei ist die Forderung, möglichst viel Komplexität

in den FPGA zu verlegen, um die Vorteile von

28

atp edition

6 / 2014


BILD 1: Mögliche Ausgestaltung

der Antriebsreglerplattform

Antriebsreglerplattform

FPGA

Numerische

Steuerung

Lageregler

Geschwindigkeitsregler

Stromregler

Leistungselektronik

Feldbus

I/O

PMSM

Soft-

CPU

Filter

User-

IP-Cores

Lagegeber

BILD 3: Ebenen der Systemarchitektur

BILD 2: Darstellung der Phasen im Gangzyklus

BILD 4: Laboraufbau

des Regelungssystems

Konfigurierbarkeit und freiem Zugriff zu nutzen. Dies

ist ein wesentlicher Unterschied im Vergleich zu konventioneller

Hardware, wo eine Änderung von einzelnen

Parametern oder Verbindungen ein aufwendiges

Re-Design nach sich ziehen kann.

Anwendung:

Die unterste Ebene bilden Motoren und Leistungselektronik,

industrielle Spindel- oder Linearachsen, sowie

Sensorik zur Rückführung der Zustandsgrößen.

Peripheriemodule:

Die Umsetzung der Ein- und Ausgangssignale in digitale

Signale mit FPGA-kompatiblen Pegeln und das

Protokoll-Handling von Feldbussen werden auf austauschbare,

einheitliche Platinen ausgelagert.

SOPC-Komponenten:

Um die Struktur eines Regelungssystems innerhalb

des FPGA effizient abbilden zu können, wird dieses

in hierarchisch gegliederte funktionale Module zerlegt.

Ein solches Modul kann beispielsweise die Geberauswertung,

ein PI-Regler oder zusammengefasst

eine komplette Reglerkaskade für eine Achse sein.

Dadurch lässt sich diese Struktur direkt auf einzelne,

durch Signalflüsse verkoppelte SOPC-Komponenten

abbilden. Für den Anwender der Module ist dabei die

konkrete Implementierung irrelevant, sofern diese

über eine einheitliche Schnittstelle und einen definierten

Satz Parameter verfügt. Die grundlegende Verkopplung

der Module wird bei der Erstellung des

SOPC-Designs festgelegt, Signalfluss und Verhalten

innerhalb der Komponenten sind noch zur Laufzeit

k o n fi g u r i e r b a r.

Systembus:

Zum Zugriff auf die Parameterregister und zum Austausch

von Signalen wird ein herstellerseitig standardisierter

Systembus (Altera Avalon) verwendet. Dieser

ist als Master-Slave-Protokoll definiert und ermöglicht

das Einblenden der Daten in Speicherbereiche übergeordneter

Systeme mittels Memory Mapping. Die ent-

atp edition

6 / 2014

29


HAUPTBEITRAG

sprechende Logik wird automatisiert durch die Entwurfswerkzeuge

erzeugt.

CPU und Software:

Komplexere, aber weniger zeitkritische Aufgaben werden

durch eine CPU abgearbeitet. Neben der Überwachung

oder Ablaufsteuerung können Software-Module

von Dritten eingebunden werden, beispielsweise eine

PC-basierte numerische Steuerung wie [6]. Dabei kann

die CPU entweder als SOPC-Komponente (Altera NIOS

II) oder in konventioneller Form mit Kopplung über

einen externen Bus ausgeführt sein.

4. PRAKTISCHE UMSETZUNG

Der Entwurfsprozess einer Plattform entsprechend dem

vorgestellten Konzept gliedert sich in drei Teilaspekte:

Der Entwurf der Hardwareplattform mit Peripherieanbindung,

die Spezifizierung und Implementierung der SOPC-

Komponenten sowie die Integration des SOPC-Systems.

4.1 Hardwareplattform

Da die Architektur des Regelungssystems unabhängig

von der verwendeten Hardware spezifiziert ist, kann

eine für die jeweilige Anwendung sinnvolle Plattform

verwendet werden. Im Fall des Prothesenantriebs wurde

dazu der Single-Board-Computer (SBC) Kontron

MSMST der Bauform PCIe/104 gewählt. Neben einem

Intel Atom E6x5C ist auf dem Prozessormodul ein FPGA

vom Typ Altera Arria II GX integriert. Den Datenaustausch

ermöglicht eine on-Chip PCI-Express-Verbindung

zwischen CPU und FPGA. Diese enge Kopplung

reduziert den Aufwand an Bauteilen und ist somit im

Hinblick auf den Einsatz in Embedded-Systemen sinnvoll.

Zur Implementierung von Funktionen kann die

jeweils optimale Plattform (x86/x64-CPU oder FPGA)

gewählt werden, was den Entwurfsprozess vereinfacht

und die Leistungsfähigkeit erhöht.

Bild 4 zeigt einen universellen Laboraufbau des Regelungssystems

mit MSMST-Plattform und drei der vorgestellten

Peripheriemodule. In frühen Entwicklungsphasen

ist häufig ausreichend Reserve an Schnittstellen

und Rechenleistung wichtiger als das Baumaß. Für die

Regelung des Prothesenantriebs kann die Anzahl der

Schnittstellen später noch deutlich reduziert und der

Raumbedarf durch geeignete Integration minimiert werden.

Für die ersten Untersuchungen und Messungen am

Prototyp sowie die Implementierung von Algorithmen

zur Bewegungssteuerung ist dabei die Verfügbarkeit

einer kompletten PC-Plattform von Vorteil.

Übliche PC-Peripherie, wie Arbeitsspeicher, BIOS

oder Festplatten- und Displaycontroller, sind bereits auf

dem SBC vorhanden. Zur Anbindung der in der Antriebstechnik

gebräuchlichen Schnittstellen sind die

entsprechenden Peripheriemodule über Wannenstecker

mit den frei verwendbaren Ports des FPGA verbunden.

Die nachfolgend genannten industrieüblichen Schnittstellen

sind derzeit im Einsatz, die Ergänzung um weitere

Medien und Protokolle ist vorgesehen.

TTL-I/O-Modul: Bidirektionale Ein- und Ausgänge

mit TTL-Logikpegel für digitale Signale

ADC-Modul: Differenzielle analoge Eingänge mit einstellbarer

Verstärkung. Die Umsetzung mittels Delta-

Sigma-Modulation erlaubt es, Bandbreite und Genauigkeit

anwendungsspezifisch zu parametrieren.

DAC-Modul: Analogausgänge mit niedriger Impedanz

und unterschiedlichen Pegeln, ebenfalls basierend

auf Delta-Sigma-Modulation

EnDat-Modul: Schnittstelle für Lagegeber mit dem

Heidenhain EnDat-2.2-Protokoll

EtherCAT-Modul: Anbindung an numerische Steuerungen

über CANopen-Datentypen mittels des

Kommunikationsframeworks aus [7]

4.2 Entwurf der SOPC-Komponenten

Innerhalb des SOPC kommen verschiedenartige Komponenten

zum Einsatz. Einige entsprechen den Primitiven

der Regelung (zum Beispiel PI-Regler oder Differenzierer).

Andere bilden das Gegenstück zu den Peripheriemodulen,

beispielsweise ein Delta-Sigma-Modulator

oder eine State Machine für Kommunikationsprotokolle.

Realisiert wurden unter anderem Filterung, Interpolation,

Istwert-Erfassung, Regelung, Takterzeugung, Modulation

der Ausgangsgrößen, Protokollhandling und Ansteuerung

von Sicherheitslogik.

Die Verwendung von eigenen oder durch Dritte bereitgestellten

Intellectual Property Cores (IP-Cores) erleichtert

die Weitergabe und Wiederverwendung im Entwurfsprozess.

Entsprechende Generatoren werden insbesondere

für digitale Filter von FPGA-Herstellern angeboten.

Deren Nachteil ist jedoch, dass mehrere Parameter bereits

bei der Erzeugung des FPGA-Designs festgelegt

werden müssen. Um eine größtmögliche Freiheit für

Parameter und Struktur zu erhalten, wurden die Komponenten

in VHDL implementiert. Konstanten (Generics)

legen dabei nur maximale Werte bezüglich der Datenbreite

oder Ordnung fest. Der tatsächlich verwendete

Wert ist über Steuerregister parametrierbar und unmittelbar

wirksam. Jede Komponente verfügt dazu über ein

Kommunikationssubmodul, welches die Anbindung an

den Systembus ermöglicht. Ein Avalon-MM-Slave stellt

die notwendigen Register als Eingangs- und Ausgangssignale

zur Verfügung und führt die Transaktionen beim

Lese- und Schreibzugriff über den Bus durch.

Bestandteil des Komponentenentwurfs ist die simulative

Überprüfung von Funktion und Robustheit. Mittels

geeigneter Testfälle wird dabei verifiziert, ob die geforderte

Funktion erfüllt wird. Die Modularisierung erleichtert

die möglichst umfassende Abdeckung mit Testvektoren.

Im Vergleich zum konventionellen Hardwaredesign

ist dabei der Nachweis des spezifikationskonformen

Verhaltens deutlich einfacher und verlässlicher möglich.

30

atp edition

6 / 2014


Grundsätzlich kann das Verhalten sämtlicher Komponenten

auf verschiedenen Ebenen verifiziert werden.

Für einzelne VHDL-Module kommt im Lauf der Implementierung

die Simulation, beispielsweise mittels Modelsim,

zum Einsatz. Zur Laufzeit des FPGA-Designs

lassen sich interne Signalverläufe mittels eines einkompilierten

Chip-Scopes aufzeichnen und auf unterschiedlicher

Abstraktionsebene betrachten. Dadurch

ist die Interaktion mit der weiteren Hardware der Anwendung

darstellbar. Auf Ebene der Regelungsmodule

erlauben sinnvoll gewählte Parametersätze den Zugriff

von außen, auch über einen Feldbus, auf die internen

Signale zur Überwachung oder Fehlersuche.

4.3 Integration in das FPGA-Design

Zur Umsetzung eines konkreten Regelungssystems

wird dessen Struktur mit den entsprechenden SOPC-

Komponenten nachgebildet. Deren Anordnung und

Verkopplung, die hierarchisch strukturiert sein kann,

ergibt sich aus einem Signalflussplan, beispielhaft dargestellt

in Bild 5. Eine Konfiguration legt die Verschaltung

und damit den Signalfluss zwischen den Komponenten

direkt in der Hardware fest.

Da die entworfenen Komponenten sich an den Vorgaben

von Altera orientieren, können diese grafisch

instanziiert und verknüpft werden. Nach Anlegen einer

neuen SOPC-Komponente werden deren Ein- und Ausgangssignale

den standardisierten Schnittstellen zugewiesen,

eine Dokumentation hinzugefügt und wiederverwendbar

in der Bibliothek abgelegt.

Bei der Erzeugung eines SOPC-Designs mit Altera

QSYS sind die verfügbaren Komponenten in Kategorien

unterteilt und werden durch Hinzufügen zu einem Design

instanziiert. Die Signale werden als offene Verbinder

angezeigt und lassen sich durch Auswählen miteinander

verknüpfen. Dies betrifft zuerst Takt, Reset und

Systembus, welche an alle Komponenten verteilt werden.

Die einzelnen Regelgrößen sind unidirektionale

Signale und werden entsprechend dem Signalflussplan

verbunden, zur Veranschaulichung ausschnittsweise

dargestellt in Bild 6.

Das SOPC wird abschließend in ein Top-Level-Design

integriert, in dem der verwendete FPGA und umgebungsspezifische

Rahmenbedingungen (Constraints)

festgelegt, sowie den Signalen physikalische Pins zugeordnet

werden.

4.4 Einschränkungen der Werkzeuge

Grundsätzlich ist die Entwicklung von funktionalen

Komponenten auf der Ebene programmierbarer Logik

im Vergleich zu reiner Software mit einigen Nachteilen

verbunden. Die notwendige Zeit zur Erzeugung der

BILD 5: Signalfluss der Regelung im SOPC-Design

BILD 6:

Ausschnitt aus

der grafischen

Verknüpfung in

Altera QSYS

BILD 7:

Prototyp der

angetriebenen

Prothese

atp edition

6 / 2014

31


HAUPTBEITRAG

FPGA-Konfiguration liegt immer noch um Größenordnungen

über Compile-Zeiten von Software-Projekten

mit vergleichbarer Komplexität. Weiterhin ist die Umsetzung

von Struktur und Datenfluss von komplexen

SOPC-Systemen in der Antriebstechnik aus Sicht der

Autoren verbesserbar, da die betrachteten Werkzeuge

noch Defizite in ihrer Funktionsweise aufweisen. Beispielsweise

sinken bei wachsender Komplexität sowie

bei der Verwendung eigener Schnittstellentypen Übersichtlichkeit

und Handhabbarkeit des Projekts.

Eine weitere Einschränkung ist die starke Herstellerabhängigkeit

in den verwendeten Entwicklungsumgebungen.

Während ein herstellerübergreifender Austausch

einzelner IP-Cores relativ gut machbar ist, sieht

dies auf Ebene der SOPC-Systeme deutlich schwieriger

aus. Im Gegensatz zu einem rein auf die Hardwarebeschreibungssprachen

VHDL oder Verilog beschränkten

Design werden mit der Wahl der FPGA-Plattform die

möglichen Entwicklungswerkzeuge festgelegt.

weis der Architektur erbringen. Bild 7 zeigt das zugehörige

Funktionsmuster, mit dem erste erfolgreiche

Versuche innerhalb eines Ganglabors bereits vorgenommen

wurden. Das System ermöglicht die effiziente

Weiterentwicklung situationsangepasster Gangprofile

und damit die Umsetzung realitätsnaher Bewegungsmuster.

Zusammenfassend lässt sich feststellen, dass die Verwendung

von FPGA in der Antriebstechnik grundsätzlich

Vorteile bietet. Vergleichbare Hardware-Plattformen

sind verfügbar, beispielsweise in Form von [8].

Die Verwendung standardisierter und modularer Architekturen

ist entscheidend für eine effiziente Implementierung

und Anwendung. Dabei verschwimmen die

Grenzen zwischen Software und Hardware.

MANUSKRIPTEINGANG

17.09.2013

Im Peer-Review-Verfahren begutachtet

FAZIT

Die umfangreiche Parametrierbarkeit und schnelle

Rekonfigurierbarkeit des FPGA erleichtern das Prototyping

in Bereichen, wo bisher ein teures Re-Design der

Hardware notwendig war. Dies ist besonders für Produkte

in kleinen Stückzahlen attraktiv. Dabei stellt die

offene Architektur die Austauschbarkeit der Komponenten

sicher, auch herstellerübergreifend.

Bei der Umsetzung der Regelungsplattform für die

angetriebene Prothese ließ sich ein Funktionsnach-

DANKSAGUNG

Die Arbeit im Rahmen des ZIM-Kooperationsprojekts

Entwicklung des Prototyps eines aktiven

Antriebssystems für Prothesen und Orthesen wurde

unterstützt durch die Arbeitsgemeinschaft

industrieller Forschungsvereinigungen Otto von

Guericke e.V (AiF), gefördert vom Bundesministerium

für Wirtschaft und Technologie aufgrund eines

Beschlusses des Deutschen Bundestages.

AUTOREN

Dipl.-Ing. PETER ZAHN

(geb. 1985) absolvierte ein

Studium an der Universität

Stuttgart im Fach

Automatisierungstechnik

in der Produktion. Seit

2012 ist er wissenschaftlicher

Mitarbeiter am

ISW. Schwerpunkt seiner

Tätigkeit ist die Antriebs- und Regelungstechnik,

insbesondere Architekturen für

FPGA-basierte Systeme.

Institut für Steuerungstechnik der Werkzeugmaschinen

und Fertigungs einrichtungen (ISW)

Universität Stuttgart,

Seidenstraße 36, D-70174 Stuttgart,

Tel. +49 (0) 711 68 58 24 14,

E-Mail: peter.zahn@isw.uni-stuttgart.de

Dipl.-Ing. IGOR LAPTEV

(geb. 1978) studierte an der

Staatlichen Universität der

Stadt Pawlodar, Kasachstan,

das Fach Elektroantrieb und

Automatisierung. Danach

folgte ein Studium an der

Universität Stuttgart im Fach

Automatisierungstechnik in

der Produktion. Seit 2007 ist er wissenschaftlicher

Mitarbeiter am ISW mit den Schwerpunkten

Antriebs-, Regelungstechnik, FPGA-Technik und

Leistungselektronik.

Institut für Steuerungstechnik der Werkzeugmaschinen

und Fertigungs einrichtungen (ISW)

Universität Stuttgart,

Seidenstraße 36, D-70174 Stuttgart,

Tel. +49 (0) 711 68 58 45 11,

E-Mail: igor.laptev@isw.uni-stuttgart.de

32

atp edition

6 / 2014


www.atp-edition.de

Jetzt bestellen!

REFERENZEN

[1] Kramer, C.: Offene Antriebsreglerplattform.

Heimsheim, Jost-Jetter Verlag 2011

[2] Bardakcioglu, A., Hafla, A., Laptev, I., Verl, A.:

Offene Steuerungs- und Antriebsplattform für

Werkzeugmaschinen und Prozesse - Hybride

Technologien in der Produktion. In: Fortschritt-

Berichte VDI Reihe 2 Nr. 675, S. 94-115.

VDI-Verlag 2010

[3] Perry, J.: Ganganalyse, Norm und Pathologie

des Gehens. Urban und Fischer 2003

[4] Leith, D. J., Leithead, W.: Survey of gainscheduling

analysis and design. International

Journal of Control 73 (11), S. 1001-1025, 2000

[5] Sommer, S.: Selbsteinstellender PI-Regler

für LPV-Systeme. at - Automatisierungs -

technik 49 (10), S. 462-469, 2001

[6] Industrielle Steuerungstechnik GmbH:

Kernel - Softwarekern für CNC, Robotik

und Motion Control,

http://www.isg-stuttgart.de/kernel.html

[7] Simon, A., Frick, F., Verl, A.: Framework zur

Systemgestaltung von FPGA-basierten

Automatisierungsgeräten. Wt Werkstattstechnik

online Jahrgang 101 Heft 5, S. 378-383, 2011

[8 ] Krah, J. O., Höltgen, M., Richter, R.:

FPGA-basierte Motorsteuerung mit Delta-

Sigma-Strommessung. Elektronik 2013 (6),

S. 18-23, 2013

Die Referenzklasse für die

Automatisierungstechnik

atp edition ist das Fachmagazin für die Automatisierungstechnik.

Die Qualität der wissenschaftlichen Hauptbeiträge

sichert ein strenges Peer-Review-Verfahren. Bezug zur

automatisierungstechnischen Praxis nehmen außerdem

die kurzen Journalbeiträge aus der Fertigungs- und Prozessautomatisierung.

Sichern Sie sich jetzt diese erstklassige Lektüre! Als

exklusiv ausgestattetes Heft oder als praktisches ePaper

– ideal für unterwegs, auf mobilen Endgeräten oder zum

Archivieren.

Wählen Sie einfach das Bezugsangebot, das Ihnen zusagt:

als Heft, ePaper oder Heft + ePaper!

Prof. Dr.-Ing. Dr. h.c.

mult. ALEXANDER VERL

(geb. 1966) studierte

Elektrotechnik in Erlangen-Nürnberg,

Promotion

1997 am DLR in Oberpfaffenhofen.

Seit 2005

Institutsleitung am ISW,

seit 2006 zusätzlich am

Fraunhofer-IPA. Die Schwerpunkte seiner

Forschung bilden Mechanik und Steuerung

von Werkzeugmaschinen, Simulationstechnik

in der Fertigungstechnik sowie die Robotik.

Institut für Steuerungstechnik der Werkzeugmaschinen

und Fertigungs einrichtungen (ISW)

Universität Stuttgart,

Seidenstraße 36, D-70174 Stuttgart,

Tel. +49 (0) 711 68 58 24 22,

E-Mail: alexander.verl@isw.uni-stuttgart.de

atp edition erscheint in der DIV Deutscher Industrieverlag GmbH, Arnulfstr. 124, 80636 München


HAUPTBEITRAG

Engineering-Effizienz

automatisch messen – Teil 2

Explorative Untersuchung von Methode und Metriken

Engineering ist ein wesentlicher Kostenfaktor in der Automatisierung. Daher suchen

Industrie und Akademia gemeinsam nach Methoden, um die Engineering-Effizienz

zu erhöhen. Leider ist es nicht möglich, solche Methoden objektiv, systematisch,

reproduzierbar und vergleichbar zu bewerten, weil sich Engineering-Effizienz bisher

einer systematischen Messung entzieht. Teil 1 dieses Beitrags [1] schlägt einen Ansatz

zur automatischen Messung und Visualisierung der Effizienz von Engineering-Methoden

vor. Der hier vorliegende Teil 2 widmet sich der experimentellen Überprüfung

der Messmethodik und der in Teil 1 vorgestellten Thesen.

SCHLAGWÖRTER Engineering / Effizienz / Methoden / Konzepte / Effizienzmessung

Automatically Measuring Engineering Efficiency – Part 2 –

Definition, Registration and Visualisation

Engineering is a key cost driver in automation. Therefore, both manufacturers and

researchers are looking for ways to improve engineering efficiency. Unfortunately,

without being able to measure engineering efficiency it is not possible to examine

new methods in an objective, systematic, reproducible or comparable way. Part 1 of

this paper [1] proposes a concept to automatically measure and visualize engineering

efficiency. Part 2 is dedicated to the experimental examination of this concept and

the corresponding theses.

KEYWORDS engineering / efficiency / methods / concepts / efficiency measurement

34

atp edition

6 / 2014


RAINER DRATH, CHRISTIAN MESSINGER, BEN SCHRÖTER, NUO LI,

GEORG GUTERMUTH, ABB-Forschungszentrum, Ladenburg

Ein Ansatz zur Messung und Visualisierung der

Effizienz von werkzeugbezogenen Methoden

der Automatisierungsplanung wurde in Teil 1

dieses Beitrags vorgestellt [1]. In Teil 2 widmen

sich die Autoren der experimentellen Überprüfung

der Messmethodik und der in Teil 1 vorgestellten

Thesen. Dazu führten fünf Versuchspersonen im Labor

das Engineering eines Benchmark-Projekts durch, während

im Hintergrund die Messung abläuft. Ziel dieses

Experimentes ist nicht die Bewertung der untersuchten

Engineering-Methoden; es wird vielmehr die Aussagekraft

und Belastbarkeit der vorgestellten Messmethode

exploriert. Die Zahl der Kandidaten lässt aufgrund der

geringen Stichprobengröße zwar keine allgemeingültige

Bewertung der als Beispiel gewählten Engineering-

Methoden zu, aber sie demonstriert typische Widrigkeiten

und Fehlerquellen bei der Messung.

1. TESTAUFBAU UND EXPERIMENT

Die Evaluierung der vorgeschlagenen Methode zur Messung

von Engineering-Effizienz erfolgt exemplarisch anhand

eines konkreten Labor-Planungswerkzeugs für Automatisierungssoftware.

Im Sinne des Experimentes verwenden

die Verfasser des Beitrags ein internes, proprietäres

und experimentelles Planungswerkzeug zur

Programmierung von Automatisierungsgeräten, siehe

Bild 1. Die Effizienzmessung ist jedoch keineswegs an das

verwendete Werkzeug gebunden. Die Methode ist auf beliebige

Engineering-Artefakte und Werkzeuge übertragbar.

Das vorgestellte Vorgehen lässt sich uneingeschränkt auf

Prozesse mit mehreren Planungswerkzeugen anwenden.

Das Beispielwerkzeug deckt vier typische Engineering-Aktivitäten

ab: Logikprogrammierung mit Funktionsblockdiagrammen

(FBD) und Schrittketten (SFC),

die Konfiguration von Bedienoberflächen, E/A-Kommunikation

und Test. Diese Aktivitäten umfassen nur einen

Teil der tatsächlichen Aktivitäten eines Automatisierungsprojektes,

berühren jedoch die wesentlichen

Kernbereiche des softwareunterstützten Engineerings

in der gesamten Wertschöpfungskette. Zur Evaluierung

wurden die im Teil 1 vorgeschlagenen Messfunktionen

direkt in das Werkzeug eingebettet. Dies ermöglicht es,

alle relevanten Interaktionen des Ingenieurs mit dem

Planungswerkzeug strukturiert zu erfassen.

1.1 Festlegung der Engineering-Artefakte

Für die Messung von Effizienz müssen die relevanten

Artefakt-Typen festgelegt werden. Diese Festlegung ist

aufgaben- und werkzeugspezifisch und macht die Messmethodik

auf beliebige Werkzeuge anpassbar. Für die

Domäne der Automatisierungssoftware im Bereich

Steuerungen/Regelungen lassen sich herstellerübergreifend

(ohne Anspruch auf Vollständigkeit) folgende

Artefakte festlegen:

Aktoren

Sensoren

Controller

Signale

lokale und globale Variablen

Funktionsbausteindiagramme (FBD)

Ablaufdiagramme (SFC)

Grafikelemente für die Bedienoberfläche

1.2 Implementierung der Datenanalysefunktionen

Zur Messung der Effizienz werden in regelmäßigen

Zeitabständen die Projektkomplexität (die momentane

Zahl der konkreten Artefakte im konkreten Planungswerkzeug)

und die jeweils damit verbrachte Zeit ermittelt.

Zur Datenanalyse ist neben der Messfunktion die

Berechnung und Darstellung der Ergebnisse nötig.

Die Messfunktion wurde von den Autoren direkt in

das Planungswerkzeug eingebettet. Die Messergebnisse

werden in einer CSV-Datei abgelegt. Die Berechnung

und Darstellung der Ergebnisse erfolgt in einer separaten

Software außerhalb des Planungswerkzeuges. Im

vorliegenden Fall wird ein vordefiniertes MS-Excel-

Workbook verwendet. Es liest die gemessenen Daten

atp edition

6 / 2014

35


HAUPTBEITRAG

aus der CSV-Datei ein und erzeugt daraus Diagramme

sowie Statistiken wie etwa in Bild 2 (siehe rechte Seite).

Die Trennung zwischen der Messung und der Auswertung

mit Hilfe einer Datei-Übergabeschnittstelle

ermöglicht es, die Auswertesoftware unabhängig vom

Engineering-Werkzeug wiederzuverwenden. Da das

Einlesen und Kombinieren mehrerer CSV-Dateien aus

unterschiedlichen Werkzeugen möglich ist, bildet diese

modulare Architektur die Grundlage für eine werkzeugübergreifende

Effizienzmessung.

1.3 Das Benchmark-Projekt

Um Vergleichbarkeit bei der Effizienzmessung zu erlangen,

ist ein Benchmark-Projekt erforderlich. Exemplarisch

wurde hierzu ein Simple Air Soft Feeding

System (SASF-System) spezifiziert, eine Anlage zur

Gasverflüssigung. Dieses Benchmark-Projekt ist nicht

allgemeingültig, reicht aber für die Evaluierung der

Messmethodik aus. Fünf Kandidaten planen die Automatisierungssoftware

und erhalten hierfür als Startpunkt

eine Anforderungsspezifikation. Um die Auswirkung

des Faktors Mensch zu beleuchten, wird das Engineering

dreimal ausgeführt.

Bild 3 (siehe rechte Seite) zeigt das R&I-Fließbild des

SASF-Systems. Es besteht aus einem Tank, drei Ventilen,

sieben Sensoren und einem Druckschalter. Der Operateur

startet das System per Druckschalter. Sobald der Prozess

anläuft, soll sich das Ventil V103 öffnen. Dann, nach 2

Sekunden, öffnet sich das Verflüssigungsventil V102.

Sobald der Druck im Tank P101 80 % des Maximaldruckes

erreicht hat, soll das Überdruckventil V101 geöffnet

werden, bis der Druck auf 60 % abfällt. Zusätzlich

sollte das Überdruckventil V101 nicht geöffnet werden,

wenn das Zufuhrventil V103 geschlossen ist. Weiterhin

sollte das Verflüssigungsventil V102 nicht geöffnet werden,

während der Druckschalter B101 gedrückt wird.

Neben der beschriebenen Steuerungslogik sollen die

Kandidaten eine Bedienoberfläche des SASF-Systems

erstellen. Das HMI soll dabei den Prozess in einer einfachen

Grafik zeigen, die Ventile sollten ihre Farbe ändern,

wenn sie offen oder geschlossen sind (offen =

blau, geschlossen = schwarz), und der Druck P101 soll

angezeigt werden.

Da drei ähnliche Ventile im SASF-System verwendet

werden, wurden die in Bild 4 gezeigten Anforderungen

an die Ventilsteuerung definiert. Diese sollen in einer

Standardventilsteuerung umgesetzt werden.

Neben diesen Anforderungsbeschreibungen umfasst

das Benchmark-Projekt vorbereitete Bibliotheken, die

von einigen Kandidaten gemäß Versuchsplanung in

Tabelle 1 verwendet werden sollen. Diese Bibliotheken

sind Teil der untersuchten Engineering-Methode. Es

soll untersucht werden, ob sich die Effizienz durch

Wiederverwendung von Bibliothekselementen steigern

lässt. Beide Bibliotheken enthalten eine Implementierung

des Ventilblockes gemäß Bild 4. Bibliothek 1 wurde

gezielt mit Fehlern versehen, sodass eine geringere

Effizienz erwartet wird.

2. AUSFÜHRUNG UND EVALUIERUNG DER MESSUNGEN

Der im Beitrag vorgeschlagene Ansatz zur Bewertung von

Engineering-Methoden betritt Neuland, weil die Bewertung

auf Basis von Messungen erfolgt. Das Experiment lieferte

eine Fülle an Messdaten. Die Autoren merken an, dass das

Experiment unter teilweise widrigen Bedingungen stattfand,

aber gerade diese Widrigkeiten halfen, die Messung

besser kennenzulernen und auf relevante Fragen zu stoßen.

Das Messergebnis selbst spielt für die Bewertung der Messmethode

daher nur eine untergeordnete Rolle.

2.1 Analysestrategie

Die Auswertung der Messergebnisse erfordert eine Analysestrategie.

Nach einer Einführung in das Planungswerkzeug

erhielten die fünf Kandidaten dieselbe Anforderungsspezifikation,

jedoch unterschiedliche Bibliotheken. Das

vorgesehene Experiment-Setup ist in Tabelle 1 (rechts)

abgebildet, alle Kandidaten führen das Engineering dreimal

durch und variieren dabei ihre Bibliotheken. Aus dem

Experiment-Setup lassen sich mit fünf Kandidaten in drei

Versuchen theoretisch 15 Messergebnisse ermitteln.

Kandidat AW in Zeile 1 beispielsweise sollte seine

Lösung zunächst ohne jede Bibliothek implementieren

(das heißt, er kann seine eigenen Bibliotheken bei Bedarf

selbst erstellen). Im zweiten Versuch sollte zur

Lösung die fehlerhafte Bibliothek 1 verwendet werden,

im dritten Versuch die Bibliothek 2.

Da die Kandidaten ohne spezifische Erfahrungen bezüglich

des Planungswerkzeugs sowie der Automatisierungsaufgabe

starten, wird vorläufig angenommen,

dass alle Kandidaten in derselben Versuchsrunde

denselben Erfahrungsstand besitzen. Um die Wirkung

von Wiederverwendung zu untersuchen, müssten dann

für dieselbe Versuchsrunde die Kandidaten mit unterschiedlichen

Ansätzen verglichen werden: keine Bibliothek,

Bibliothek 1, Bibliothek 2.

Um andererseits das Verhalten der Kandidaten untersuchen

zu können, müssten die Ergebnisse für diejenigen

Kandidaten verglichen werden, die dieselbe

Aufgabe in verschiedenen Erfahrungsebenen (Versuchen)

durchführen.

Aus der praktischen Messung ergaben sich jedoch

Widrigkeiten: Nicht jeder Kandidat beendete alle drei

Versuche, und nicht jeder Kandidat beendete jeden angefangenen

Versuch. Tabelle 2 (rechts) zeigt die Ergebnisse

des tatsächlichen Experiments. Kandidat AW

startete zwei Versuche im Experiment: Im ersten versuchte

er, das SASF-System ohne jede Bibliothek zu

implementieren, konnte seine Arbeit jedoch nicht beenden.

Seinen zweiten Versuch ohne Bibliothek beendete

er. In Tabelle 2 steht das hochgestellte n für nicht beendet

und das hochgestellte c für beendet (completed).

Die Resultate des Experiments zeigen, dass die Messergebnisse

trotz Laborbedingungen einer Kombination

von vielen Einflüssen unterliegen, statt nur dem Messobjekt,

das heißt der Effizienzsteigerung durch Verwendung

von Bibliotheken. Dazu gehören:

36

atp edition

6 / 2014


BILD 1: Im Experiment verwendetes Beispielwerkzeug

BILD 3: R&I-Fließbild

des SASF-Systems

STATISTICS

actuars sensors signals FBDs SFCs Graphics

total number 2 1 2 2 0 1

avarage engineering time n.a. n.a. n.a. 00:09:29 00:05:01

avarage modification time 00:00:10 00:00:10 n.a. 00:01:25 00:00:00 00:01:20

re-use rate (library) n.a. n.a. n.a. 0% 0% 0%

re-use rate (copy & pate) n.a. n.a. n.a. 0% 0% 0%

BILD 2: Effizienz-Cockpit: oben Projekt statistik, links prozentuale

Verteilung der Arbeitszeiten auf verschiedene Aktivitäten

I1

Open Permission

I2

Close Permission

I3

OpenCloseCommand

P1

MotorAddress

P2

SensorOpenAddress

Valve Block

O1

IsOpen

O2

IsClosed

• I3 (boolean) öffnet das Ventil (bei true) oder schließt es (bei false),

wenn die zugehörige Erlaubnis (I1/I2) true ist.

• Der Aktor wird mittels P1, P2 und P3 (Integer) konfiguriert. P1 adressiert einen

Motor, P2 und P3 adressiert Berührungssensoren, die die Endposition anzeigen.

• O1 zeigt an, ob das Ventil offen ist,

O2 zeigt, ob es geschlossen ist.

P3

SensorCloseAddress

BILD 4: Funktionsblockspezifikation zur Standardventilsteuerung

Kandidaten Versuch 1 Versuch 2 Versuch 3

AW No Lib Lib1 Lib2

JS No Lib Lib1 Lib2

MS Lib1 No Lib Lib2

NK Lib2 Lib1 No Lib

NL Lib2 Lib1 No Lib

TABELLE 1: Geplantes initiales Experiment-Setup.

Jeder Proband sollte in drei Versuchen jeweils eine

andere Bibliothek (Library) verwenden.

Kandidaten Versuch 1 Versuch 2 Versuch 3

AW No Lib n No Lib c

JS No Lib c Lib1 c Lib2 c

MS

Lib1 n

NK Lib2 c Lib1 c No Lib c

NL Lib2 n Lib2 n

TABELLE 2: Auflistung der realen

durchgeführten 11 Versuche

atp edition

6 / 2014

37


HAUPTBEITRAG

Die Expertise der Kandidaten mit der IEC 61131-Programmierung.

Die Erfahrung der Kandidaten mit dem Werkzeug.

Obwohl kein Kandidat das Werkzeug zuvor verwendet

hat, stellen sich Erfahrungen mit ähnlichen

Werkzeugen als vorteilhaft heraus.

Die Benutzer- beziehungsweise Erlernfreundlichkeit

des Werkzeugs. Einige Kandidaten verbrachten viel

Zeit damit, mit dem Werkzeug vertraut zu werden.

Qualität der Spezifikation. Einige Kandidaten verbrachten

viel Zeit damit, die Anforderungsspezifikation

zu verstehen.

Domänenwissen. Einige Kandidaten verfügen über

Erfahrungswissen aus dem Bereich der Prozessautomatisierung,

andere Kandidaten haben zwar Engineering-Erfahrung,

allerdings in anderen Domänen.

Um diese genannten Störungen herausfiltern zu können,

wurde die Strategie für die Ergebnisanalyse angepasst:

Die vorläufige Annahme einer gleichen Erfahrungsebene

für jede Versuchsrunde wird verworfen. Das

Vorwissen der Kandidaten hat erwartungsgemäß

erheblichen Einfluss auf deren Effizienz.

Es ist vorteilhafter, jeden Versuch nach relativen

Gesichtspunkten zu bewerten statt nach absoluten

Werten wie der Zeit.

Es wird versucht, Muster zu finden in der Ausführung

derselben Aufgaben zwischen unterschiedlichen

Kandidaten und diese Muster miteinander

zu vergleichen.

Darauf basierend werden im nächsten Abschnitt die gesammelten

Messwerte näher beleuchtet und auf die Wirksamkeit

der Wiederverwendung sowie das Vorhandensein

interessanter Muster oder Phänomene hin untersucht.

2.2 Analyse des Zeitverbrauchs

Erster Anhaltspunkt für einen Vergleich der Effizienz

ist der Zeitverbrauch pro Aufgabe und Kandidat. Tabelle

3 stellt diese in Minuten für jede Aufgabe (ohne Leerlaufzeit)

dar. Mit Hilfe von Farben werden die Aufgaben

und deren Komplettierungsgrad unterschieden.

Tabelle 3 zeigt, dass nur NK und JS alle drei Versuche

vollenden konnten, wobei NK dafür signifikant weniger Zeit

benötigte als die anderen Kandidaten. Dies lässt vermuten,

dass NK der erfahrenste Kandidat war, gefolgt von JS. Die

Rekordzeit von JS mit Bibliothek 1 erklärt sich dadurch, dass

sein zweiter Versuch unmittelbar nach dem ersten stattfand,

während er seinen dritten Versuch einen Monat später

durchführte. Dies verdeutlicht den starken Lerneffekt.

AW beendete sein Engineering erst im zweiten Versuch.

NL konnte sich gegenüber dem ersten Versuch

mit Bibliothek 2 beim zweiten Versuch mit derselben

Bibliothek um 23 Minuten verbessern. Obwohl beide

Ergebnisse nicht ganz fertiggestellt wurden, ist das

Kandidaten Zeit (min) ohne Leerlauf

AW 110 121

JS 120 40 104

MS 99

NK 71 79 72

NL 154 131

No Lib c

No Lib n

Lib 1 c

Lib 1 n

Lib 2 c

Lib 2 n

Kandidaten

Zeitverbrauch für Testing

ohne Leerlaufzeit

AW 10 | 9% 16 | 13%

JS 5 | 4% 4 | 11% 45 | 43%

MS 12 | 12%

NK 2 | 3% 13 | 17% 4 | 6%

NL 29 | 19% 20 | 15%

No Lib c

No Lib n

Lib 1 c

Lib 1 n

Lib 2 c

Lib 2 n

TABELLE 3: Zeitverbrauch

(gestrichelte Versuche wurden nicht beendet)

TABELLE 5: Zeit für Test-Aktivitäten (ohne Leerlaufzeit)

Kandidaten

Zeitverbrauch für Logik (min)

ohne Leerlaufzeit

AW 82 | 75% 79 | 65%

JS 73 | 63% 25 | 63% 37 | 36%

MS 63 | 64%

NK 16 | 22% 25 | 32% 40 | 56%

NL 82 | 54% 93 | 71%

No Lib c

No Lib n

Lib 1 c

Lib 1 n

Lib 2 c

Lib 2 n

Kandidaten

Zeitverbrauch HMI (min)

ohne Leerlaufzeit

AW 1 | 1% 11 | 9%

JS 11 | 9% 5 | 13% 2 | 2%

MS 5 | 5%

NK 6 | 9% 19 | 24% 13 | 19%

NL 11 | 7% 0

No Lib c

No Lib n

Lib 1 c

Lib 1 n

Lib 2 c

Lib 2 n

TABELLE 4: Zeit für die Logikprogrammierung

(ohne Leerlaufzeit)

TABELLE 6: Zeit für die Konfiguration der Bedienoberflächen

(ohne Leerlaufzeit)

38

atp edition

6 / 2014


zweite Ergebnis besser als das erste. Beides verdeutlicht

die erwartbare Lernkurve der Kandidaten.

Aus zusätzlichen Messungen im Werkzeug (nicht in

Tabelle 3 abgebildet) ließ sich ermitteln, dass die Navigationszeit

(Wechsel zwischen Ansichten im Werkzeug)

für die meisten Kandidaten zwischen 5 % und 7 % lag.

Nur NK konnte sehr kurze Navigationszeiten aufweisen

(2 % bis 3 %). Daraus lässt sich schlussfolgern, dass NK

deutlich vertrauter mit dieser Art Werkzeugen ist.

Das Experiment unterstreicht damit herausragend die

Forderung, dass eine objektive und vergleichbare Messung

mit routinierten Kandidaten durchgeführt werden

sollte, die dieselbe Aufgabe bereits mehrfach absolviert

haben und mit jedem Schritt vertraut sind. NK erweist

sich als derjenige Kandidat mit dem höchsten Routinegrad.

Aus diesem Grund fokussiert die folgende Analyse

verstärkt auf die Auswertung seiner Ergebnisse,

um den Einfluss des Faktors Mensch zu reduzieren.

Als nächstes wird untersucht, wie sich die Zeit verteilt,

die die Kandidaten mit Aktivitäten zur Erstellung

von Logik, dem Testen und der Konfiguration der Bedienoberfläche

verbracht haben, siehe Tabellen 4-6. Mit

Testen bezeichnen die Autoren einen zusammenhängenden

Zeitraum von Test-Aktivitäten einschließlich

Leerlauf- und Navigationszeit.

Die Zellen dieser Tabellen zeigen jeweils zwei Nummern:

die absolute Zeit in Minuten zur Vervollständigung

einer Aufgabe sowie den relativen Anteil des

Zeitverbrauchs des Kandidaten in Prozent gemessen an

der Gesamtzeit, die der Kandidat für die gesamte Aufgabe

verbraucht hat, siehe Bild 2.

Betrachten wir die Ergebnisse von NK: Tabelle 4

zeigt, dass die für die Logikprogrammierung benötigte

Zeit aus dem ersten Versuch (mit Bibliothek 2) bis zu

Versuch 3 (keine Bibliothek) zunimmt, obwohl sein

Erfahrungsschatz wächst. Mit anderen Worten: Trotz

des Zuwachses an Erfahrungen verbrachte er mehr Zeit

in der dritten Runde (ohne Bibliothek) als in den ersten

beiden (mit Bibliothek 2 und Bibliothek 1).

Im Gegensatz dazu steht die Zeit von NK, die er mit

Testen und Konfiguration der Bedienoberfläche verbracht

hat: Sie war kürzer unter Verwendung von Bibliothek

2 statt keiner Bibliothek, wobei die Nutzung der

fehlerhaften Bibliothek 1 in seinem zweiten Versuch am

längsten dauert. Die Test-Zeit für JS mit Bibliothek 1 war

ebenfalls länger als diejenige ohne Bibliothek, obwohl

JS die Implementierung zunächst ohne Bibliothek ausgeführt

hat und unmittelbar danach dieselbe Aufgabe

unter Nutzung von Bibliothek 1 durchführte. Dieses

Phänomen deutet bei NK und JS darauf hin, dass die

Nutzung einer fehlerhaften Bibliothek schlimmere Folgen

haben kann als die Verwendung keiner Bibliothek.

Weiterhin war für JS und NK die Nutzung von Bibliothek

2 bei der Konfiguration der Bedienoberflächen mit

deutlich weniger Zeit verbunden als die von Bibliothek

1 oder keiner Bibliothek. Dies deutet darauf hin,

dass die Bibliothek 2 hilfreicher für die HMI-Entwicklung

war. Daraus lässt sich schlussfolgern, dass die

Messmethodik auch zur Ermittlung von Qualitätsunterschieden

in Bibliotheken angewendet werden kann.

BILD 5: Aktivitätsdiagramm für AW ohne Bibliothek (Versuch 2).

Gut erkennbar ist die Reihenfolge der Arbeitsschritte durch die

Verwendung der verschiedenen Editoren über die Zeit.

2.3 Analyse des gewählten Engineering-Workflows

Aus den ermittelten elf Aktivitätsdiagrammen, ein Beispiel

ist in Bild 5 gezeigt, lässt sich ableiten, dass in den

meisten Fällen jeder Kandidat dieselbe Schrittfolge

wählte: E/A-Kommunikationserstellung (FDI), Logikprogrammierung,

Testen (Check-out) und Konfiguration

der Bedienoberfläche (HMI). Eine interessante Beobachtung

besteht darin, dass in der ersten Versuchsrunde

fast alle Teilnehmer mit dem HMI begannen, bevor sie

das Testen durchführten. In der zweiten Versuchsrunde

hingegen hat kein Teilnehmer mit der Arbeit am HMI

vor dem Testen begonnen, siehe Bild 5. Die Erstellung

des HMI wird folglich nicht als vorteilhaft für das Testen

wahrgenommen.

2.4 Analyse der Projektkomplexität des fertigen Projekts

Bild 6 zeigt anhand mehrerer Spinnendiagramme, wie

viele Artefakte in jedem Einzelversuch erzeugt wurden.

Hierbei wurden nur die erfolgreichen Versuche von AW,

JS und NK untersucht. Die Diagramme verdeutlichen:

Ein und dasselbe Projekt wurde auf verschiedene Weisen

und mit unterschiedlicher Anzahl von Artefakten

gelöst. Alle Kandidaten erzeugten 3 Controller, 8 Aktoren

und 3 Sensoren, aber die Anzahl der anderen Artefakte

variierte: 3-5 Grafikelemente, 10-30 Signale, 7-12

Funktionsbausteindiagramme und 0-2 Schrittketten.

Doch wie geeignet ist dieses Diagramm im praktischen

Einsatz, kann es die Komplexität eines ganzen

Projektes sinnvoll visualisieren? Nach kurzem Üben

erkannte das menschliche Auge schnell ein Projekt-

atp edition

6 / 2014

39


HAUPTBEITRAG

muster. Die vorgeschlagene grafische Darstellung

zeigt im Vergleich untereinander ihre Stärken und

erlaubt ein zügiges visuelles Erfassen des Musters.

Interessant ist, dass das grundsätzliche Muster der

Spinnendiagramme beim Betrachten für alle Projektvarianten

sichtbar ähnlich ist. Die auf Maximalwerte

optimierte Achsenskalierung verstärkt die Ähnlichkeitswahrnehmung.

Dies bedeutet, dass ein signifikanter

Ausreißer aus diesem Muster sichtbar wäre

und so visuell schnell auf eine potenziell besondere

beziehungsweise falsche Lösung hinweist. Zeilenweise

betrachtet lässt sich sogar erahnen, wie JS und NK

von Versuch zu Versuch einen wiederkehrenden Lösungsansatz

wählen. Diese Vermutung wäre jedoch

anhand weiterer Projekte und Untersuchungen noch

nachzuweisen.

Die Bilder innerhalb einer Reihe scheinen optisch

übrigens ähnlicher als beim Vergleich zwischen den

Probanden. Zudem fiel auf, dass JS in jedem Versuch

Schrittketten erstellte, wohingegen NK diese nicht verwendete:

Dies deutet auf unterschiedliche Vertrautheit

der Kandidaten mit dieser Sprache und weist auf Verbesserungspotenziale

hin.

2.5 Analyse des Projektfortschritts über die Zeit

Einen interessanten Einblick vermittelt das Diagramm

des Prozessfortschrittes. Um den Einfluss der Kandidatenerfahrung

zu reduzieren, enthält Bild 7 die Diagramme

nur für NK und JS, da nur sie alle drei Versuche

vollständig erfüllten. Die Spalten zeigen hierbei die

Szenarien: Nutzung von keiner Bibliothek, Bibliothek 1

und Bibliothek 2 (in dieser Reihenfolge).

Zunächst wird deutlich, dass alle Projekte in allen

Versuchen gleichermaßen zu Beginn des Projektes einen

Sprung aufweisen. Unabhängig von der Verwendung

einer Bibliothek wurden innerhalb der ersten 3-10

Minuten 100 % aller benötigten Controller, Aktoren

oder Sensoren erzeugt.

Ohne Bibliothek (Spalte 1) mussten die Kandidaten

alle Artefakte Schritt für Schritt erzeugen – dies wird

in einem weitgehend kontinuierlichen Anstieg deutlich,

der sich bis dicht ans Projektende fortsetzt. Ein

Löschen von Artefakten wird durch einen Rückgang

der Kurve deutlich.

Unter Verwendung von Bibliotheken wird die finale

Anzahl der benötigten Artefakte deutlich früher erreicht,

bei Bibliothek 2 früher als bei Bibliothek 1 (siehe

gestrichelte vertikale Linien). Anschließend bleibt

die Zahl der Artefakte nahezu konstant, weil diese nun

parametrisiert und verknüpft werden müssen.

Eine weitere Beobachtung aus den Messergebnissen

bestand darin, dass fast alle Kandidaten inmitten ihrer

Tests Zusatzsignale erzeugten, um sie später wieder zu

löschen. Dies ist in Bild 7 jedoch kaum sichtbar, weil

das Erzeugen und Löschen der Zusatzsignale zu keinem

Anstieg der Kurven führt. Für JS und NK war

dieses Phänomen im Vergleich zum Versuch ohne Bibliothek

im Datenbestand besonders offensichtlich bei

Verwendung von Bibliothek 2. Ohne Bibliothek wurden

im Schnitt 150 % der benötigten Signale erzeugt,

unter Verwendung von Bibliothek 2 nicht mehr als

120 %. Die übrigen Kandidaten mit weniger Erfahrung

erzeugten Zusatzsignale in jeder Aufgabe (bis zu

150 %). Daraus lässt sich schlussfolgern, dass die Verwendung

von Bibliotheken die Zahl von Zusatzsignalen

reduziert.

2.6 Analyse der Modifikationsdiagramme

BILD 6: Projektkomplexität für alle abgeschlossenen

Lösungen der Kandidaten in allen Versuchen

Aus den erstellten elf Modifikationsdiagrammen

konnten die Autoren keine Muster für das Modifikationsverhalten

der Kandidaten für dieselbe Aufgabe

ableiten. Es wird deutlich, dass jeder Kandidat sein

eigenes Modifikationsmuster über alle Versuche hinweg

beibehielt.

Dies wird anhand von NK deutlich: Bild 8 zeigt die

Modifikationsdiagramme von NK für alle drei Versuche.

Es wird sichtbar, dass NK zunächst die Modifikation

von Aktoren und Sensoren gleich zu Beginn

vornahm, anschließend Modifikationen an Logikelementen

(FBD) vollzog und am Ende die Grafikelemente

modifizierte. Aus den anderen, hier nicht abgebildeten

Modifikationsdiagrammen, zeigen sich interessante

Verhaltensmuster: NL führte Änderungen stets im gleichen

Zeitmuster durch und durchlief offensichtlich die

Anforderungsspezifikation in derselben Reihenfolge

und modifizierte die Artefakte in dieser Abfolge. JS und

40

atp edition

6 / 2014


BILD 7: Vergleich des

Projektfortschritts von

drei Versuchen jeweils

zweier Probanden.

Die gestrichelte Linie

zeigt den Übergang

zwischen starkem

Wachstum und

flachem Wachstum der

Anzahl der Artefakte.

BILD 8: Modifikationsdiagramme von NK für alle drei Versuche.

AW zeigten hingegen eine deutlich glattere Modifikationskurve,

denn sie löschten fortwährend FBD Elemente

während des gesamten Versuchs.

2.7 Analyse der Wiederverwendungsdiagramme

Wiederverwendungsdiagramme zeigen die Häufigkeit

der Wiederverwendung von Logik- (FBD, SFC) oder

Grafikelementen durch Instanziieren beziehungsweise

durch Kopieren und Einfügen von Bibliothekselementen

in das Projekt.

Aus der Auswertung dieser Diagramme für alle Kandidaten

ergibt sich ein signifikanter Zusammenhang

zwischen dem Akt der Wiederverwendung und dem

Auftreten von Änderungen. Bild 9 zeigt dies anhand

eines kombinierten Wiederverwendungs-/Modifikationsdiagramms

für NK bei der Implementierung des

SASF mit der Bibliothek 1.

Es ist zu erkennen, dass nach dem Instanziieren von

Artefakten aus einer Bibliothek beziehungsweise durch

das Duplizieren von Artefakten durch Kopieren und

Einfügen eine erhöhte Modifikationsrate folgt. Dies ist

plausibel, weil erzeugte Bibliothekselemente anschließend

angepasst werden müssen.

Für NK stellt sich für alle drei Versuche heraus, dass

die Zahl der Modifikationen typischerweise größer war

als die Zahl der Löschungsaktionen, siehe Bild 10. Für

die übrigen Kandidaten galt dies andersherum. Dieses

Phänomen unterstreicht erneut, das NK erfahrener als

die übrigen Kandidaten ist und Bibliotheken effizienter

nutzen kann. Bild 10 zeigt die Wiederverwendungs/

Modifikationsdiagramme für alle drei Versuche von NK.

Unter Verwendung der korrekten Bibliothek 2 fällt auf,

dass in der Test-Phase, hiermit bezeichnen die Autoren

einen zusammenhängenden Zeitraum von Test-Aktivitäten

einschließlich Leerlauf- und Navigationszeit, plötzlich erhöhte

Änderungsaktivitäten auftreten. Hier entdeckte NK

einen Fehler und korrigierte ihn. Es wird zudem deutlich,

dass NK unter Verwendung der korrekten Bibliothek 2 in

der Test-Phase 18 Minuten benötigte, mit der fehlerhaften

Bibliothek 1 hingegen trotz besserer Kenntnis der Aufgabenstellung

30 Minuten. Dies bestätigt die verzögernde

Auswirkung fehlerhafter Bibliotheken. Interessant: ohne

Bibliotheken in Versuch 3 dauerte die Testing-Phase nur 5

Minuten: Dies hinterfragt die Bibliothek insgesamt.

atp edition

6 / 2014

41


HAUPTBEITRAG

BILD 9: Überlagerung von Wieder verwendungsund

Modifikationsdiagramm (Kandidat NK,

fehlerhafte Bibliothek 1). Die Achsen wurden so

gewählt, dass die parallele Entwicklung beider

Kurven deutlich wird.

BILD 10: Wiederverwendungs- und Modifikationsdiagramm für NK

3. EMPFEHLUNGEN UND AUSBLICK

Der im Beitrag vorgeschlagene Ansatz zur Bewertung von

Engineering-Methoden betritt Neuland, weil die Bewertung

auf Basis von Messungen erfolgt. Der Mehrwert dieser

Methode liegt, wenn sie sorgfältig ausgeführt wird, in

der Objektivität der Messung. Im Ergebnis ist festzustellen,

dass die vorgeschlagene Methode zur Messung und

Visualisierung von Engineering-Effizienz funktioniert

und – unter der Voraussetzung, dass der Versuchsaufbau

wohlüberlegt definiert wurde – interessante und wertvolle

Einsichten zum Thema Engineering-Effizienz liefert.

Das Experiment zeigt, dass die vorgestellte Messmethode

tatsächlich Licht in den bisher schwer erfassbaren

werkzeugbezogenen Engineering-Prozess bringt und

eine große Fülle von Details liefert. Die wichtigste Erkenntnis

dieses Experiments ist, dass die individuelle

Erfahrung der Probanden die Messung erheblich beeinflusst

und der vorgeschlagene Ansatz zur Effizienzmessung

nur dann reproduzierbare und vergleichbare Aussagen

liefert, wenn die Messung von routinierten und

erfahrenen Kandidaten ausgeführt wird. Dies erfordert

nicht unbedingt einen Profi, ein routiniertes und mehrfach

eingeübtes Engineering unter Verwendung einer

Methode reicht aus. Eine solche partielle Expertise genügt

und ist erreicht, wenn der Kandidat eine Sättigung

seiner eigenen Leistung im Benchmark-Projekt verspürt

oder weitere Versuche keine weiteren Verbesserungen

anzeigen. Solange der Kandidat unsicher ist, führt dies

zu starken Störeinflüssen der Messung aufgrund seiner

individuellen Erfahrung. Für routinierte Probanden ist

die Lernkurve vor der Messung bereits durchlaufen und

als Störgröße eliminiert: Dies vereinfacht die Interpretation

der Messergebnisse und erlaubt eine sinnvolle

Bewertung der untersuchten Engineering-Methode.

Für den ungeübten Probanden hingegen wird die individuelle

Lernkurve beobachtbar und messbar, wenn

er dasselbe Projekt unter Verwendung derselben Engineering-Methodik

mehrfach wiederholt. Diese Form der

Lernkurvenermittlung bietet, gemittelt über mehrere

Probanden, aufschlussreiches Material zur Verbesserung

der Usability im Sinne des Selbsterklärungsniveaus

eines Werkzeuges und macht selbst diesen bislang

kaum erfassbaren Faktor endlich messbar, quantifizierbar

und geschäftlich beurteilbar.

Ferner wird deutlich, dass die sorgfältig ausgeführte

Messmethode ebenso weiche Faktoren, wie die Fehlerfreiheit

von Bibliotheken und die Qualität von Anforderungsspezifikationen,

messbar macht. So zeigte das

Experiment beispielhaft die nachteilige Wirkung fehlerhafter

Bibliothekselemente, weil sie die Testphase

und Fehlersuche erschweren, und es verdeutlicht den

42

atp edition

6 / 2014


Modifikationsaufwand, der nach einer Wiederverwendungsaktion

entsteht. Dies unterstreicht, dass der Zeitgewinn

durch Verwendung von Bibliotheken nicht nur

durch ihre Entwicklungszeit, sondern auch durch Modifikationen

auf Instanzebene, durch Fehlersuche und

durch die Zeit zum Finden passender Bibliothekselemente

reduziert wird.

Die Messmethode erlaubt folglich Rückschlüsse über

den Nutzen von Bibliotheken, über gelebte Workflow-

Muster, die Komplexität des Projektes oder beispielsweise

Gewohnheiten der Kandidaten. Neben diesen

Einsichten ergeben sich einige interessante Regeln, die

bei Einsatz geübter Testingenieure gelten:

Die Anzahl von Artefakten reflektiert die Projektkomplexität

gut.

Die durchschnittliche Zeit pro Artefakt erlaubt

Vergleiche, wie einfach die Arbeit mit einem Artefakt

im Werkzeug ist (Usability).

Die Zeit ohne Leerlauf gestattet Vergleiche, wie

effizient das Werkzeug insgesamt zu bedienen ist,

um eine Aufgabe zu erledigen.

Neben dem Einsatz unter Laborbedingungen bietet dieser

Ansatz auch im täglichen Projektgeschäft erhellende

Einblicke und könnte ein Standardverfahren zur

Verbesserung von Engineering-Werkzeugen werden, bei

dem Anwender und Hersteller gemeinsam Software auf

rationaler Basis analysieren.

Die vorgeschlagene Messmethode versteht sich als

Beitrag zur Bewertung und Förderung neuer Engineering-Methoden

und dem Transfer von Ideen aus der

Wissenschaft in die Praxis. Die durch die Messung ermittelte

Datenfülle bietet über diesen Beitrag hinaus

vermutlich noch viele weitere Möglichkeiten und Ansatzpunkte

zur Interpretation. Sinnvoll wäre beispielsweise,

allgemeingültige Benchmark-Beispiele für Engineering-Methoden

zu entwickeln und als Grundlage

einer breiteren Vergleichbarkeit zu publizieren.

Wissenschaft und Industrie sind eingeladen, die Methodik

sowie die vorgestellten Visualisierungsformen

einzusetzen und weiterzuentwickeln. Das Ziel: neue

Engineering-Methoden auf den Prüfstand zu stellen

und ihre Verbesserungspotenziale nachzuweisen.

REFERENZEN

MANUSKRIPTEINGANG

14.01.2014

Im Peer-Review-Verfahren begutachtet

[1] Drath, R., Messinger, Ch., Schröter, B., Li, Nuo,

Gutermuth, G.: Engineering-Effizienz automatisch

messen – Definition, Erfassung und Visualisierung.

atp edition – Automatisierungstechnische Praxis

56(5), S. 32-41, 2014

AUTOREN

Dr.-Ing. RAINER DRATH (geb. 1970) ist Program Manager im ABB

Forschungszentrum Deutschland in Ladenburg. Er beschäftigt

sich mit der Entwicklung neuer Konzepte und Methoden zur

Verbesserung des Engineering von Automatisierungssystemen.

ABB Forschungszentrum Ladenburg,

Wallstadter Str. 59,

D-68526 Ladenburg,

E-Mail: rainer.drath@de.abb.com

Dipl. Phys. GEORG GUTERMUTH (geb. 1969) ist Gruppen leiter

im ABB Forschungszentrum Deutschland in Ladenburg. Er

beschäftigt sich mit der Verbesserung von Workflows,

Werkzeugen und Methoden des Engineering von Automatisierungs-

sowie elektrischen Systemen.

ABB Forschungszentrum Ladenburg,

Wallstadter Str. 59,

D-68526 Ladenburg,

E-Mail: georg.gutermuth@de.abb.com

Dipl. Inf. CHRISTIAN MESSINGER (geb. 1983) ist Scientist im

ABB Forschungszentrum Deutschland in der Abteilung

„Industrial Software and Applications“ und beschäftigt sich

vor allem mit der Entwicklung und Verbesserung von

Automation-Engineering Software.

ABB Forschungszentrum Ladenburg,

Wallstadter. Str. 59,

D-68526 Ladenburg,

E-Mail: christian.messinger@de.abb.com

Dr. NUO LI (geb. 1981) ist wissenschaftliche Mitarbeiterin im ABB

Forschungszentrum Deutschland in Ladenburg. Ihre Themenschwerpunkte

liegen in der Anwendung von Software-Engineering-Technologien

zur Verbesserung des Engineering-Prozesses.

ABB Forschungszentrum Ladenburg,

Wallstadter Str. 59,

D-68526 Ladenburg,

E-Mail: nuo.li@de.abb.com

Dr.-Ing. BEN SCHRÖTER (geb. 1977) ist Mitarbeiter der Entwicklung

von speicherprogrammierbaren Steuerungen innerhalb der

ABB Automation Products GmbH. Sein Arbeits schwerpunkt ist

die Weiterentwicklung von PC-basierten Engineering-Werkzeugen

im Umfeld der Fabrikautomatisierung.

ABB Automation Products GmbH,

Eppelheimer Straße 82,

D-69123 Heidelberg,

E-Mail: ben.schroeter@de.abb.com

atp edition

6 / 2014

43


HAUPTBEITRAG

OPC UA für Industrie 4.0

Sicherer Austausch semantischer Information

Die Kommunikation bei Industrie 4.0 wird nicht mehr auf reinen Daten, sondern auf

dem Austausch semantischer Information basieren. Darüber hinaus wird die Übertragungssicherheit

eine herausragende Bedeutung haben. Diese Aufgabenstellungen

sind Kernpunkte der OPC Unified Architecture (OPC UA). OPC UA enthält eine

Beschreibungssprache und die Kommunikationsdienste für Informationsmodelle.

Der Beitrag beschreibt, warum dieser Standard universell nutzbar ist. Er kommt

bereits in Anwendungsdomänen wie Fertigungs-, Prozess-, Gebäude-, Energieautomatisierung

und Condition Monitoring zum Einsatz.

SCHLAGWÖRTER OPC UA / Industrie 4.0 / Informationsmodelle

OPC UA for Industry 4.0 –

Transmission Integrity of Semantic Information

Industry 4.0 communication is based not only on pure data, but also on the exchange

of semantic information. In addition, transmission integrity is a key factor. These

tasks are essential aspects of the OPC Unified Architecture. OPC UA contains a

comprehensive description language and the communication services required for

information models. It is already applied in several domains including automated

manufacturing, building automation, process automation, energy automation, and

condition monitoring.

KEYWORDS OPC UA / Industry 4.0 / information models

44

atp edition

6 / 2014


KARL-HEINZ DEIRETSBACHER, Siemens

WOLFGANG MAHNKE, ABB

Der Trend in der Automatisierung geht dahin,

die Semantik der Kommunikationsdaten zu

standardisieren. Normen wie ISA 88

(IEC 61512, Chargenverarbeitung), ISA 95

(IEC 62264, MES-Ebene), oder das Common

Information Model (CIM) mit der IEC 61970 für Energiemanagement

sowie IEC 61968 für Energieverteilung

definieren die Semantik der Daten in denen von

ihnen adressierten Domänen. Dies passiert zunächst

unabhängig von der Spezifikation, wie die Daten übertragen

werden.

Mit OPC UA [1, 2], auch veröffentlicht als IEC 62541

[3], lassen sich beliebig komplexe Informationsmodelle

austauschen – und zwar die Instanzen und die Typen

(die Metadaten). Damit ergänzt es die zuvor genannten

Standards und ermöglicht eine Interoperabilität auf

semantischer Ebene.

Industrie 4.0 setzt auf diesen Trend. In den Umsetzungsempfehlungen

für das Zukunftsprojekt Industrie 4.0 [4]

wird gefordert:

dass die richtigen Daten und Informationen allen

Beteiligten in allen Lebenszyklus-Phasen zur Verfügung

stehen müssen;

dass die Fabrik sich gewissermaßen selbst – durch

intelligente Sensorik und durchgängige Daten –

vertikal integriert durch alle Ebenen der Automatisierungspyramide;

dass Geräte und Systeme in der Lage sein sollen,

selbstständig Daten untereinander auszutauschen.

Aufzüge oder Klimaanlagen kommunizieren dann

über das Netz mit der Wartungszentrale, die den

Reparaturdienst koordiniert; Container können in

Echtzeit ihre Position an das Logistikzentrum

übermitteln, das automatisch den Lastwagen zu

deren Abholung dirigiert und den notwendigen

Lagerraum bereitstellt.

OPC ist in der Fertigungsindustrie und in der Prozessautomatisierung

der etablierte und anerkannte Standard.

Erhebungen sprechen von mehr als 2 500 Firmen,

die über 15 000 OPC-Produkte in Millionen von Installationen

auf den Markt gebracht haben. Die Plattformunabhängigkeit

und Skalierbarkeit erlauben einerseits,

OPC UA direkt in Automatisierungsgeräten (zum Beispiel

speicherprogrammierbare Steuerungen, Sensoren)

zu implementieren. Andererseits wird damit auch der

Weg in High-End- und Leitsysteme geebnet.

1. ZIELSETZUNG BEI DER KONZIPIERUNG

OPC UA wurde für die Unterstützung von unterschiedlichen

Systemen konzipiert: von der SPS in der Produktion

bis zu den Servern des Unternehmens. Diese Systeme

sind durch eine Vielfalt hinsichtlich Größe, Leistung,

Plattformen und funktionellen Fähigkeiten

charakterisiert.

Um die Zielsetzung zu erreichen, wurden für OPC UA

folgende Grundbestandteile spezifiziert, siehe Bild 1:

Kommunikationsinfrastruktur – für die Mechanismen

zum Datenaustausch zwischen OPC-UA-Anwendungen.

Verschiedene Transportprotokolle

existieren für unterschiedliche Anforderungen

(optimiert für Geschwindigkeit und Durchsatz =

UA TCP mit UA Binary; firewall-friendly = http +

Soap).

Metamodell – spezifiziert die Regeln und Grundbausteine,

um ein Informationsmodell über OPC UA

zu veröffentlichen. Es beinhaltet verschiedene Einstiegsknoten

und Basis-Typen.

Dienste – realisieren die Schnittstelle zwischen

einem Server als Anbieter von Information und den

Clients als Nutzer dieser Information.

Die Informationsmodelle sind schichtenweise aufgebaut,

siehe Bild 2. Jeder höherwertige Typ basiert auf

bestimmten Basisregeln. Somit können Clients, die nur

die Basisregeln kennen und implementieren, trotzdem

komplexe Informationsmodelle bearbeiten. Sie verstehen

dann zwar nicht die Zusammenhänge, können aber

zum Beispiel durch den Adressraum navigieren und

Datenvariablen lesen oder schreiben.

atp edition

6 / 2014

45


HAUPTBEITRAG

1.1 Integriertes Adressraummodell

Das Objektmodell erlaubt es, Produktionsdaten,

Alarme, Events und historische Daten in einen einzigen

OPC-UA-Server zu integrieren. Damit kann beispielsweise

ein Messgerät für Temperatur als ein Objekt mit

seinem Temperaturwert, Alarmparametern sowie

Alarmgrenzen dargestellt werden. Dies zeigt Bild 3.

OPC UA integriert und vereinheitlicht die unterschiedlichen

Adressräume und die Schnittstellen zum Zugriff,

sodass OPC-UA-Anwendungen nur noch eine

Schnittstelle zum Navigieren benötigen.

Um die Interoperabilität von Clients und Servern zu

fördern, ist der UA-Adressraum hierarchisch aufgebaut;

die oberen Ebenen sind für alle Server standardisiert.

Alle Knoten im Adressraum lassen sich über die Hierarchie

erreichen, können aber untereinander zusätzliche

Referenzen haben, sodass der Adressraum ein

zusammenhängendes Netzwerk von Knoten bildet. Im

Adressraum von OPC UA sind nicht nur Instanzen (Instanzraum),

sondern auch die Typen der Instanzen

(Typ raum) enthalten.

View Service Set – Der Client kann damit durch den

Adressraum (oder Teile davon) browsen, also in der

Hierarchie auf und ab navigieren oder Verweisen zwischen

Knoten folgen. Das Set erlaubt dem Client auch,

die Struktur des Adressraums zu erkunden.

Attribute Service Set – Attribute definieren die Merkmale

von Knoten. Diese Dienste ermöglichen dem Client

das Lesen und Schreiben von Attributen.

Method Service Set – Methoden repräsentieren Funktionsaufrufe

an Objekte. Sie können mit diesen Diensten

ausgeführt werden.

Monitored Item Service Set – Mit diesen Diensten

kann eingestellt werden, welche Attribute aus dem

Adressraum für einen Client auf Wertänderungen überwacht

werden sollen oder an welchen Events der Client

interessiert ist.

Subscription Service Set – Damit können für MonitoredItems

Mitteilungen erzeugt, verändert oder gelöscht

werden.

Query Service Set – Diese Dienste erlauben dem Client,

Knoten nach bestimmten Filterkriterien aus dem

Adressraum auszuwählen.

1.2 Integrierte Dienste

OPC UA definiert die notwendigen Dienste (Services),

um durch den Namensraum zu navigieren, Variablen

zu lesen oder zu beschreiben oder, um sich für Datenänderungen

und Events anzumelden.

Die OPC-UA-Dienste werden in logischen Gruppierungen

organisiert, die als Service-Sets bezeichnet werden.

Dienstanfrage und Antwort werden durch Austausch

von Nachrichten zwischen Clients und Servern

übermittelt.

Der Austausch der OPC-UA-Nachrichten erfolgt entweder

über ein OPC-spezifisches binäres Protokoll auf

TCP/IP oder als WebService. Anwendungen werden

meist beide Schnittstellenarten zur Verfügung stellen,

sodass der Anlagenbetreiber die am besten geeignete Art

wählen kann. OPC UA stellt neun Basis-Service-Sets zur

Verfügung. Im Folgenden werden die Sets kurz beschrieben.

Da nicht alle Server alle Service Sets verwenden,

lässt sich über ihre Profile abfragen, welche Dienste sie

unterstützen. Profile werden hier nicht näher betrachtet.

Secure Channel Service Set – Der Client kann damit

die Sicherheitskonfiguration des Servers abfragen und

einen Kommunikationskanal einrichten, bei dem die

Vertraulichkeit und die Vollständigkeit (Integrität) der

ausgetauschten Meldungen garantiert ist. Diese Dienste

werden nicht direkt in der UA-Applikation implementiert,

sondern vom verwendeten Kommunikations-

Stack zur Verfügung gestellt.

Session Service Set – Dient zum Erstellen einer benutzerspezifischen

Verbindung zwischen Client und

Server.

Node Management Service Set – Ermöglicht die Konfiguration

eines Servers. Der Client kann Knoten (Nodes)

im Adressraum hinzufügen, ändern oder löschen.

1.3 Redundanz

Unterstützung redundanter Server

OPC UA definiert Mechanismen, um redundante Server

zu erkennen und – je nach Redundanzklasse (cold,

warm, hot) – eine Umschaltung zu erkennen oder zu

veranlassen. Ein redundanter Server besteht aus zwei

oder mehr Servern. Abhängig von der Anzahl der Server

wird der redundante Server als redundantes Paar

oder als redundantes Set bezeichnet.

Um als redundanter Server zu gelten, müssen alle

Server im redundanten Set Zugang zu denselben Datenobjekten

oder einer Teilmenge dieser Objekte haben

und dieselbe Kennung für diese Objekte nutzen. So

können Clients nach einer Umschaltung weiterarbeiten

und auf dieselben Objekte unter Nutzung derselben

Kennung zugreifen.

Alle Server im redundanten Set müssen die für

OPC UA definierten Redundanzobjekte unterstützen.

Diese Objekte identifizieren Server in redundanten Sets

und liefern Laufzeit- und Diagnoseinformation über

Redundanzoperationen. Diese Objekte ermöglichen

ebenso die Standort-spezifische Konfiguration von Redundanzparametern.

Außerdem unterstützen alle redundanten

Server einen Backup-Modus. Er definiert

die Möglichkeit des Servers, schnell umzuschalten.

Unterstützung redundanter Clients

Alle OPC-UA-Server unterstützen redundante Clients

unabhängig davon, ob sie selbst redundant sind oder

nicht. Die Unterstützung redundanter Clients wird

durch drei Fähigkeiten gewährleistet.

Erstens: Subskriptionen, die Daten und Ereignisse

liefern, existieren unabhängig von der Session zwischen

Client und Server. Das bedeutet, dass von einem

46

atp edition

6 / 2014


Client erstellte Subskriptionen nicht sofort beendet

werden, wenn ein Client unerwartet beendet wird.

Zweitens: Server führen eine Liste aktiver Clients, in

der sich redundante Clients registrieren können. Wenn

ein redundanter Client informiert wird, dass sich sein

primärer Client vom Server getrennt hat, kann der redundante

Client die Rolle des primären Clients übernehmen.

Drittens: Um die Umschaltung im Fehlerfall zu unterstützen,

kann die Adresse, an welche eine Subskription

die Daten und Ereignisse liefert, vom Client neu

konfiguriert werden. Deshalb kann bei Beendigung des

primären Clients ein sekundärer Client die Subskription

neu konfigurieren, um die Daten an den sekundären

Client zu schicken.

1.4 Horizontale und vertikale Integration

Traditionell wurde die OPC-Kommunikation für den

Austausch von Daten zwischen HMI/SCADA und Geräten

der Automatisierungsebene benutzt (vertikal).

Da OPC UA plattformunabhängig ist, können und

werden OPC-Server und -Clients zunehmend in die

Geräte der Automatisierungsebene (zum Beispiel in

SPS-Systeme) integriert. Diese Geräte kommunizieren

dann direkt miteinander (horizontal).

Für die Realisierung muss zumindest ein Teilnehmer

Client-Funktionalität enthalten und entweder Daten

des Partners lesen (Lese- oder Subskribierungsdienste)

oder Daten im Partnergerät beschreiben (Schreibdienste).

Auch andere OPC-UA-Dienste, wie Methodenaufrufe,

sind denkbar. Der Datenaustausch wird häufig

geplant (projektiert) sein. Das heißt, dass die Geräte mit

Client-Funktionalität wissen, mit welchen Servern sie

in Verbindung treten sollen und welche Daten in welcher

Frequenz zu übertragen sind.

Controller als Client – MES/ERP als Server

Mit OPC-UA-Client-Funktionalität übernimmt die

Steuerung – zusätzlich oder alternativ zur bisherigen

Rollenverteilung – auch den aktiven, führenden Part.

Sie kann nach Bedarf beispielsweise Produktionsaufträge

aus MES/ERP-Systemen abholen, nach Bearbeitung

quittieren oder, wie erwähnt, mit anderen Steuerungen

Information austauschen. Auch bei außergewöhnlichen

Ereignissen eignet sich die Steuerung

Informationsmodelle

basierend auf OPC UA

BILD 1: Das OPC-UA-Fundament

Basis-OPC-UA-Informationsmodell

OPC-UA-Dienste

Kommunikationsinfrastruktur

· Web Services

· UA TCP

OPC-UA-

Metamodell

· Objekte (Typen)

· Variablen (Typen)

· etc.

BILD 2: Schichtenarchitektur für Informationsmodelle

Root

Field

Bus

Sensor

Bus

Areas

Pressure

Xmitter

Valve

Temp

Xmitter

“Located In”

reference

Area 1

Current Value Hi Limit Lo Limit

Hi Alarm Lo Alarm

Area 2

Area 3

BILD 3:

Einheitlicher

Adressraum

atp edition

6 / 2014

47


HAUPTBEITRAG

dazu, eigenständig und spontan eine Verbindung aufzubauen

und eine Meldung abzusetzen.

1.5 Plattform-Unabhängigkeit

Im Gegensatz zu Classic OPC, das auf der DCOM-Technologie

basiert und deshalb an die Windows-Plattform

und dort unterstützte Sprachen gebunden ist, wurde

OPC UA von Beginn an für den Einsatz auf beliebigen

Plattformen und Programmiersprachen konzipiert. Dies

lässt sich mit Hilfe von Bild 4 erklären:

Auf der untersten Ebene sind das abstrakte OPC-UA-

Modell und die Dienste dargestellt. Darin enthalten

sind das gesamte Adressraummodell, verschiedene

Objekt- und Variablenstrukturen, Alarme und vieles

mehr.

Auf der nächsten Ebene (Services Binding) wird spezifiziert,

wie die Dienste auf bestimmte Protokolle abzubilden

sind. Zurzeit gibt es eine Abbildung für TCP

(UA-TCP) und für HTTP (OPC-UA-WebServices). In

Zukunft, wenn sich neue Technologien etablieren, können

weitere Abbildungen spezifiziert werden, ohne das

OPC-UA-Modell und die Dienste zu ändern. Die Abbildungen

basieren ausschließlich auf standardisierten

Basisprotokollen, die bereits auf allen bekannten Plattformen

existieren.

Die folgenden Ebenen sind Realisierungen für dedizierte

Plattformen und Sprachen. Die OPC-Foundation

selbst bietet ihren Mitgliedern Realisierungen für die

Laufzeitumgebungen Java und .NET, sowie für AnsiC/

C++. Die letzte Variante enthält eine Plattform-Adaptionsschicht.

1.6 Performance

Die OPC-UA-Dienste lassen sich auf unterschiedliche

Technologien abbilden. Zurzeit gibt es zwei nennenswerte

Abbildungen: UA-TCP und HTTPS. Der Einsatz

von UA-TCP über moderne Ethernet-Technologien sichert

sehr gute Performance-Werte, auch die Dienste

selbst sind für hohen Datendurchsatz konzipiert. Ein

einziger Leseaufruf ermöglicht den Zugriff auf Tausende

von Werten. Subskribierungsdienste lassen die Notifizierung

bei Änderung und Überschreitung von

Schwellwerten zu.

2. INFORMATIONSMODELLE MIT OPC UA

2.1 Das OPC-UA-Metamodell

Vorbemerkung: Das OPC-UA-Modell beschreibt, wie

Clients auf Information im Server zugreifen. Es spezifiziert

in keiner Weise, wie diese Information im

Server zu organisieren ist. Sie könnte zum Beispiel in

einem unterlagerten Gerät oder in einer Datenbank

liegen.

Das OPC-UA-Objektmodell definiert einen Satz von

einheitlichen Knotentypen, mit denen Objekte im

Adressraum dargestellt werden können. Dieses Modell

repräsentiert Objekte mit ihren Variablen (Daten/Eigenschaften),

Methoden, Events und ihren Beziehungen zu

anderen Objekten. Die Eigenschaften der Knoten werden

durch OPC-definierte Attribute beschrieben. Attribute

sind die einzigen Elemente eines Servers, die Datenwerte

haben. Die Datentypen der Attribute können

einfach oder auch komplex sein.

OPC UA ermöglicht die Modellierung beliebiger Objekt-

und Variablentypen und Beziehungen zwischen

diesen. Bild 5 zeigt das Beispiel eines Boilers in einer

technologischen Ansicht und darunter das OPC-UA-

Adressraummodell. Die Semantik wird vom Server im

Adressraum angezeigt und kann von Clients (beim Navigieren)

erfasst werden. Typdefinitionen können standardisiert

oder herstellerspezifisch sein. Jeder Typ wird

von der Organisation identifiziert, die für seine Definition

verantwortlich ist.

2.2 Generische OPC-UA-Informationsmodelle

Modelle für allgemeingültige Information (zum Beispiel

Alarme oder Automatisierungsdaten) sind bereits

durch OPC spezifiziert. Andere Informationsmodelle

leiten sich davon ab, um die allgemeinen Definitionen

weiter zu spezialisieren. Clients, die die allgemeinen

Modelle verstehen, können daher in gewissem Umfang

die spezialisierten Modelle bearbeiten.

Data Access (DA)

Data Access, kurz DA beschreibt die Modellierung von

Automatisierungsdaten. Es beinhaltet unter anderem

die Definition von analogen und diskreten Variablen,

Engineering Units und Quality Codes. Datenquellen

sind beispielsweise Sensoren, Regler, Positionsgeber

und können entweder über direkt am Gerät liegende

I/O oder über serielle Verbindungen und Feldbusse angeschlossen

werden, wenn diese sich auf entfernt liegenden

Geräten befinden.

Alarms and Conditions

Dieses Informationsmodell definiert, wie Zustände (Dialoge,

Alarme) gehandhabt werden. Eine Zustandsänderung

löst ein Event aus. Clients können sich für solche

Events anmelden und auswählen, welche der verfügbaren

Begleitwerte sie als Teil des Event-Reports

erhalten wollen (zum Beispiel Meldungstext, Quittierverhalten).

Historical Access (HA)

HA ermöglicht dem Client Zugriff auf historische Variablenwerte

und Events. Er kann diese Daten lesen,

schreiben oder ändern. Die Daten können sich in einer

Datenbank, in einem Archiv oder in einem anderen

Speicher befinden. Vielfältige Aggregatfunktionen erlauben

eine Vorverarbeitung im Server.

48

atp edition

6 / 2014


BILD 5:

Beispiel eines

Boilers und

seiner OPC-UA-

Modellierung

Tool or

Language

Dependent

(e.g. .NET)

API

Proxy/

Stubs

Services Binding

Boiler1

Pipe1001

FlowTo

Drum1001

FT1001

Valve1001

DataItem

DataItem

Signal

Signal

Measurement

ControlOut

Setpoint

FC1001

LC1001

Abstract UA Model

Specification

FlowTo

Pipe1002

LI1001

DataItem

Signal

Signal

Measurement

ControlOut

Executes

BILD 4: OPC-UA-Modelle und -Dienste sind

unabhängig von konkreter Technologie.

FT1002

DataItem

Signal

Signal

Signal

Setpoint

Input1

Input2

CC1001

Executes

Executes

Input3

ControlOut

ControlModule

Programs

Ein ‚Program‘ repräsentiert eine komplexe Aufgabe, wie

den Betrieb und die Bedienung von Batch-Prozessen.

Es stellt sich durch einen Zustandsautomaten dar; die

Zustandsübergänge lösen Meldungen an den Client aus.

2.3 Technologiespezifische Informationsmodelle

Etliche Standardisierungsgremien der Leittechnik/

Automatisierungstechnik erstellen technologiespezifische

Informationsmodelle. Beispiele sind

IEC 61804 (EDDL), ISA SP 103 (Field Device Tool),

ISA-S88, ISA-S95, und IEC TC 57 (CIM). Diese Spezifikationen

sind wichtig, da sie jeweils die Bezeichnungen

von Einheiten, Relationen und Arbeitsabläufen

bestimmter Wissensgebiete vereinheitlichen.

Schon frühzeitig hat die OPC Foundation bei der

Entwicklung des neuen Standards auf die Zusammenarbeit

mit anderen Organisationen gesetzt. In

Arbeitsgruppen werden Abbildungsregeln für deren

Informationsmodelle auf OPC UA spezifiziert (= Companion-Standards).

Zurzeit handelt es sich um folgende

Companion-Standards:

OPC UA for Devices [5] (auch als IEC 62541-100)

OPC UA for Analyser Devices [6]

OPC UA for Field Device Integration [7]

OPC UA for Programmable Controllers

based on IEC 61131-3 [8]

OPC UA for Enterprise and Control Systems

based on ISA-S95 [9]

OPC UA for Machine Tool Connectivity

(MTConnect)

3. SECURITY-MODELL

Bei OPC UA ist Security eine elementare Anforderung

und sie wurde daher in die Architektur inte-

atp edition

6 / 2014

49


HAUPTBEITRAG

User

it

Client Plattform

Client Anwendung

User security token

Serv

er Plattform

Serv

eranwendung

Autorisierung

und Zugangssteuerung

Serv

er

Obj

ekte

T

Comms

BILD 6:

Ebenen der

OPC-UA-Security-

Architektur

griert. Die Mechanismen (vergleichbar mit dem Secure-Channel-Konzept

der W3C) basieren auf einer

detaillierten Analyse der Bedrohungen. OPC-UA-

Security befasst sich mit der Authentifizierung von

Clients und Servern, der Integrität und Vertraulichkeit

der ausgetauschten Nachrichten und der Prüfbarkeit

von Funktionsprofilen. OPC-UA-Security

ergänzt die von den meisten webfähigen Plattformen

bereitgestellte Sicherheitsinfrastruktur. Sie basiert

auf der in Bild 6 gezeigten Architektur. Die drei Ebenen

sind User Security, Application Security und

Transport Security.

Die Mechanismen der OPC UA User Level Security

werden einmalig beim Aufbau einer Sitzung durchlaufen.

Der Client übermittelt an den Server ein verschlüsseltes

Security Token, das den Benutzer identifiziert.

Der Server authentifiziert den Benutzer anhand des

Tokens und autorisiert danach den Zugang zu Objekten

im Server. Autorisierungsmechanismen wie Access

Control Lists werden in der OPC-UA-Spezifikation

nicht definiert. Sie sind anwendungs- und/oder systemspezifisch.

OPC UA Application Level Security ist ebenfalls Teil

des Sitzungsaufbaus und umfasst den Austausch digital

signierter Zertifikate. Instanzzertifikate identifizieren

die konkrete Installation. Softwarezertifikate identifizieren

die Client- und Server-Software sowie die

implementierten OPC-UA-Profile. Sie beschreiben Fähigkeiten

des Servers, wie die Unterstützung eines spezifischen

Informationsmodells.

Transport Level Security lässt sich einsetzen, um die

Integrität mit dem Signieren von Nachrichten zu gewährleisten

und die Vertrautheit durch das Verschlüsseln.

Das verhindert die Offenlegung und sichert die

Unversehrtheit der übertragenen Information.

Die UA-Sicherheitsmechanismen sind als Teil der

OPC UA Stacks realisiert, das heißt, sie gehören zum

von der OPC Foundation bereitgestellten Softwarepaket,

sodass Client und Server diese lediglich anwenden

müssen.

3.1 Skalierbare Security

Security-Mechanismen benötigen Rechenleistung und

beeinträchtigen damit die Performance. Security sollte

daher nur dort zur Anwendung kommen, wo sie benötigt

wird. Diese Entscheidung sollte nicht der Entwickler/Produktmanager

treffen, sondern der Anlagenbetreiber

(Systemadministration).

Die OPC-UA-Security-Mechanismen sind skalierbar

konzipiert. OPC-UA-Server stellen Endpoints bereit, die

unterschiedliche Security-Stufen repräsentieren, unter

anderem einen Endpoint ohne Security (NoSecurity-

Profil). In einer Anlage kann nun der Administrator

bestimmte Endpoints vollständig abschalten (zum Bei-

AUTOREN

KARL-HEINZ DEIRETS BACHER

(geb. 1952) ist seit 1971 bei

Siemens in verschiedenen

Forschungs- und Entwicklungsthemen

tätig, insbesondere

bei Betriebssystemen und

Kommunikationstechnologien

für die industrielle Automatisierung.

Seit Ende der 1990er-

Jahre vertritt er Siemens in technischen Gremien

der OPC Foundation; seit 2011 leitet er das OPC

Technical Advisory Council (TAC). Derzeitige

Position: Principal Engineer für das Themengebiet

Internet Communication.

Siemens AG,

Sector Industry, Gleiwitzerstraße 555,

D-90470 Nürnberg, Tel. +49 (0) 911 895 21 29,

E-Mail: karl.deiretsbacher@siemens.com

50

atp edition

6 / 2014


spiel den mit dem NoSecurity-Profil). Im Betrieb kann

aber auch durch den Operator eines OPC-UA-Clients

der für die jeweilige Aktion geeignete Endpoint beim

Verbindungsaufbau gewählt werden. Nicht zuletzt können

OPC-UA-Clients selbst sicherstellen, dass sie für

den Zugriff auf sensible Daten immer Endpoints mit

Security wählen.

3.2 Secure Channel

Mit dem Secure Channel lassen sich der Security Mode

und die Security Policy festlegen. Der Security Mode

beschreibt, wie die Nachrichten verschlüsselt werden.

Es gibt die von OPC UA definierten drei Möglichkeiten:

None, Sign und Sign-and-encrypt. Die Security Policy

definiert Algorithmen zum Verschlüsseln der Nachrichten.

Für das Einrichten benötigt der Client den öffentlichen

Schlüssel des Server-Instanz-Zertifikats. Der

Client übergibt danach sein eigenes Instanz-Zertifikat,

anhand dessen der Server entscheidet, ob er dem Client

vertraut.

3.3 Log-Over

Das Log-Over ist ein verbreitetes Verfahren in der Automatisierung.

In einem typischen Szenario hat Benutzer

A mit bestimmten Befugnissen eine OPC-UA-Session

etabliert. Für spezielle Aufgaben, die erweiterte

Befugnisse erfordern, muss sich nun ein anderer Benutzer

B die Session aneignen. Für dieses Log-Over ist

eine erneute Passwort-Eingabe erforderlich.

OPC UA unterstützt diesen Use-Case mit dem Activate-Session-Dienst.

Dabei wird in einer laufenden Session

der Berechtigungsnachweis für einen neuen Benutzer

gemeldet. Dieser neue Benutzer ersetzt nun den

bisherigen Benutzer. Sollen die Befugnisse wieder an

den bisherigen Operator übertragen werden, ist ein erneutes

Log-Over (ein erneuter Aufruf des Activate-

Session-Dienstes) erforderlich. Dieses Verfahren eignet

sich genauso für den Schichtwechsel zwischen Operatoren

mit gleichen Befugnissen.

FAZIT

In der Diskussion um Industrie 4.0 werden die technischen

Aspekte noch sehr rudimentär behandelt. Jedoch

lässt sich bereits feststellen, dass die Anforderungen

bei Themen wie Kommunikation, Datenaustausch,

horizontale und vertikale Integration durch OPC UA

erfüllt beziehungsweise unterstützt werden und dies

somit einer der gesuchten Standards werden kann und

sollte. OPC UA stellt Protokoll und Dienste bereit (das

Wie), um reichhaltige Informationsmodelle (das Was)

zu publizieren und komplexe Daten zwischen unabhängig

entwickelten Anwendungen auszutauschen. Es

gibt bereits mehrere für OPC UA zugeschnittene Objektmodelle.

Diese sind um die bei Industrie 4.0 zusätzlich

benötigte Information zu ergänzen.

MANUSKRIPTEINGANG

10.02.2014

Im Peer-Review-Verfahren begutachtet

REFERENZEN

Dr.-Ing. WOLFGANG MAHNKE

(geb. 1971) studierte Informatik

an der Universität Stuttgart

und promovierte an der

TU Kaiserslautern im Bereich

Datenbanken und Informationssysteme.

Von 2004 bis

2012 arbeitete er als Wissenschaftler

in der Konzernforschung

von ABB, seit 2012 als Software-Architekt

bei der ABB Automation GmbH. Schwerpunkt

seiner Arbeit bei ABB ist die Architektur von

Leitsystemen.

ABB Automation GmbH,

Kallstadter Straße 1, D-68309 Mannheim,

Tel. +49 (0) 621 381 17 82,

E-Mail: wolfgang.mahnke@de.abb.com

[1] OPC Foundation: OPC UA Specification: Part 1 –

Concepts.Version 1.01

[2] Mahnke, W., Leitner, S.-H., Damm, M.: OPC Unified Architecture,

Springer, 2009

[3] IEC 62541 series: OPC Unified Architecture, Part 1-10,

Edition 1.0, 2010

[4] Promotorengruppe Kommunikation der Forschungsunion

Wirtschaft – Wissenschaft: Umsetzungsempfehlungen für das

Zukunftsprojekt Industrie 4.0 Abschlussbericht, April 2013

[5] OPC Foundation: OPC UA for Devices – Companion Specification,

Version 1.01, 2013

[6] OPC Foundation: OPC UA for Analyser Devices – Companion

Specification, Version 1.1, 2013

[7] FDI Cooperation: FDI-2021-2027 FDI Technical Specification,

Version 0.9, 2013

[8] PLCOpen / OPC Foundation: OPC UA for IEC 61131-3 –

Companion Specification, Version 1.0, 2010

[9] OPC Foundation: OPC UA for ISA-95 Common Object Model –

Companion Specification, Version 1.0, 2013

atp edition

6 / 2014

51


HAUPTBEITRAG | NAMUR-HAUPTSITZUNG

Virtuelle Inbetriebnahme

in der Prozessindustrie

Effektives Engineering und früher Start-up

Trotz kurzer Abwicklungzeiten, beschränkter Ressourcen und komplexer Systemfunktionalitäten

ist es durch Simulation möglich, höhere Qualitätsstandards bei

Automatisierungsapplikationen zu erzielen. Simulation, und damit die virtuelle

Inbetriebnahme, ist ein Kernelement der Vision des integrierten Engineerings, da

sich so mehr Effizienz in der Planung und beim Betrieb von Anlagen erreichen lässt.

Der Beitrag beschreibt, wie durch die Umsetzung einer virtuellen Inbetriebnahme

in einer Batch-Anlage ein effektives Engineering und ein früherer Start-up erreicht

werden konnte.

SCHLAGWÖRTER Simulation / Inbetriebnahme / Engineering / Namur

Virtual Commissioning in the Process Industry –

Effective Engineering and Quicker Start-ups

Simulation is a strategic lever that can be used to achieve a high quality standard

despite the challenges of tighter project schedules, limited resources and more complex

systems and functionalities. Simulation, in particular virtual commissioning,

is an enabler in the vision of integrated engineering, as it allows for a more efficient

engineering workflow. This article describes how implementing virtual commissioning

in a batch plant can lead to more effective engineering and an earlier start-up.

KEYWORDS simulation / commissioning / engineering / Namur

52

atp edition

6 / 2014


RACHEL CHAN, MICHAEL KRAUSS, BASF

Das Ziel der Automatisierungstechnik ist, neben

der Entlastung der Menschen von gefährlichen

und anstrengenden Tätigkeiten eine

bessere Produktqualität und eine höhere Leistungsfähigkeit

von Maschinen und Apparaten

zu realisieren [1]. Dabei hat die Automatisierungstechnik

in den vergangenen Jahren von Fortschritten

aus Bereichen wie Elektrotechnik, Elektronik, Informationstechnik

und der interdisziplinären Kombination

verschiedener Themenfelder profitiert. Trotzdem gilt,

dass mit der Komplexität eines Systems der Schwierigkeitsgrad

ansteigt, um dieses beherrschbar zu machen.

Obgleich also stetig weniger manuelle Arbeitskraft benötigt

wird, sind umso mehr qualifizerte Arbeitskräfte

notwendig, um Projekte erfolgreich durchzuführen.

Diese Herausforderungen drängen die Industrie dazu,

Engineering-Prozesse zu optimieren und dies steht im

Kontext zu den Initiativen im Bereich Industrie 4.0.

Simulation [2] kann ein Werkzeug sein, um trotz der

Herausforderung durch knapper werdende Ressourcen

ein hohes Maß an Qualitätssicherung zu erreichen: Auf

einer Simulationsplattform lassen sich umfangreiche

Prüfungen in einer virtuellen Umgebung durchführen,

um die Risiken während der Inbetriebnahme (IBN) und

im laufenden Betrieb zu reduzieren.

Die virtuelle Inbetriebnahme (VIBN) ist kein neues

Thema in der Industrie, und im Bereich der Chemie

gewinnt sie immer mehr an Bedeutung. Bei BASF wurden

erste Schritte im Bereich virtuelle Inbetriebnahme

für Batch-Anlagen in einem Prozessleitsystem-Migrationsprojekt

unternommen, um eine kurze Umschlusszeit

gewährleisten zu können; die Software-Applikation

wurde in einer virtuellen Anlage mit einem vereinfachten

Prozessmodell getestet.

1. VIRTUELLE INBETRIEBNAHME UND IHRE VORTEILE

Die Phase der Inbetriebnahme dient dazu sicherzustellen,

dass alle Systeme und Komponenten gemäß Betreiberanforderungen

konfiguriert, installiert und implementiert

sind. In dieser Zeit sind die Automatisierungskomponenten

schon in der Anlage beziehungsweise im

Feld vorhanden. Die Abnahme der Automatisierungsapplikation

wurde im Vorfeld der Inbetriebnahme bereits

in einem Factory Acceptance Test (FAT) [2] durchgeführt.

Loop Checks wurden vorgenommen, um die

Signalübertragung zu prüfen und dafür zu sorgen, dass

das System wie geplant funktioniert.

In dieser Phase trifft die digitale Welt auf die Realität

und viele Fehler und Dateninkonsistenzen, die

nicht in dem FAT erkannt wurden, treten hier zu Tage.

Diese Fehler werden jedoch oft zu spät erkannt, um

sie rechtzeitig vor dem geplanten Anfahren zu korrigieren

[3]. Das Anfahren der Anlage wird dadurch

verzögert, und dies führt zu einem Produktionsverlust

der Anlage. Daher gilt die Regel: Je später ein Fehler

gefunden wird, desto aufwendiger ist es, diesen zu

beheben, siehe Bild 1.

Die virtuelle Inbetriebnahme hat das gleiche Ziel wie

eine reale Inbetriebnahme mit dem Unterschied, dass

die Prüfungen in einer virtuellen Anlage durchgeführt

werden. Die Grundidee ist das Testen der Automatisierungsapplikation,

die entweder eine neu konfigurierte

Software oder eine kleinere Anlagenänderung darstellen

kann, in einer virtuellen Umgebung vor Installation

in der realen Anlage. Softwarefehler, die in dem traditionellen

FAT nicht gefunden wurden, werden hier

erkannt und korrigiert und somit ist der Zeitanteil zur

Suche und Beseitigung der Fehler in der realen Inbetriebnahme

eingespart.

1.1 Technik der virtuellen Inbetriebnahme

Ein Prozessleitsystem besteht aus verschiedenen Komponenten,

den Anzeige- und Bedienkomponenten

(ABK), den prozessnahen Komponenten (PNK) und den

Ein- und Ausgangssignalen (E/A-Signale). Diese Komponenten

sind über konventionell verdrahtete E/A-

Komponenten oder Feldbussysteme mit den Feldgeräten

verbunden. Die ABK sind die Schnittstelle zum Menschen

und stellen den Zustand des Systems dar. Manuelle

Eingriffe werden hier vorgenommen, von den PNK

atp edition

6 / 2014

53


HAUPTBEITRAG | NAMUR-HAUPTSITZUNG

verarbeitet und an die Feldgeräte übermittelt. Während

die PNK das Gehirn des Systems bilden, sind die E/A-

Komponenten und Feldbusse das Rückenmark. Die

Feldgeräte spielen in diesem Bild die Rolle der Nerven

und Muskeln des Systems. Damit sich die Applikation

des Systems vor dem Einspielen in das reale System

testen lässt, wird das Gehirn mit einem simulierten

Körper verbunden. So ergibt sich die Möglichkeit, Störungen,

kritische Situationen oder unerwartete Eingaben

zu simulieren, um das System ohne Beschädigung

von Personen oder der Anlage zu testen.

Die virtuelle Inbetriebnahme kann entweder als Hardware

in the Loop oder Software in the Loop umgesetzt

werden. Hardware in the Loop bedeutet, dass das simulierte

Anlagenmodell an die realen prozessnahen Komponenten

(PNK) angeschlossen ist, bei Software in the

Loop wird zusätzlich die PNK emuliert, siehe Bild 2.

Bei Hardware in the Loop werden die PNK über eine

Hardware-Schnittstelle an die Simulationsplattform

angeschlossen, zum Beispiel mit Simba Profibus von

Siemens. Das Verhalten der Profibus Slaves wird in dieser

Schnittstelle simuliert und für den Profibus Master

ergibt sich kein Unterschied, ob die Slaves simuliert

oder real sind [4]. Im Vergleich zur steuerungsinternen

Simulation kann hier der Busverkehr simuliert werden,

um Last- und Performancetests des Bussystems durchzuführen.

Diese steuerungsinterne Simulation hat den

Nachteil, dass eine Änderung der Hardwarekonfiguration

notwendig wäre, weil das Simulationsmodell in der

Steuerung realisiert werden muss. Dies könnte zu einer

zusätzlichen Auslastung der Steuerung führen.

Software in the Loop bietet zusätzliche Vorteile: Einer

davon ist die Möglichkeit, die Simulation parallel

zum traditionellen FAT durchzuführen, da die PNK

nicht für die VIBN erforderlich sind. Das wiederum

heißt, dass die Gesamtzeit der FAT-Phase verkürzt wird.

Des Weiteren können durch Software in the Loop längere

Vorgänge in der Simulation wie Füllen, Vakuumziehen

oder Temperieren künstlich beschleunigt werden,

um lange Testzeiten zu vermeiden. Zudem können

in der Betriebsphase Anlagenänderungen zunächst auf

der Simulationsplattform getestet werden, bevor die

Applikation auf die PNK geladen wird.

1.2 Vorteile durch virtuelle Inbetriebnahme

In einem traditionellen FAT werden Eingangsparameter

in der Steuerung simuliert, um die Reaktion des Systems

zu prüfen. Ein Beispiel dafür ist der Test der Reihenfolge

von Schrittkettenabläufen in einer Batch-Anlage.

Ein Fehler im Schrittkettenablauf könnte an der

Systemeigenschaft liegen, wodurch das Problem nicht

durch systeminterne Manipulation einiger Parameter

erkannt werden kann.

Der Engineering-Workflow kann durch den Einsatz

von Simulationstools verbessert werden. Frühzeitige

Fehlererkennung und Korrektur bedeutet weniger Probleme

und Aufwand zu einem späteren Zeitpunkt des

Workflows, der typischerweise eine kritischere Phase

des Projekts ist. Denkbar ist die Möglichkeit, im laufenden

Betrieb Anlagenänderungen und Optimierungen

zu testen. Die Auswirkung der Änderung wird

früher erkannt, mögliche Schäden an der Anlage verhindert.

Letztendlich können die Anlagenfahrer mittels

der Simulationsplattform geschult werden. Störungen

und kritische Szenarien lassen sich simulieren

damit das Personal lernt, wie es auf solche Szenarien

reagieren muss. Bei Migrationsprojekten können die

Bediener früh ein Gefühl für das neue System bekommen

und es somit nach dem Anfahren schneller und

besser bedienen.

1.3 Simulation als Teil von Industrie 4.0

Die Visionen des Programms Industrie 4.0 können auf

drei unterschiedliche Achsen projiziert werden [5]: Die

horizontale Integration über Wertschöpfungsnetzwerke

hinweg, die vertikale Integration mit vernetzten Produktionssystemen

und die digitale Durchgängigkeit des

Engineerings über den gesamten Lifecycle. Im Hinblick

auf den dritten Aspekt werden heute unterschiedliche

Werkzeuge zur Erfüllung von aufeinander folgenden

Aufgaben, das heißt zur Anlagenplanung, -änderung

oder -erweiterung verwendet. Diese Werkzeuge, zum

Beispiel verfahrenstechnische, prozessleittechnische

oder betriebsbedingte Werkzeuge, werden nicht zusammengeführt

und alle Änderungen müssen in diesen

Werkzeugen mit hohem Aufwand gepflegt werden [6].

Dieser Aufwand beeinflusst die Zeit für das Engineering

und die Instandhaltung. Hier spielt integriertes

Engineering eine große Rolle, und dieses Thema wird

in den nächsten Jahren noch mehr Aufmerksamkeit

erhalten.

Die genannten Herausforderungen bei Projekten wirken

sich stark auf die Qualität der Automatisierungsapplikation

aus. Die Simulation ist ein Wegweiser für

das integrierte Engineering: Simulation bringt die beiden

Welten, digital und real, früher zusammen, da sich

so eher in einem Projekt realitätsnahe Gegebenheiten

erreichen lassen. Und falls erforderlich, ist es möglich,

das Engineeringergebnis frühzeitig zu ändern oder zu

optimieren. Ein weiterer Anknüpfungspunkt zum integrierten

Engineering besteht, wenn es darum geht, Anlagenänderungen

im laufenden Betrieb vorzunehmen.

Alle Anlagenänderungen, die durchgeführt werden,

können mittels Simulation im Vorfeld getestet werden,

um die Qualität der Applikation zu gewährleisten.

1.4 Status quo und Vision des integrierten Engineerings

Engineering wird von vielen Anwendern mit der Planungsphase

einer neuen Anlage gleichgesetzt. In einem

weiter gefassten Kontext schließt Engineering die Prozesse

zur Dokumentation von Anlagen von der Planung

bis zur Demontage mit ein.

54

atp edition

6 / 2014


BILD 1: Aufwand für Fehlerkorrekturen [7]

BILD 2: VIBN: Hardware in the Loop und Software in the Loop

Aufwand

Zeit

BILD 3: Vergleich des heutigen

Engineering-Workflows mit der Vision

vom integrierten Engineering

BILD 4: PCS7 Steuerungen mit Simit

Der auf der linken Seite im Bild 3 dargestellte Engineering-Workflow

ist als Wasserfallmodell bekannt [7].

Alle Phasen in dem Modell werden nacheinander ausgeführt

und als Folge werden Prüfungen erst bei FAT

beziehungsweise IBN durchgeführt, was generell zu

einer späteren Fehlererkennung führt. Falls eine Messstelle

oder ein Typical falsch konfiguriert wurde und

dieser Fehler erst bei der Inbetriebnahme entdeckt

wird, müssen alle betroffenen Planungsdaten überarbeitet

werden. Das Ziel vom integrierten Engineering

ist, mittels Simulation und anderer Werkzeuge paralleles

Engineering in allen Phasen zu erreichen. Ingenieure

können in diesem Zielbild schon in den Designund

Engineeringsphasen Konzepte und Typicals mit

den Kunden festlegen, frühzeitig testen, konkretisieren

und freigeben lassen. Die Daten, die bereits in früheren

Phasen in einem integrierten System bereitstehen, können

in allen Phasen des Projekts verwendet werden.

Hierdurch entfällt der Aufwand für den späteren Datentransfer

zwischen verschiedenen Tools und die dabei

notwendige Qualitätssicherung der Daten [6]. Ein

weiterer Vorteil ist die potenziell kürzere Abwicklungszeit

von Projekten. Die Phasen werden durch paralleles

Engineering verkürzt; dies erfüllt die Forderung nach

kurzen Time-to-Market-Zeiten [7].

2. PILOTIERUNG IN EINER BATCH-ANLAGE

Bei einem Prozessleitsystem-Migrationsprojekt hat die

BASF eine virtuelle Inbetriebnahme durchgeführt, um

die korrekte Funktionalität der Automatisierungsapplikation

sicherzustellen. Die Migration bestand nicht nur

aus einem reinen Upgrade, sondern enthielt gleichzeitig

die Optimierung der Ablaufsteuerungen sowie die

Einführung eines Batch-Systems. Dies führte zu einer

komplett neuen Planung und Konfiguration der Batch-

Applikation. Aufgrund der kurzen Abstellungszeit der

Anlage war der Bedarf an intensiven Tests vor der eigentlichen

Inbetriebnahme sehr hoch.

Die Simulationsumgebung wurde für den FAT mit allen

Messstellen, die in den Schrittketten verwendet wer-

atp edition

6 / 2014

55


HAUPTBEITRAG | NAMUR-HAUPTSITZUNG

BILD 5: Vergleich des Engineering-

Workflows in Projekten mit und

ohne VIBN: Der rote Pfeil entspricht

der Zeit zur Fehlerkorrektur

während der Inbetriebnahme.

den, erstellt und der Test der Automatisierungsapplikation

in der virtuellen Anlage wurde parallel zum traditionellen

FAT durchgeführt. Hier kam die enge Zusammenarbeit

zwischen BASF, Siemens und M+W,

Auftragnehmer des Migrationsprojekts, zum Tragen.

2.1 Vereinfachtes Prozessmodell erstellen

Eine Hardware-in-the-Loop-Architektur wurde mit

dem Werkzeug Simit von Siemens aufgebaut. Die simulierten

Komponenten enthalten die E/A-Signale,

die Feldinstrumentierungen, die Profibus-Kommunikation

und ein vereinfachtes Prozessmodell. Bei der

Erstellung des Modells wurde eine händische Übernahme

der Anlagentopologie mit Hilfe der R&I-Fließbilder

ins Simulationstool durchgeführt. Wegen der

Kompatibilität von Siemens PCS7 mit Simit ist es

möglich, beim Anlegen der Messstellen eine automatische

Konvertierung der E/A-Konfiguration durchzuführen.

Die virtuelle Inbetriebnahme wurde mit einer

Wasserfahrt ohne Reaktionskinetik betrieben, das

heißt die Stoffdaten der tatsächlichen Edukte und

Produkte wurden durch die von Wasser ersetzt. Damit

können im Gegensatz zu einem vollen First-Principles-Simulator

nicht die exakten Messwerte erreicht

und simuliert werden; allerdings wird die korrekte

Kausalität zwischen Aktoren und Sensoren, zum Beispiel

der Zusammenhang zwischen Kugelhahn,

Durchflussmesser und Füllstandsmessung, hergestellt.

Sollten die durch die Wasserparameter erzeugten

Messvariablen Alarm- oder Transitionsgrenzen

verletzen, kann zusätzlich eine messstellenspezifische

Skalierung der Simulationswerte vor Weiterleitung

an die Steuerungsebene durchgeführt werden.

Besonders interessant ist diese Möglichkeit im Zusammenhang

mit der Verwendung von historischen

Daten einer Bestandsanlage.

Der Hauptfokus der Simulation war das Testen der

Automatisierungsapplikation, sodass die Wasserfahrt

in diesem Fall ausreichend war. Die Erstellung des

Wasserfahrt-Modells hat in Bezug auf die Vorteile, die

daraus gewonnen wurden, wenig zeitlichen und finanziellen

Aufwand verursacht.

2.2 Ergebnisse des Einsatzes von VIBN

Trotz eines zuvor durchgeführten 100 %-Tests während

des traditionellen FAT wurden zusätzliche Fehler

durch die virtuelle Inbetriebnahme entdeckt. Aufgrund

der positiven Auswirkungen des Tests wurde der Umfang

der virtuellen Inbetriebnahme vor der realen IBN

weiter ausgedehnt. Alle Messstellen, auch die noch

nicht durch Schrittketten automatisierten, wurden in

die Simulation aufgenommen. Außerdem wurden alle

Vorortbedienungen, zum Beispiel Schlüsselschalter

und Dosierfreigaben, in der Simulationsumgebung realisiert.

Der Batch-Zyklus konnte vollständig gefahren

werden, und wesentliche Probleme wurden dadurch

aufgedeckt. Letztendlich hat das System nicht als reiner

FAT-Simulator gedient, sondern war nahe an einem

Trainingssystem für eine einfache Systemschulung.

Einige Fehlertypen, die gefunden wurden, sind zum

Beispiel falsch verriegelte Schrittketten, eine falsch

konfigurierte Anschaltbaugruppe und falsch definierte

AUTOREN

Bachelor of Science,

RACHEL MEI PING CHAN

(geb. 1986) ist seit 2010

bei der BASF SE, Ludwigshafen,

im Fachzentrum

Automatisierungstechnik

auf dem Gebiet der Prozessleittechnik

tätig.

Ihre Themengebiete sind

technische Evaluierung für Automatisierungslösungen

und Leitsystemmigrationen.

BASF SE,

D-67056 Ludwigshafen,

Tel. +49 (0) 621 607 42 66,

E-Mail: rachel-mei-ping.chan@basf.com

56

atp edition

6 / 2014


Grenzwerte. Beim Verriegelungsfehler wurde entdeckt,

dass eine Schrittkette nicht weiterlaufen konnte, weil

ein Absperrventil falsch verriegelt wurde. Bei der Umsetzung

der Schrittketten auf das PCS7 wurden Teile

verschoben und Zusätze eingebracht, was falsche Synchronisationen

zur Folge hatte.

Diese Fehler würden in einem Projekt ohne virtuelle

Inbetriebnahme erst in der Inbetriebnahme entdeckt,

und es könnte länger dauern, bis die Fehlerquellen gefunden

werden. Das andere genannte Beispiel, die

falsch konfigurierte Anschaltbaugruppe, wäre erst bei

den Loop Checks in der Anlage gefunden worden.

Dies verdeutlicht, dass nicht alle Fehler in einem traditionellen

FAT gefunden werden können und dass

durch die frühzeitige Entdeckung und Korrektur der

Fehler die Zeit bei der Inbetriebnahme wesentlich reduziert

wurde. Im Fall, dass dieses Projekt ohne virtuelle

Inbetriebnahme abgewickelt würde, wäre das Anfahren

der Anlage verzögert worden, siehe Bild 5.

Beim Projekt besteht natürlich noch Verbesserungspotenzial

in verschiedenen Bereichen, zum Beispiel

was die Wartezeit bei längeren Vorgängen betrifft, die

in diesem ersten Projekt unterschätzt wurden. Dies

könnte potenziell durch auf PCs emulierten Steuerungen

verbessert werden. Die positive Erfahrung dieser

Pilotierung zeigt, dass es in einer Anlage mit einer

komplexen Batch-Applikation und einem engen Projektzeitplan

sehr wertvoll war, in eine virtuelle Inbetriebnahme

zu investieren.

ZUSAMMENFASSUNG UND AUSBLICK

Zum Bewältigen der Herausforderungen, wie kürzere

Projektabwicklungszeiten, knappe Ressourcen, kom-

plexe Funktionalitäten und Erfüllung aller Erwartungen

des Kunden, ist es notwendig die virtuelle Inbetriebnahme

einzusetzen. Beim Engineering von Leitsystemen

ist es nicht möglich, sich unter Zeitdruck mit

allen technischen Details zu beschäftigen. Daher

braucht es Werkzeuge um die Planungsdaten beziehungsweise

Applikationen frühzeitig zu prüfen. Durch

die virtuelle Inbetriebnahme kann eine höhere Engineering-Qualität

erreicht werden, weil Fehler früh erkannt

und eine falsche Konzeptionierung zeitnah korrigiert

werden können.

Mit zunehmenden Innovationen rund um Industrie 4.0

und integriertes Engineering ist zu erwarten, dass virtuelle

Inbetriebnahme und andere Werkzeuge integrale

Bestandteile des Engineering-Ablaufs werden.

Werkzeuge und Konzepte für integriertes Engineering

werden entwickelt, um eine einheitliche Datenhaltung

über den gesamten Lebenzyklus der Anlage hinweg

zu gewährleisten. Eine Initiative in diese Richtung ist

der Namur-Datencontainer zwischen CAE und PLS.

Der Container wird in einer Namur-Empfehlung definiert,

um die Schnittstelle zwischen CAE und PLS zu

standardisieren [6]. Weiterhin lässt sich das Simulationstool

im laufenden Betrieb für Anlagenänderungen

und als Systemtrainingssimulator verwenden. Ein

nächster Schritt wäre, die in Forschungsarbeiten erfolgreich

untersuchten Ansätze [2] in Produkten umzusetzen,

damit Endanwender ihre Anlagentopologie

und Planungsdaten aus dem CAE-Planningstool per

Knopfdruck in das Simulationstool laden können. Das

wird die Zeit für die Modellerstellung nochmal deutlich

verkürzen.

MANUSKRIPTEINGANG

03.01.2014

Im Peer-Review-Verfahren begutachtet

REFERENZEN

Dr. rer. nat. MICHAEL KRAUSS

(geb. 1984) ist seit 2010 bei

der BASF SE, Ludwigshafen,

im Fachzentrum Automatisierungstechnik

tätig.

Er leitet seit 2013 das Fachgebiet

DCS Technology

Support. Seine Schwerpunkte

sind Projekte auf dem Gebiet

der Höherautomatisierung, Unterstützung der

Beschaffung von Leitsystemen und Strategien für

Leitsystemmigrationen.

BASF SE,

D-67056 Ludwigshafen,

Tel. +49 (0) 621 604 66 94,

E-Mail: michael.krauss@basf.com

[1] HS-Merseburg, Jan. 2014. http://www.hs-merseburg.de/~seela/cms/

[2] Barth, M., Fay, A.: Automated generation of simulation models for

control code tests. Control Engineering Practice 21, S. 218-230, 2013

[3] Process News 4/2012: Virtuelle Inbetriebnahme

[4] Siemens: SIMBA Profibus Produktbeschreibung

http://www.industry.siemens.com

[5] Forschungsunion, Acatech, Bundesministerium für

Bildung und Forschung: Abschlussbericht des Arbeits kreises

Industrie 4.0: Umsetzungsempfehlungen für das Zukunftsprojekt

Industrie 4.0, April 2013.

[6] Tauchnitz, T. (2013): Integriertes Engineering – wann,

wenn nicht jetzt! Notwendigkeit, Anforderungen und Ansätze.

atpedition (1-2), S. 46-53.

[7] Liu, Zh., Suchold, N., Diedrich, Ch.: Virtual Commissioning of Automated

Systems. Otto-von-Guericke University, Magdeburg,

http://cdn.intechopen.com/pdfs/37992/InTech-Virtual_commissioning_

of_automated_systems.pdf

atp edition

6 / 2014

57


IMPRESSUM / VORSCHAU

IMPRESSUM

VORSCHAU

Verlag:

DIV Deutscher Industrieverlag GmbH

Arnulfstraße 124, D-80636 München

Telefon + 49 (0) 89 203 53 66 0

Telefax + 49 (0) 89 203 53 66 99

www.di-verlag.de

Geschäftsführer:

Carsten Augsburger, Jürgen Franke

Verlagsleiterin:

Kirstin Sommer

Spartenleiterin:

Kirstin Sommer

Herausgeber:

Dr.rer.nat. Thomas Albers

Dr. Gunther Kegel

Dipl.-Ing. Hans-Georg Kumpfmüller

Dr.-Ing. Wilhelm Otten

Beirat:

Dr.-Ing. Kurt Dirk Bettenhausen

Prof. Dr.-Ing. Christian Diedrich

Prof. Dr.-Ing. Ulrich Epple

Prof. Dr.-Ing. Alexander Fay

Prof. Dr.-Ing. Michael Felleisen

Prof. Dr.-Ing. Georg Frey

Dipl.-Ing. Thomas Grein

Prof. Dr.-Ing. Hartmut Haehnel

Dipl.-Ing. Tim-Peter Henrichs

Dr.-Ing. Jörg Kiesbauer

Dipl.-Ing. Gerald Mayr

Dr.-Ing. Josef Papenfort

Igor Stolz

Dr. Andreas Wernsdörfer

Dipl.-Ing. Dieter Westerkamp

Prof. Dr.-Ing. Michael Weyrich

Dr.rer.nat. Christian Zeidler

Organschaft:

Organ der GMA

(VDI/VDE-Gesell schaft Messund

Automatisierungs technik)

und der NAMUR (Interessengemeinschaft

Automatisierungstechnik

der Prozessindustrie).

Redaktion:

Jürgen Franke (verantwortlich)

Telefon + 49 (0) 89 203 53 66 10

E-Mail: franke@di-verlag.de

Aljona Hartstock (aha)

Telefon + 49 (0) 89 203 53 66 78

E-Mail: hartstock@di-verlag.de

Gerd Scholz (gz)

Einreichung von Hauptbeiträgen:

Prof. Dr.-Ing. Leon Urbas

(Chefredakteur, verantwortlich

für die Hauptbeiträge)

Technische Universität Dresden

Fakultät Elektrotechnik

und Informationstechnik

Professur für Prozessleittechnik

D-01062 Dresden

Telefon +49 (0) 351 46 33 96 14

E-Mail: urbas@di-verlag.de

Fachredaktion:

Dr.-Ing. Michael Blum

Dipl.-Ing. Heinrich Engelhard

Prof. Dr.-Ing. Jürgen Jasperneite

Dr.-Ing. Bernhard Kausler

Dr.-Ing. Niels Kiupel

Prof. Dr.-Ing. Gerrit Meixner

Dr.-Ing. Jörg Neidig

Dipl.-Ing. Ingo Rolle

Dr.-Ing. Stefan Runde

Prof. Dr.-Ing. Frank Schiller

Bezugsbedingungen:

atp edition – Automatisierungs technische

Praxis“ erscheint monatlich mit Doppelausgaben

im Januar/Februar und Juli/August.

Bezugspreise:

Abonnement jährlich: € 519,– + € 30,–/ € 35,–

Versand (Deutschland/Ausland);

Heft-Abonnement + Online-Archiv: € 704,70;

ePaper (PDF): € 519,–; ePaper + Online-Archiv:

€ 674,70; Einzelheft: € 59,– + Versand;

Die Preise enthalten bei Lieferung in EU-

Staaten die Mehrwertsteuer, für alle übrigen

Länder sind es Nettopreise. Mitglieder der

GMA: 30% Ermäßigung auf den Heftbezugspreis.

Bestellungen sind jederzeit über den Leserservice

oder jede Buchhandlung möglich.

Die Kündigungsfrist für Abonnement aufträge

beträgt 8 Wochen zum Bezugsjahresende.

Abonnement-/Einzelheftbestellung:

DataM-Services GmbH, Leserservice atp

Herr Marcus Zepmeisel

Franz-Horn-Str. 2, 97082 Würzburg

Telefon + 49 (0) 931 417 04 59

Telefax + 49 (0) 931 417 04 94

leserservice@di-verlag.de

Verantwortlich für den Anzeigenteil:

Inge Spoerel

Telefon + 49 (0) 89 203 53 66 22

E-Mail: spoerel@di-verlag.de

Kirstin Sommer (Key Account)

Telefon + 49 (0) 89 203 53 66 36

E-Mail: sommer@di-verlag.de

Angelika Weingarten (Key Account)

Telefon + 49 (0) 89 203 53 13

E-Mail: weingarten@di-verlag.de

Es gelten die Preise der Mediadaten 2014

Anzeigenverwaltung:

Brigitte Krawczyk

Telefon + 49 (0) 89 203 53 66 12

E-Mail: krawczyk@di-verlag.de

Art Direction / Layout:

deivis aronaitis design | dad |

Druck:

Druckerei Chmielorz GmbH,

Ostring 13,

D-65205 Wiesbaden-Nordenstadt

Gedruckt auf chlor- und

säurefreiem Papier.

Die atp wurde 1959 als „Regelungstechnische

Praxis – rtp“ gegründet.

DIV Deutscher Industrieverlag

GmbH München

Die Zeitschrift und alle in ihr enthaltenen

Beiträge und Abbildungen sind urheberrechtlich

geschützt. Mit Ausnahme der gesetzlich

zugelassenen Fälle ist eine Verwertung ohne

Ein willigung des Verlages strafbar.

Gemäß unserer Verpflichtung nach § 8

Abs. 3 PresseG i. V. m. Art. 2 Abs. 1c DVO

zum BayPresseG geben wir die Inhaber

und Beteiligungsverhältnisse am Verlag

wie folgt an:

DIV Deutscher Industrieverlag GmbH,

Arnulfstraße 124, D-80636 München.

Alleiniger Gesellschafter des Verlages

ist die ACM-Unternehmensgruppe,

Ostring 13,

D-65205 Wiesbaden-Nordenstadt.

ISSN 2190-4111

DIE AUSGABE 7-8 / 2014 DER

ERSCHEINT AM 04.08.2014

MIT AUSGEWÄHLTEN BEITRÄGEN DES

GMA-KONGRESSES AUTO MATION 2014

SOWIE WEITEREN THEMEN

Modellierung industrieller

Kommunikationssysteme

mit AutomationML

Herstellerübergreifende

SPS-Ablaufprogrammierung

für flexible Produktionssysteme

Sicherheitsgerichteter

Stellantrieb

Aus aktuellem Anlass können sich die Themen

kurzfristig verändern.

LESERSERVICE

E-MAIL:

leserservice@di-verlag.de

TELEFON:

+ 49 (0) 931 417 04 59

58

atp edition

6 / 2014


Erreichen Sie die Top-Entscheider

der Automatisierungstechnik.

Sprechen Sie uns an wegen Anzeigenbuchungen

und Fragen zu Ihrer Planung.

Inge Spoerel: Telefon +49 (0) 89 203 53 66-22

E-Mail: spoerel@di-verlag.de


Der Klassiker für die

Prozessautomation geht

ins 21. Jahrhundert

Das Handbuch der Prozessautomation ist ein Standardwerk für die Planung

verfahrenstechnischer Anlagen. In der 5., überarbeiteten Version geht es auf

die Herausforderung bei der Digitalisierung der Anlage ein. Das Handbuch

wurde von fast 50 Experten mit umfassenden Praxiskenntnissen gestaltet

und deckt das gesamte Feld der Prozessautomatisierung ab.

Hrsg.: K. F. Früh, U. Maier, D. Schaudel

5. Auflage 2014

740 Seiten, 170 x 240mm, Hardcover

Erhältlich in 2 Varianten

www.di-verlag.de

DIV Deutscher Industrieverlag GmbH, Arnulfstr. 124, 80636 München

Jetzt vorbestellen!

Bestellung per Fax: +49 (0) 201 Deutscher / 82002-34 Industrieverlag GmbH oder | Arnulfstr. abtrennen 124 und | 80636 im München Fensterumschlag einsenden

Ja, ich bestelle gegen Rechnung 3 Wochen zur Ansicht

___ Ex.

Handbuch der Prozessautomatisierung

5. Auflage – ISBN: 978-3-8356-3372-8

für € 199,90 (zzgl. Versand)

Firma/Institution

Vorname, Name des Empfängers

___ Ex.

Handbuch der Prozessautomatisierung

mit interaktivem eBook (Online-Lesezugriff im MediaCenter)

5. Auflage – ISBN: 978-3-8356-7119-5

für € 259,90 (zzgl. Versand)

Straße / Postfach, Nr.

Land, PLZ, Ort

Antwort

Vulkan-Verlag GmbH

Versandbuchhandlung

Postfach 10 39 62

45039 Essen

Telefon

E-Mail

Telefax

Branche / Wirtschaftszweig

Widerrufsrecht: Sie können Ihre Vertragserklärung innerhalb von zwei Wochen ohne Angabe von Gründen in Textform (z.B.

Brief, Fax, E-Mail) oder durch Rücksendung der Sache widerrufen. Die Frist beginnt nach Erhalt dieser Belehrung in Textform.

Zur Wahrung der Widerrufsfrist genügt die rechtzeitige Absendung des Widerrufs oder der Sache an die Vulkan-Verlag GmbH,

Versandbuchhandlung, Huyssenallee 52-56, 45128 Essen.

Ort, Datum, Unterschrift

PAHBPA2014

Nutzung personenbezogener Daten: Für die Auftragsabwicklung und zur Pflege der laufenden Kommunikation werden personenbezogene Daten erfasst und gespeichert. Mit dieser Anforderung erkläre ich mich damit einverstanden,

dass ich vom DIV Deutscher Industrieverlag oder vom Vulkan-Verlag per Post, per Telefon, per Telefax, per E-Mail, nicht über interessante, fachspezifische Medien und Informationsangebote informiert und beworben werde.

Diese Erklärung kann ich mit Wirkung für die Zukunft jederzeit widerrufen.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!