atp edition Konzept offener Regler: FPGA in der Antriebstechnik (Vorschau)
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
6 / 2014
56. Jahrgang B3654
DIV Deutscher Industrieverlag GmbH
Automatisierungstechnische Praxis
Konzept offener Regler:
FPGA in der Antriebstechnik | 26
Engineering-Effizienz
automatisch messen – Teil 2 | 34
OPC UA für Industrie 4.0 | 44
Virtuelle Inbetriebnahme
in der Prozessindustrie | 52
update
ATP EDITION | | BRANCHE | | VERANSTALTUNGEN | | FORSCHUNG | | PRODUKTE
IHR NEWSLETTER FÜR
DIE AUTOMATION
Aktuell, kompetent und auf den Punkt
Jetzt anmelden und sofort lesen:
www.atpinfo.de/newsletter
EDITORIAL
Industrie 4.0 –
mehr als ein Hype!
Internet-Technologien haben unsere Welt in vielen Bereichen
nachhaltig verändert. Die Geschäftsmodelle vieler Bereiche wie
Versandhandel, Musikindustrie oder Printmedien wurden teilweise
auf den Kopf gestellt. Google, Wikipedia, Facebook und
Twitter sind Anwendungen, für die es vor zehn bis 15 Jahren noch
nicht einmal ein Geschäftsmodell gab!
Wird das „Internet der Dinge“ nun die industrielle Produktion
in gleicher Weise umwälzen? Werden auch im Industriesektor in
zehn bis 15 Jahren milliardenschwere Konzerne entstanden sein,
deren Geschäftsmodelle in unserer heutigen Vorstellung noch
gar nicht vorkommen?
Die globale Vernetzung von Industrien stellt allerdings deutlich
strengere Anforderungen an das Internet der Dinge. Auch in
einem globalen Netz muss es mathematische, determinierte Modelle
für Sicherheit und Verfügbarkeit geben, die weit über die
heute verfügbaren Technologien hinausgehen. Hier sind Forschungs-
und Entwicklungsaufwendungen erforderlich, die von
einzelnen Unternehmen nicht geleistet werden können, ja vielleicht
nicht einmal geleistet werden dürfen – ein europäischer
Kraftakt, für den zahlreiche Köpfe aus der Industrie, vor allem
aber aus der Forschung notwendig sind. Ohne determinierte Sicherheit
und Verfügbarkeit wird das industrielle Internet der
Dinge auf immer aus proprietären Insellösungen bestehen – weit
entfernt von der Vision Industrie 4.0.
Sicherheit und Verfügbarkeit im Internet der Dinge sind nichts
anderes als eine unabdingbar notwendige Infrastruktur für die
erfolgreiche Weiterentwicklung industrieller Tätigkeit in
Deutschland und Europa. Für den Aufbau dieser Infrastruktur
sind Industrie, Verbände, Forschung und Politik gleichermaßen
gefordert. Hunderte von Einzelprojekten aus Dutzenden unterschiedlicher
Fördertöpfe sind der falsche Weg. Nur eine gebündelte
Aktion kann hier zielführend sein!
DR.-ING.
GUNTHER KEGEL,
Vorsitzender der
Geschäftsleitung
Pepperl+Fuchs GmbH
atp edition
6 / 2014
3
INHALT 6 / 2014
FORSCHUNG
6 | DFKI Bremen testet Tauchroboter realitätsnah und
witterungsunabhängig in großem Salzwasserbecken
Call for Experts: System-of-Systems Automation
VERBAND
8 | Westerkamp koordiniert VDI-Fachgesellschaften –
GMA bekommt einen neuen Geschäftsführer
Profibus-Nutzer bestätigen Vorstand und Beirat
Der Zusammenschluss von Fieldbus Foundation und
Hart Communication Foundation rückt näher
BRANCHE
10 | Sensorik und Messtechnik optimistisch:
2014 soll erneut ein Plus von sieben Prozent erzielt werden
Elektrische Automation erhofft leichtes Plus –
Prozessautomatisierer wachsen gegen den Trend
11 | Leitplanken für Industrie 4.0: Verbände wollen das
Internet der Dinge geordnet aufs Gleis setzen
VDI/VDE-Richtlinienentwurf: Praxistipps für die Nutzung
berührungsloser Temperaturmesstechnik
PRAXIS | SENSORTECHNIK
12 | Embedded-Messsysteme für Oberflächen und Fluide:
Farbsensoren bieten viele Möglichkeiten
16 | Intelligent und effizient: Temperaturmessung mit
Grenzwertschaltern schützt Mensch und Anlage
18 | Kontinuierliche Messung des pH-Werts zeigt Lecks
in Kühlanlagen mit Ammoniak zuverlässig an
20 | Laufende Echtzeitmessung des Alkoholgehalts im
Destillat sorgt für höchste Qualität der Brände
22 | Wo hoch präzise Glasmaßstäbe schwächeln,
punkten induktive Wegsensoren mit Robustheit
4
atp edition
6 / 2014
PRAXIS
24 | Aufgearbeitet statt neu:
Perfektes Nachschleifen vervielfacht
die Lebensdauer von Werkzeugen
HAUPTBEITRÄGE
Produkte,
Systeme
und Service
für die
Prozessindustrie?
Natürlich.
26 | Konzept offener Regler:
FPGA in der Antriebstechnik
P. ZAHN, I. LAPTEV UND A. VERL
34 | Engineering-Effizienz
automatisch messen – Teil 2
R. DRATH, C. MESSINGER, B. SCHRÖTER, N. LI
UND G. GUTERMUTH
44 | OPC UA für Industrie 4.0
K.-H. DEIRETSBACHER UND W. MAHNKE
HAUPTBEITRAG | NAMUR-HAUPTSITZUNG
52 | Virtuelle Inbetriebnahme
in der Prozessindustrie
RUBRIKEN
R. CHAN UND M. KRAUSS
3 | Editorial
58 | Impressum, Vorschau
Ist Ihre Produktionsanlage auf dem
neuesten Stand? Sind alle Korrekturen
im Leitsystem eingespielt? Sind alle
Sicherheitslücken geschlossen?
Ist Ihr System gegen Cyber-Angriffe
und Bedrohungen geschützt?
Läuft Ihre Anlage optimal? Ist sie
vollständig und korrekt konfiguriert?
Automation Sentinel gibt die Antwort.
Keine Sicherheit ohne Automation
Sentinel.
www.abb.de/controlsystems
Wussten Sie, dass Ihnen ABB
neben maßgeschneiderten
Leitsystemen ein umfassendes
Portfolio für die Instrumentierung,
herausragende Produkte und
Lösungen für die Analysentechnik
sowie erstklassigen Service bietet?
Lesen Sie mehr unter:
www.abb.de/
prozessautomatisierung
ABB Automation GmbH
Tel.: +49 (0) 1805 26 67 76
marketing.control-products@de.abb.com
FORSCHUNG
DFKI Bremen testet Tauchroboter realitätsnah und
witterungsunabhängig in großem Salzwasserbecken
3,4 MILLIONEN LITER SALZWASSER fasst das
neue Testbecken für Robotik-Forschung. Bild: DFKI
Das Deutsche Forschungszentrum für Künstliche Intelligenz
(DFKI) hat in Bremen seine Maritime Explorationshalle
eröffnet. Kernstück der europaweit
einmaligen Testanlage für Tauchroboter ist ein 3,4 Mio.
Liter fassendes Salzwasserbecken. Hier entwickeln
Wissenschaftler künftig Systeme, die zur Inspektion
von Schiffen und Pipelines, zur Erkundung unbekannter
Gewässer oder zur Reparatur von Offshore-
Anlagen wie Windparks eingesetzt werden. Ein weiteres
Anwendungsfeld ist das Erschließen von Bodenschätzen
und Energiereserven aus der Tiefsee.
Das 23 Meter lange, 19 Meter breite und acht Meter
tiefe Salzwasserbecken schafft dafür ideale Forschungs-
bedingungen, denn: „Testläufe sind von der Witterung
unabhängig, kontrollier- und beobachtbar und vor allem
realitätsnah“, erläutert Professor Dr. Frank Kirchner,
Standortleiter des DFKI in Bremen und Direktor des
Forschungsbereichs Robotics Innovation Center. Zusätzliche
Labore komplettieren die neue Halle. Darunter
sind eine Druckkammer, in der Komponenten bei
Wasserdrücken geprüft werden, die bis zu 6000 Meter
Tiefe entsprechen, weitere separate Wasserbassins und
eine virtuelle 3D-Testumgebung.
Mit der neuen Anlage erweitert das DFKI in Bremen
seine Laborlandschaft, die bereits seit 2010 über eine
Weltraum-Explorationshalle verfügt. Hier werden Roboter
für Einsätze im All entwickelt und getestet. Beide
Anwendungsfelder haben Gemeinsamkeiten: Sowohl
unter Wasser als auch im Weltraum herrschen harsche
Bedingungen, die spezielle Herausforderungen an autonom
handelnde Roboter stellen, darunter Schwerelosigkeit,
eingeschränkte Kommunikations- und Sichtmöglichkeiten.
Ziel ist es, Erkenntnisse aus der Weltraumtechnik,
die bereits seit 2006 intensiv erforscht
wird, in maritime Technologien zu übertragen. Rund
3,65 Mio. Euro wurden aus dem Europäischen Fonds für
regionale Entwicklung (EFRE) und aus Mitteln des Landes
Bremen für den Neubau zur Verfügung gestellt. Das
DFKI kofinanzierte vier Mio. Euro.
(gz)
DEUTSCHES FORSCHUNGSZENTRUM FÜR
KÜNSTLICHE INTELLIGENZ GMBH, DFKI,
Trippstadter Straße 122, D-67663 Kaiserslautern,
Tel. +49 (0) 631 20 57 50, Internet: www.dfki.de
Call for atp experts: System-of-Systems Automation
IN AUSGABE 56(12) DER ATP EDITION im
Dezember 2014 diskutiert die atp edition
die Standardisierung von Modulen und
die Komposition von neuen Systemen aus
bestehenden Systemen. Dieser Ansatz
stellt einen Weg dar, um höhere Engineering-Effizienz
und geringere Kosten
durch Skaleneffekte zu erzielen.
Die Ingenieurkunst bei dieser Aufgabe
liegt nun darin, anstatt jedes Mal aus
dem Vollen zu schnitzen die richtigen
Systeme auszuwählen und diese mit minimalem
Aufwand zu einem Gesamtsystem
zusammenzustellen. Insbesondere
in der Automobilindustrie, im Schiffbau
und in der Kraftwerksindustrie wird dieser
Lösungsweg erfolgreich eingeschlagen.
In Ausgabe 56(12) wollen wir einen
aktuellen Blick auf wissenschaftliche
Grundlagen werfen und Ihre Lösungsansätze
und praktischen Erfahrungen vorstellen.
Wir bitten Sie, bis zum 8. August zu diesem
Themenschwerpunkt einen gemäß
der Autorenrichtlinien der atp edition
ausgearbeiteten Hauptbeitrag per E-Mail
an urbas@di-verlag.de einzureichen.
Die atp edition ist die hochwertige Monatspublikation
für Fach- und Führungskräfte
der Automatisierungsbranche. In
den Hauptbeiträgen werden die Themen
mit hohem wissenschaftlichem und technischem
Anspruch und vergleichsweise
abstrakt dargestellt. Im Journalteil werden
praxisnahe Erfahrungen von Anwendern
mit neuen Technologien, Prozessen
oder Produkten beschrieben. Alle Beiträge
werden von einem Fachgremium begutachtet.
Sollten Sie sich selbst aktiv an
dem Begutachtungsprozess beteiligen
wollen, bitten wir um kurze Rückmeldung.
Für weitere Rückfragen stehen wir
Ihnen selbstverständlich gerne zur Verfügung.
Redaktion atp edition
Leon Urbas, Aljona Hartstock,
Gerd Scholz
CALL FOR
Aufruf zur Beitragseinreichung
Thema: System-of-Systems Automation
Kontakt: urbas@di-verlag.de
Termin: 08. August 2014
6
atp edition
6 / 2014
Skalierbare Steuerungstechnik
Offen ‒ Flexibel ‒ Kompakt
PERSPECTO ® -Control-Panel
PFC200
Programmierbare
Feldbuscontroller
• Unterstützung der gängigsten Feldbusprotokolle & ETHERNET-Standards
• Konfigurieren und visualisieren per integriertem Web-Server
• Programmierbar mit CODESYS gemäß IEC 61131-3
• Hohe Sicherheit durch SSH und SSL möglich
• Integriert in das WAGO-I/O-SYSTEM 750 – modular, kompakt, vielfältig
www.wago.com
VERBAND
Westerkamp koordiniert VDI-Fachgesellschaften
– GMA bekommt einen neuen Geschäftsführer
Dipl.-Ing. Dieter Westerkamp hat die Leitung
des Bereichs „Technik und Wissenschaft“
im VDI übernommen. Er folgt damit
auf Volker Wanduch, der nach 35 Jahren im
DIETER WESTER- VDI altersbedingt ausscheidet. An wen Dieter
Westerkamp seine bisherige Aufgabe als
KAMP: Als VDI-
Bereichsleiter Geschäftsführer der VDI/VDE-Gesellschaft
für Wissenschaft Mess- und Automatisierungstechnik (GMA)
und Technik abgibt, war bis Redaktionsschluss dieser
koordiniert er nun Ausgabe der atp edition noch nicht bekannt.
unter anderem die Westerkamp ist Ingenieur der Elektrotechnik
und wechselte 1998 nach beruf-
zwölf Fachgesellschaften.
Bild: VDI lichen Stationen im Anlagenbau zum VDI.
Hier begann er als Wissenschaftlicher Mitarbeiter
in der VDI/VDE-Gesellschaft Mess- und Automatisierungstechnik
(GMA), deren Geschäftsführung
er 2002 übernahm. Im weiteren Verlauf wurden
ihm im VDI Tätigkeiten als Abteilungsleiter und als
Stellvertreter des Bereichsleiters „Technik und Wissenschaft“
übertragen.
Zu seinen Aufgaben gehört die Koordination der Aktivitäten
der zwölf VDI-Fachgesellschaften mit ihren
großen Netzwerken von etwa 10.000 ehrenamtlich tätigen
Experten aus Wirtschaft, Wissenschaft und Verwaltung.
In rund 600 Fach- und Richtlinienausschüssen
erfolgt für alle Beteiligten ein wertvoller Wissens- und
Erfahrungstransfer. Ein einzigartiges Know-how wird
dort gebündelt. Die Ergebnisse der Gremientätigkeit münden
unter anderem jährlich in über 230 VDI-Richtlinien,
die den aktuellen Stand der Technik wiedergeben und
eine wichtige Unterstützung und Entscheidungsgrundlage
für die Arbeit von Ingenieuren darstellen. (gz)
VDI – VEREIN DEUTSCHER INGENIEURE E.V.,
VDI-Platz 1, D-40468 Düsseldorf,
Tel. +49 (0) 211 621 40, Internet: www.vdi.de
Profibus-Nutzer bestätigen Vorstand und Beirat
Vorstand und Beirat der Profibus-Nutzerorganisation
(PNO) bleiben nahezu unverändert. Die Mitgliederversammlung
bestätigte die drei Vorstandsmitglieder für
weitere drei Jahre in ihren Ämtern: den Vorstandsvorsitzenden
Karsten Schneider (Siemens AG) sowie als weitere
Vorstandsmitglieder Klaus-Peter Lindner (Endress + Hauser
Process Solutions) und Prof. Dr. Frithjof Klasen (Institut
Automation & Industrial IT, AIT) der FH Köln.
Wiedergewählt wurden ebenfalls die Beiräte Dr. Thomas
Albers (Wago), Christoph Behler (Mitsubishi Electric),
Jürgen George (Pepperl+Fuchs), Uwe Gräff (Festo),
Ernst Jäger (Emerson), Martin Müller (Phoenix Contact)
sowie Gerhard Mutter (Sick). Neu aufgenommen in den
Beirat wurde Henk van der Bent von Yokogawa.
Der Beirat steuert technische Ausrichtung und Weiterentwicklung
von Profibus, Profinet und IO-Link. Die
Beiräte werden in ihrer Arbeit durch die Leiter der sechs
Technical Committees der PNO unterstützt. (gz)
PROFIBUS-NUTZERORGANISATION,
Haid-und-Neu-Straße 7, D-76131 Karlsruhe,
Tel. +49 (0) 721 965 85 90, Internet: www.profibus.com
8
Der Zusammenschluss von Fieldbus Foundation
und Hart Communication Foundation rückt näher
Der Zusammenschluss der Fieldbus Foundation mit
der Hart Communication Foundation rückt offenbar
in Reichweite. Die Fieldbus Foundation verkündete
jüngst, die Verhandlungen über eine Fusion seien erheblich
vorangekommen.
Beide Organisationen hatten im September ein Memorandum
of Understanding unterzeichnet. Seither haben
Teams beider Seiten die Aspekte des möglichen Zusammenschlusses
diskutiert. Untersucht werden dabei mögliche
Vorteile für Endnutzer, Zulieferer und die beiden
Organisationen selbst, mögliche Strukturen einer fusionierten
Organisation sowie die finanziellen und rechtlichen
Aspekte. Erste Ergebnisse ließen den Zusammenschluss
als sinnvoll erscheinen.
Wenn die Arbeitsgruppen ihre Untersuchungen beendet
haben, sollen sie den Vorständen beider Organisati-
atp edition
6 / 2014
onen einen Ergebnisbericht und Empfehlungen vorlegen.
Fieldbus- und Hart-Vorstände entscheiden dann
separat über die Fortführung der Fusionsbemühungen.
Fieldbus Foundation und Hart Communication Foundation
kennen sich schon lange aufgrund intensiver
Zusammenarbeit. Beispielsweise kooperierten beide bei
Entwicklung gemeinsamer internationaler Standards
wie der Electronic Device Description Language (EDDL)
und zuletzt bei der Spezifikation für die Field Device
Integration (FDI).
(gz)
FIELDBUS FOUNDATION,
9005 Mountain Ridge Drive, Bowie Bldg – Suite 200,
Austin, TX 78759-5316, USA,
Tel. +1 (0) 512 794 88 90,
Internet: www.fieldbus.org
Die Referenzklasse für die
Automatisierungstechnik
www.atp-edition.de
atp edition ist das Fachmagazin für die Automatisierungstechnik.
Die Qualität der wissenschaftlichen Hauptbeiträge
sichert ein strenges Peer-Review-Verfahren. Bezug
zur automatisierungstechnischen Praxis nehmen außerdem
die kurzen Journalbeiträge aus der Fertigungs- und
Prozessautomatisierung.
Sichern Sie sich jetzt diese erstklassige Lektüre! Als exklusiv
ausgestattetes Heft oder als praktisches ePaper – ideal für
unterwegs, auf mobilen Endgeräten oder zum Archivieren.
Wählen Sie einfach das Bezugsangebot, das Ihnen zusagt:
• Heft
• ePaper
• Heft + ePaper
25% ersten Bezugsjahr
Rabatt im
atp edition erscheint in der DIV Deutscher Industrieverlag GmbH, Arnulfstr. 124, 80636 München
WISSEN FÜR DIE
ZUKUNFT
Vorteilsanforderung per Fax: +49 Deutscher 931 Industrieverlag / 4170-494 GmbH | Arnulfstr. oder 124 abtrennen | 80636 München und im Fensterumschlag einsenden
Ja, ich möchte atp edition regelmäßig lesen und im ersten Bezugsjahr 25 % sparen.
Bitte schicken Sie mir die Fachpublikation für zunächst ein Jahr (10 Ausgaben)
als Heft für € 389,25 zzgl. Versand
(Deutschland: € 30,- / Ausland: € 35,-).
als ePaper (Einzellizenz) für € 389,25
als Heft + ePaper für € 536,03
inkl. Versand (Deutschland) / € 541,03 (Ausland).
Alle Preise sind Jahrespreise und verstehen sich inklusive Mehrwertsteuer. Nur wenn ich nicht bis 8 Wochen
vor Bezugsjahresende kündige, verlängert sich der Bezug zu regulären Konditionen um ein Jahr.
Firma/Institution
Vorname, Name des Empfängers
Straße / Postfach, Nr.
Land, PLZ, Ort
Antwort
Leserservice atp
Postfach 91 61
97091 Würzburg
Telefon
E-Mail
Branche / Wirtschaftszweig
Telefax
Widerrufsrecht: Sie können Ihre Vertragserklärung innerhalb von zwei Wochen ohne Angabe von Gründen in Textform (z.B.
Brief, Fax, E-Mail) oder durch Rücksendung der Sache widerrufen. Die Frist beginnt nach Erhalt dieser Belehrung in Textform. Zur
Wahrung der Widerrufsfrist genügt die rechtzeitige Absendung des Widerrufs oder der Sache an den Leserservice atp, Postfach
9161, 97091 Würzburg.
✘
Ort, Datum, Unterschrift
PAATPE2014
Nutzung personenbezogener Daten: Für die Auftragsabwicklung und zur Pflege der laufenden Kommunikation werden personenbezogene Daten erfasst und gespeichert. Mit dieser Anforderung erkläre ich mich damit einverstanden,
dass ich vom DIV Deutscher Industrieverlag oder vom Vulkan-Verlag per Post, per Telefon, per Telefax, per E-Mail, nicht über interessante, fachspezifische Medien und Informationsangebote informiert und beworben werde.
Diese Erklärung kann ich mit Wirkung für die Zukunft jederzeit widerrufen.
BRANCHE
Sensorik und Messtechnik optimistisch: 2014 soll
erneut ein Plus von sieben Prozent erzielt werden
Die Unternehmen der Sensorik und Messtechnik gehen
mit breiter Brust in die Messe Sensor + Test Anfang
Juni in Nürnberg. Die Branche hat in den vergangenen
knapp zehn Jahren ein enormes Wachstum erlebt
– und rechnet für 2014 mit einer Fortsetzung des positiven
Trends. Trotz des Einbruchs von 2009 ergibt sich
im Mittel seit 2005 ein jährliches Plus von 6,3 Prozent.
„Die Geschäftserwartungen unserer Mitglieder stehen
auf Wachstum“, fasst Thomas Simmons, Geschäftsführer
des AMA Verband für Sensorik und Messtechnik,
die aktuelle Branchenauswertung zusammen. „Eine
‚Industrie 4.0‘ ist ohne intelligente Sensoren und Mess-
Umsatz Sensorik und Messtechnik
Jahreswerte, Vergleich mit 2005 (Index 100%)
180%
160%
140%
120%
100%
2008
2009
zum Vergleich:
+6,3% pro Jahr
2005 2006 2007 2008 2009 2010 2011 2012 2013 2014
DER GIPFELSTURM
GEHT WEITER:
Die Branche hat den
Einbruch von 2009
komplett wettgemacht.
Quelle: AMA Verband für
Sensorik und Messtechnik
technik nicht umsetzbar, nicht zuletzt deshalb blickt
unsere Branche zuversichtlich auf das laufende Geschäftsjahr.“
Aus einer Umfrage des AMA unter seinen Mitgliedern
ergibt sich, dass der Branchenumsatz 2013 um drei Prozent
zulegte. Für das laufende Jahr erwarten die AMA-
Mitglieder ein weiteres, deutliches Umsatzwachstum
von sieben Prozent.
Sehr hoch liegt die Quote der Forschungs- und Entwicklungsausgaben
bei den Unternehmen der Sensorik
und Messtechnik. Die überwiegend mittelständischen
Unternehmen investieren zehn Prozent des Umsatzes in
Forschung und Entwicklung. Die Exportquote der AMA
Mitglieder stabilisierte sich 2013 mit 40 Prozent auf Vorjahresniveau.
Exporte ins europäische Ausland stiegen
wieder um drei Prozentpunkte auf 25 Prozent an. Die
Exportquote ins nicht europäische Ausland sank um
zwei Prozentpunkte auf 17 Prozent.
Die Branche investiert und steigerte die Investitionen
im letzten Jahr um weitere drei Prozent, für das Geschäftsjahr
2014 rechnen AMA-Mitglieder mit einem
Investitionsanstieg von acht Prozent. Auch die Zahl der
Mitarbeiter dürfte weiter zunehmen.
(gz)
AMA FACHVERBAND FÜR SENSORIK E.V.,
Sophie-Charlotten-Str. 15,
D-14059 Berlin,
Tel. +49 (0) 30 221 90 36 20,
Internet: www.ama-sensorik.de
10
Elektrische Automation erhofft leichtes Plus –
Prozessautomatisierer wachsen gegen den Trend
Die deutsche Automatisierungsindustrie geht von einer
Rückkehr zu leichtem Wachstum im laufenden
Jahr aus, nachdem man 2013 eine Stagnation erlebte. Die
Teilbranche Prozessautomatisierung allerdings konnte
im vorigen Jahr mit einem Plus von 2,8 Prozent besser
abschneiden. Daniel Huber, im Vorstand des ZVEI-Fachverbands
Automation für diese Technologie zuständig,
berichtet: „Nach dem starken Wachstum in den USA
durch die Fracking-Technologie in den zurückliegenden
Jahren, betrug der Umsatz-Zuwachs 2013 dort nur noch
0,5 Prozent. Nur das Geschäft mit China konnte 3,7 Prozent
Wachstum generieren.“
„Die gesamte Elektroindustrie erwartet 2014 etwa
zwei Prozent Wachstum. Von der Automation glauben
wir, dass sie noch eine Schippe drauflegen kann“, gab
sich Dr.-Ing. Gunther Kegel, Vorstandsvorsitzender des
ZVEI-Fachverbands Automation, vorsichtig optimistisch.
Der Umsatz mit elektrischer Automatisierungstechnik
ist im gesamten Jahr 2013 um 0,3 Prozent auf
47,5 Milliarden Euro zurückgegangen.
Der Export konnte 2013 um 2,2 Prozent auf 33,1 Milliarden
Euro zulegen nach plus 3,8 Prozent im Jahr zuvor.
atp edition
6 / 2014
Die Exportquote der deutschen Automatisierungsindustrie
liegt damit weiterhin über 80 Prozent. „Die stärksten
Exportmärkte waren China mit 13 Prozent und die USA
mit elf Prozent Anteil. Beide kamen auf ein Wachstum
von jeweils sechs Prozent“, so Kegel.
Die Importe von elektrischer Automatisierungstechnik
sind um 3,8 Prozent auf 17,7 Milliarden Euro gewachsen.
Das Wachstum der Einfuhren aus China betrug
8,4 Prozent auf 1,6 Milliarden Euro. Der überwiegende
Teil davon sind laut ZVEI ‚Inter-Company-Importe‘ deutscher
Unternehmen. Risiken für die Automatisierungskonjunktur
sieht Kegel im Konflikt um die Ukraine.
Bereits jetzt verschöben oder stornierten russische Unternehmen
Investitionen. 2013 exportierte die Automationsbranche
Produkte für eine Milliarde Euro nach
Russland und der Bestand an Direktinvestitionen liegt
bei 1,2 Milliarden Euro.
(gz)
ZVEI – ZENTRALVERBAND ELEKTROTECHNIK- UND
ELEKTRONIKINDUSTRIE E.V.,
Lyoner Straße 9, D-60528 Frankfurt am Main,
Tel. +49 (0) 69 630 20, Internet: www.zvei.org
Leitplanken für Industrie 4.0: Verbände wollen
das Internet der Dinge geordnet aufs Gleis setzen
Das Zukunftsthema Industrie 4.0 wollen mehrere Verbände
nicht dem Zufall überlassen, sondern in erfolgversprechende
Bahnen lenken. Um die Diskussion voranzubringen,
hat etwa der VDI kürzlich drei Statusberichte
zu Wertschöpfungsketten, Komponenten und Referenzmodellen
zum Thema Industrie 4.0 in Deutschland
veröffentlicht. Die VDI/VDE-Gesellschaft Mess- und
Automatisierungstechnik (GMA) hebt in diesem Zusammenhang
hervor, damit Industrie 4.0 Realität werde,
müssten die richtigen Voraussetzungen geschaffen werden.
Es seien globale Standards notwendig. Den weltweiten
Wettlauf werde jenes Land gewinnen, das die beste
Strategie sowie nutz- und gewinnbringende Ideen für
Geschäftsmodelle präsentiere. Ob Deutschland in Zukunft
die Nase vorn haben werde, sei eine Frage der
schnellen Umsetzung, der gemeinsamen Überwindung
von Herausforderungen wie Standardisierung, sichere
IT-Strukturen sowie geeignete Businessmodelle. Unter
www.vdi.de/industrie40 stehen die Reporte zur Einsicht
bereit. Die Statusberichte „Industrie 4.0 – IT Security“
und „Industrie 4.0 – Leitsystem“ sollen noch 2014 folgen.
Die Experten der DKE arbeiteten beim Industrial Automation
Forum der International Electronic Commission
(IEC) mit Kollegen aus der ganzen Welt an grundlegenden
Standards für das industrielle Internet der
Dinge. Entscheidend für die Realisierung von Industrie
4.0, so betont man bei der DKE, werde die Fähigkeit etwa
von Produkten oder Maschinen sein, in einer vernetzten
Umgebung Informationen über sich zu liefern. Hierfür
sei es notwendig, dass für alle Einheiten des Produktionsprozesses
Merkmale hinterlegt sind, die sie eindeutig
identifizieren. Die Experten arbeiteten daher weiter an
der internationalen Normenreihe IEC 61987, die im Hinblick
auf die Semantik die nötigen Festlegungen liefert.
Ebenfalls diskutiert wurde die internationale Norm
IEC 62541 zum Software-Schnittstellen-Standard OPC
UA (Unified Architecture) als Middleware-Lösung der
Industrieautomation. Sie ermöglicht die Kommunikation
zwischen Programmen und Geräten und normt hier-
für Dienste die sich für Industrie 4.0 sehr gut eignen.
Zudem gingen die Experten das Auseinanderklaffen der
Lebenszyklen von Software und Anlagen in einer Industrie-4.0-Umgebung
an. Mit der künftigen IEC 62890 zum
Life-Cycle-Management wollen sie die Grundlage für
vertragliche Vereinbarungen liefern, mit denen sich Anlagenbetreiber
üblicherweise vor Nachrüstungen oder
Re-Engineering-Maßnahmen in Maschinen und Anlagen,
die allein aufgrund eines Softwarewechsels notwendig
werden, schützen wollen.
Zudem haben DKE und ETSI (European Telecommunications
Standards Institute) eine Zusammenarbeit im
Bereich Industrie 4.0 beschlossen. Im Rahmen der Kooperation
könnte ETSI Spezifikationen im Bereich der
Kommunikation beistellen, die etwa IEC-Komitees über
eine noch festzulegende Schnittstelle nutzen. ETSI will
bis zum Sommer kommunikationsbezogene Spezifikationen
für die Weiterentwicklung der deutschen Normungroadmap
über Industrie 4.0 identifizieren. (gz)
DKE: www.dke.de
GMA: www.vdi.de; www.vdi.de/industrie40
IEC: www.iec.ch
DIE VORTEILE VON
INDUSTRIE 4.0
werden sich nur
umfassend nutzen
lassen, wenn dafür
die Voraussetzungen
wie etwa akzeptierte
Normen geschaffen
werden.
Bild: Thomas Ernsting/LAIF
VDI/VDE-Richtlinienentwurf: Praxistipps für die
Nutzung berührungsloser Temperaturmesstechnik
Wenn Temperaturen berührungslos zur Prozesskontrolle
oder -regelung gemessen werden müssen,
kommen Strahlungsthermometer zum Einsatz.
Im Richtlinienentwurf VDI/VDE 3511 Blatt 4.5 gibt der
Fachausschuss 2.51 Angewandte Strahlungsthermometrie
der VDI/VDE-Gesellschaft Mess- und Automatisierungstechnik
(GMA) nun Anleitungen für die Praxis.
Unter dem Titel „Technische Temperaturmessung;
Strahlungsthermometrie; Praktische Anwendung von
Strahlungsthermometern“ wird etwa beschrieben, wie
Medien zwischen dem Messobjekt und Thermometer,
die Messfeldgröße und die Einstellzeit des Thermome-
ters die Messgenauigkeit beeinflussen. Es werden auch
Hinweise zur Auswahl des geeigneten Wellenlängenbereichs
für die Messung gegeben. Nach der sechsmonatigen
Einspruchsfrist und der Behandlung etwaiger
Einsprüche, die die gesamte interessierte Öffentlichkeit
erheben kann, wird die Richtlinie als zweisprachige
Fassung in Deutsch und Englisch veröffentlicht. (gz)
VDI/VDE-GESELLSCHAFT MESS- UND
AUTOMATISIERUNGSTECHNIK (GMA),
VDI-Platz 1, D-40468 Düsseldorf,
Tel. +49 (0) 211 621 40, Internet: www.vdi.de
atp edition
6 / 2014
11
PRAXIS | SENSORTECHNIK
Embedded-Messsysteme für Oberflächen und
Fluide: Farbsensoren bieten viele Möglichkeiten
Methode muss passend zu den Eigenschaften der zu untersuchenden Substanz gewählt werden
Bei der Entwicklung von Embedded-Farbmesssystemen
ist es wichtig zu wissen, welche Messgenauigkeit
und Systemelektronik benötigt wird. Soll es ein
Handheld-Gerät oder ein Inline-System sein? Dieser
Beitrag zeigt, wie fluid- oder farbstoffbasierte Anwendungen
von intelligenten Messsystemen und -aufbauten
profitieren können.
Bei der Farbmessung ist es je nach Anwendung wichtig
zu wissen, wie genaue Messwerte ohne Drifteffekte
erzielt werden können. Farbmessung und Farbwahrnehmung
beruhen auf drei Variablen: Objekt, Licht,
Beobachter.
‚Weißes Licht‘ wird oft als farblos wahrgenommen,
aber in Wirklichkeit beinhaltet es alle Farben des sichtbaren
Spektrums. Wenn weißes Licht ein Objekt erreicht,
wird nur eine ausgewählte Menge an Farbe blockiert
beziehungsweise reflektiert. Was bleibt, ist die
Farbe, die wahrgenommen wird.
Wenn eine oder mehrere Variablen sich ändern,
kann Farbe anders wahrgenommen werden. Diese Variablen
können bei einem Projekt hilfreich sein oder
ein technologisches Hindernis darstellen. Deshalb ist
es wichtig, den gesamten Messaufbau zu bewerten,
bevor ein allgemeiner technologischer Ansatz ausgewählt
wird.
Änderungen der Variablen können beabsichtigt sein,
um die Werte für die statistische Auswertung verwenden
zu können (siehe Regressionsanalyse). Diese Methode
schätzt die Beziehungswerte zwischen den Variablen
ein und ermöglicht Rückschlüsse, die auf Unterschieden
in Farbe und Spektrum basieren. Selbst bei
scheinbar farblosen Objekten oder Flüssigkeiten lassen
sich deren spezifische Eigenschaften über das hyperspektrale
Verfahren analysieren.
So kann der Ausgabewert der jeweiligen Applikation
stark abweichen, wenn sich beispielsweise der Einfallswinkel
verschiebt oder die Verwendung des Beobachters
(Detektors) verändert wird.
Im Folgenden werden Anwendungsbeispiele zur Qualitätskontrolle
sowie der Automatisierungs-, Lebensmittel-
und Verarbeitungsindustrie genauer betrachtet.
Was mit True-Color-Sensoren (XYZ-Sensoren mit
Normspektralwertfunktion) oder Multi-Spektral-Sensoren
(Quasi-Spektrale-Sensoren) möglich ist, wird
anhand von Messwerten und Genauigkeiten gezeigt.
GLUKOSE, PH UND CHEMIKALIEN
Die häufigsten Messungen in Bio-Analytik, Qualitätsmanagement,
Lebensmittelverarbeitung oder der medizinischen
Industrie sind Glukose- oder pH-basiert.
Das Pyranoseoxidase-Verfahren wird für Glukosemessungen
mit Farbsensoren genutzt. Für diesen auf
Transmission basierenden Testaufbau wurden Glukosemessungen
über indirekte Bestimmung durchgeführt.
Dabei wurde ABTS als Redox-Indikator für den
sichtbaren Spektralbereich verwendet. Der Anteil des
einfallenden Lichts bei einer bestimmten Wellenlänge
ließ sich so messen.
Einige der untersuchten Substanzen waren farblos
und wurden zum Beispiel via Fluoreszenz-Verfahren
gemessen. Farblose Chemikalien reagieren bei diesem
Verfahren unterschiedlich bei bestimmten Wellenlängen
und lassen sich somit analysieren. Als Indikator
wurde ABTS verwendet. Er bewirkt, dass die gemessenen
Substanzen zu einem grünen Farbbereich
reagieren.
Mit dem Testaufbau wurden außerdem Glukose-Messungen
von Softdrinks vorgenommen. Der Glukose-
Anteil bei Cola und Sprite beträgt etwa 95+ mg/l, bei
Eistee 50+ mg/l und fast 40 mg/l bei Fruko, einem regionalen
Erfrischungsgetränk aus der Türkei.
Mit Handheld-Geräten können Proben unterwegs
analysiert werden. Um eine Messung einzuleiten, wird
eine Zero-Messung der Probe durchgeführt. Es wird der
entsprechende Indikator zugegeben, eine zweite Messung
ermöglicht eine genaue Bestimmung der Probenzusammensetzung.
Mit dieser Methode lassen sich nicht nur Glukoseoder
pH-Werte ermitteln, sondern auch andere chemische
Zusammensetzungen in den Proben. Zum Beispiel
Chlor, Kupfer, Nitrit oder Phosphat.
Bei der pH-Wertermittlung mittels Absorptionsmessung
wurden Genauigkeitswerte im Bereich von 0,1
erzielt. Wenn das Prinzip der Absorptionsmessung
nicht genau genug ist, können die Ergebnisse mit Hilfe
von Fluoreszenz-Messungen verbessert werden. Im
Testaufbau gelang es, Rodamin 6G und Cumarin 1 mit
einer Genauigkeit von 10-6 mol/l zu messen. Bei einer
Schichtdicke von 200 µm Toluidinblau konnte eine
Konzentration von 10 µmol detektiert werden.
SPRIT UND MINERALÖLE
Kraftstoffe und Erdölerzeugnisse sind meist strengen
Regulierungen der internationalen Industrie unterzogen.
Die Farbe des Kraftstoffs oder Petroleums ist ein
Indikator für verschiedene Elemente, beispielsweise
Steuerklassen oder Nutzungsdomänen.
Die ASTM D1500, Pt-Co- oder Gardner-Farb skalen
beschreiben Farbunterschiede von gelb-weißlich bis
dunkel-orange-braun.
Die Norm ASTM D 6045 beschreibt das Normspektral-Wertmessverfahren
von Saybolt und ASTM Farben.
Die Farbpalette ähnelt jener im Bild rechts (Erdöl-Farbtafel).
Die Saybolt-Farbskala wird zur Einstufung
von hellen Erdölprodukten, einschließlich Flugkraftstoffen,
Kerosin sowie Naphtha, Weißölen oder
Kohlenwasserstoffen verwendet. Die ASTM-Farbskala
wird hingegen für dunklere farbige Erdölprodukte
eingesetzt. Es ist eine komplexe Aufgabe, den Unterschied
zwischen einzelnen Saybolt-Proben zu messen,
da die Farbunterschiede mit dem menschlichen
Auge oft kaum sichtbar sind.
12
atp edition
6 / 2014
MnO 4
0,55mg/l 11
pH
11,5
NH 4
0,05mg/l
MITTELS FARBMESSUNG
lassen sich selbst
scheinbar farblose
Substanzen bestimmen.
QUASISPEKTRUM
VON RODAMIN 6G
(absorptions- und
emmissionsbasierend).
Bilder: Mazet
SOFTDRINK-GLUKOSEMESSUNGEN
via Farbsensoren.
BEISPIELHAFTE
DARSTELLUNG
einer üblichen
Erdöl-Farbtafel.
NORMSPEKTRALWERTANALYSE von Saybolt-Proben.
Bei einem spezifischen Testaufbau sind die Sensoren
in der Lage, selbst feine Farbunterschiede zu erkennen.
Um jedoch die besten Ergebnisse in Flüssigkeitsmessungen
oder anderen auf Flüssigkeit basierenden Anwendungen
zu erreichen, sollten die mathematischen
Algorithmen hinter dem Detektionsprozess optimiert
werden. So können spektrale Informationen mit hoher
Genauigkeit erfasst werden.
Dabei können Simulationen von komplexen Nachweismethoden
helfen. Der Algorithmus der Partikelschwarm-Optimierung
betrachtet zum Beispiel die
bekannten Eigenschaften der verwendeten Farbsen-
atp edition
6 / 2014
13
PRAXIS | SENSORTECHNIK
soren. Mithilfe solcher Optimierungsverfahren lassen
sich Unterschiede zwischen scheinbar gleichfarbigen
Flüssigkeiten detektieren.
Die folgenden Messungen zeigen die Farbkoordinaten
von mehreren gemessenen Flüssigkeitsproben im Saybolt-Bereich
innerhalb des CIE-Farbraums. Die Bereichswerte
sind in der Norm festgelegt und zeigen, wie
genau ein Farberkennungssystem sein muss, um die
gegebene Norm zu erfüllen.
DRUCKINDUSTRIE
Die Druckindustrie hat hohe Ansprüche an Farben und
deren Reproduzierbarkeit. Was passiert, wenn die Corporate-Farben
sich während einer Inline-Produktion
ändern? Wird die Produktion in dieser Zeit angehalten
werden? Kostet jeder Druckfehler zusätzlich Geld?
Ziel war es, einen Testaufbau zu entwerfen, der
absolute Farbwerte für Druckfarben liefert. Die gemessenen
Werte wurden mit den Referenzwerten
eines Spektrometers verglichen, um die erforderliche
Zielgenauigkeit bewerten zu können. Ein Vorteil von
Multi-Spektral-Sensoren ist die höhere Genauigkeit
und die Möglichkeit, spektrale Näherungsverfahren
verwenden zu können. Wenn die Druckfarben bekannt
sind, können Ergebnisse durch Kalibrierung
der spezifischen Farben verbessert werden. Eine absolute
Genauigkeit von ∆E00
CYAN-DRUCKFARB-BEISPIEL nach
Optimierung bei einem Wert von ∆E00 = 0,25.
BEISPIELHAFTE PROBENMESSREIHE
im CIE1931-Farbraum.
schiedliche Anwendungsbereiche zu entwickeln. Die
kompakte Baugröße ermöglicht den Einsatz in mobilen
Geräten oder engen Umgebungen. Es ist notwendig zu
wissen, welche Art von Detektor im Testaufbau eingesetzt
wird und wie die Messungen durchgeführt werden
sollen.
Die Wahl der richtigen Messmethode (Emission, Remission,
Transmission) ist für eine genaue Bewertung
von verschiedenen Substanzen oder Elementen sehr
wichtig. Zum Beispiel reagieren Flüssigkeiten anders
als feste Objekte, Reflexion oder Fluoreszenz erfordern
einen veränderten Messaufbau.
Die Messungen bestätigen, dass die Farbwahrnehmung
nicht mit üblichen physikalischen Größen wie
Spannung, Druck oder Dichte verglichen werden kann.
Da die Hauptvariablen der Farberkennung sich applikativ
stark unterscheiden (Objekt, Licht und Beobachter),
sollten Farbmessaufgaben auf die jeweilige Anwendung
optimiert und kalibriert werden. Definierte Referenzoder
Zielwerte müssen gesetzt werden, um das spezifische
∆E00 von Farbkoordinaten in bestimmten Farbräumen
zu vergleichen.
Bei allen Messungen konnte die Genauigkeit der Werte
durch Einsatz von intelligenten Optimierungsprozessen
und Algorithmen gesteigert werden.
AUTOREN
M.A. KEVIN
JENSEN ist
zuständig für
International
Sales &
Marketing bei
Mazet in Jena.
Dipl.-Inf. (FH)
MICHAEL
GÖPFERT ist
Application
Engineer bei
Mazet in Jena.
B. Eng.
PAUL-GERALD
DITTRICH ist
Netzwerkmanager
bei
SpectroNet in
Jena.
Mazet GmbH,
Göschwitzer Straße 32, D-07745 Jena,
Tel. +49 (0) 3641 28 09 47, E-Mail: kevin.jensen@mazet.de
atp edition
6 / 2014
15
PRAXIS | SENSORTECHNIK
Intelligent und effizient: Temperaturmessung mit
Grenzwertschaltern schützt Mensch und Anlage
Überwachung elektrischer Maschinen mit Interfacemodulen als Alternative zu Prozessleitsystemen
MODULE DES K-SYSTEMS werden auf
dem Power Rail montiert – redundante
Versorgung und Sammelfehlermeldung
inklusive.
Bilder: Pepperl+Fuchs
z. B.
PT100
*-GUT-*
DAS INTERFACEMODUL
überwacht die Temperatur
mit einer Dreileitermessung
und schaltet
beim Überschreiten
eines Grenzwertes ein
Relais am Ausgang.
Elektrische Maschinen sind aus der Automatisierungstechnik
nicht wegzudenken. Vor allem als
Antriebe beispielsweise für Förderschnecken und -bänder
sowie für Pumpen erfüllen sie elementare Funktionen.
Ausfall, Überlastung oder Fehlfunktion von elektrischen
Maschinen können in der Prozessindustrie
weitreichende Auswirkungen haben. Daher sind Überwachungskonzepte
erforderlich, die sicherheitsrelevante
Störungen erkennen und Maschinen abschalten
können. Diese Aufgabe müssen nicht zwingend Prozessleitsysteme
oder SPSen übernehmen. Eine wirtschaftliche
Lösung lässt sich auch durch den Einsatz
von Trennbausteinen mit Grenzwertrelais realisieren.
FEHLFUNKTIONEN STELLEN GEFAHREN
FÜR MENSCH UND ANLAGE DAR
Die Auswirkungen der Fehlfunktionen elektrischer
Maschinen können beachtlich sein. Die falsche Drehrichtung
einer Welle aufgrund einer umgekehrten Phasenfolge
am Motor führt dazu, dass Transportgut auf
Bändern oder Schnecken in die falsche Richtung befördert
wird. Eine zu hohe Drehzahl kann zu mechanischen
Schäden der Wellenlager führen. Werden Synchronmaschinen
beispielsweise bei Inselnetzen zu
stark belastet, droht die Gefahr eines Stillstandes. Die
Überhitzung von Komponenten aufgrund mechanischer
oder elektrischer Wärmeentwicklung kann zu
Schäden an den Geräten selbst führen, aber auch zu
einer Gefahr für Personal und Anlage werden.
ÜBERWACHUNGSZIELE AM BEISPIEL
DER TEMPERATURMESSUNG
Daher muss es das Ziel eines Überwachungskonzeptes
sein, sicherheitsrelevante Parameter zuverlässig zu kontrollieren
und im Störfall das betreffende Gerät abzuschalten.
So können Gefahren für Mensch und Natur,
Beschädigungen der Maschine sowie ein Anlagenstillstand
verhindert werden.
Bei Temperaturmessungen an elektrischen Maschinen
sind vor allem die Messwerte von Stator, Lagern
und Oberflächen relevant. Sie spiegeln beispielsweise
Anomalien bei Erregerströmen, Schmiermitteldruck
oder Kühlung wider. Ist die elektrische Maschine als
Antrieb einer Pumpe eingesetzt, kann auch die Überwachung
der Temperaturen von Förderflüssigkeiten
sinnvoll sein, um eine Überlastung des Antriebes zu
verhindern. Hier kann eine Temperaturüberwachung
zur Erkennung und Vermeidung von unzulässig hohen
Temperaturen dazu genutzt werden, das Anfahren der
Pumpe solange zu verzögern bis der Stockpunkt des
Fördermediums über der Umgebungstemperatur liegt.
Im Gegensatz zu Parametern wie Drehzahl oder Drehrichtung
sind Temperaturänderungen nicht offensichtlich
und mit menschlichen Sinnen nicht ohne weiteres
zu erfassen. Die Messung von Temperaturen ist zudem
durch Nicht-Linearität gekennzeichnet, die bei Messung,
Übertragung und Auswertung der Größe berücksichtigt
werden muss.
REALISIERUNG MIT TRENNBAUSTEINEN
Grenzwerte können beim Vorhandensein eines Prozessleitsystems
oder einer SPS in der zentralen Steuerung
hinterlegt werden, sodass beim Erreichen oder Überschreiten
dieser Werte definierte Prozesse ausgelöst
werden – im einfachsten Fall die Abschaltung der betreffenden
Komponente.
Aufgrund der in der Regel langen und damit störanfälligen
Signalwege zwischen Feldebene und Steuerung
sind Trennbausteine zu verwenden – entweder als
Trennbarrieren, um den explosionsgefährdeten Bereich
vor zu hohem Energieeintrag zu schützen oder als Signaltrenner
für den sicheren Bereich: Auch zwischen
16
atp edition
6 / 2014
den nicht-explosionsgefährdeten Bereichen im Feld
und der Steuerung ist dringend eine galvanische Trennung
geboten. Sie bietet wirksamen Schutz gegen Potentialverschiebungen
und Ausgleichsströme durch
Erdschleifen oder nach dem Austausch von Eingangskarten
in der Steuerung, gegen elektromagnetische Störungen
oder auch gefährlich hohe Spannungen auf den
Signalleitungen im Fehlerfall.
Trennungen in der Steuerung befinden sich in der
Regel zwischen den Eingangskarten und der Prozessoreinheit
und können daher nicht den Schutz von Signaltrennern
ersetzen. Werden als Trennbausteine
Temperaturmessumformer mit parametrierbaren
Grenzwertausgängen ausgeführt, stehen am Relaisausgang
bereits Schaltsignale zur Verfügung, ohne auf eine
zentrale Steuerung zurückgreifen zu müssen.
SYSTEM BESTIMMT DEN BENEFIT
Die effiziente Realisierung der Überwachung von sicherheitsrelevanten
Parametern ist an einige Voraussetzungen
geknüpft. So sollten Temperaturmessumformer
für alle Arten von bei Temperaturmessungen vorkommenden
Messgrößen geeignet sein (Thermoelement, Widerstandsthermometer,
Potentiometer oder Spannung).
Schaltpunkte müssen frei einstellbar sein. Zudem muss
das Modul über eine Leitungs- und Sensorbruchüberwachung
verfügen, um Messwerte zulässig zu übermitteln.
Der Temperaturmessumformer mit Grenzwerten
KFD2-GUT des K-Systems von Pepperl+Fuchs bietet
neben diesen Grundvorausetzungen eine Reihe weiterer
Vorteile. Das Modul nimmt die Temperatur auf und
schaltet bei Erreichen des Grenzwerts den Relaisausgang.
Es ist sowohl für den Einsatz in explosionsgefährdeten
Bereichen wie auch als Signaltrenner für Signale
aus dem sicheren Bereich verfügbar.
Das Modul ist Teil der K-System-Produktfamilie mit
weiteren Grenzwertschaltern, sodass praktisch alle
kritischen Parameter nach dem selben Prinzip zu überwachen
sind
Drehzahlüberwachung
Gleichlaufüberwachung
Transmitterspeisung mit programmierbarem
Hoch- oder Tiefalarm
Die Versorgung der Module erfolgt über das sogenannte
Power Rail, ein Tragschienenprofil mit Einlegeteil.
Die Tragschienenmontage erlaubt das einfache Aufstecken
der Module. Das Power Rail versorgt die Geräte
mit Versorgungsspannung und bietet die Möglichkeit
einer Sammelfehlermeldung. Dies reduziert den Verdrahtungsaufwand.
FAZIT
Die zuverlässige Überwachung sicherheitsrelevanter
Parameter von elektrischen Maschinen kann vor Ge-
fahren für Mensch und Natur sowie für die Maschine
und eine Anlage insgesamt wirksam schützen. Eine
interessante Alternative zu Prozessleitsystemen oder
SPSen bei der Überwachung einzelner Messwerte ist
der Einsatz von Trennbausteinen mit Grenzwert relais.
AUTOR
Quality by tradition
ANDREAS GRIMSEHL ist Produkt-
Marketing-Manager bei der
Pepperl+Fuchs GmbH in Mannheim.
Pepperl+Fuchs GmbH,
Division Process Automation,
Interface Technology,
Lilienthalstraße 200, D-68307 Mannheim,
Tel. +49 (0) 621 776 17 94,
E-Mail: agrimsehl@de.pepperl-fuchs.com
Er verbindet ein großes Kalibriervolumen und Temperaturbereiche
von -35…165 °C mit dem bewährten Bedienkonzept mittels eines
7“ Farb-Touchscreens.
Benutzerfreundliche und intuitive Menüführung
Netzwerk- und USB-Host-Anschluss bieten weltweiten Zugriff sowie
Erweiterbarkeit und damit Zukunftssicherheit.
Weitere Infomationen
finden Sie unter:
atp614.sika.net
NEU
Verfügbar ab: 2. Quartal
Kalibrier-Komfort in neuer Dimension!
Der Temperaturkalibrator TP 37 166 E
Elektronische Messund
Kalibriertechnik
atp edition
6 / 2014
17
PRAXIS | SENSORTECHNIK
Kontinuierliche Messung des pH-Werts zeigt Lecks
in Kühlanlagen mit Ammoniak zuverlässig an
Alternative zu klassischen Methoden – Austretendes Kältemittel bedroht Mensch und Umwelt
AMMONIAK IST IN WASSER LÖSLICH:
Aus pH-Wert und Temperatur lässt sich die
Mol-Konzentration des Ammoniaks im Wasser
ermitteln. Bilder: Jumo
LÄSST EIN LECK Ammoniak
in den kühlenden Wasserkreislauf
austreten, so
kann das durch Messung
des pH-Wertes vor und
nach dem Kondensator
fest gestellt werden.
SICHER AUF DEM
KUNSTEIS: Das Eis für
die Bahn im schweizerischen
Wengen wird mit
Ammoniak als Kältemittel
erzeugt. Vor
Unfällen durch Austritt
des Kälte mittels schützt
eine Lecküberwachung
per pH-Wert-Messung.
IM KONDENSATOR wird Ammoniak komprimiert
und durch Wärmeentzug verflüssigt.
Im Verdampfer geht das flüssige Ammoniak
wieder in den gasförmigen Zustand über und
entzieht der Umgebung dabei Wärme.
Werden Kälte- und Kühlanlagen mit Ammoniak betrieben,
so kann ein Austreten dieses Kältemittels
für Mensch und Umwelt verheerende Auswirkungen
haben. Daher besitzt die Lecküberwachung derartiger
Systeme höchste Bedeutung. Als Alternative zu den
bisher bekannten Methoden bietet sich hier die Überwachung
mittels pH-Wert-Messung an. Bei einer Kunsteisbahn
im schweizerischen Wengen kommt diese Methode
seit einigen Jahren erfolgreich zum Einsatz.
Kälte- und Kühlanlagen werden in vielen Bereichen
eingesetzt. Die geforderte Kälteleistung zu erbringen, ist
dabei nur ein Ziel. Ebenso sollten sie sicher, umweltverträglich,
wirtschaftlich und energieeffizient sein. Ammoniak
(NH 3 ) ist ein Kältemittel, das seit dem Verbot
der Fluorchlor-Kohlenwasserstoffe (FCKW) und Halogenfluorchlor-Kohlenwasserstoffe
(HFCKW) in neuen
Kälteanlagen wieder an Bedeutung gewonnen hat.
GIFTIG, FARBLOS UND ÄTZEND
Ammoniak liegt in Kühlkreisläufen teilweise als Flüssigkeit,
teilweise als Gas vor. Unter Normalbedingungen
(0°C und 1013 mbar) ist Ammoniak ein farbloses,
giftiges und ätzendes Gas. Flüssig liegt es komprimiert
oder tiefkalt vor (Verdampfungspunkt bei –33,4°C, 1013
mbar). Ammoniak ist in Wasser löslich, die Lösung
heißt Salmiakgeist. Aufgrund der Temperatur und der
Mol-Konzentration des Ammoniaks im Wasser lässt
sich der pH-Wert ermitteln.
Um eine Kühlung zu erreichen, werden in den meisten
Anlagen Kompressions-Kältemaschinen eingesetzt.
Dabei wird das gasförmige Ammoniak vom Verdichter
angesogen und komprimiert. Die Temperatur
des Ammoniaks steigt dadurch an. Am darauf folgenden
Kondensator wird diese Wärme dem Ammoniak,
zum Beispiel durch eine Wasserkühlung, entzogen,
wodurch es sich verflüssigt. Nun wird das Ammoniak
am Drosselorgan dekomprimiert und kühlt sich dabei
ab. Die resultierende Wärmeenergie ist nun kleiner als
vor dem Verdichten, daher kann am Verdampfer Wärme
aus der Umgebung aufgenommen werden; es wird
also gekühlt. Das Ammoniak wechselt dabei den Aggregatzustand
und wird wieder gasförmig. Danach
wird es erneut vom Verdichter angesogen und der
Kreislauf ist geschlossen.
18
atp edition
6 / 2014
Ihr Erfolg durch
unsere Erfahrung
DIFFERENZ UND ABSOLUTWERT ÜBERWACHT
Eine Schwachstelle kann der Kondensator sein, wo
das Ammoniak unter hohem Druck steht. Entweichen
an dieser Stelle auch nur kleine Mengen Ammoniak,
so hat das verheerende Auswirkungen auf Mensch
und Umwelt. Wie schon erwähnt, beeinflusst die Ammoniakkonzentration
den pH-Wert einer Flüssigkeit.
Tritt nun an einer Stelle Ammoniak in den kühlenden
Wasserkreislauf, so kann das durch Messung des pH-
Wertes vor und nach dem Kondensator festgestellt
werden. Beim Entweichen von großen Mengen Ammoniak
tritt sofort eine Differenz der beiden Messungen
auf. Bei kleinen Mengen ergibt sich keine
große Differenz, der absolute pH-Wert wird sich aber
allmählich erhöhen. Eine Überwachung sowohl der
Differenz als auch des Absolutwertes ist also unerlässlich.
Weiter spricht die Differenzüberwachung
auch bei einem eventuellen Driften (Alterung) der
pH-Sonden an, was dem System eine gewisse Sicherheit
verleiht. Dieses Verfahren eignet sich nur für
Kühlkreisläufe mit Wasser. Denn bei Verwendung
von Äthylen-Glykol-Zusätzen wird der pH-Wert durch
austretendes Ammoniak zu wenig beeinflusst.
GRENZWERTÜBERSCHREITUNG LÖST ALARM AUS
In der Kunsteisbahn im schweizerischen Wengen
wird seit einigen Jahren mit Erfolg dieses Prinzip der
Überwachung eingesetzt. Dabei wird Gletscherwasser
zur Kühlung des Kondensators verwendet. Das
erwärmte Wasser dient anschließend zur Heizung des
Badewassers eines Freiluftschwimmbeckens. Zur pH-
Messung werden pro Kreislauf (Kondensator und
Verdampfer) je zwei Jumo pH-Sonden mit angeschlossenen
Messumformern dTRANS pH02 eingesetzt. Die
Messwerte werden durch ein di308-Anzeigegerät
miteinander verglichen, sowie auf deren Absolutwert
überprüft. Bei Überschreitung der vorbestimmten
Grenzwerte wird sofort Alarm ausgelöst. In Anlagen,
wo die Kühlung des Kondensators mit Luft erfolgt,
wird nur der Verdampferkreislauf überwacht.
Besuchen Sie uns:
MEORGA Rheinland
Smidt-Arena,
Leverkusen
04.06.2014
Halle A2
Stand 14
Stellungsregler Bauart 3730 und 3731
• Komfortables Bedienen vor Ort und über
Prozessleitsystem (HART ® , PROFIBUS-PA
oder FOUNDATION fieldbus)
• Robuste Anbausätze für Hub- und
Schwenkantriebe
• Geeignet für den Einsatz in sicherheitsgerichteten
Kreisen (SIL 3 gem. IEC 61508)
• Integrierte Ventildiagnose für Regel- und
Auf/Zu-Armaturen (z. B. Teilhubtest (PST))
• Global einsetzbar durch nationale und
internationale Explosionsschutz-
Zulassungen (Ex ia oder Ex d)
Bewährte Stellungsregler mit
hoher Regelgüte
AUTOR
WALTER WÜEST
ist Branchenmanager
Bahntechnik bei Jumo.
JUMO GmbH & Co. KG,
Moritz-Juchheim-Straße 1,
D-36039 Fulda,
Tel. +49 (0) 661 60 03 27 22,
E-Mail: walter.wueest@jumo.net
A01147DE
SAMSON AG · MESS- UND REGELTECHNIK
Weismüllerstraße 3 · 60314 Frankfurt am Main
Telefon: 069 4009-0 · Telefax: 069 4009-1507
E-Mail: samson@samson.de · www.samson.de
SAMSON GROUP · www.samsongroup.net
PRAXIS | SENSORTECHNIK
Laufende Echtzeitmessung des Alkoholgehalts im
Destillat sorgt für höchste Qualität der Brände
Per elektronischem Dichtemesser optimiert Haidvogl die Prozesskontrolle in Schnapsbrennereien
ENTSCHEIDEND
FÜR DIE QUALITÄT
hochwertiger
Brände ist die
laufende präzise
Steuerung des
Alkoholgehaltes
über den gesamten
Produktions prozess.
STATT MITTELS
DISKONTINUIERLICHER
SPINDELABLESUNG
erfolgt die Ermittlung
der aktuellen Alkoholkonzentration
durch
Dichtemessung mit
einem Dichtemesser
Liquiphant M Dichte als
Glasspindel-Ersatz.
ZU DEN SPEZIALGEBIETEN der Haidvogl Film KG
gehört die Destillationstechnik. Für Praxiserprobung
und Entwicklungsoptimierung betreibt der innovative
Betrieb in Alberndorf eine Versuchsanlage für 150
Liter auf dem aktuellen Stand der Technik.
Bilder: Endress+Hauser
„MIT DEM LIQUIPHANT M DICHTE von Endress+Hauser
an der von uns konstruierten Alkoholvorlage lässt sich
die auf 0,1 vol. % genaue Alkoholmessung während des
Destillationsbetriebes sicherstellen“, erläutert Leopold
Haidvogl (rechts), hier im Bild mit Herbert Springer,
Projektverantwortlicher bei Endress+Hauser in Wien.
Laufende Messungen des Alkoholgehaltes während
des gesamten Produktionsablaufes gewährleisten
die Qualität von Destillaten aus Landprodukten. Bisher
erfolgen diese meist diskontinuierlich mit Spindeln.
Die Haidvogl Film KG, als Hersteller von Steuerungssystemen
für Destillationsanlagen, nutzt moderne industrielle
Messtechnik in Form des Inline-Dichtemessgerätes
Liquiphant M Dichte von Endress+Hauser zur
zeitnahen Steuerung des Brennvorgangs und hilft
Schnapsbrennern, die Qualität ihrer Erzeugnisse zu
sichern und auszubauen.
Das Mühlviertel genießt beste Imagewerte. Vor allem
ist die oberösterreichische Region nördlich der Donau
bekannt für ihre hervorragenden Lebens- und Genussmittel.
Dazu gehören auch die hochwertigen Brände,
zu denen zahlreiche Betriebe regionale Produkte veredeln.
Nicht dieser Branche zurechnen würde man auf den
ersten Blick die Haidvogl Film KG in Alberndorf. 1983
von Leopold Haidvogl gegründet, hatte das Unternehmen
bis 2004 seinen Tätigkeitsschwerpunkt in der
Filmproduktion und betrieb sogar einige Jahre lang
einen Regionalsender. Geblieben ist davon nur der
Name. Schon 2003 kehrte das Unternehmen zu seinen
eigentlichen Wurzeln zurück und beschäftigt sich unter
anderem wieder mit Datenfunk und Mikrowellenfunktechnik.
Mit Internet- und EDV-Dienstleistungen,
Mikroelektronik-Entwicklung und mechanischer CNC-
Fertigung sowie Messtechnik ist die kleine, innovative
Firma nun schon lange ein Hightech-Allrounder.
Auf dieser, die verschiedenen Disziplinen übergreifenden
Basis, spezialisierte sich Haidvogl im Jahr 2010
auf die Optimierung der Destillationstechnik. „Die
zugrunde liegende Idee war, mit einer branchenspezi-
20
atp edition
6 / 2014
fischen Lösung die Lücke zwischen einfacher Temperaturregelung
und teurer Industriesteuerung zu schließen“,
sagt Eigentümer Leopold Haidvogl. „Speziell für
Fachleute im Bereich Destillationstechnik entwickelt,
unterstützt unsere DPC (Destillen Process Control) 400
diese mit bis zu zwölf überwachten Temperaturwerten
dabei, ihre Qualität zu sichern und zu steigern.“ Ihre
Präzision und Zuverlässigkeit überzeugte einen führenden
deutschen Destillations-Kesselhersteller, der
die Steuerung seither als Hauptabnehmer in seine Anlagen
integriert. Mittlerweile stellt Haidvogl mit DPC
100 und DPC 50 auch Systeme für kleinere Anwendungen
her.
In die Entwicklung flossen neben Erfahrungswerten
namhafter Hersteller aus der Brennkesseltechnik auch
Erkenntnisse aus Wissenschaft und Forschung ein. So
steuerten etwa die Spezialisten für Gärtechnik der
FH Wels für Ernährungstechnik wichtige Daten und
Parameter für die Entwicklung bei. Der Praxiserprobung
und Entwicklungsoptimierung dient eine hauseigene
Versuchsanlage für 150 Liter auf dem aktuellen
Stand der Technik.
FEHLERQUELLEN UND ZEITAUFWAND ENTFALLEN
Ziel der Haidvogl-Steuerung ist nicht, den Brennmeister
zu ersetzen, sondern diesen von Beobachtungsaufgaben
zu entlasten. Entscheidend für das reproduzierbare
Halten und Steigern der Qualität von Destillaten
ist die Überwachung nicht nur verschiedener Temperaturdifferenzen,
sondern darüber hinaus des aktuellen
Alkoholgehaltes während der Produktion, denn sie ist
maßgebend für das Separieren der Fraktionen Vorlauf,
Mittellauf und Nachlauf.
Bisher – und in den meisten Fällen wohl auch weiterhin
– geschah dies durch Ablesen einer amtlich geeichten
Spindel in einem Glasgefäß mit der zu untersuchenden
Flüssigkeit. Ermittelt wurde deren Alkoholgehalt
vom Brennmeister anschließend anhand amtlicher Tabellen.
„Neben der Gefahr von Ablesefehlern und der
mangelnden Temperaturkompensation ist die Prozedur
lästig, zudem vergeht zwischen der Entnahme des Destillats
und der Bestimmung ihres Alkoholgehaltes einige
Zeit“, nennt Haidvogl die Nachteile der bisherigen
Praxis. „Wir gaben uns damit nicht zufrieden und
suchten eine Möglichkeit, diese Werte in höchster Genauigkeit,
vor allem aber laufend in Echtzeit zu messen.“
DICHTEMESSUNG NACH DEM SCHWINGGABELPRINIZIP
Gleich bleibt dabei die Messung in der Schnapsvorlage
als Messglas. In der Schnapsvorlage selbst kommt als
Ersatz für die Glasmessspindel ein Dichtemesser Liquiphant
M Dichte von Endress+Hauser mit einem Dichte-
Elektronikeinsatz FEL50D zum Einsatz. Dieser arbeitet
nach dem Schwinggabel-Prinzip, das darauf beruht, dass
die Resonanzfrequenz der Schwinggabel von der Dichte
der Flüssigkeit, der Prozesstemperatur und dem Prozess-
druck abhängt. Zur Gewährleistung höchster Präzision
wird ein Abgleich über drei Messpunkte durchgeführt.
Im Einlaufröhrchen der Schnapsvorlage ist ein Sensor
für die Temperaturmessung integriert, dessen Werte
zur Kompensation der Temperatureinflüsse herangezogen
werden. Der Dichterechner FML621 – ebenfalls
von Endress+Hauser – errechnet mittels komplexer
mathematischer Funktionen aus den Messwerten für
Temperatur und Dichte laufend in Echtzeit den wahren
Alkoholgehalt.
KONTROLLE MIT GENAUIGKEIT VON 0,1 PROZENT
„Im Interesse der Genauigkeit konstruierten wir eine
Alkoholvorlage mit dem kleinsten möglichen Volumen“,
berichtet Haidvogl. „Nur so lässt sich jede kleinste
Änderung des Alkoholgehaltes sofort messtechnisch
erfassen und die auf 0,1 vol. % genaue Alkoholmessung
während des Destillationsbetriebes sicherstellen.“
Als einer der weltweit führenden Partner der Prozessindustrie
für die Inline-Messung von Füllstand, Druck,
Durchfluss, Temperatur und verschiedener anderer physikalischer
Größen an Medien war Endress+Hauser für
Haidvogl von vornherein erste Wahl. Das Familienunternehmen
hatte zudem erst wenige Jahre zuvor das exakt
passende Produkt entwickelt. „Da unter den Aspekten
Qualitätsüberwachung, Prozesskontrolle und
Umwelt die Erfassung von Dichte und Konzentration der
gemessenen Stoffe in industriellen Produktionsprozessen
immer mehr an Bedeutung gewinnt, wurde der bewährte
Pegelschalter Liquiphant M weiterentwickelt“,
sagt Herbert Springer, Projektverantwortlicher bei
Endress+Hauser in Wien. „Als vollwertiges Inline-Dichtemessgerät
nach dem Schwinggabelprinzip dient es zur
kostengünstigen Überwachung wichtiger Prozessdaten
im hygienischen Prozessumfeld in Echtzeit.“
AUTOR
MARKUS SCHMID ist
Produktmanager Füllstandmesstechnik
bei
Endress+Hauser in Weil
am Rhein.
Endress+Hauser Messtechnik GmbH + Co. KG,
Colmarer Strasse 6, D-79576 Weil am Rhein,
Tel. +49 (0) 7621 97 53 06,
E-Mail: markus.schmid@de.endress.com
atp edition
6 / 2014
21
PRAXIS | SENSORTECHNIK
Wo hoch präzise Glasmaßstäbe schwächeln,
punkten induktive Wegsensoren mit Robustheit
Lagerhersteller erspart sich mit neuer Messtechnik den ständigen Austausch zerstörter Geräte
Die Kugel- und Rollenlagerwerk Leipzig GmbH
(KRW) arbeitet beim Schleifprozess mit Genauigkeiten
im Mikrometerbereich. Eigentlich ein Fall für
optische Messsysteme. Aber die im Schleifprozess erforderliche
Kühl-Schmierstoff-Emulsion setzte den
bislang zur Messung eingesetzten Glasmaßstäben so
stark zu, dass sie oft nach einem halben Jahr getauscht
werden mussten – zu Stückkosten im vierstelligen Bereich.
Mit Turcks berührungslosem Linearwegsensor
LI-Q25 hat KRW nun eine robuste und verschleißfreie
Dauerlösung und erspart sich den regelmäßigen Austausch
defekter Glasmaßstäbe.
Man sieht sie nicht, man hört sie nicht und doch vertrauen
wir alltäglich darauf, dass sie gute Arbeit leisten:
Ohne Wälzlager bewegt sich heute nur wenig – schon
gar nicht in der Industrie. In Leipzig behauptet die Kugel-
und Rollenlagerwerk Leipzig GmbH erfolgreich
ihre Marktnische in diesem Feld. Der Hidden Champion
KRW spezialisierte sich auf Hochpräzisions-Wälzlager,
Spezialanfertigungen und Kleinserien.
Ein weiterer Vorteil, mit dem die Sachsen bei ihren
Kunden weltweit punkten können, sind Flexibilität und
Liefergeschwindigkeit. „Unsere Genauigkeit liegt immer
im Mikrometer-Bereich“, sagt Karl Wolter, Direktor
Marketing und Vertrieb bei KRW, und beschreibt die
Dimensionen: „Wenn Sie ein Blatt Standard-Druckerpapier
nehmen und in zehn Lagen teilen, dann ist eine
dieser Lagen ein Mikrometer stark.“
HÖCHSTE ANFORDERUNGEN AN DIE PRÄZISION
Aus dieser Marktpositionierung erwachsen spezielle
Anforderungen an die eingesetzte Sensorik. Die Messsysteme
bei KRW müssen hochpräzise sein. Magnetostriktive
und andere magnetische Systeme scheiden
aus, da sie durch die starken Magnetfelder beeinflusst
werden, welche die Werkstücke fixieren.
In der Regel setzt KRW daher auf optische Systeme,
denn die Anforderungen an die Genauigkeit lassen fast
keine anderen Messsysteme zu. Der Nachteil der optischen
Systeme ist allerdings ihre hohe Anfälligkeit
in dieser rauen Fertigungsumgebung. „Wir haben in der
Schleiferei das Problem, dass die Kühl-Schmierstoff-
Emulsion, die wir verwenden, in die Sensorik eindringt.
Durch die Rotation des Werkzeugs beim Schleifen
zerstäubt das Medium und es entsteht eine Gischt,
die sich auf den Maschinen und den Sensoren trotz
Schutzmaßnahmen und Sperrluft niederschlägt“, erklärt
der Leiter der Schleiferei, Frank Schubert.
SCHMIERSTOFF IST GIFT FÜR DIE GLASMASSSTÄBE
Dieser Schmierstoff – auch Slurry genannt – hat eine
sehr geringe Oberflächenspannung. Im Prozess ist das
gewünscht, die Slurry kann so bis in die engste Ritze
kriechen. Für die empfindlichen Glasmaßstäbe ist diese
Eigenschaft allerdings Gift. „Durch die Bewegung
des Positionsgebers dringt an der Dichtlippe des Sensors
immer auch etwas Slurry ein. Nach zirka sechs
Monaten war der optische Sensor an der Vorschleifmaschine
in der Regel defekt“, beschreibt KRW-Instandhalter
Holger Lietsch den Nachteil des bislang eingesetzten
Glasmaßstabs.
Im Vorschleifprozess werden die Flächen der Außenund
Innenringe etlicher Wälzlager geschliffen. Es ist
in der Regel der erste Bearbeitungsschritt nach dem
Härtungsverfahren. Hier ist zunächst noch eine Genauigkeit
im Hundertstel-Millimeter-Bereich ausreichend.
Die entscheidende Präzision der Lager wird
später beim Fertigschleifen und Finishen erreicht. Je
nach Charge lassen sich auf der Vorschleifmaschine
Ringe bis zu 500 Millimeter Höhe schleifen. Ein starker
Elektromagnet hält dazu die Außenringe auf dem Maschinentisch.
Der Werkzeugsupport fährt auf den zu
bearbeitenden Ring und die Anzeige des LI-Sensors
wird auf Null gesetzt. Von diesem gesetzten Referenzpunkt
ist es dem Maschinenbediener möglich, zu sehen,
wie viel Materialabtrag bis zur durchgeschliffenen
Fläche erfolgte.
MAGNETISCHE SENSOREN KOMMEN NICHT IN FRAGE
„Magnetische Sensoren kann man hier aufgrund der
starken Magnetfelder nicht einsetzen. Wir haben den
starken Elektromagneten und außerdem direkt neben
dem Sensor einen 30-kW-Motor, der die Hauptspindel
antreibt“, erklärt Lietsch. Insofern blieb KRW bislang
nur übrig, in den sauren Apfel zu beißen und die Glasmaßstäbe
einzusetzen.
Ausgefallene Geräte gingen dann zur Befundung
zum Hersteller, der sie teilweise aufarbeiten konnte.
Allerdings ist dieser Reinigungsprozess meist nur einmal
möglich. Danach muss ein neuer Sensor angeschafft
werden. Die Reparaturkosten lagen pro Stück
im vierstelligen Euro-Bereich, eine Neuanschaffung
ist noch teurer. Außerdem musste KRW noch die Arbeitszeit
des Instandhaltungspersonals in die Kalkulation
einbeziehen. Die Schleifmaschine selbst konnte
zwar weiter betrieben werden, allerdings nur konventionell.
Ohne den Sensor müssen die Mitarbeiter
die Maschine anhand einer analogen Anzeige justieren.
Die Skalierung ist am Handrad aufgezeichnet und
kann daher nicht exakt auf Null gesetzt werden.
Seit Herbst 2013 erfasst ein induktiver Linearwegsensor
von Turck die Schleiftiefe an der Vorschleifmaschine
auf 10 Mikrometer genau. Die LI-Sensoren arbeiten
nach dem Resonator-Messprinzip, bei dem die Positionserfassung
nicht über einen magnetischen Positionsgeber
erfolgt, sondern induktiv über ein schwingfähiges
System aus Kondensator und Spule. Das berührungslose
System erlaubt es, das Gehäuse des Sensors komplett
zu vergießen und damit dauerhaft Schutzart IP67
zu erfüllen. Auch unter widrigsten Bedingungen kann
keine Substanz in den Sensor eindringen und seine
Funktion stören.
22
atp edition
6 / 2014
AUF DEM
BEDIENPULT
der Flachschleifmaschine
zeigt
die Digitalanzeige
den Messwert des
LI-Sensors an.
EMV-RESISTENT:
Der hinter dem
Faltenbalg
montierte 30-kW-
Elektromotor der
Hauptspindel
stört Turcks
LI-Q25 nicht im
Geringsten.
Fotos: Turck
DIE IM SCHLEIF-
PROZESS
erforderliche
Kühl-Schmierstoff-Emulsion
machte die
bislang verwendeten
Glasmaßstäbe
nach sechs
Monaten
unbrauchbar.
GROSSE LAGER – HOHE PRÄZISION: Bei Fertigungstoleranzen
im Mikrometer-Bereich ist präzise Messtechnik
gefragt, der auch die im Schleifprozess erforderlichen
aggressiven Schmiermittel nichts anhaben können.
UNEMPFINDLICH GEGEN UMWELTEINFLÜSSE
Gegenüber magnetostriktiven Linearwegsensoren
punktet das induktive Messsystem von Turck mit seiner
hohen Unempfindlichkeit: Obwohl sich der Elektromotor
für den Hauptspindelantrieb nah am Sensor befindet,
beeinträchtigt er dessen Funktion überhaupt nicht.
Auch die magnetische Fixiereinrichtung des Maschinentischs
hat keinen negativen Einfluss auf die Zuverlässigkeit
der Messung des LI-Q25.
KRW-Instandhalter Holger Lietsch setzt beim LI-Q25
auf eine digitale Signalübertragung. Das verwendete
SSI-Signal arbeitet mit Hilfe der sogenannten Differenzübertragung.
Eine einstrahlende Störquelle hat
somit nicht den negativen Einfluss, den sie auf ein
analoges Signal ausüben könnte. KRW verzichtet deshalb
hier auf aufwendig geschirmte Leitungen. Der
Linearwegsensor liefert sein Signal an eine digitale
Anzeige, die am Bedienpult der Schleifmaschine
montiert ist.
Anfangs spielten Sensor und Anzeige noch nicht optimal
zusammen. Nach einer Firmware-Anpassung des
Sensors für diese spezielle Anzeige funktioniert das
System zuverlässig und störungsfrei. Die Mitarbeiter in
der Schleiferei können jetzt den Schleifprozess präzise
durchführen. Das Plan- beziehungsweise Flachschleifen
legt den Grundstein für die späteren Bearbeitungsschritte.
Fehler, die hier entstehen, können später nur
schwer korrigiert werden.
AUTOR
JENS GIERKE ist
Vertriebsspezialist bei
Turck in Mülheim.
Hans Turck GmbH & Co. KG,
Witzlebenstraße 7,
D-45472 Mülheim an der Ruhr,
Tel. +49 (0) 3592 316 37,
E-Mail: jens.gierke@turck.com
atp edition
6 / 2014
23
PRAXIS
Aufgearbeitet statt neu: Perfektes Nachschleifen
vervielfacht die Lebensdauer von Werkzeugen
Exakte Schneidkantenpräparation und optimale Neubeschichtung entscheiden über die Qualität
AUFARBEITUNG
BEIM HERSTEL-
LER LOHNT SICH,
wie eine Fallstudie
zeigte: Durch
Performance- und
Standzeitvorteile
ergab sich in der
Gesamtbetrachtung
eine 70-prozentige
Einsparung.
NACHSCHLEIFEN: Fachgerechtes
Reconditioning mit Originalgeometrie und
Original beschichtung garantiert hohe
Standzeiten und Prozesssicherheit.
UNKOMPLIZIERT: Die Box wird mit verschlissenen
Werkzeugen befüllt und vom Hersteller abgeholt.
HALBIERTE KOSTEN: Beim dritten Nachschliff sinken
die Werkzeugkosten um 50 Prozent. Bilder: Walter AG
Nachhaltigkeit steht nicht nur für die Schonung von
Ressourcen und Umwelt, sondern ist auch im hohen
Maß relevant für die Wirtschaftlichkeit der Unternehmen.
In der metallzerspanenden Industrie lassen
sich beispielsweise durch fachgerechtes Nachschleifen
und Neubeschichten von Zerspanungswerkzeugen erhebliche
Kosten sparen.
Für die Walter AG aus Tübingen, Spezialist für Hochleistungs-Zerspanungswerkzeuge,
haben deshalb der
ganzheitliche Produktzyklus ihrer Werkzeuge und dessen
nachhaltige Gestaltung einen hohen Stellenwert. Den zweiten
Schritt im Lebenszyklus der Walter-Produkte stellt konsequenterweise
die Wiederaufbereitung dar. Die Kunden
des Unternehmens lassen ihre Werkzeuge drei- bis fünfmal
in speziellen Reconditioning Centern nachschleifen und
neu beschichten. Innerhalb von 14 Tagen erhalten sie die
zuvor abgenutzten Werkzeuge in Originalqualität zurück
– fast wie neu. Reconditioning ist für Walter ein entscheidender
Bestandteil des – verlängerten, kosten- und ressourcenschonenden
– Produktlebenszyklus.
24
atp edition
6 / 2014
VOLLSTÄNDIG GESCHLOSSENER PRODUKTKREISLAUF
Sind die Werkzeuge endgültig verschlissen, bietet Walter
den Rückkauf des Hartmetallwertstoffs zu Kilopreisen
an und organisiert den Rücktransport. Das Material
wird dann in den Recyclingwerken des Unternehmens
in seine Bestandteile zersetzt, zu reinem Wolframcarbid
verarbeitet und wieder für die Produktion
neuer Werkzeuge eingesetzt. So entsteht ein vollständig
geschlossener Produktkreislauf.
Bei den Kunden spielt das Reconditioning für die
Wirtschaftlichkeit eine entscheidende Rolle. Denn hier
schlummert – im Vergleich zur Anschaffung neuer Ersatzwerkzeuge
– ein enormes Einsparungspotenzial.
Daher stellt die Wiederaufbereitbarkeit von Werkzeugen
inzwischen einen festen Bestandteil bei der Entwicklung
von Neu-Werkzeugen dar.
Eine immens wichtige Stellschraube für Leistung und
Standzeit ist die exakte Schneidkantenpräparation. Aus
diesem Grund sind verschlissene Werkzeuge beim Reconditioning-Service
des Herstellers in den besten Händen.
Denn nur dieser kann die Bohrer wieder mit allen
Feinheiten versehen und somit in einen Fast-wie-neu-
Zustand versetzen. Das gilt auch für die Beschichtung.
Nach nur dreimaligem Wiederaufbereiten lassen sich so
bereits 50 bis 60 Prozent der Werkzeugkosten einsparen.
KURZFRISTIGE EINSPARUNGEN RECHNEN SICH NICHT
Walter hat das Nachschleifen nicht erfunden, betreibt
es aber auf hohem Niveau. Die Wiederaufbereitung
durch die Walter Reconditioning-Experten erfolgt mit
Originalgeometrie und der leistungsfähigen Original-
Beschichtung. Ein herkömmlicher Nachschliff mit
Standardbeschichtung würde zu deutlich geringeren
Standzeiten und geringerer Prozesssicherheit führen.
Dass Qualität ihren Preis hat, ist eine alte Binsenweisheit,
die für die Reconditioning-Spezialisten von Walter
sehr konkrete Bedeutung hat: Lokale Nachschleifbetriebe
konkurrieren häufig mit geringeren Service-Preisen.
Doch Qualität ist auch ihren Preis wert – und führt
in der Gesamtbetrachtung letztlich doch zu Einsparungen.
So konnte Walter in einer Fallstudie mit einem
großen Kunden, einem Hersteller von Zubehörteilen für
den Automobilbereich, zeigen, dass kurzfristige Kosteneinsparungen
beim Nachschleifen langfristig betrachtet
die Produktionskosten deutlich erhöhen.
Der Kunde bearbeitete ein Werkstück aus legiertem
Stahl mit dem Hochleistungsfräser Proto max ST. Nach
Verschleiß des Werkzeugs wurde dieses in einem lokalen
Betrieb, zu dem langjährige Geschäftsbeziehungen
bestanden, nachgeschliffen – zu einem günstigeren
Preis im Vergleich zum Angebot von Walter. Im Feldversuch
ging es nun darum, die Performance der beiden
Alternativen gegeneinander zu testen. Gleich zu Beginn
ergab sich eine überraschende Erkenntnis: Die vom lokalen
Betrieb nachgeschliffenen Werkzeuge wurden
mit um 40 Prozent niedrigeren Bearbeitungsparame-
tern gefahren, als die von Walter wiederaufbereiteten
Werkzeuge. Leider ist das eine häufige Vorgehensweise,
die manchem Werkleiter vielleicht gar nicht bewusst
ist: Der Maschinenbediener hat seine Erfahrungswerte
mit dem nachgeschliffenen Werkzeug – in diesem Fall
eine schlechtere Leistung – und passt die Maschine
entsprechend an.
PRODUKTIONSKOSTEN UM 70 PROZENT GESENKT
Trotz dieser künstlichen Drosselung ergab sich im
zweiten Schritt ein noch überraschenderes Ergebnis:
Die Werkzeuglebensdauer des von Walter nachgeschliffenen
Fräsers war um ein Vielfaches höher als die des
lokalen Nachschliffs. Ein enormer Performanceunterschied,
der sich unterm Strich auch sehr deutlich in
den Herstellungskosten bemerkbar macht. Trotz der
höheren Kosten des Original-Nachschliffs ließen sich
durch das Walter Reconditioning rund 70 Prozent an
Produktionskosten gegenüber dem lokalen Nachschliff
einsparen. Deshalb ist es enorm wichtig, wie beim Neu-
Teil, auf das Know-how des Original-Herstellers zu
setzen. Die Werkzeuge, die vom Walter Reconditioning-
Service kommen, haben praktisch die gleiche Qualität
wie Neuwerkzeuge. Entsprechend können sie auch mit
denselben Bearbeitungsparametern gefahren werden.
Das spart Maschinenzeit und -kosten. Außerdem ist die
Werkzeuglebensdauer deutlich länger, als bei durch
Wettbewerber nachgeschliffenen Werkzeugen. Dadurch
sind beispielsweise weniger Werkzeugwechsel nötig
und die Produktivität erhöht sich.
Jenen Kunden, bei dem die Fallstudie durchgeführt
wurde, haben diese gewichtigen Argumente überzeugt.
Dort ist Walter Reconditioning nun fester Bestandteil
eines wirtschaftlich optimierten Herstellungsprozesses.
AUTOR
JENS-PETER SCHNECK
ist Reconditioning &
Recycling Manager bei der
Walter AG.
Walter AG,
Derendinger Str. 53, D-72072 Tübingen,
Tel. +49 (0) 7071 701 12 34,
E-Mail: jens-peter.schneck@walter-tools.com
atp edition
6 / 2014
25
HAUPTBEITRAG
Konzept offener Regler:
FPGA in der Antriebstechnik
Modulare Architektur löst spezialisierte Anforderungen
Systeme mit programmierbarer Logik in Form von Field Programmable Gate Arrays
(FPGA) werden zunehmend für die Antriebstechnik interessant. Die Gründe dafür
sind die mit einer Hardware-Implementierung vergleichbare Leistung, die Flexibilität
im Entwurfsprozess und im Feld sowie die Skalierbarkeit des Funktionsumfangs.
Das im Beitrag vorgestellte Konzept zeigt Struktur, Funktionsweise und Entwurf
einer komponentenorientierten Architektur für ein Antriebssystem. Der Fokus
liegt dabei auf der günstigen Nutzung der resultierenden Freiheitsgrade in Hard- und
Software. Es wird gezeigt, dass die Architektur den industriellen Standards und
speziellen Anforderungen einer beispielhaften Anwendung hinsichtlich Robustheit
und Flexibilität gerecht wird.
SCHLAGWÖRTER FPGA-Technologie / Antriebstechnik / Architekturkonzept /
Offenheit / Reglersystem
Concept Open Controller: FPGA in Drive Technology –
A Modular Architecture for Specialized Requirements
Systems with programmable logic are becoming more and more interesting in drive
engineering. This is due to the performance, which can be compared to a hardware
based implementation, the flexibility in the design process and the range of applications,
as well as the scalability. The concept shows structure, functionality and
design of a component-based architecture for a drive control system. The focus is on
the beneficial use of the resulting degrees of freedom in hardware and software. The
article shows that the architecture is able to meet industrial standards as well as
special requirements for a typical application regarding robustness and flexibility.
KEYWORDS FPGA technology / drive engineering / architectural concept / openness /
closed loop control system
26
atp edition
6 / 2014
PETER ZAHN, IGOR LAPTEV, ALEXANDER VERL, Universität Stuttgart
Das Institut für Steuerungstechnik der
Werkzeugmaschinen und Fertigungseinrichtungen
der Universität Stuttgart (ISW)
beschäftigt sich im Rahmen von Forschungsvorhaben
mit Architekturen für
offene Reglersysteme. Die Offenheit zielt dabei auf
möglichst hardwareunabhängige Strukturen und
Schnittstellen, sodass die Austauschbarkeit von
Komponenten und der Zugriff auf beliebige interne
Signale möglich ist. Entsprechende Konzepte und
Implementierungen wurden im Rahmen der Entwicklung
der offenen Antriebsreglerplattform [1, 2]
umgesetzt.
Derartige Systeme eignen sich für einen universellen
Einsatz in der Antriebstechnik. Wesentlicher
Aspekt dabei ist die Nutzung von programmierbarer
Logik in Form von Field Programmable Gate Arrays
(FPGA). Speziell kleine Stückzahlen und Prototypen
profitieren von der erhöhten Flexibilität im Entwurfsprozess,
die die gegenüber klassischen mikrocontrollerbasierten
Systemen höheren Kosten aufwiegt. Die
Entwurfswerkzeuge ermöglichen es einerseits, ein
hierarchisches Design mit unabhängig arbeitenden
Subsystemen zu strukturieren, andererseits trotzdem
vollen Zugriff auf die internen Signalpfade zu behalten.
Das vorgestellte Konzept stellt ein neuartiges
Reglersystem auf FPGA-Basis dar, das sich dank modularem
Aufbau und der Verwendung üblicher industrieller
Schnittstellen vielseitig in der Antriebstechnik
einsetzen lässt. Bild 1 zeigt die mögliche
Ausgestaltung einer solchen Antriebsreglerplattform.
Für Standardanwendungen existieren bereits zahlreiche
kommerziell verfügbare Antriebssysteme. Im
Falle von spezielleren Anwendungen weisen sie oft
nicht genug Flexibilität auf. Beispielhaft für eine solche
Anwendung steht in diesem Beitrag der Antrieb
einer aktiv angetriebenen Knieprothese. Da hier hohe
Leistungsdichte, Integration und Robustheit gefordert
werden und unterschiedliche Lastsituationen und Einsatzbereiche
vorherrschen, müssen die entsprechenden
Entwicklungsprozesse und die eingesetzten Algorithmen
berücksichtigt werden.
1. GRUNDLEGENDE UND SPEZIELLE ANFORDERUNGEN
Im Hinblick auf eine universelle Verwendung in der Antriebstechnik
muss das offene Reglersystem robuste, industrieübliche
Schnittstellen aufweisen. Traditionell sind
dies zum Beispiel analoge und digitale Spannungsschnittstellen
mit von üblicher Digitaltechnik abweichenden
Pegeln. Weiterhin müssen unterschiedliche Gebersysteme
einlesbar sein sowie Schnittstellen zur Leistungselektronik,
wie gegebenenfalls zu einer übergeordneten Steuerungsebene,
vorgesehen werden. Zur optimalen Anpassung
an die jeweilige Anwendung ist eine gute Skalierbarkeit
wünschenswert. Die einzelnen funktionalen Primitive
von der Benutzerinteraktion und Bahngenerierung
über die Regelung bis zur Stromvektormodulation müssen
modular eingebunden oder an ein bestehendes externes
System angebunden werden können.
Prinzipiell sind diese Anforderungen bereits durch die
Nutzung konventioneller Automatisierungskomponenten
auf Mikrocontroller- beziehungsweise PC-Basis erfüllbar.
Unterschiede ergeben sich jedoch, wenn besonders bei
Prototypen oder kleinen Stückzahlen die Flexibilität ein
wesentlicher Aspekt ist. Nachfolgend wird deshalb ein
exemplarischer Anwendungsbereich vorgestellt, der von
der FPGA-basierten Architektur profitiert.
1.1 Anwendungsbeispiel Knieprothese
Ein beispielhaftes Einsatzgebiet für die vorgestellte Plattform
ist die Entwicklung des Antriebs einer aktiv angetriebenen
Knieprothese im Rahmen eines gemeinsamen
Forschungsprojekts mit Hochschul- und Industriepartnern.
Bedingt durch die Zunahme von Gefäßerkrankungen
steigt die Zahl der Patienten mit amputierten
Extremitäten, die durch Prothesen versorgt werden müssen.
Derzeit marktübliche passive Systeme stellen eine
hohe Belastung für den Träger dar, da der Mensch die zur
Fortbewegung notwendige Energie komplett über den verbleibenden
Bewegungsapparat generieren muss. Der hier
umgesetzte Ansatz, um die Energiebilanz beim Gehen zu
verbessern, ist ein aktiver elektrischer Antrieb des Knie-
atp edition
6 / 2014
27
HAUPTBEITRAG
gelenks. Am ISW wird für diesen Prototyp die notwendige
Antriebsregelung entworfen und implementiert.
Die Anforderungen an das Reglersystem ergeben sich
aus der Notwendigkeit, für die Evaluierung situationsgerechter
Steuerungsmuster die Regelung zur Laufzeit
zwischen unterschiedlichen Betriebsarten (zum Beispiel
Lage- oder Momentenregelung) umschalten zu
können. Aufgrund von Unbekannten im Hinblick auf
biologische Bewegungsmuster müssen strukturell viele
Freiheitsgrade und eine umfangreiche Parametrierbarkeit
vorgesehen werden.
Eine exemplarische Besonderheit ergibt sich dabei
aus dem biologischen Vorbild: Beim menschlichen Gehen
wird der Gangzyklus wiederholt durchlaufen, der
sich beim Gehen in der Ebene in zwei Phasen gliedert,
dargestellt nach [3] in Bild 2.
Die Standphase beginnt mit dem Aufsetzen der Ferse
und umfasst das Abrollen des Fußes mit Bodenkontakt.
Dabei wird das Moment im Knie in die Vorwärtsbewegung
des Körperschwerpunkts umgesetzt. Mit dem Abheben
der Fußspitze folgt die Schwungphase, in der das Bein,
beziehungsweise die Prothese, wieder nach vorne bewegt
wird. Hierbei wird das frei schwingende Bein vom Kniemoment
gegen seine Trägheit beschleunigt und verzögert.
Das dynamische Verhalten des menschlichen Bewegungssystems
variiert dabei zyklisch: In der Standphase
bewirkt der Prothesenantrieb die relativ langsame
Vorwärtsbewegung des Körperschwerpunktes, in der
Schwungphase die Beschleunigung der Prothese auf
hohe Winkelgeschwindigkeiten. Durch kontinuierliche
Nachführung der Regelparameter über den Verlauf
dieses Gangzyklus lässt sich dies berücksichtigen
und in jedem Betriebspunkt optimales Verhalten der
Regelung erzielen. Dies entspricht dem in [4] vorgestellten
Verfahren des Linear Parameter-Varying Gain
Scheduling beziehungsweise der parameterabhängigen
PI-Regelung nach [5].
In der industriellen Antriebstechnik verfügen Antriebsregler
über umfangreiche Parametersätze, mit
denen sich der Antrieb an die Anwendung anpassen
lässt. Normalerweise erfolgt dies im Rahmen der Inbetriebnahme
mittels herstellerspezifischer Software. Um
eine sichere Funktion in allen Betriebsbereichen zu
gewährleisten, müssen dabei die Regelparameter konservativ
gewählt werden. Diese können im Betrieb nicht
mehr verändert werden. Gain Scheduling ist in einem
solchen System nicht realisierbar, weshalb hier ein
strukturell anderer Ansatz gewählt wird.
Bei der vorgestellten Architektur sind die Parameter
sämtlicher Regelungskomponenten im Betrieb zugänglich
und können im gleichen Takt wie die Vorgabe von
Sollwerten modifiziert werden. Dies erlaubt es, die Regelung
kontinuierlich an die Dynamik der Anwendung
anzupassen und somit auch bei wechselnder Last und
Dämpfung eine hohe Güte der Regelung zu erreichen.
Praktisch werden für mehrere Betriebspunkte geeignete
Reglerparameter ermittelt und Zwischenwerte
interpoliert. Die numerische Steuerung, die zum Beispiel
PC-basiert auf derselben Plattform realisiert werden
kann, übergibt diese zyklisch gemeinsam mit entsprechenden
Sollwerten an die Regelung.
2. POTENZIAL DER FPGA-TECHNOLOGIE
Gängige digitale Signalprozessoren (DSP) verfügen über
eine hohe Rechenleistung, allerdings bedingt die sequentielle
Befehlsabarbeitung Abhängigkeiten zwischen
Software-Modulen. Zur Einhaltung eines deterministischen
Verhaltens müssen diese berücksichtigt
werden, worunter die Skalierbarkeit leidet. Da ein Regelungssystem
für die genannte Aufgabe sich gut in
parallel arbeitende Funktions-Module mit kontinuierlichem
Datendurchsatz untergliedern lässt, bieten anwendungsspezifisch
konfigurierbare Logikbausteine
(FPGA) eine sinnvolle Plattform zur Umsetzung.
Insbesondere in der Entwicklung und bei kleinen
Stückzahlen stellt die Rekonfigurierbarkeit einen Vorteil
dar, der erhöhte Kosten für leistungsfähige FPGA kompensiert.
Die entsprechende Beschreibung der Logik in
einer Hardware-Beschreibungssprache, wie zum Beispiel
Very High Speed Integrated Circuit Hardware Description
Language (VHDL), eignet sich ebenso für die Umsetzung
in maskenprogrammierte Logik. Somit lässt sich
die Implementierung des funktionalen Verhaltens von
konkreter Hardware und Stückzahlen entkoppeln. Bei
den in der Antriebstechnik üblichen Regeltakten, Stromregelung
bis zu 50 kHz, sind mittels Pipelining komplexe
Berechnungen möglich, gleichfalls die Verwendung unterschiedlicher
Takte innerhalb eines Systems.
Zur Vereinfachung des Entwurfsprozesses existieren
unterschiedliche Konzepte zur Strukturierung der FPGA-
Designs. Verwendet wird die Software QSYS des FPGA-
Herstellers Altera, die ein System on a Programmable
Chip (SOPC) erzeugt. Dazu werden einzelne Komponenten
aus einer Bibliothek instanziiert und grafisch miteinander
verschaltet. Die Komponenten in der Bibliothek
können dabei selbst implementiert und von Dritten
bereitgestellt werden. Die Software übernimmt die Generierung
von Verbindungen und Busleitungen. Voraussetzung
dafür ist die Einhaltung von spezifizierten
Schnittstellentypen. Dies ermöglicht einen effizienteren
Entwurfsprozess und eine bessere Wiederverwertung
bei gleichzeitiger Reduzierung von Fehlerquellen.
Grundsätzlich erzeugen solche grafischen Entwurfswerkzeuge
ihre Ausgabe in einer Hardwarebeschreibungssprache,
sodass manuelle Eingriffe oder die Verifikation
des generierten Codes möglich sind.
3. EBENENKONZEPT DER SYSTEMARCHITEKTUR
Das offene Regelungssystem lässt sich logisch in Ebenen
untergliedern, die in Bild 3 dargestellt sind und
nachfolgend beschrieben werden. Hervorgehoben ist
dabei der Bereich, den das SOPC-Design umfasst. Wesentlich
hierbei ist die Forderung, möglichst viel Komplexität
in den FPGA zu verlegen, um die Vorteile von
28
atp edition
6 / 2014
BILD 1: Mögliche Ausgestaltung
der Antriebsreglerplattform
Antriebsreglerplattform
FPGA
Numerische
Steuerung
Lageregler
Geschwindigkeitsregler
Stromregler
Leistungselektronik
Feldbus
I/O
PMSM
Soft-
CPU
Filter
User-
IP-Cores
Lagegeber
BILD 3: Ebenen der Systemarchitektur
BILD 2: Darstellung der Phasen im Gangzyklus
BILD 4: Laboraufbau
des Regelungssystems
Konfigurierbarkeit und freiem Zugriff zu nutzen. Dies
ist ein wesentlicher Unterschied im Vergleich zu konventioneller
Hardware, wo eine Änderung von einzelnen
Parametern oder Verbindungen ein aufwendiges
Re-Design nach sich ziehen kann.
Anwendung:
Die unterste Ebene bilden Motoren und Leistungselektronik,
industrielle Spindel- oder Linearachsen, sowie
Sensorik zur Rückführung der Zustandsgrößen.
Peripheriemodule:
Die Umsetzung der Ein- und Ausgangssignale in digitale
Signale mit FPGA-kompatiblen Pegeln und das
Protokoll-Handling von Feldbussen werden auf austauschbare,
einheitliche Platinen ausgelagert.
SOPC-Komponenten:
Um die Struktur eines Regelungssystems innerhalb
des FPGA effizient abbilden zu können, wird dieses
in hierarchisch gegliederte funktionale Module zerlegt.
Ein solches Modul kann beispielsweise die Geberauswertung,
ein PI-Regler oder zusammengefasst
eine komplette Reglerkaskade für eine Achse sein.
Dadurch lässt sich diese Struktur direkt auf einzelne,
durch Signalflüsse verkoppelte SOPC-Komponenten
abbilden. Für den Anwender der Module ist dabei die
konkrete Implementierung irrelevant, sofern diese
über eine einheitliche Schnittstelle und einen definierten
Satz Parameter verfügt. Die grundlegende Verkopplung
der Module wird bei der Erstellung des
SOPC-Designs festgelegt, Signalfluss und Verhalten
innerhalb der Komponenten sind noch zur Laufzeit
k o n fi g u r i e r b a r.
Systembus:
Zum Zugriff auf die Parameterregister und zum Austausch
von Signalen wird ein herstellerseitig standardisierter
Systembus (Altera Avalon) verwendet. Dieser
ist als Master-Slave-Protokoll definiert und ermöglicht
das Einblenden der Daten in Speicherbereiche übergeordneter
Systeme mittels Memory Mapping. Die ent-
atp edition
6 / 2014
29
HAUPTBEITRAG
sprechende Logik wird automatisiert durch die Entwurfswerkzeuge
erzeugt.
CPU und Software:
Komplexere, aber weniger zeitkritische Aufgaben werden
durch eine CPU abgearbeitet. Neben der Überwachung
oder Ablaufsteuerung können Software-Module
von Dritten eingebunden werden, beispielsweise eine
PC-basierte numerische Steuerung wie [6]. Dabei kann
die CPU entweder als SOPC-Komponente (Altera NIOS
II) oder in konventioneller Form mit Kopplung über
einen externen Bus ausgeführt sein.
4. PRAKTISCHE UMSETZUNG
Der Entwurfsprozess einer Plattform entsprechend dem
vorgestellten Konzept gliedert sich in drei Teilaspekte:
Der Entwurf der Hardwareplattform mit Peripherieanbindung,
die Spezifizierung und Implementierung der SOPC-
Komponenten sowie die Integration des SOPC-Systems.
4.1 Hardwareplattform
Da die Architektur des Regelungssystems unabhängig
von der verwendeten Hardware spezifiziert ist, kann
eine für die jeweilige Anwendung sinnvolle Plattform
verwendet werden. Im Fall des Prothesenantriebs wurde
dazu der Single-Board-Computer (SBC) Kontron
MSMST der Bauform PCIe/104 gewählt. Neben einem
Intel Atom E6x5C ist auf dem Prozessormodul ein FPGA
vom Typ Altera Arria II GX integriert. Den Datenaustausch
ermöglicht eine on-Chip PCI-Express-Verbindung
zwischen CPU und FPGA. Diese enge Kopplung
reduziert den Aufwand an Bauteilen und ist somit im
Hinblick auf den Einsatz in Embedded-Systemen sinnvoll.
Zur Implementierung von Funktionen kann die
jeweils optimale Plattform (x86/x64-CPU oder FPGA)
gewählt werden, was den Entwurfsprozess vereinfacht
und die Leistungsfähigkeit erhöht.
Bild 4 zeigt einen universellen Laboraufbau des Regelungssystems
mit MSMST-Plattform und drei der vorgestellten
Peripheriemodule. In frühen Entwicklungsphasen
ist häufig ausreichend Reserve an Schnittstellen
und Rechenleistung wichtiger als das Baumaß. Für die
Regelung des Prothesenantriebs kann die Anzahl der
Schnittstellen später noch deutlich reduziert und der
Raumbedarf durch geeignete Integration minimiert werden.
Für die ersten Untersuchungen und Messungen am
Prototyp sowie die Implementierung von Algorithmen
zur Bewegungssteuerung ist dabei die Verfügbarkeit
einer kompletten PC-Plattform von Vorteil.
Übliche PC-Peripherie, wie Arbeitsspeicher, BIOS
oder Festplatten- und Displaycontroller, sind bereits auf
dem SBC vorhanden. Zur Anbindung der in der Antriebstechnik
gebräuchlichen Schnittstellen sind die
entsprechenden Peripheriemodule über Wannenstecker
mit den frei verwendbaren Ports des FPGA verbunden.
Die nachfolgend genannten industrieüblichen Schnittstellen
sind derzeit im Einsatz, die Ergänzung um weitere
Medien und Protokolle ist vorgesehen.
TTL-I/O-Modul: Bidirektionale Ein- und Ausgänge
mit TTL-Logikpegel für digitale Signale
ADC-Modul: Differenzielle analoge Eingänge mit einstellbarer
Verstärkung. Die Umsetzung mittels Delta-
Sigma-Modulation erlaubt es, Bandbreite und Genauigkeit
anwendungsspezifisch zu parametrieren.
DAC-Modul: Analogausgänge mit niedriger Impedanz
und unterschiedlichen Pegeln, ebenfalls basierend
auf Delta-Sigma-Modulation
EnDat-Modul: Schnittstelle für Lagegeber mit dem
Heidenhain EnDat-2.2-Protokoll
EtherCAT-Modul: Anbindung an numerische Steuerungen
über CANopen-Datentypen mittels des
Kommunikationsframeworks aus [7]
4.2 Entwurf der SOPC-Komponenten
Innerhalb des SOPC kommen verschiedenartige Komponenten
zum Einsatz. Einige entsprechen den Primitiven
der Regelung (zum Beispiel PI-Regler oder Differenzierer).
Andere bilden das Gegenstück zu den Peripheriemodulen,
beispielsweise ein Delta-Sigma-Modulator
oder eine State Machine für Kommunikationsprotokolle.
Realisiert wurden unter anderem Filterung, Interpolation,
Istwert-Erfassung, Regelung, Takterzeugung, Modulation
der Ausgangsgrößen, Protokollhandling und Ansteuerung
von Sicherheitslogik.
Die Verwendung von eigenen oder durch Dritte bereitgestellten
Intellectual Property Cores (IP-Cores) erleichtert
die Weitergabe und Wiederverwendung im Entwurfsprozess.
Entsprechende Generatoren werden insbesondere
für digitale Filter von FPGA-Herstellern angeboten.
Deren Nachteil ist jedoch, dass mehrere Parameter bereits
bei der Erzeugung des FPGA-Designs festgelegt
werden müssen. Um eine größtmögliche Freiheit für
Parameter und Struktur zu erhalten, wurden die Komponenten
in VHDL implementiert. Konstanten (Generics)
legen dabei nur maximale Werte bezüglich der Datenbreite
oder Ordnung fest. Der tatsächlich verwendete
Wert ist über Steuerregister parametrierbar und unmittelbar
wirksam. Jede Komponente verfügt dazu über ein
Kommunikationssubmodul, welches die Anbindung an
den Systembus ermöglicht. Ein Avalon-MM-Slave stellt
die notwendigen Register als Eingangs- und Ausgangssignale
zur Verfügung und führt die Transaktionen beim
Lese- und Schreibzugriff über den Bus durch.
Bestandteil des Komponentenentwurfs ist die simulative
Überprüfung von Funktion und Robustheit. Mittels
geeigneter Testfälle wird dabei verifiziert, ob die geforderte
Funktion erfüllt wird. Die Modularisierung erleichtert
die möglichst umfassende Abdeckung mit Testvektoren.
Im Vergleich zum konventionellen Hardwaredesign
ist dabei der Nachweis des spezifikationskonformen
Verhaltens deutlich einfacher und verlässlicher möglich.
30
atp edition
6 / 2014
Grundsätzlich kann das Verhalten sämtlicher Komponenten
auf verschiedenen Ebenen verifiziert werden.
Für einzelne VHDL-Module kommt im Lauf der Implementierung
die Simulation, beispielsweise mittels Modelsim,
zum Einsatz. Zur Laufzeit des FPGA-Designs
lassen sich interne Signalverläufe mittels eines einkompilierten
Chip-Scopes aufzeichnen und auf unterschiedlicher
Abstraktionsebene betrachten. Dadurch
ist die Interaktion mit der weiteren Hardware der Anwendung
darstellbar. Auf Ebene der Regelungsmodule
erlauben sinnvoll gewählte Parametersätze den Zugriff
von außen, auch über einen Feldbus, auf die internen
Signale zur Überwachung oder Fehlersuche.
4.3 Integration in das FPGA-Design
Zur Umsetzung eines konkreten Regelungssystems
wird dessen Struktur mit den entsprechenden SOPC-
Komponenten nachgebildet. Deren Anordnung und
Verkopplung, die hierarchisch strukturiert sein kann,
ergibt sich aus einem Signalflussplan, beispielhaft dargestellt
in Bild 5. Eine Konfiguration legt die Verschaltung
und damit den Signalfluss zwischen den Komponenten
direkt in der Hardware fest.
Da die entworfenen Komponenten sich an den Vorgaben
von Altera orientieren, können diese grafisch
instanziiert und verknüpft werden. Nach Anlegen einer
neuen SOPC-Komponente werden deren Ein- und Ausgangssignale
den standardisierten Schnittstellen zugewiesen,
eine Dokumentation hinzugefügt und wiederverwendbar
in der Bibliothek abgelegt.
Bei der Erzeugung eines SOPC-Designs mit Altera
QSYS sind die verfügbaren Komponenten in Kategorien
unterteilt und werden durch Hinzufügen zu einem Design
instanziiert. Die Signale werden als offene Verbinder
angezeigt und lassen sich durch Auswählen miteinander
verknüpfen. Dies betrifft zuerst Takt, Reset und
Systembus, welche an alle Komponenten verteilt werden.
Die einzelnen Regelgrößen sind unidirektionale
Signale und werden entsprechend dem Signalflussplan
verbunden, zur Veranschaulichung ausschnittsweise
dargestellt in Bild 6.
Das SOPC wird abschließend in ein Top-Level-Design
integriert, in dem der verwendete FPGA und umgebungsspezifische
Rahmenbedingungen (Constraints)
festgelegt, sowie den Signalen physikalische Pins zugeordnet
werden.
4.4 Einschränkungen der Werkzeuge
Grundsätzlich ist die Entwicklung von funktionalen
Komponenten auf der Ebene programmierbarer Logik
im Vergleich zu reiner Software mit einigen Nachteilen
verbunden. Die notwendige Zeit zur Erzeugung der
BILD 5: Signalfluss der Regelung im SOPC-Design
BILD 6:
Ausschnitt aus
der grafischen
Verknüpfung in
Altera QSYS
BILD 7:
Prototyp der
angetriebenen
Prothese
atp edition
6 / 2014
31
HAUPTBEITRAG
FPGA-Konfiguration liegt immer noch um Größenordnungen
über Compile-Zeiten von Software-Projekten
mit vergleichbarer Komplexität. Weiterhin ist die Umsetzung
von Struktur und Datenfluss von komplexen
SOPC-Systemen in der Antriebstechnik aus Sicht der
Autoren verbesserbar, da die betrachteten Werkzeuge
noch Defizite in ihrer Funktionsweise aufweisen. Beispielsweise
sinken bei wachsender Komplexität sowie
bei der Verwendung eigener Schnittstellentypen Übersichtlichkeit
und Handhabbarkeit des Projekts.
Eine weitere Einschränkung ist die starke Herstellerabhängigkeit
in den verwendeten Entwicklungsumgebungen.
Während ein herstellerübergreifender Austausch
einzelner IP-Cores relativ gut machbar ist, sieht
dies auf Ebene der SOPC-Systeme deutlich schwieriger
aus. Im Gegensatz zu einem rein auf die Hardwarebeschreibungssprachen
VHDL oder Verilog beschränkten
Design werden mit der Wahl der FPGA-Plattform die
möglichen Entwicklungswerkzeuge festgelegt.
weis der Architektur erbringen. Bild 7 zeigt das zugehörige
Funktionsmuster, mit dem erste erfolgreiche
Versuche innerhalb eines Ganglabors bereits vorgenommen
wurden. Das System ermöglicht die effiziente
Weiterentwicklung situationsangepasster Gangprofile
und damit die Umsetzung realitätsnaher Bewegungsmuster.
Zusammenfassend lässt sich feststellen, dass die Verwendung
von FPGA in der Antriebstechnik grundsätzlich
Vorteile bietet. Vergleichbare Hardware-Plattformen
sind verfügbar, beispielsweise in Form von [8].
Die Verwendung standardisierter und modularer Architekturen
ist entscheidend für eine effiziente Implementierung
und Anwendung. Dabei verschwimmen die
Grenzen zwischen Software und Hardware.
MANUSKRIPTEINGANG
17.09.2013
Im Peer-Review-Verfahren begutachtet
FAZIT
Die umfangreiche Parametrierbarkeit und schnelle
Rekonfigurierbarkeit des FPGA erleichtern das Prototyping
in Bereichen, wo bisher ein teures Re-Design der
Hardware notwendig war. Dies ist besonders für Produkte
in kleinen Stückzahlen attraktiv. Dabei stellt die
offene Architektur die Austauschbarkeit der Komponenten
sicher, auch herstellerübergreifend.
Bei der Umsetzung der Regelungsplattform für die
angetriebene Prothese ließ sich ein Funktionsnach-
DANKSAGUNG
Die Arbeit im Rahmen des ZIM-Kooperationsprojekts
Entwicklung des Prototyps eines aktiven
Antriebssystems für Prothesen und Orthesen wurde
unterstützt durch die Arbeitsgemeinschaft
industrieller Forschungsvereinigungen Otto von
Guericke e.V (AiF), gefördert vom Bundesministerium
für Wirtschaft und Technologie aufgrund eines
Beschlusses des Deutschen Bundestages.
AUTOREN
Dipl.-Ing. PETER ZAHN
(geb. 1985) absolvierte ein
Studium an der Universität
Stuttgart im Fach
Automatisierungstechnik
in der Produktion. Seit
2012 ist er wissenschaftlicher
Mitarbeiter am
ISW. Schwerpunkt seiner
Tätigkeit ist die Antriebs- und Regelungstechnik,
insbesondere Architekturen für
FPGA-basierte Systeme.
Institut für Steuerungstechnik der Werkzeugmaschinen
und Fertigungs einrichtungen (ISW)
Universität Stuttgart,
Seidenstraße 36, D-70174 Stuttgart,
Tel. +49 (0) 711 68 58 24 14,
E-Mail: peter.zahn@isw.uni-stuttgart.de
Dipl.-Ing. IGOR LAPTEV
(geb. 1978) studierte an der
Staatlichen Universität der
Stadt Pawlodar, Kasachstan,
das Fach Elektroantrieb und
Automatisierung. Danach
folgte ein Studium an der
Universität Stuttgart im Fach
Automatisierungstechnik in
der Produktion. Seit 2007 ist er wissenschaftlicher
Mitarbeiter am ISW mit den Schwerpunkten
Antriebs-, Regelungstechnik, FPGA-Technik und
Leistungselektronik.
Institut für Steuerungstechnik der Werkzeugmaschinen
und Fertigungs einrichtungen (ISW)
Universität Stuttgart,
Seidenstraße 36, D-70174 Stuttgart,
Tel. +49 (0) 711 68 58 45 11,
E-Mail: igor.laptev@isw.uni-stuttgart.de
32
atp edition
6 / 2014
www.atp-edition.de
Jetzt bestellen!
REFERENZEN
[1] Kramer, C.: Offene Antriebsreglerplattform.
Heimsheim, Jost-Jetter Verlag 2011
[2] Bardakcioglu, A., Hafla, A., Laptev, I., Verl, A.:
Offene Steuerungs- und Antriebsplattform für
Werkzeugmaschinen und Prozesse - Hybride
Technologien in der Produktion. In: Fortschritt-
Berichte VDI Reihe 2 Nr. 675, S. 94-115.
VDI-Verlag 2010
[3] Perry, J.: Ganganalyse, Norm und Pathologie
des Gehens. Urban und Fischer 2003
[4] Leith, D. J., Leithead, W.: Survey of gainscheduling
analysis and design. International
Journal of Control 73 (11), S. 1001-1025, 2000
[5] Sommer, S.: Selbsteinstellender PI-Regler
für LPV-Systeme. at - Automatisierungs -
technik 49 (10), S. 462-469, 2001
[6] Industrielle Steuerungstechnik GmbH:
Kernel - Softwarekern für CNC, Robotik
und Motion Control,
http://www.isg-stuttgart.de/kernel.html
[7] Simon, A., Frick, F., Verl, A.: Framework zur
Systemgestaltung von FPGA-basierten
Automatisierungsgeräten. Wt Werkstattstechnik
online Jahrgang 101 Heft 5, S. 378-383, 2011
[8 ] Krah, J. O., Höltgen, M., Richter, R.:
FPGA-basierte Motorsteuerung mit Delta-
Sigma-Strommessung. Elektronik 2013 (6),
S. 18-23, 2013
Die Referenzklasse für die
Automatisierungstechnik
atp edition ist das Fachmagazin für die Automatisierungstechnik.
Die Qualität der wissenschaftlichen Hauptbeiträge
sichert ein strenges Peer-Review-Verfahren. Bezug zur
automatisierungstechnischen Praxis nehmen außerdem
die kurzen Journalbeiträge aus der Fertigungs- und Prozessautomatisierung.
Sichern Sie sich jetzt diese erstklassige Lektüre! Als
exklusiv ausgestattetes Heft oder als praktisches ePaper
– ideal für unterwegs, auf mobilen Endgeräten oder zum
Archivieren.
Wählen Sie einfach das Bezugsangebot, das Ihnen zusagt:
als Heft, ePaper oder Heft + ePaper!
Prof. Dr.-Ing. Dr. h.c.
mult. ALEXANDER VERL
(geb. 1966) studierte
Elektrotechnik in Erlangen-Nürnberg,
Promotion
1997 am DLR in Oberpfaffenhofen.
Seit 2005
Institutsleitung am ISW,
seit 2006 zusätzlich am
Fraunhofer-IPA. Die Schwerpunkte seiner
Forschung bilden Mechanik und Steuerung
von Werkzeugmaschinen, Simulationstechnik
in der Fertigungstechnik sowie die Robotik.
Institut für Steuerungstechnik der Werkzeugmaschinen
und Fertigungs einrichtungen (ISW)
Universität Stuttgart,
Seidenstraße 36, D-70174 Stuttgart,
Tel. +49 (0) 711 68 58 24 22,
E-Mail: alexander.verl@isw.uni-stuttgart.de
atp edition erscheint in der DIV Deutscher Industrieverlag GmbH, Arnulfstr. 124, 80636 München
HAUPTBEITRAG
Engineering-Effizienz
automatisch messen – Teil 2
Explorative Untersuchung von Methode und Metriken
Engineering ist ein wesentlicher Kostenfaktor in der Automatisierung. Daher suchen
Industrie und Akademia gemeinsam nach Methoden, um die Engineering-Effizienz
zu erhöhen. Leider ist es nicht möglich, solche Methoden objektiv, systematisch,
reproduzierbar und vergleichbar zu bewerten, weil sich Engineering-Effizienz bisher
einer systematischen Messung entzieht. Teil 1 dieses Beitrags [1] schlägt einen Ansatz
zur automatischen Messung und Visualisierung der Effizienz von Engineering-Methoden
vor. Der hier vorliegende Teil 2 widmet sich der experimentellen Überprüfung
der Messmethodik und der in Teil 1 vorgestellten Thesen.
SCHLAGWÖRTER Engineering / Effizienz / Methoden / Konzepte / Effizienzmessung
Automatically Measuring Engineering Efficiency – Part 2 –
Definition, Registration and Visualisation
Engineering is a key cost driver in automation. Therefore, both manufacturers and
researchers are looking for ways to improve engineering efficiency. Unfortunately,
without being able to measure engineering efficiency it is not possible to examine
new methods in an objective, systematic, reproducible or comparable way. Part 1 of
this paper [1] proposes a concept to automatically measure and visualize engineering
efficiency. Part 2 is dedicated to the experimental examination of this concept and
the corresponding theses.
KEYWORDS engineering / efficiency / methods / concepts / efficiency measurement
34
atp edition
6 / 2014
RAINER DRATH, CHRISTIAN MESSINGER, BEN SCHRÖTER, NUO LI,
GEORG GUTERMUTH, ABB-Forschungszentrum, Ladenburg
Ein Ansatz zur Messung und Visualisierung der
Effizienz von werkzeugbezogenen Methoden
der Automatisierungsplanung wurde in Teil 1
dieses Beitrags vorgestellt [1]. In Teil 2 widmen
sich die Autoren der experimentellen Überprüfung
der Messmethodik und der in Teil 1 vorgestellten
Thesen. Dazu führten fünf Versuchspersonen im Labor
das Engineering eines Benchmark-Projekts durch, während
im Hintergrund die Messung abläuft. Ziel dieses
Experimentes ist nicht die Bewertung der untersuchten
Engineering-Methoden; es wird vielmehr die Aussagekraft
und Belastbarkeit der vorgestellten Messmethode
exploriert. Die Zahl der Kandidaten lässt aufgrund der
geringen Stichprobengröße zwar keine allgemeingültige
Bewertung der als Beispiel gewählten Engineering-
Methoden zu, aber sie demonstriert typische Widrigkeiten
und Fehlerquellen bei der Messung.
1. TESTAUFBAU UND EXPERIMENT
Die Evaluierung der vorgeschlagenen Methode zur Messung
von Engineering-Effizienz erfolgt exemplarisch anhand
eines konkreten Labor-Planungswerkzeugs für Automatisierungssoftware.
Im Sinne des Experimentes verwenden
die Verfasser des Beitrags ein internes, proprietäres
und experimentelles Planungswerkzeug zur
Programmierung von Automatisierungsgeräten, siehe
Bild 1. Die Effizienzmessung ist jedoch keineswegs an das
verwendete Werkzeug gebunden. Die Methode ist auf beliebige
Engineering-Artefakte und Werkzeuge übertragbar.
Das vorgestellte Vorgehen lässt sich uneingeschränkt auf
Prozesse mit mehreren Planungswerkzeugen anwenden.
Das Beispielwerkzeug deckt vier typische Engineering-Aktivitäten
ab: Logikprogrammierung mit Funktionsblockdiagrammen
(FBD) und Schrittketten (SFC),
die Konfiguration von Bedienoberflächen, E/A-Kommunikation
und Test. Diese Aktivitäten umfassen nur einen
Teil der tatsächlichen Aktivitäten eines Automatisierungsprojektes,
berühren jedoch die wesentlichen
Kernbereiche des softwareunterstützten Engineerings
in der gesamten Wertschöpfungskette. Zur Evaluierung
wurden die im Teil 1 vorgeschlagenen Messfunktionen
direkt in das Werkzeug eingebettet. Dies ermöglicht es,
alle relevanten Interaktionen des Ingenieurs mit dem
Planungswerkzeug strukturiert zu erfassen.
1.1 Festlegung der Engineering-Artefakte
Für die Messung von Effizienz müssen die relevanten
Artefakt-Typen festgelegt werden. Diese Festlegung ist
aufgaben- und werkzeugspezifisch und macht die Messmethodik
auf beliebige Werkzeuge anpassbar. Für die
Domäne der Automatisierungssoftware im Bereich
Steuerungen/Regelungen lassen sich herstellerübergreifend
(ohne Anspruch auf Vollständigkeit) folgende
Artefakte festlegen:
Aktoren
Sensoren
Controller
Signale
lokale und globale Variablen
Funktionsbausteindiagramme (FBD)
Ablaufdiagramme (SFC)
Grafikelemente für die Bedienoberfläche
1.2 Implementierung der Datenanalysefunktionen
Zur Messung der Effizienz werden in regelmäßigen
Zeitabständen die Projektkomplexität (die momentane
Zahl der konkreten Artefakte im konkreten Planungswerkzeug)
und die jeweils damit verbrachte Zeit ermittelt.
Zur Datenanalyse ist neben der Messfunktion die
Berechnung und Darstellung der Ergebnisse nötig.
Die Messfunktion wurde von den Autoren direkt in
das Planungswerkzeug eingebettet. Die Messergebnisse
werden in einer CSV-Datei abgelegt. Die Berechnung
und Darstellung der Ergebnisse erfolgt in einer separaten
Software außerhalb des Planungswerkzeuges. Im
vorliegenden Fall wird ein vordefiniertes MS-Excel-
Workbook verwendet. Es liest die gemessenen Daten
atp edition
6 / 2014
35
HAUPTBEITRAG
aus der CSV-Datei ein und erzeugt daraus Diagramme
sowie Statistiken wie etwa in Bild 2 (siehe rechte Seite).
Die Trennung zwischen der Messung und der Auswertung
mit Hilfe einer Datei-Übergabeschnittstelle
ermöglicht es, die Auswertesoftware unabhängig vom
Engineering-Werkzeug wiederzuverwenden. Da das
Einlesen und Kombinieren mehrerer CSV-Dateien aus
unterschiedlichen Werkzeugen möglich ist, bildet diese
modulare Architektur die Grundlage für eine werkzeugübergreifende
Effizienzmessung.
1.3 Das Benchmark-Projekt
Um Vergleichbarkeit bei der Effizienzmessung zu erlangen,
ist ein Benchmark-Projekt erforderlich. Exemplarisch
wurde hierzu ein Simple Air Soft Feeding
System (SASF-System) spezifiziert, eine Anlage zur
Gasverflüssigung. Dieses Benchmark-Projekt ist nicht
allgemeingültig, reicht aber für die Evaluierung der
Messmethodik aus. Fünf Kandidaten planen die Automatisierungssoftware
und erhalten hierfür als Startpunkt
eine Anforderungsspezifikation. Um die Auswirkung
des Faktors Mensch zu beleuchten, wird das Engineering
dreimal ausgeführt.
Bild 3 (siehe rechte Seite) zeigt das R&I-Fließbild des
SASF-Systems. Es besteht aus einem Tank, drei Ventilen,
sieben Sensoren und einem Druckschalter. Der Operateur
startet das System per Druckschalter. Sobald der Prozess
anläuft, soll sich das Ventil V103 öffnen. Dann, nach 2
Sekunden, öffnet sich das Verflüssigungsventil V102.
Sobald der Druck im Tank P101 80 % des Maximaldruckes
erreicht hat, soll das Überdruckventil V101 geöffnet
werden, bis der Druck auf 60 % abfällt. Zusätzlich
sollte das Überdruckventil V101 nicht geöffnet werden,
wenn das Zufuhrventil V103 geschlossen ist. Weiterhin
sollte das Verflüssigungsventil V102 nicht geöffnet werden,
während der Druckschalter B101 gedrückt wird.
Neben der beschriebenen Steuerungslogik sollen die
Kandidaten eine Bedienoberfläche des SASF-Systems
erstellen. Das HMI soll dabei den Prozess in einer einfachen
Grafik zeigen, die Ventile sollten ihre Farbe ändern,
wenn sie offen oder geschlossen sind (offen =
blau, geschlossen = schwarz), und der Druck P101 soll
angezeigt werden.
Da drei ähnliche Ventile im SASF-System verwendet
werden, wurden die in Bild 4 gezeigten Anforderungen
an die Ventilsteuerung definiert. Diese sollen in einer
Standardventilsteuerung umgesetzt werden.
Neben diesen Anforderungsbeschreibungen umfasst
das Benchmark-Projekt vorbereitete Bibliotheken, die
von einigen Kandidaten gemäß Versuchsplanung in
Tabelle 1 verwendet werden sollen. Diese Bibliotheken
sind Teil der untersuchten Engineering-Methode. Es
soll untersucht werden, ob sich die Effizienz durch
Wiederverwendung von Bibliothekselementen steigern
lässt. Beide Bibliotheken enthalten eine Implementierung
des Ventilblockes gemäß Bild 4. Bibliothek 1 wurde
gezielt mit Fehlern versehen, sodass eine geringere
Effizienz erwartet wird.
2. AUSFÜHRUNG UND EVALUIERUNG DER MESSUNGEN
Der im Beitrag vorgeschlagene Ansatz zur Bewertung von
Engineering-Methoden betritt Neuland, weil die Bewertung
auf Basis von Messungen erfolgt. Das Experiment lieferte
eine Fülle an Messdaten. Die Autoren merken an, dass das
Experiment unter teilweise widrigen Bedingungen stattfand,
aber gerade diese Widrigkeiten halfen, die Messung
besser kennenzulernen und auf relevante Fragen zu stoßen.
Das Messergebnis selbst spielt für die Bewertung der Messmethode
daher nur eine untergeordnete Rolle.
2.1 Analysestrategie
Die Auswertung der Messergebnisse erfordert eine Analysestrategie.
Nach einer Einführung in das Planungswerkzeug
erhielten die fünf Kandidaten dieselbe Anforderungsspezifikation,
jedoch unterschiedliche Bibliotheken. Das
vorgesehene Experiment-Setup ist in Tabelle 1 (rechts)
abgebildet, alle Kandidaten führen das Engineering dreimal
durch und variieren dabei ihre Bibliotheken. Aus dem
Experiment-Setup lassen sich mit fünf Kandidaten in drei
Versuchen theoretisch 15 Messergebnisse ermitteln.
Kandidat AW in Zeile 1 beispielsweise sollte seine
Lösung zunächst ohne jede Bibliothek implementieren
(das heißt, er kann seine eigenen Bibliotheken bei Bedarf
selbst erstellen). Im zweiten Versuch sollte zur
Lösung die fehlerhafte Bibliothek 1 verwendet werden,
im dritten Versuch die Bibliothek 2.
Da die Kandidaten ohne spezifische Erfahrungen bezüglich
des Planungswerkzeugs sowie der Automatisierungsaufgabe
starten, wird vorläufig angenommen,
dass alle Kandidaten in derselben Versuchsrunde
denselben Erfahrungsstand besitzen. Um die Wirkung
von Wiederverwendung zu untersuchen, müssten dann
für dieselbe Versuchsrunde die Kandidaten mit unterschiedlichen
Ansätzen verglichen werden: keine Bibliothek,
Bibliothek 1, Bibliothek 2.
Um andererseits das Verhalten der Kandidaten untersuchen
zu können, müssten die Ergebnisse für diejenigen
Kandidaten verglichen werden, die dieselbe
Aufgabe in verschiedenen Erfahrungsebenen (Versuchen)
durchführen.
Aus der praktischen Messung ergaben sich jedoch
Widrigkeiten: Nicht jeder Kandidat beendete alle drei
Versuche, und nicht jeder Kandidat beendete jeden angefangenen
Versuch. Tabelle 2 (rechts) zeigt die Ergebnisse
des tatsächlichen Experiments. Kandidat AW
startete zwei Versuche im Experiment: Im ersten versuchte
er, das SASF-System ohne jede Bibliothek zu
implementieren, konnte seine Arbeit jedoch nicht beenden.
Seinen zweiten Versuch ohne Bibliothek beendete
er. In Tabelle 2 steht das hochgestellte n für nicht beendet
und das hochgestellte c für beendet (completed).
Die Resultate des Experiments zeigen, dass die Messergebnisse
trotz Laborbedingungen einer Kombination
von vielen Einflüssen unterliegen, statt nur dem Messobjekt,
das heißt der Effizienzsteigerung durch Verwendung
von Bibliotheken. Dazu gehören:
36
atp edition
6 / 2014
BILD 1: Im Experiment verwendetes Beispielwerkzeug
BILD 3: R&I-Fließbild
des SASF-Systems
STATISTICS
actuars sensors signals FBDs SFCs Graphics
total number 2 1 2 2 0 1
avarage engineering time n.a. n.a. n.a. 00:09:29 00:05:01
avarage modification time 00:00:10 00:00:10 n.a. 00:01:25 00:00:00 00:01:20
re-use rate (library) n.a. n.a. n.a. 0% 0% 0%
re-use rate (copy & pate) n.a. n.a. n.a. 0% 0% 0%
BILD 2: Effizienz-Cockpit: oben Projekt statistik, links prozentuale
Verteilung der Arbeitszeiten auf verschiedene Aktivitäten
I1
Open Permission
I2
Close Permission
I3
OpenCloseCommand
P1
MotorAddress
P2
SensorOpenAddress
Valve Block
O1
IsOpen
O2
IsClosed
• I3 (boolean) öffnet das Ventil (bei true) oder schließt es (bei false),
wenn die zugehörige Erlaubnis (I1/I2) true ist.
• Der Aktor wird mittels P1, P2 und P3 (Integer) konfiguriert. P1 adressiert einen
Motor, P2 und P3 adressiert Berührungssensoren, die die Endposition anzeigen.
• O1 zeigt an, ob das Ventil offen ist,
O2 zeigt, ob es geschlossen ist.
P3
SensorCloseAddress
BILD 4: Funktionsblockspezifikation zur Standardventilsteuerung
Kandidaten Versuch 1 Versuch 2 Versuch 3
AW No Lib Lib1 Lib2
JS No Lib Lib1 Lib2
MS Lib1 No Lib Lib2
NK Lib2 Lib1 No Lib
NL Lib2 Lib1 No Lib
TABELLE 1: Geplantes initiales Experiment-Setup.
Jeder Proband sollte in drei Versuchen jeweils eine
andere Bibliothek (Library) verwenden.
Kandidaten Versuch 1 Versuch 2 Versuch 3
AW No Lib n No Lib c
JS No Lib c Lib1 c Lib2 c
MS
Lib1 n
NK Lib2 c Lib1 c No Lib c
NL Lib2 n Lib2 n
TABELLE 2: Auflistung der realen
durchgeführten 11 Versuche
atp edition
6 / 2014
37
HAUPTBEITRAG
Die Expertise der Kandidaten mit der IEC 61131-Programmierung.
Die Erfahrung der Kandidaten mit dem Werkzeug.
Obwohl kein Kandidat das Werkzeug zuvor verwendet
hat, stellen sich Erfahrungen mit ähnlichen
Werkzeugen als vorteilhaft heraus.
Die Benutzer- beziehungsweise Erlernfreundlichkeit
des Werkzeugs. Einige Kandidaten verbrachten viel
Zeit damit, mit dem Werkzeug vertraut zu werden.
Qualität der Spezifikation. Einige Kandidaten verbrachten
viel Zeit damit, die Anforderungsspezifikation
zu verstehen.
Domänenwissen. Einige Kandidaten verfügen über
Erfahrungswissen aus dem Bereich der Prozessautomatisierung,
andere Kandidaten haben zwar Engineering-Erfahrung,
allerdings in anderen Domänen.
Um diese genannten Störungen herausfiltern zu können,
wurde die Strategie für die Ergebnisanalyse angepasst:
Die vorläufige Annahme einer gleichen Erfahrungsebene
für jede Versuchsrunde wird verworfen. Das
Vorwissen der Kandidaten hat erwartungsgemäß
erheblichen Einfluss auf deren Effizienz.
Es ist vorteilhafter, jeden Versuch nach relativen
Gesichtspunkten zu bewerten statt nach absoluten
Werten wie der Zeit.
Es wird versucht, Muster zu finden in der Ausführung
derselben Aufgaben zwischen unterschiedlichen
Kandidaten und diese Muster miteinander
zu vergleichen.
Darauf basierend werden im nächsten Abschnitt die gesammelten
Messwerte näher beleuchtet und auf die Wirksamkeit
der Wiederverwendung sowie das Vorhandensein
interessanter Muster oder Phänomene hin untersucht.
2.2 Analyse des Zeitverbrauchs
Erster Anhaltspunkt für einen Vergleich der Effizienz
ist der Zeitverbrauch pro Aufgabe und Kandidat. Tabelle
3 stellt diese in Minuten für jede Aufgabe (ohne Leerlaufzeit)
dar. Mit Hilfe von Farben werden die Aufgaben
und deren Komplettierungsgrad unterschieden.
Tabelle 3 zeigt, dass nur NK und JS alle drei Versuche
vollenden konnten, wobei NK dafür signifikant weniger Zeit
benötigte als die anderen Kandidaten. Dies lässt vermuten,
dass NK der erfahrenste Kandidat war, gefolgt von JS. Die
Rekordzeit von JS mit Bibliothek 1 erklärt sich dadurch, dass
sein zweiter Versuch unmittelbar nach dem ersten stattfand,
während er seinen dritten Versuch einen Monat später
durchführte. Dies verdeutlicht den starken Lerneffekt.
AW beendete sein Engineering erst im zweiten Versuch.
NL konnte sich gegenüber dem ersten Versuch
mit Bibliothek 2 beim zweiten Versuch mit derselben
Bibliothek um 23 Minuten verbessern. Obwohl beide
Ergebnisse nicht ganz fertiggestellt wurden, ist das
Kandidaten Zeit (min) ohne Leerlauf
AW 110 121
JS 120 40 104
MS 99
NK 71 79 72
NL 154 131
No Lib c
No Lib n
Lib 1 c
Lib 1 n
Lib 2 c
Lib 2 n
Kandidaten
Zeitverbrauch für Testing
ohne Leerlaufzeit
AW 10 | 9% 16 | 13%
JS 5 | 4% 4 | 11% 45 | 43%
MS 12 | 12%
NK 2 | 3% 13 | 17% 4 | 6%
NL 29 | 19% 20 | 15%
No Lib c
No Lib n
Lib 1 c
Lib 1 n
Lib 2 c
Lib 2 n
TABELLE 3: Zeitverbrauch
(gestrichelte Versuche wurden nicht beendet)
TABELLE 5: Zeit für Test-Aktivitäten (ohne Leerlaufzeit)
Kandidaten
Zeitverbrauch für Logik (min)
ohne Leerlaufzeit
AW 82 | 75% 79 | 65%
JS 73 | 63% 25 | 63% 37 | 36%
MS 63 | 64%
NK 16 | 22% 25 | 32% 40 | 56%
NL 82 | 54% 93 | 71%
No Lib c
No Lib n
Lib 1 c
Lib 1 n
Lib 2 c
Lib 2 n
Kandidaten
Zeitverbrauch HMI (min)
ohne Leerlaufzeit
AW 1 | 1% 11 | 9%
JS 11 | 9% 5 | 13% 2 | 2%
MS 5 | 5%
NK 6 | 9% 19 | 24% 13 | 19%
NL 11 | 7% 0
No Lib c
No Lib n
Lib 1 c
Lib 1 n
Lib 2 c
Lib 2 n
TABELLE 4: Zeit für die Logikprogrammierung
(ohne Leerlaufzeit)
TABELLE 6: Zeit für die Konfiguration der Bedienoberflächen
(ohne Leerlaufzeit)
38
atp edition
6 / 2014
zweite Ergebnis besser als das erste. Beides verdeutlicht
die erwartbare Lernkurve der Kandidaten.
Aus zusätzlichen Messungen im Werkzeug (nicht in
Tabelle 3 abgebildet) ließ sich ermitteln, dass die Navigationszeit
(Wechsel zwischen Ansichten im Werkzeug)
für die meisten Kandidaten zwischen 5 % und 7 % lag.
Nur NK konnte sehr kurze Navigationszeiten aufweisen
(2 % bis 3 %). Daraus lässt sich schlussfolgern, dass NK
deutlich vertrauter mit dieser Art Werkzeugen ist.
Das Experiment unterstreicht damit herausragend die
Forderung, dass eine objektive und vergleichbare Messung
mit routinierten Kandidaten durchgeführt werden
sollte, die dieselbe Aufgabe bereits mehrfach absolviert
haben und mit jedem Schritt vertraut sind. NK erweist
sich als derjenige Kandidat mit dem höchsten Routinegrad.
Aus diesem Grund fokussiert die folgende Analyse
verstärkt auf die Auswertung seiner Ergebnisse,
um den Einfluss des Faktors Mensch zu reduzieren.
Als nächstes wird untersucht, wie sich die Zeit verteilt,
die die Kandidaten mit Aktivitäten zur Erstellung
von Logik, dem Testen und der Konfiguration der Bedienoberfläche
verbracht haben, siehe Tabellen 4-6. Mit
Testen bezeichnen die Autoren einen zusammenhängenden
Zeitraum von Test-Aktivitäten einschließlich
Leerlauf- und Navigationszeit.
Die Zellen dieser Tabellen zeigen jeweils zwei Nummern:
die absolute Zeit in Minuten zur Vervollständigung
einer Aufgabe sowie den relativen Anteil des
Zeitverbrauchs des Kandidaten in Prozent gemessen an
der Gesamtzeit, die der Kandidat für die gesamte Aufgabe
verbraucht hat, siehe Bild 2.
Betrachten wir die Ergebnisse von NK: Tabelle 4
zeigt, dass die für die Logikprogrammierung benötigte
Zeit aus dem ersten Versuch (mit Bibliothek 2) bis zu
Versuch 3 (keine Bibliothek) zunimmt, obwohl sein
Erfahrungsschatz wächst. Mit anderen Worten: Trotz
des Zuwachses an Erfahrungen verbrachte er mehr Zeit
in der dritten Runde (ohne Bibliothek) als in den ersten
beiden (mit Bibliothek 2 und Bibliothek 1).
Im Gegensatz dazu steht die Zeit von NK, die er mit
Testen und Konfiguration der Bedienoberfläche verbracht
hat: Sie war kürzer unter Verwendung von Bibliothek
2 statt keiner Bibliothek, wobei die Nutzung der
fehlerhaften Bibliothek 1 in seinem zweiten Versuch am
längsten dauert. Die Test-Zeit für JS mit Bibliothek 1 war
ebenfalls länger als diejenige ohne Bibliothek, obwohl
JS die Implementierung zunächst ohne Bibliothek ausgeführt
hat und unmittelbar danach dieselbe Aufgabe
unter Nutzung von Bibliothek 1 durchführte. Dieses
Phänomen deutet bei NK und JS darauf hin, dass die
Nutzung einer fehlerhaften Bibliothek schlimmere Folgen
haben kann als die Verwendung keiner Bibliothek.
Weiterhin war für JS und NK die Nutzung von Bibliothek
2 bei der Konfiguration der Bedienoberflächen mit
deutlich weniger Zeit verbunden als die von Bibliothek
1 oder keiner Bibliothek. Dies deutet darauf hin,
dass die Bibliothek 2 hilfreicher für die HMI-Entwicklung
war. Daraus lässt sich schlussfolgern, dass die
Messmethodik auch zur Ermittlung von Qualitätsunterschieden
in Bibliotheken angewendet werden kann.
BILD 5: Aktivitätsdiagramm für AW ohne Bibliothek (Versuch 2).
Gut erkennbar ist die Reihenfolge der Arbeitsschritte durch die
Verwendung der verschiedenen Editoren über die Zeit.
2.3 Analyse des gewählten Engineering-Workflows
Aus den ermittelten elf Aktivitätsdiagrammen, ein Beispiel
ist in Bild 5 gezeigt, lässt sich ableiten, dass in den
meisten Fällen jeder Kandidat dieselbe Schrittfolge
wählte: E/A-Kommunikationserstellung (FDI), Logikprogrammierung,
Testen (Check-out) und Konfiguration
der Bedienoberfläche (HMI). Eine interessante Beobachtung
besteht darin, dass in der ersten Versuchsrunde
fast alle Teilnehmer mit dem HMI begannen, bevor sie
das Testen durchführten. In der zweiten Versuchsrunde
hingegen hat kein Teilnehmer mit der Arbeit am HMI
vor dem Testen begonnen, siehe Bild 5. Die Erstellung
des HMI wird folglich nicht als vorteilhaft für das Testen
wahrgenommen.
2.4 Analyse der Projektkomplexität des fertigen Projekts
Bild 6 zeigt anhand mehrerer Spinnendiagramme, wie
viele Artefakte in jedem Einzelversuch erzeugt wurden.
Hierbei wurden nur die erfolgreichen Versuche von AW,
JS und NK untersucht. Die Diagramme verdeutlichen:
Ein und dasselbe Projekt wurde auf verschiedene Weisen
und mit unterschiedlicher Anzahl von Artefakten
gelöst. Alle Kandidaten erzeugten 3 Controller, 8 Aktoren
und 3 Sensoren, aber die Anzahl der anderen Artefakte
variierte: 3-5 Grafikelemente, 10-30 Signale, 7-12
Funktionsbausteindiagramme und 0-2 Schrittketten.
Doch wie geeignet ist dieses Diagramm im praktischen
Einsatz, kann es die Komplexität eines ganzen
Projektes sinnvoll visualisieren? Nach kurzem Üben
erkannte das menschliche Auge schnell ein Projekt-
atp edition
6 / 2014
39
HAUPTBEITRAG
muster. Die vorgeschlagene grafische Darstellung
zeigt im Vergleich untereinander ihre Stärken und
erlaubt ein zügiges visuelles Erfassen des Musters.
Interessant ist, dass das grundsätzliche Muster der
Spinnendiagramme beim Betrachten für alle Projektvarianten
sichtbar ähnlich ist. Die auf Maximalwerte
optimierte Achsenskalierung verstärkt die Ähnlichkeitswahrnehmung.
Dies bedeutet, dass ein signifikanter
Ausreißer aus diesem Muster sichtbar wäre
und so visuell schnell auf eine potenziell besondere
beziehungsweise falsche Lösung hinweist. Zeilenweise
betrachtet lässt sich sogar erahnen, wie JS und NK
von Versuch zu Versuch einen wiederkehrenden Lösungsansatz
wählen. Diese Vermutung wäre jedoch
anhand weiterer Projekte und Untersuchungen noch
nachzuweisen.
Die Bilder innerhalb einer Reihe scheinen optisch
übrigens ähnlicher als beim Vergleich zwischen den
Probanden. Zudem fiel auf, dass JS in jedem Versuch
Schrittketten erstellte, wohingegen NK diese nicht verwendete:
Dies deutet auf unterschiedliche Vertrautheit
der Kandidaten mit dieser Sprache und weist auf Verbesserungspotenziale
hin.
2.5 Analyse des Projektfortschritts über die Zeit
Einen interessanten Einblick vermittelt das Diagramm
des Prozessfortschrittes. Um den Einfluss der Kandidatenerfahrung
zu reduzieren, enthält Bild 7 die Diagramme
nur für NK und JS, da nur sie alle drei Versuche
vollständig erfüllten. Die Spalten zeigen hierbei die
Szenarien: Nutzung von keiner Bibliothek, Bibliothek 1
und Bibliothek 2 (in dieser Reihenfolge).
Zunächst wird deutlich, dass alle Projekte in allen
Versuchen gleichermaßen zu Beginn des Projektes einen
Sprung aufweisen. Unabhängig von der Verwendung
einer Bibliothek wurden innerhalb der ersten 3-10
Minuten 100 % aller benötigten Controller, Aktoren
oder Sensoren erzeugt.
Ohne Bibliothek (Spalte 1) mussten die Kandidaten
alle Artefakte Schritt für Schritt erzeugen – dies wird
in einem weitgehend kontinuierlichen Anstieg deutlich,
der sich bis dicht ans Projektende fortsetzt. Ein
Löschen von Artefakten wird durch einen Rückgang
der Kurve deutlich.
Unter Verwendung von Bibliotheken wird die finale
Anzahl der benötigten Artefakte deutlich früher erreicht,
bei Bibliothek 2 früher als bei Bibliothek 1 (siehe
gestrichelte vertikale Linien). Anschließend bleibt
die Zahl der Artefakte nahezu konstant, weil diese nun
parametrisiert und verknüpft werden müssen.
Eine weitere Beobachtung aus den Messergebnissen
bestand darin, dass fast alle Kandidaten inmitten ihrer
Tests Zusatzsignale erzeugten, um sie später wieder zu
löschen. Dies ist in Bild 7 jedoch kaum sichtbar, weil
das Erzeugen und Löschen der Zusatzsignale zu keinem
Anstieg der Kurven führt. Für JS und NK war
dieses Phänomen im Vergleich zum Versuch ohne Bibliothek
im Datenbestand besonders offensichtlich bei
Verwendung von Bibliothek 2. Ohne Bibliothek wurden
im Schnitt 150 % der benötigten Signale erzeugt,
unter Verwendung von Bibliothek 2 nicht mehr als
120 %. Die übrigen Kandidaten mit weniger Erfahrung
erzeugten Zusatzsignale in jeder Aufgabe (bis zu
150 %). Daraus lässt sich schlussfolgern, dass die Verwendung
von Bibliotheken die Zahl von Zusatzsignalen
reduziert.
2.6 Analyse der Modifikationsdiagramme
BILD 6: Projektkomplexität für alle abgeschlossenen
Lösungen der Kandidaten in allen Versuchen
Aus den erstellten elf Modifikationsdiagrammen
konnten die Autoren keine Muster für das Modifikationsverhalten
der Kandidaten für dieselbe Aufgabe
ableiten. Es wird deutlich, dass jeder Kandidat sein
eigenes Modifikationsmuster über alle Versuche hinweg
beibehielt.
Dies wird anhand von NK deutlich: Bild 8 zeigt die
Modifikationsdiagramme von NK für alle drei Versuche.
Es wird sichtbar, dass NK zunächst die Modifikation
von Aktoren und Sensoren gleich zu Beginn
vornahm, anschließend Modifikationen an Logikelementen
(FBD) vollzog und am Ende die Grafikelemente
modifizierte. Aus den anderen, hier nicht abgebildeten
Modifikationsdiagrammen, zeigen sich interessante
Verhaltensmuster: NL führte Änderungen stets im gleichen
Zeitmuster durch und durchlief offensichtlich die
Anforderungsspezifikation in derselben Reihenfolge
und modifizierte die Artefakte in dieser Abfolge. JS und
40
atp edition
6 / 2014
BILD 7: Vergleich des
Projektfortschritts von
drei Versuchen jeweils
zweier Probanden.
Die gestrichelte Linie
zeigt den Übergang
zwischen starkem
Wachstum und
flachem Wachstum der
Anzahl der Artefakte.
BILD 8: Modifikationsdiagramme von NK für alle drei Versuche.
AW zeigten hingegen eine deutlich glattere Modifikationskurve,
denn sie löschten fortwährend FBD Elemente
während des gesamten Versuchs.
2.7 Analyse der Wiederverwendungsdiagramme
Wiederverwendungsdiagramme zeigen die Häufigkeit
der Wiederverwendung von Logik- (FBD, SFC) oder
Grafikelementen durch Instanziieren beziehungsweise
durch Kopieren und Einfügen von Bibliothekselementen
in das Projekt.
Aus der Auswertung dieser Diagramme für alle Kandidaten
ergibt sich ein signifikanter Zusammenhang
zwischen dem Akt der Wiederverwendung und dem
Auftreten von Änderungen. Bild 9 zeigt dies anhand
eines kombinierten Wiederverwendungs-/Modifikationsdiagramms
für NK bei der Implementierung des
SASF mit der Bibliothek 1.
Es ist zu erkennen, dass nach dem Instanziieren von
Artefakten aus einer Bibliothek beziehungsweise durch
das Duplizieren von Artefakten durch Kopieren und
Einfügen eine erhöhte Modifikationsrate folgt. Dies ist
plausibel, weil erzeugte Bibliothekselemente anschließend
angepasst werden müssen.
Für NK stellt sich für alle drei Versuche heraus, dass
die Zahl der Modifikationen typischerweise größer war
als die Zahl der Löschungsaktionen, siehe Bild 10. Für
die übrigen Kandidaten galt dies andersherum. Dieses
Phänomen unterstreicht erneut, das NK erfahrener als
die übrigen Kandidaten ist und Bibliotheken effizienter
nutzen kann. Bild 10 zeigt die Wiederverwendungs/
Modifikationsdiagramme für alle drei Versuche von NK.
Unter Verwendung der korrekten Bibliothek 2 fällt auf,
dass in der Test-Phase, hiermit bezeichnen die Autoren
einen zusammenhängenden Zeitraum von Test-Aktivitäten
einschließlich Leerlauf- und Navigationszeit, plötzlich erhöhte
Änderungsaktivitäten auftreten. Hier entdeckte NK
einen Fehler und korrigierte ihn. Es wird zudem deutlich,
dass NK unter Verwendung der korrekten Bibliothek 2 in
der Test-Phase 18 Minuten benötigte, mit der fehlerhaften
Bibliothek 1 hingegen trotz besserer Kenntnis der Aufgabenstellung
30 Minuten. Dies bestätigt die verzögernde
Auswirkung fehlerhafter Bibliotheken. Interessant: ohne
Bibliotheken in Versuch 3 dauerte die Testing-Phase nur 5
Minuten: Dies hinterfragt die Bibliothek insgesamt.
atp edition
6 / 2014
41
HAUPTBEITRAG
BILD 9: Überlagerung von Wieder verwendungsund
Modifikationsdiagramm (Kandidat NK,
fehlerhafte Bibliothek 1). Die Achsen wurden so
gewählt, dass die parallele Entwicklung beider
Kurven deutlich wird.
BILD 10: Wiederverwendungs- und Modifikationsdiagramm für NK
3. EMPFEHLUNGEN UND AUSBLICK
Der im Beitrag vorgeschlagene Ansatz zur Bewertung von
Engineering-Methoden betritt Neuland, weil die Bewertung
auf Basis von Messungen erfolgt. Der Mehrwert dieser
Methode liegt, wenn sie sorgfältig ausgeführt wird, in
der Objektivität der Messung. Im Ergebnis ist festzustellen,
dass die vorgeschlagene Methode zur Messung und
Visualisierung von Engineering-Effizienz funktioniert
und – unter der Voraussetzung, dass der Versuchsaufbau
wohlüberlegt definiert wurde – interessante und wertvolle
Einsichten zum Thema Engineering-Effizienz liefert.
Das Experiment zeigt, dass die vorgestellte Messmethode
tatsächlich Licht in den bisher schwer erfassbaren
werkzeugbezogenen Engineering-Prozess bringt und
eine große Fülle von Details liefert. Die wichtigste Erkenntnis
dieses Experiments ist, dass die individuelle
Erfahrung der Probanden die Messung erheblich beeinflusst
und der vorgeschlagene Ansatz zur Effizienzmessung
nur dann reproduzierbare und vergleichbare Aussagen
liefert, wenn die Messung von routinierten und
erfahrenen Kandidaten ausgeführt wird. Dies erfordert
nicht unbedingt einen Profi, ein routiniertes und mehrfach
eingeübtes Engineering unter Verwendung einer
Methode reicht aus. Eine solche partielle Expertise genügt
und ist erreicht, wenn der Kandidat eine Sättigung
seiner eigenen Leistung im Benchmark-Projekt verspürt
oder weitere Versuche keine weiteren Verbesserungen
anzeigen. Solange der Kandidat unsicher ist, führt dies
zu starken Störeinflüssen der Messung aufgrund seiner
individuellen Erfahrung. Für routinierte Probanden ist
die Lernkurve vor der Messung bereits durchlaufen und
als Störgröße eliminiert: Dies vereinfacht die Interpretation
der Messergebnisse und erlaubt eine sinnvolle
Bewertung der untersuchten Engineering-Methode.
Für den ungeübten Probanden hingegen wird die individuelle
Lernkurve beobachtbar und messbar, wenn
er dasselbe Projekt unter Verwendung derselben Engineering-Methodik
mehrfach wiederholt. Diese Form der
Lernkurvenermittlung bietet, gemittelt über mehrere
Probanden, aufschlussreiches Material zur Verbesserung
der Usability im Sinne des Selbsterklärungsniveaus
eines Werkzeuges und macht selbst diesen bislang
kaum erfassbaren Faktor endlich messbar, quantifizierbar
und geschäftlich beurteilbar.
Ferner wird deutlich, dass die sorgfältig ausgeführte
Messmethode ebenso weiche Faktoren, wie die Fehlerfreiheit
von Bibliotheken und die Qualität von Anforderungsspezifikationen,
messbar macht. So zeigte das
Experiment beispielhaft die nachteilige Wirkung fehlerhafter
Bibliothekselemente, weil sie die Testphase
und Fehlersuche erschweren, und es verdeutlicht den
42
atp edition
6 / 2014
Modifikationsaufwand, der nach einer Wiederverwendungsaktion
entsteht. Dies unterstreicht, dass der Zeitgewinn
durch Verwendung von Bibliotheken nicht nur
durch ihre Entwicklungszeit, sondern auch durch Modifikationen
auf Instanzebene, durch Fehlersuche und
durch die Zeit zum Finden passender Bibliothekselemente
reduziert wird.
Die Messmethode erlaubt folglich Rückschlüsse über
den Nutzen von Bibliotheken, über gelebte Workflow-
Muster, die Komplexität des Projektes oder beispielsweise
Gewohnheiten der Kandidaten. Neben diesen
Einsichten ergeben sich einige interessante Regeln, die
bei Einsatz geübter Testingenieure gelten:
Die Anzahl von Artefakten reflektiert die Projektkomplexität
gut.
Die durchschnittliche Zeit pro Artefakt erlaubt
Vergleiche, wie einfach die Arbeit mit einem Artefakt
im Werkzeug ist (Usability).
Die Zeit ohne Leerlauf gestattet Vergleiche, wie
effizient das Werkzeug insgesamt zu bedienen ist,
um eine Aufgabe zu erledigen.
Neben dem Einsatz unter Laborbedingungen bietet dieser
Ansatz auch im täglichen Projektgeschäft erhellende
Einblicke und könnte ein Standardverfahren zur
Verbesserung von Engineering-Werkzeugen werden, bei
dem Anwender und Hersteller gemeinsam Software auf
rationaler Basis analysieren.
Die vorgeschlagene Messmethode versteht sich als
Beitrag zur Bewertung und Förderung neuer Engineering-Methoden
und dem Transfer von Ideen aus der
Wissenschaft in die Praxis. Die durch die Messung ermittelte
Datenfülle bietet über diesen Beitrag hinaus
vermutlich noch viele weitere Möglichkeiten und Ansatzpunkte
zur Interpretation. Sinnvoll wäre beispielsweise,
allgemeingültige Benchmark-Beispiele für Engineering-Methoden
zu entwickeln und als Grundlage
einer breiteren Vergleichbarkeit zu publizieren.
Wissenschaft und Industrie sind eingeladen, die Methodik
sowie die vorgestellten Visualisierungsformen
einzusetzen und weiterzuentwickeln. Das Ziel: neue
Engineering-Methoden auf den Prüfstand zu stellen
und ihre Verbesserungspotenziale nachzuweisen.
REFERENZEN
MANUSKRIPTEINGANG
14.01.2014
Im Peer-Review-Verfahren begutachtet
[1] Drath, R., Messinger, Ch., Schröter, B., Li, Nuo,
Gutermuth, G.: Engineering-Effizienz automatisch
messen – Definition, Erfassung und Visualisierung.
atp edition – Automatisierungstechnische Praxis
56(5), S. 32-41, 2014
AUTOREN
Dr.-Ing. RAINER DRATH (geb. 1970) ist Program Manager im ABB
Forschungszentrum Deutschland in Ladenburg. Er beschäftigt
sich mit der Entwicklung neuer Konzepte und Methoden zur
Verbesserung des Engineering von Automatisierungssystemen.
ABB Forschungszentrum Ladenburg,
Wallstadter Str. 59,
D-68526 Ladenburg,
E-Mail: rainer.drath@de.abb.com
Dipl. Phys. GEORG GUTERMUTH (geb. 1969) ist Gruppen leiter
im ABB Forschungszentrum Deutschland in Ladenburg. Er
beschäftigt sich mit der Verbesserung von Workflows,
Werkzeugen und Methoden des Engineering von Automatisierungs-
sowie elektrischen Systemen.
ABB Forschungszentrum Ladenburg,
Wallstadter Str. 59,
D-68526 Ladenburg,
E-Mail: georg.gutermuth@de.abb.com
Dipl. Inf. CHRISTIAN MESSINGER (geb. 1983) ist Scientist im
ABB Forschungszentrum Deutschland in der Abteilung
„Industrial Software and Applications“ und beschäftigt sich
vor allem mit der Entwicklung und Verbesserung von
Automation-Engineering Software.
ABB Forschungszentrum Ladenburg,
Wallstadter. Str. 59,
D-68526 Ladenburg,
E-Mail: christian.messinger@de.abb.com
Dr. NUO LI (geb. 1981) ist wissenschaftliche Mitarbeiterin im ABB
Forschungszentrum Deutschland in Ladenburg. Ihre Themenschwerpunkte
liegen in der Anwendung von Software-Engineering-Technologien
zur Verbesserung des Engineering-Prozesses.
ABB Forschungszentrum Ladenburg,
Wallstadter Str. 59,
D-68526 Ladenburg,
E-Mail: nuo.li@de.abb.com
Dr.-Ing. BEN SCHRÖTER (geb. 1977) ist Mitarbeiter der Entwicklung
von speicherprogrammierbaren Steuerungen innerhalb der
ABB Automation Products GmbH. Sein Arbeits schwerpunkt ist
die Weiterentwicklung von PC-basierten Engineering-Werkzeugen
im Umfeld der Fabrikautomatisierung.
ABB Automation Products GmbH,
Eppelheimer Straße 82,
D-69123 Heidelberg,
E-Mail: ben.schroeter@de.abb.com
atp edition
6 / 2014
43
HAUPTBEITRAG
OPC UA für Industrie 4.0
Sicherer Austausch semantischer Information
Die Kommunikation bei Industrie 4.0 wird nicht mehr auf reinen Daten, sondern auf
dem Austausch semantischer Information basieren. Darüber hinaus wird die Übertragungssicherheit
eine herausragende Bedeutung haben. Diese Aufgabenstellungen
sind Kernpunkte der OPC Unified Architecture (OPC UA). OPC UA enthält eine
Beschreibungssprache und die Kommunikationsdienste für Informationsmodelle.
Der Beitrag beschreibt, warum dieser Standard universell nutzbar ist. Er kommt
bereits in Anwendungsdomänen wie Fertigungs-, Prozess-, Gebäude-, Energieautomatisierung
und Condition Monitoring zum Einsatz.
SCHLAGWÖRTER OPC UA / Industrie 4.0 / Informationsmodelle
OPC UA for Industry 4.0 –
Transmission Integrity of Semantic Information
Industry 4.0 communication is based not only on pure data, but also on the exchange
of semantic information. In addition, transmission integrity is a key factor. These
tasks are essential aspects of the OPC Unified Architecture. OPC UA contains a
comprehensive description language and the communication services required for
information models. It is already applied in several domains including automated
manufacturing, building automation, process automation, energy automation, and
condition monitoring.
KEYWORDS OPC UA / Industry 4.0 / information models
44
atp edition
6 / 2014
KARL-HEINZ DEIRETSBACHER, Siemens
WOLFGANG MAHNKE, ABB
Der Trend in der Automatisierung geht dahin,
die Semantik der Kommunikationsdaten zu
standardisieren. Normen wie ISA 88
(IEC 61512, Chargenverarbeitung), ISA 95
(IEC 62264, MES-Ebene), oder das Common
Information Model (CIM) mit der IEC 61970 für Energiemanagement
sowie IEC 61968 für Energieverteilung
definieren die Semantik der Daten in denen von
ihnen adressierten Domänen. Dies passiert zunächst
unabhängig von der Spezifikation, wie die Daten übertragen
werden.
Mit OPC UA [1, 2], auch veröffentlicht als IEC 62541
[3], lassen sich beliebig komplexe Informationsmodelle
austauschen – und zwar die Instanzen und die Typen
(die Metadaten). Damit ergänzt es die zuvor genannten
Standards und ermöglicht eine Interoperabilität auf
semantischer Ebene.
Industrie 4.0 setzt auf diesen Trend. In den Umsetzungsempfehlungen
für das Zukunftsprojekt Industrie 4.0 [4]
wird gefordert:
dass die richtigen Daten und Informationen allen
Beteiligten in allen Lebenszyklus-Phasen zur Verfügung
stehen müssen;
dass die Fabrik sich gewissermaßen selbst – durch
intelligente Sensorik und durchgängige Daten –
vertikal integriert durch alle Ebenen der Automatisierungspyramide;
dass Geräte und Systeme in der Lage sein sollen,
selbstständig Daten untereinander auszutauschen.
Aufzüge oder Klimaanlagen kommunizieren dann
über das Netz mit der Wartungszentrale, die den
Reparaturdienst koordiniert; Container können in
Echtzeit ihre Position an das Logistikzentrum
übermitteln, das automatisch den Lastwagen zu
deren Abholung dirigiert und den notwendigen
Lagerraum bereitstellt.
OPC ist in der Fertigungsindustrie und in der Prozessautomatisierung
der etablierte und anerkannte Standard.
Erhebungen sprechen von mehr als 2 500 Firmen,
die über 15 000 OPC-Produkte in Millionen von Installationen
auf den Markt gebracht haben. Die Plattformunabhängigkeit
und Skalierbarkeit erlauben einerseits,
OPC UA direkt in Automatisierungsgeräten (zum Beispiel
speicherprogrammierbare Steuerungen, Sensoren)
zu implementieren. Andererseits wird damit auch der
Weg in High-End- und Leitsysteme geebnet.
1. ZIELSETZUNG BEI DER KONZIPIERUNG
OPC UA wurde für die Unterstützung von unterschiedlichen
Systemen konzipiert: von der SPS in der Produktion
bis zu den Servern des Unternehmens. Diese Systeme
sind durch eine Vielfalt hinsichtlich Größe, Leistung,
Plattformen und funktionellen Fähigkeiten
charakterisiert.
Um die Zielsetzung zu erreichen, wurden für OPC UA
folgende Grundbestandteile spezifiziert, siehe Bild 1:
Kommunikationsinfrastruktur – für die Mechanismen
zum Datenaustausch zwischen OPC-UA-Anwendungen.
Verschiedene Transportprotokolle
existieren für unterschiedliche Anforderungen
(optimiert für Geschwindigkeit und Durchsatz =
UA TCP mit UA Binary; firewall-friendly = http +
Soap).
Metamodell – spezifiziert die Regeln und Grundbausteine,
um ein Informationsmodell über OPC UA
zu veröffentlichen. Es beinhaltet verschiedene Einstiegsknoten
und Basis-Typen.
Dienste – realisieren die Schnittstelle zwischen
einem Server als Anbieter von Information und den
Clients als Nutzer dieser Information.
Die Informationsmodelle sind schichtenweise aufgebaut,
siehe Bild 2. Jeder höherwertige Typ basiert auf
bestimmten Basisregeln. Somit können Clients, die nur
die Basisregeln kennen und implementieren, trotzdem
komplexe Informationsmodelle bearbeiten. Sie verstehen
dann zwar nicht die Zusammenhänge, können aber
zum Beispiel durch den Adressraum navigieren und
Datenvariablen lesen oder schreiben.
atp edition
6 / 2014
45
HAUPTBEITRAG
1.1 Integriertes Adressraummodell
Das Objektmodell erlaubt es, Produktionsdaten,
Alarme, Events und historische Daten in einen einzigen
OPC-UA-Server zu integrieren. Damit kann beispielsweise
ein Messgerät für Temperatur als ein Objekt mit
seinem Temperaturwert, Alarmparametern sowie
Alarmgrenzen dargestellt werden. Dies zeigt Bild 3.
OPC UA integriert und vereinheitlicht die unterschiedlichen
Adressräume und die Schnittstellen zum Zugriff,
sodass OPC-UA-Anwendungen nur noch eine
Schnittstelle zum Navigieren benötigen.
Um die Interoperabilität von Clients und Servern zu
fördern, ist der UA-Adressraum hierarchisch aufgebaut;
die oberen Ebenen sind für alle Server standardisiert.
Alle Knoten im Adressraum lassen sich über die Hierarchie
erreichen, können aber untereinander zusätzliche
Referenzen haben, sodass der Adressraum ein
zusammenhängendes Netzwerk von Knoten bildet. Im
Adressraum von OPC UA sind nicht nur Instanzen (Instanzraum),
sondern auch die Typen der Instanzen
(Typ raum) enthalten.
View Service Set – Der Client kann damit durch den
Adressraum (oder Teile davon) browsen, also in der
Hierarchie auf und ab navigieren oder Verweisen zwischen
Knoten folgen. Das Set erlaubt dem Client auch,
die Struktur des Adressraums zu erkunden.
Attribute Service Set – Attribute definieren die Merkmale
von Knoten. Diese Dienste ermöglichen dem Client
das Lesen und Schreiben von Attributen.
Method Service Set – Methoden repräsentieren Funktionsaufrufe
an Objekte. Sie können mit diesen Diensten
ausgeführt werden.
Monitored Item Service Set – Mit diesen Diensten
kann eingestellt werden, welche Attribute aus dem
Adressraum für einen Client auf Wertänderungen überwacht
werden sollen oder an welchen Events der Client
interessiert ist.
Subscription Service Set – Damit können für MonitoredItems
Mitteilungen erzeugt, verändert oder gelöscht
werden.
Query Service Set – Diese Dienste erlauben dem Client,
Knoten nach bestimmten Filterkriterien aus dem
Adressraum auszuwählen.
1.2 Integrierte Dienste
OPC UA definiert die notwendigen Dienste (Services),
um durch den Namensraum zu navigieren, Variablen
zu lesen oder zu beschreiben oder, um sich für Datenänderungen
und Events anzumelden.
Die OPC-UA-Dienste werden in logischen Gruppierungen
organisiert, die als Service-Sets bezeichnet werden.
Dienstanfrage und Antwort werden durch Austausch
von Nachrichten zwischen Clients und Servern
übermittelt.
Der Austausch der OPC-UA-Nachrichten erfolgt entweder
über ein OPC-spezifisches binäres Protokoll auf
TCP/IP oder als WebService. Anwendungen werden
meist beide Schnittstellenarten zur Verfügung stellen,
sodass der Anlagenbetreiber die am besten geeignete Art
wählen kann. OPC UA stellt neun Basis-Service-Sets zur
Verfügung. Im Folgenden werden die Sets kurz beschrieben.
Da nicht alle Server alle Service Sets verwenden,
lässt sich über ihre Profile abfragen, welche Dienste sie
unterstützen. Profile werden hier nicht näher betrachtet.
Secure Channel Service Set – Der Client kann damit
die Sicherheitskonfiguration des Servers abfragen und
einen Kommunikationskanal einrichten, bei dem die
Vertraulichkeit und die Vollständigkeit (Integrität) der
ausgetauschten Meldungen garantiert ist. Diese Dienste
werden nicht direkt in der UA-Applikation implementiert,
sondern vom verwendeten Kommunikations-
Stack zur Verfügung gestellt.
Session Service Set – Dient zum Erstellen einer benutzerspezifischen
Verbindung zwischen Client und
Server.
Node Management Service Set – Ermöglicht die Konfiguration
eines Servers. Der Client kann Knoten (Nodes)
im Adressraum hinzufügen, ändern oder löschen.
1.3 Redundanz
Unterstützung redundanter Server
OPC UA definiert Mechanismen, um redundante Server
zu erkennen und – je nach Redundanzklasse (cold,
warm, hot) – eine Umschaltung zu erkennen oder zu
veranlassen. Ein redundanter Server besteht aus zwei
oder mehr Servern. Abhängig von der Anzahl der Server
wird der redundante Server als redundantes Paar
oder als redundantes Set bezeichnet.
Um als redundanter Server zu gelten, müssen alle
Server im redundanten Set Zugang zu denselben Datenobjekten
oder einer Teilmenge dieser Objekte haben
und dieselbe Kennung für diese Objekte nutzen. So
können Clients nach einer Umschaltung weiterarbeiten
und auf dieselben Objekte unter Nutzung derselben
Kennung zugreifen.
Alle Server im redundanten Set müssen die für
OPC UA definierten Redundanzobjekte unterstützen.
Diese Objekte identifizieren Server in redundanten Sets
und liefern Laufzeit- und Diagnoseinformation über
Redundanzoperationen. Diese Objekte ermöglichen
ebenso die Standort-spezifische Konfiguration von Redundanzparametern.
Außerdem unterstützen alle redundanten
Server einen Backup-Modus. Er definiert
die Möglichkeit des Servers, schnell umzuschalten.
Unterstützung redundanter Clients
Alle OPC-UA-Server unterstützen redundante Clients
unabhängig davon, ob sie selbst redundant sind oder
nicht. Die Unterstützung redundanter Clients wird
durch drei Fähigkeiten gewährleistet.
Erstens: Subskriptionen, die Daten und Ereignisse
liefern, existieren unabhängig von der Session zwischen
Client und Server. Das bedeutet, dass von einem
46
atp edition
6 / 2014
Client erstellte Subskriptionen nicht sofort beendet
werden, wenn ein Client unerwartet beendet wird.
Zweitens: Server führen eine Liste aktiver Clients, in
der sich redundante Clients registrieren können. Wenn
ein redundanter Client informiert wird, dass sich sein
primärer Client vom Server getrennt hat, kann der redundante
Client die Rolle des primären Clients übernehmen.
Drittens: Um die Umschaltung im Fehlerfall zu unterstützen,
kann die Adresse, an welche eine Subskription
die Daten und Ereignisse liefert, vom Client neu
konfiguriert werden. Deshalb kann bei Beendigung des
primären Clients ein sekundärer Client die Subskription
neu konfigurieren, um die Daten an den sekundären
Client zu schicken.
1.4 Horizontale und vertikale Integration
Traditionell wurde die OPC-Kommunikation für den
Austausch von Daten zwischen HMI/SCADA und Geräten
der Automatisierungsebene benutzt (vertikal).
Da OPC UA plattformunabhängig ist, können und
werden OPC-Server und -Clients zunehmend in die
Geräte der Automatisierungsebene (zum Beispiel in
SPS-Systeme) integriert. Diese Geräte kommunizieren
dann direkt miteinander (horizontal).
Für die Realisierung muss zumindest ein Teilnehmer
Client-Funktionalität enthalten und entweder Daten
des Partners lesen (Lese- oder Subskribierungsdienste)
oder Daten im Partnergerät beschreiben (Schreibdienste).
Auch andere OPC-UA-Dienste, wie Methodenaufrufe,
sind denkbar. Der Datenaustausch wird häufig
geplant (projektiert) sein. Das heißt, dass die Geräte mit
Client-Funktionalität wissen, mit welchen Servern sie
in Verbindung treten sollen und welche Daten in welcher
Frequenz zu übertragen sind.
Controller als Client – MES/ERP als Server
Mit OPC-UA-Client-Funktionalität übernimmt die
Steuerung – zusätzlich oder alternativ zur bisherigen
Rollenverteilung – auch den aktiven, führenden Part.
Sie kann nach Bedarf beispielsweise Produktionsaufträge
aus MES/ERP-Systemen abholen, nach Bearbeitung
quittieren oder, wie erwähnt, mit anderen Steuerungen
Information austauschen. Auch bei außergewöhnlichen
Ereignissen eignet sich die Steuerung
Informationsmodelle
basierend auf OPC UA
BILD 1: Das OPC-UA-Fundament
Basis-OPC-UA-Informationsmodell
OPC-UA-Dienste
Kommunikationsinfrastruktur
· Web Services
· UA TCP
OPC-UA-
Metamodell
· Objekte (Typen)
· Variablen (Typen)
· etc.
BILD 2: Schichtenarchitektur für Informationsmodelle
Root
Field
Bus
Sensor
Bus
Areas
Pressure
Xmitter
Valve
Temp
Xmitter
“Located In”
reference
Area 1
Current Value Hi Limit Lo Limit
Hi Alarm Lo Alarm
Area 2
Area 3
BILD 3:
Einheitlicher
Adressraum
atp edition
6 / 2014
47
HAUPTBEITRAG
dazu, eigenständig und spontan eine Verbindung aufzubauen
und eine Meldung abzusetzen.
1.5 Plattform-Unabhängigkeit
Im Gegensatz zu Classic OPC, das auf der DCOM-Technologie
basiert und deshalb an die Windows-Plattform
und dort unterstützte Sprachen gebunden ist, wurde
OPC UA von Beginn an für den Einsatz auf beliebigen
Plattformen und Programmiersprachen konzipiert. Dies
lässt sich mit Hilfe von Bild 4 erklären:
Auf der untersten Ebene sind das abstrakte OPC-UA-
Modell und die Dienste dargestellt. Darin enthalten
sind das gesamte Adressraummodell, verschiedene
Objekt- und Variablenstrukturen, Alarme und vieles
mehr.
Auf der nächsten Ebene (Services Binding) wird spezifiziert,
wie die Dienste auf bestimmte Protokolle abzubilden
sind. Zurzeit gibt es eine Abbildung für TCP
(UA-TCP) und für HTTP (OPC-UA-WebServices). In
Zukunft, wenn sich neue Technologien etablieren, können
weitere Abbildungen spezifiziert werden, ohne das
OPC-UA-Modell und die Dienste zu ändern. Die Abbildungen
basieren ausschließlich auf standardisierten
Basisprotokollen, die bereits auf allen bekannten Plattformen
existieren.
Die folgenden Ebenen sind Realisierungen für dedizierte
Plattformen und Sprachen. Die OPC-Foundation
selbst bietet ihren Mitgliedern Realisierungen für die
Laufzeitumgebungen Java und .NET, sowie für AnsiC/
C++. Die letzte Variante enthält eine Plattform-Adaptionsschicht.
1.6 Performance
Die OPC-UA-Dienste lassen sich auf unterschiedliche
Technologien abbilden. Zurzeit gibt es zwei nennenswerte
Abbildungen: UA-TCP und HTTPS. Der Einsatz
von UA-TCP über moderne Ethernet-Technologien sichert
sehr gute Performance-Werte, auch die Dienste
selbst sind für hohen Datendurchsatz konzipiert. Ein
einziger Leseaufruf ermöglicht den Zugriff auf Tausende
von Werten. Subskribierungsdienste lassen die Notifizierung
bei Änderung und Überschreitung von
Schwellwerten zu.
2. INFORMATIONSMODELLE MIT OPC UA
2.1 Das OPC-UA-Metamodell
Vorbemerkung: Das OPC-UA-Modell beschreibt, wie
Clients auf Information im Server zugreifen. Es spezifiziert
in keiner Weise, wie diese Information im
Server zu organisieren ist. Sie könnte zum Beispiel in
einem unterlagerten Gerät oder in einer Datenbank
liegen.
Das OPC-UA-Objektmodell definiert einen Satz von
einheitlichen Knotentypen, mit denen Objekte im
Adressraum dargestellt werden können. Dieses Modell
repräsentiert Objekte mit ihren Variablen (Daten/Eigenschaften),
Methoden, Events und ihren Beziehungen zu
anderen Objekten. Die Eigenschaften der Knoten werden
durch OPC-definierte Attribute beschrieben. Attribute
sind die einzigen Elemente eines Servers, die Datenwerte
haben. Die Datentypen der Attribute können
einfach oder auch komplex sein.
OPC UA ermöglicht die Modellierung beliebiger Objekt-
und Variablentypen und Beziehungen zwischen
diesen. Bild 5 zeigt das Beispiel eines Boilers in einer
technologischen Ansicht und darunter das OPC-UA-
Adressraummodell. Die Semantik wird vom Server im
Adressraum angezeigt und kann von Clients (beim Navigieren)
erfasst werden. Typdefinitionen können standardisiert
oder herstellerspezifisch sein. Jeder Typ wird
von der Organisation identifiziert, die für seine Definition
verantwortlich ist.
2.2 Generische OPC-UA-Informationsmodelle
Modelle für allgemeingültige Information (zum Beispiel
Alarme oder Automatisierungsdaten) sind bereits
durch OPC spezifiziert. Andere Informationsmodelle
leiten sich davon ab, um die allgemeinen Definitionen
weiter zu spezialisieren. Clients, die die allgemeinen
Modelle verstehen, können daher in gewissem Umfang
die spezialisierten Modelle bearbeiten.
Data Access (DA)
Data Access, kurz DA beschreibt die Modellierung von
Automatisierungsdaten. Es beinhaltet unter anderem
die Definition von analogen und diskreten Variablen,
Engineering Units und Quality Codes. Datenquellen
sind beispielsweise Sensoren, Regler, Positionsgeber
und können entweder über direkt am Gerät liegende
I/O oder über serielle Verbindungen und Feldbusse angeschlossen
werden, wenn diese sich auf entfernt liegenden
Geräten befinden.
Alarms and Conditions
Dieses Informationsmodell definiert, wie Zustände (Dialoge,
Alarme) gehandhabt werden. Eine Zustandsänderung
löst ein Event aus. Clients können sich für solche
Events anmelden und auswählen, welche der verfügbaren
Begleitwerte sie als Teil des Event-Reports
erhalten wollen (zum Beispiel Meldungstext, Quittierverhalten).
Historical Access (HA)
HA ermöglicht dem Client Zugriff auf historische Variablenwerte
und Events. Er kann diese Daten lesen,
schreiben oder ändern. Die Daten können sich in einer
Datenbank, in einem Archiv oder in einem anderen
Speicher befinden. Vielfältige Aggregatfunktionen erlauben
eine Vorverarbeitung im Server.
48
atp edition
6 / 2014
BILD 5:
Beispiel eines
Boilers und
seiner OPC-UA-
Modellierung
Tool or
Language
Dependent
(e.g. .NET)
API
Proxy/
Stubs
Services Binding
Boiler1
Pipe1001
FlowTo
Drum1001
FT1001
Valve1001
DataItem
DataItem
Signal
Signal
Measurement
ControlOut
Setpoint
FC1001
LC1001
Abstract UA Model
Specification
FlowTo
Pipe1002
LI1001
DataItem
Signal
Signal
Measurement
ControlOut
Executes
BILD 4: OPC-UA-Modelle und -Dienste sind
unabhängig von konkreter Technologie.
FT1002
DataItem
Signal
Signal
Signal
Setpoint
Input1
Input2
CC1001
Executes
Executes
Input3
ControlOut
ControlModule
Programs
Ein ‚Program‘ repräsentiert eine komplexe Aufgabe, wie
den Betrieb und die Bedienung von Batch-Prozessen.
Es stellt sich durch einen Zustandsautomaten dar; die
Zustandsübergänge lösen Meldungen an den Client aus.
2.3 Technologiespezifische Informationsmodelle
Etliche Standardisierungsgremien der Leittechnik/
Automatisierungstechnik erstellen technologiespezifische
Informationsmodelle. Beispiele sind
IEC 61804 (EDDL), ISA SP 103 (Field Device Tool),
ISA-S88, ISA-S95, und IEC TC 57 (CIM). Diese Spezifikationen
sind wichtig, da sie jeweils die Bezeichnungen
von Einheiten, Relationen und Arbeitsabläufen
bestimmter Wissensgebiete vereinheitlichen.
Schon frühzeitig hat die OPC Foundation bei der
Entwicklung des neuen Standards auf die Zusammenarbeit
mit anderen Organisationen gesetzt. In
Arbeitsgruppen werden Abbildungsregeln für deren
Informationsmodelle auf OPC UA spezifiziert (= Companion-Standards).
Zurzeit handelt es sich um folgende
Companion-Standards:
OPC UA for Devices [5] (auch als IEC 62541-100)
OPC UA for Analyser Devices [6]
OPC UA for Field Device Integration [7]
OPC UA for Programmable Controllers
based on IEC 61131-3 [8]
OPC UA for Enterprise and Control Systems
based on ISA-S95 [9]
OPC UA for Machine Tool Connectivity
(MTConnect)
3. SECURITY-MODELL
Bei OPC UA ist Security eine elementare Anforderung
und sie wurde daher in die Architektur inte-
atp edition
6 / 2014
49
HAUPTBEITRAG
User
it
Client Plattform
Client Anwendung
User security token
Serv
er Plattform
Serv
eranwendung
Autorisierung
und Zugangssteuerung
Serv
er
Obj
ekte
T
Comms
BILD 6:
Ebenen der
OPC-UA-Security-
Architektur
griert. Die Mechanismen (vergleichbar mit dem Secure-Channel-Konzept
der W3C) basieren auf einer
detaillierten Analyse der Bedrohungen. OPC-UA-
Security befasst sich mit der Authentifizierung von
Clients und Servern, der Integrität und Vertraulichkeit
der ausgetauschten Nachrichten und der Prüfbarkeit
von Funktionsprofilen. OPC-UA-Security
ergänzt die von den meisten webfähigen Plattformen
bereitgestellte Sicherheitsinfrastruktur. Sie basiert
auf der in Bild 6 gezeigten Architektur. Die drei Ebenen
sind User Security, Application Security und
Transport Security.
Die Mechanismen der OPC UA User Level Security
werden einmalig beim Aufbau einer Sitzung durchlaufen.
Der Client übermittelt an den Server ein verschlüsseltes
Security Token, das den Benutzer identifiziert.
Der Server authentifiziert den Benutzer anhand des
Tokens und autorisiert danach den Zugang zu Objekten
im Server. Autorisierungsmechanismen wie Access
Control Lists werden in der OPC-UA-Spezifikation
nicht definiert. Sie sind anwendungs- und/oder systemspezifisch.
OPC UA Application Level Security ist ebenfalls Teil
des Sitzungsaufbaus und umfasst den Austausch digital
signierter Zertifikate. Instanzzertifikate identifizieren
die konkrete Installation. Softwarezertifikate identifizieren
die Client- und Server-Software sowie die
implementierten OPC-UA-Profile. Sie beschreiben Fähigkeiten
des Servers, wie die Unterstützung eines spezifischen
Informationsmodells.
Transport Level Security lässt sich einsetzen, um die
Integrität mit dem Signieren von Nachrichten zu gewährleisten
und die Vertrautheit durch das Verschlüsseln.
Das verhindert die Offenlegung und sichert die
Unversehrtheit der übertragenen Information.
Die UA-Sicherheitsmechanismen sind als Teil der
OPC UA Stacks realisiert, das heißt, sie gehören zum
von der OPC Foundation bereitgestellten Softwarepaket,
sodass Client und Server diese lediglich anwenden
müssen.
3.1 Skalierbare Security
Security-Mechanismen benötigen Rechenleistung und
beeinträchtigen damit die Performance. Security sollte
daher nur dort zur Anwendung kommen, wo sie benötigt
wird. Diese Entscheidung sollte nicht der Entwickler/Produktmanager
treffen, sondern der Anlagenbetreiber
(Systemadministration).
Die OPC-UA-Security-Mechanismen sind skalierbar
konzipiert. OPC-UA-Server stellen Endpoints bereit, die
unterschiedliche Security-Stufen repräsentieren, unter
anderem einen Endpoint ohne Security (NoSecurity-
Profil). In einer Anlage kann nun der Administrator
bestimmte Endpoints vollständig abschalten (zum Bei-
AUTOREN
KARL-HEINZ DEIRETS BACHER
(geb. 1952) ist seit 1971 bei
Siemens in verschiedenen
Forschungs- und Entwicklungsthemen
tätig, insbesondere
bei Betriebssystemen und
Kommunikationstechnologien
für die industrielle Automatisierung.
Seit Ende der 1990er-
Jahre vertritt er Siemens in technischen Gremien
der OPC Foundation; seit 2011 leitet er das OPC
Technical Advisory Council (TAC). Derzeitige
Position: Principal Engineer für das Themengebiet
Internet Communication.
Siemens AG,
Sector Industry, Gleiwitzerstraße 555,
D-90470 Nürnberg, Tel. +49 (0) 911 895 21 29,
E-Mail: karl.deiretsbacher@siemens.com
50
atp edition
6 / 2014
spiel den mit dem NoSecurity-Profil). Im Betrieb kann
aber auch durch den Operator eines OPC-UA-Clients
der für die jeweilige Aktion geeignete Endpoint beim
Verbindungsaufbau gewählt werden. Nicht zuletzt können
OPC-UA-Clients selbst sicherstellen, dass sie für
den Zugriff auf sensible Daten immer Endpoints mit
Security wählen.
3.2 Secure Channel
Mit dem Secure Channel lassen sich der Security Mode
und die Security Policy festlegen. Der Security Mode
beschreibt, wie die Nachrichten verschlüsselt werden.
Es gibt die von OPC UA definierten drei Möglichkeiten:
None, Sign und Sign-and-encrypt. Die Security Policy
definiert Algorithmen zum Verschlüsseln der Nachrichten.
Für das Einrichten benötigt der Client den öffentlichen
Schlüssel des Server-Instanz-Zertifikats. Der
Client übergibt danach sein eigenes Instanz-Zertifikat,
anhand dessen der Server entscheidet, ob er dem Client
vertraut.
3.3 Log-Over
Das Log-Over ist ein verbreitetes Verfahren in der Automatisierung.
In einem typischen Szenario hat Benutzer
A mit bestimmten Befugnissen eine OPC-UA-Session
etabliert. Für spezielle Aufgaben, die erweiterte
Befugnisse erfordern, muss sich nun ein anderer Benutzer
B die Session aneignen. Für dieses Log-Over ist
eine erneute Passwort-Eingabe erforderlich.
OPC UA unterstützt diesen Use-Case mit dem Activate-Session-Dienst.
Dabei wird in einer laufenden Session
der Berechtigungsnachweis für einen neuen Benutzer
gemeldet. Dieser neue Benutzer ersetzt nun den
bisherigen Benutzer. Sollen die Befugnisse wieder an
den bisherigen Operator übertragen werden, ist ein erneutes
Log-Over (ein erneuter Aufruf des Activate-
Session-Dienstes) erforderlich. Dieses Verfahren eignet
sich genauso für den Schichtwechsel zwischen Operatoren
mit gleichen Befugnissen.
FAZIT
In der Diskussion um Industrie 4.0 werden die technischen
Aspekte noch sehr rudimentär behandelt. Jedoch
lässt sich bereits feststellen, dass die Anforderungen
bei Themen wie Kommunikation, Datenaustausch,
horizontale und vertikale Integration durch OPC UA
erfüllt beziehungsweise unterstützt werden und dies
somit einer der gesuchten Standards werden kann und
sollte. OPC UA stellt Protokoll und Dienste bereit (das
Wie), um reichhaltige Informationsmodelle (das Was)
zu publizieren und komplexe Daten zwischen unabhängig
entwickelten Anwendungen auszutauschen. Es
gibt bereits mehrere für OPC UA zugeschnittene Objektmodelle.
Diese sind um die bei Industrie 4.0 zusätzlich
benötigte Information zu ergänzen.
MANUSKRIPTEINGANG
10.02.2014
Im Peer-Review-Verfahren begutachtet
REFERENZEN
Dr.-Ing. WOLFGANG MAHNKE
(geb. 1971) studierte Informatik
an der Universität Stuttgart
und promovierte an der
TU Kaiserslautern im Bereich
Datenbanken und Informationssysteme.
Von 2004 bis
2012 arbeitete er als Wissenschaftler
in der Konzernforschung
von ABB, seit 2012 als Software-Architekt
bei der ABB Automation GmbH. Schwerpunkt
seiner Arbeit bei ABB ist die Architektur von
Leitsystemen.
ABB Automation GmbH,
Kallstadter Straße 1, D-68309 Mannheim,
Tel. +49 (0) 621 381 17 82,
E-Mail: wolfgang.mahnke@de.abb.com
[1] OPC Foundation: OPC UA Specification: Part 1 –
Concepts.Version 1.01
[2] Mahnke, W., Leitner, S.-H., Damm, M.: OPC Unified Architecture,
Springer, 2009
[3] IEC 62541 series: OPC Unified Architecture, Part 1-10,
Edition 1.0, 2010
[4] Promotorengruppe Kommunikation der Forschungsunion
Wirtschaft – Wissenschaft: Umsetzungsempfehlungen für das
Zukunftsprojekt Industrie 4.0 Abschlussbericht, April 2013
[5] OPC Foundation: OPC UA for Devices – Companion Specification,
Version 1.01, 2013
[6] OPC Foundation: OPC UA for Analyser Devices – Companion
Specification, Version 1.1, 2013
[7] FDI Cooperation: FDI-2021-2027 FDI Technical Specification,
Version 0.9, 2013
[8] PLCOpen / OPC Foundation: OPC UA for IEC 61131-3 –
Companion Specification, Version 1.0, 2010
[9] OPC Foundation: OPC UA for ISA-95 Common Object Model –
Companion Specification, Version 1.0, 2013
atp edition
6 / 2014
51
HAUPTBEITRAG | NAMUR-HAUPTSITZUNG
Virtuelle Inbetriebnahme
in der Prozessindustrie
Effektives Engineering und früher Start-up
Trotz kurzer Abwicklungzeiten, beschränkter Ressourcen und komplexer Systemfunktionalitäten
ist es durch Simulation möglich, höhere Qualitätsstandards bei
Automatisierungsapplikationen zu erzielen. Simulation, und damit die virtuelle
Inbetriebnahme, ist ein Kernelement der Vision des integrierten Engineerings, da
sich so mehr Effizienz in der Planung und beim Betrieb von Anlagen erreichen lässt.
Der Beitrag beschreibt, wie durch die Umsetzung einer virtuellen Inbetriebnahme
in einer Batch-Anlage ein effektives Engineering und ein früherer Start-up erreicht
werden konnte.
SCHLAGWÖRTER Simulation / Inbetriebnahme / Engineering / Namur
Virtual Commissioning in the Process Industry –
Effective Engineering and Quicker Start-ups
Simulation is a strategic lever that can be used to achieve a high quality standard
despite the challenges of tighter project schedules, limited resources and more complex
systems and functionalities. Simulation, in particular virtual commissioning,
is an enabler in the vision of integrated engineering, as it allows for a more efficient
engineering workflow. This article describes how implementing virtual commissioning
in a batch plant can lead to more effective engineering and an earlier start-up.
KEYWORDS simulation / commissioning / engineering / Namur
52
atp edition
6 / 2014
RACHEL CHAN, MICHAEL KRAUSS, BASF
Das Ziel der Automatisierungstechnik ist, neben
der Entlastung der Menschen von gefährlichen
und anstrengenden Tätigkeiten eine
bessere Produktqualität und eine höhere Leistungsfähigkeit
von Maschinen und Apparaten
zu realisieren [1]. Dabei hat die Automatisierungstechnik
in den vergangenen Jahren von Fortschritten
aus Bereichen wie Elektrotechnik, Elektronik, Informationstechnik
und der interdisziplinären Kombination
verschiedener Themenfelder profitiert. Trotzdem gilt,
dass mit der Komplexität eines Systems der Schwierigkeitsgrad
ansteigt, um dieses beherrschbar zu machen.
Obgleich also stetig weniger manuelle Arbeitskraft benötigt
wird, sind umso mehr qualifizerte Arbeitskräfte
notwendig, um Projekte erfolgreich durchzuführen.
Diese Herausforderungen drängen die Industrie dazu,
Engineering-Prozesse zu optimieren und dies steht im
Kontext zu den Initiativen im Bereich Industrie 4.0.
Simulation [2] kann ein Werkzeug sein, um trotz der
Herausforderung durch knapper werdende Ressourcen
ein hohes Maß an Qualitätssicherung zu erreichen: Auf
einer Simulationsplattform lassen sich umfangreiche
Prüfungen in einer virtuellen Umgebung durchführen,
um die Risiken während der Inbetriebnahme (IBN) und
im laufenden Betrieb zu reduzieren.
Die virtuelle Inbetriebnahme (VIBN) ist kein neues
Thema in der Industrie, und im Bereich der Chemie
gewinnt sie immer mehr an Bedeutung. Bei BASF wurden
erste Schritte im Bereich virtuelle Inbetriebnahme
für Batch-Anlagen in einem Prozessleitsystem-Migrationsprojekt
unternommen, um eine kurze Umschlusszeit
gewährleisten zu können; die Software-Applikation
wurde in einer virtuellen Anlage mit einem vereinfachten
Prozessmodell getestet.
1. VIRTUELLE INBETRIEBNAHME UND IHRE VORTEILE
Die Phase der Inbetriebnahme dient dazu sicherzustellen,
dass alle Systeme und Komponenten gemäß Betreiberanforderungen
konfiguriert, installiert und implementiert
sind. In dieser Zeit sind die Automatisierungskomponenten
schon in der Anlage beziehungsweise im
Feld vorhanden. Die Abnahme der Automatisierungsapplikation
wurde im Vorfeld der Inbetriebnahme bereits
in einem Factory Acceptance Test (FAT) [2] durchgeführt.
Loop Checks wurden vorgenommen, um die
Signalübertragung zu prüfen und dafür zu sorgen, dass
das System wie geplant funktioniert.
In dieser Phase trifft die digitale Welt auf die Realität
und viele Fehler und Dateninkonsistenzen, die
nicht in dem FAT erkannt wurden, treten hier zu Tage.
Diese Fehler werden jedoch oft zu spät erkannt, um
sie rechtzeitig vor dem geplanten Anfahren zu korrigieren
[3]. Das Anfahren der Anlage wird dadurch
verzögert, und dies führt zu einem Produktionsverlust
der Anlage. Daher gilt die Regel: Je später ein Fehler
gefunden wird, desto aufwendiger ist es, diesen zu
beheben, siehe Bild 1.
Die virtuelle Inbetriebnahme hat das gleiche Ziel wie
eine reale Inbetriebnahme mit dem Unterschied, dass
die Prüfungen in einer virtuellen Anlage durchgeführt
werden. Die Grundidee ist das Testen der Automatisierungsapplikation,
die entweder eine neu konfigurierte
Software oder eine kleinere Anlagenänderung darstellen
kann, in einer virtuellen Umgebung vor Installation
in der realen Anlage. Softwarefehler, die in dem traditionellen
FAT nicht gefunden wurden, werden hier
erkannt und korrigiert und somit ist der Zeitanteil zur
Suche und Beseitigung der Fehler in der realen Inbetriebnahme
eingespart.
1.1 Technik der virtuellen Inbetriebnahme
Ein Prozessleitsystem besteht aus verschiedenen Komponenten,
den Anzeige- und Bedienkomponenten
(ABK), den prozessnahen Komponenten (PNK) und den
Ein- und Ausgangssignalen (E/A-Signale). Diese Komponenten
sind über konventionell verdrahtete E/A-
Komponenten oder Feldbussysteme mit den Feldgeräten
verbunden. Die ABK sind die Schnittstelle zum Menschen
und stellen den Zustand des Systems dar. Manuelle
Eingriffe werden hier vorgenommen, von den PNK
atp edition
6 / 2014
53
HAUPTBEITRAG | NAMUR-HAUPTSITZUNG
verarbeitet und an die Feldgeräte übermittelt. Während
die PNK das Gehirn des Systems bilden, sind die E/A-
Komponenten und Feldbusse das Rückenmark. Die
Feldgeräte spielen in diesem Bild die Rolle der Nerven
und Muskeln des Systems. Damit sich die Applikation
des Systems vor dem Einspielen in das reale System
testen lässt, wird das Gehirn mit einem simulierten
Körper verbunden. So ergibt sich die Möglichkeit, Störungen,
kritische Situationen oder unerwartete Eingaben
zu simulieren, um das System ohne Beschädigung
von Personen oder der Anlage zu testen.
Die virtuelle Inbetriebnahme kann entweder als Hardware
in the Loop oder Software in the Loop umgesetzt
werden. Hardware in the Loop bedeutet, dass das simulierte
Anlagenmodell an die realen prozessnahen Komponenten
(PNK) angeschlossen ist, bei Software in the
Loop wird zusätzlich die PNK emuliert, siehe Bild 2.
Bei Hardware in the Loop werden die PNK über eine
Hardware-Schnittstelle an die Simulationsplattform
angeschlossen, zum Beispiel mit Simba Profibus von
Siemens. Das Verhalten der Profibus Slaves wird in dieser
Schnittstelle simuliert und für den Profibus Master
ergibt sich kein Unterschied, ob die Slaves simuliert
oder real sind [4]. Im Vergleich zur steuerungsinternen
Simulation kann hier der Busverkehr simuliert werden,
um Last- und Performancetests des Bussystems durchzuführen.
Diese steuerungsinterne Simulation hat den
Nachteil, dass eine Änderung der Hardwarekonfiguration
notwendig wäre, weil das Simulationsmodell in der
Steuerung realisiert werden muss. Dies könnte zu einer
zusätzlichen Auslastung der Steuerung führen.
Software in the Loop bietet zusätzliche Vorteile: Einer
davon ist die Möglichkeit, die Simulation parallel
zum traditionellen FAT durchzuführen, da die PNK
nicht für die VIBN erforderlich sind. Das wiederum
heißt, dass die Gesamtzeit der FAT-Phase verkürzt wird.
Des Weiteren können durch Software in the Loop längere
Vorgänge in der Simulation wie Füllen, Vakuumziehen
oder Temperieren künstlich beschleunigt werden,
um lange Testzeiten zu vermeiden. Zudem können
in der Betriebsphase Anlagenänderungen zunächst auf
der Simulationsplattform getestet werden, bevor die
Applikation auf die PNK geladen wird.
1.2 Vorteile durch virtuelle Inbetriebnahme
In einem traditionellen FAT werden Eingangsparameter
in der Steuerung simuliert, um die Reaktion des Systems
zu prüfen. Ein Beispiel dafür ist der Test der Reihenfolge
von Schrittkettenabläufen in einer Batch-Anlage.
Ein Fehler im Schrittkettenablauf könnte an der
Systemeigenschaft liegen, wodurch das Problem nicht
durch systeminterne Manipulation einiger Parameter
erkannt werden kann.
Der Engineering-Workflow kann durch den Einsatz
von Simulationstools verbessert werden. Frühzeitige
Fehlererkennung und Korrektur bedeutet weniger Probleme
und Aufwand zu einem späteren Zeitpunkt des
Workflows, der typischerweise eine kritischere Phase
des Projekts ist. Denkbar ist die Möglichkeit, im laufenden
Betrieb Anlagenänderungen und Optimierungen
zu testen. Die Auswirkung der Änderung wird
früher erkannt, mögliche Schäden an der Anlage verhindert.
Letztendlich können die Anlagenfahrer mittels
der Simulationsplattform geschult werden. Störungen
und kritische Szenarien lassen sich simulieren
damit das Personal lernt, wie es auf solche Szenarien
reagieren muss. Bei Migrationsprojekten können die
Bediener früh ein Gefühl für das neue System bekommen
und es somit nach dem Anfahren schneller und
besser bedienen.
1.3 Simulation als Teil von Industrie 4.0
Die Visionen des Programms Industrie 4.0 können auf
drei unterschiedliche Achsen projiziert werden [5]: Die
horizontale Integration über Wertschöpfungsnetzwerke
hinweg, die vertikale Integration mit vernetzten Produktionssystemen
und die digitale Durchgängigkeit des
Engineerings über den gesamten Lifecycle. Im Hinblick
auf den dritten Aspekt werden heute unterschiedliche
Werkzeuge zur Erfüllung von aufeinander folgenden
Aufgaben, das heißt zur Anlagenplanung, -änderung
oder -erweiterung verwendet. Diese Werkzeuge, zum
Beispiel verfahrenstechnische, prozessleittechnische
oder betriebsbedingte Werkzeuge, werden nicht zusammengeführt
und alle Änderungen müssen in diesen
Werkzeugen mit hohem Aufwand gepflegt werden [6].
Dieser Aufwand beeinflusst die Zeit für das Engineering
und die Instandhaltung. Hier spielt integriertes
Engineering eine große Rolle, und dieses Thema wird
in den nächsten Jahren noch mehr Aufmerksamkeit
erhalten.
Die genannten Herausforderungen bei Projekten wirken
sich stark auf die Qualität der Automatisierungsapplikation
aus. Die Simulation ist ein Wegweiser für
das integrierte Engineering: Simulation bringt die beiden
Welten, digital und real, früher zusammen, da sich
so eher in einem Projekt realitätsnahe Gegebenheiten
erreichen lassen. Und falls erforderlich, ist es möglich,
das Engineeringergebnis frühzeitig zu ändern oder zu
optimieren. Ein weiterer Anknüpfungspunkt zum integrierten
Engineering besteht, wenn es darum geht, Anlagenänderungen
im laufenden Betrieb vorzunehmen.
Alle Anlagenänderungen, die durchgeführt werden,
können mittels Simulation im Vorfeld getestet werden,
um die Qualität der Applikation zu gewährleisten.
1.4 Status quo und Vision des integrierten Engineerings
Engineering wird von vielen Anwendern mit der Planungsphase
einer neuen Anlage gleichgesetzt. In einem
weiter gefassten Kontext schließt Engineering die Prozesse
zur Dokumentation von Anlagen von der Planung
bis zur Demontage mit ein.
54
atp edition
6 / 2014
BILD 1: Aufwand für Fehlerkorrekturen [7]
BILD 2: VIBN: Hardware in the Loop und Software in the Loop
Aufwand
Zeit
BILD 3: Vergleich des heutigen
Engineering-Workflows mit der Vision
vom integrierten Engineering
BILD 4: PCS7 Steuerungen mit Simit
Der auf der linken Seite im Bild 3 dargestellte Engineering-Workflow
ist als Wasserfallmodell bekannt [7].
Alle Phasen in dem Modell werden nacheinander ausgeführt
und als Folge werden Prüfungen erst bei FAT
beziehungsweise IBN durchgeführt, was generell zu
einer späteren Fehlererkennung führt. Falls eine Messstelle
oder ein Typical falsch konfiguriert wurde und
dieser Fehler erst bei der Inbetriebnahme entdeckt
wird, müssen alle betroffenen Planungsdaten überarbeitet
werden. Das Ziel vom integrierten Engineering
ist, mittels Simulation und anderer Werkzeuge paralleles
Engineering in allen Phasen zu erreichen. Ingenieure
können in diesem Zielbild schon in den Designund
Engineeringsphasen Konzepte und Typicals mit
den Kunden festlegen, frühzeitig testen, konkretisieren
und freigeben lassen. Die Daten, die bereits in früheren
Phasen in einem integrierten System bereitstehen, können
in allen Phasen des Projekts verwendet werden.
Hierdurch entfällt der Aufwand für den späteren Datentransfer
zwischen verschiedenen Tools und die dabei
notwendige Qualitätssicherung der Daten [6]. Ein
weiterer Vorteil ist die potenziell kürzere Abwicklungszeit
von Projekten. Die Phasen werden durch paralleles
Engineering verkürzt; dies erfüllt die Forderung nach
kurzen Time-to-Market-Zeiten [7].
2. PILOTIERUNG IN EINER BATCH-ANLAGE
Bei einem Prozessleitsystem-Migrationsprojekt hat die
BASF eine virtuelle Inbetriebnahme durchgeführt, um
die korrekte Funktionalität der Automatisierungsapplikation
sicherzustellen. Die Migration bestand nicht nur
aus einem reinen Upgrade, sondern enthielt gleichzeitig
die Optimierung der Ablaufsteuerungen sowie die
Einführung eines Batch-Systems. Dies führte zu einer
komplett neuen Planung und Konfiguration der Batch-
Applikation. Aufgrund der kurzen Abstellungszeit der
Anlage war der Bedarf an intensiven Tests vor der eigentlichen
Inbetriebnahme sehr hoch.
Die Simulationsumgebung wurde für den FAT mit allen
Messstellen, die in den Schrittketten verwendet wer-
atp edition
6 / 2014
55
HAUPTBEITRAG | NAMUR-HAUPTSITZUNG
BILD 5: Vergleich des Engineering-
Workflows in Projekten mit und
ohne VIBN: Der rote Pfeil entspricht
der Zeit zur Fehlerkorrektur
während der Inbetriebnahme.
den, erstellt und der Test der Automatisierungsapplikation
in der virtuellen Anlage wurde parallel zum traditionellen
FAT durchgeführt. Hier kam die enge Zusammenarbeit
zwischen BASF, Siemens und M+W,
Auftragnehmer des Migrationsprojekts, zum Tragen.
2.1 Vereinfachtes Prozessmodell erstellen
Eine Hardware-in-the-Loop-Architektur wurde mit
dem Werkzeug Simit von Siemens aufgebaut. Die simulierten
Komponenten enthalten die E/A-Signale,
die Feldinstrumentierungen, die Profibus-Kommunikation
und ein vereinfachtes Prozessmodell. Bei der
Erstellung des Modells wurde eine händische Übernahme
der Anlagentopologie mit Hilfe der R&I-Fließbilder
ins Simulationstool durchgeführt. Wegen der
Kompatibilität von Siemens PCS7 mit Simit ist es
möglich, beim Anlegen der Messstellen eine automatische
Konvertierung der E/A-Konfiguration durchzuführen.
Die virtuelle Inbetriebnahme wurde mit einer
Wasserfahrt ohne Reaktionskinetik betrieben, das
heißt die Stoffdaten der tatsächlichen Edukte und
Produkte wurden durch die von Wasser ersetzt. Damit
können im Gegensatz zu einem vollen First-Principles-Simulator
nicht die exakten Messwerte erreicht
und simuliert werden; allerdings wird die korrekte
Kausalität zwischen Aktoren und Sensoren, zum Beispiel
der Zusammenhang zwischen Kugelhahn,
Durchflussmesser und Füllstandsmessung, hergestellt.
Sollten die durch die Wasserparameter erzeugten
Messvariablen Alarm- oder Transitionsgrenzen
verletzen, kann zusätzlich eine messstellenspezifische
Skalierung der Simulationswerte vor Weiterleitung
an die Steuerungsebene durchgeführt werden.
Besonders interessant ist diese Möglichkeit im Zusammenhang
mit der Verwendung von historischen
Daten einer Bestandsanlage.
Der Hauptfokus der Simulation war das Testen der
Automatisierungsapplikation, sodass die Wasserfahrt
in diesem Fall ausreichend war. Die Erstellung des
Wasserfahrt-Modells hat in Bezug auf die Vorteile, die
daraus gewonnen wurden, wenig zeitlichen und finanziellen
Aufwand verursacht.
2.2 Ergebnisse des Einsatzes von VIBN
Trotz eines zuvor durchgeführten 100 %-Tests während
des traditionellen FAT wurden zusätzliche Fehler
durch die virtuelle Inbetriebnahme entdeckt. Aufgrund
der positiven Auswirkungen des Tests wurde der Umfang
der virtuellen Inbetriebnahme vor der realen IBN
weiter ausgedehnt. Alle Messstellen, auch die noch
nicht durch Schrittketten automatisierten, wurden in
die Simulation aufgenommen. Außerdem wurden alle
Vorortbedienungen, zum Beispiel Schlüsselschalter
und Dosierfreigaben, in der Simulationsumgebung realisiert.
Der Batch-Zyklus konnte vollständig gefahren
werden, und wesentliche Probleme wurden dadurch
aufgedeckt. Letztendlich hat das System nicht als reiner
FAT-Simulator gedient, sondern war nahe an einem
Trainingssystem für eine einfache Systemschulung.
Einige Fehlertypen, die gefunden wurden, sind zum
Beispiel falsch verriegelte Schrittketten, eine falsch
konfigurierte Anschaltbaugruppe und falsch definierte
AUTOREN
Bachelor of Science,
RACHEL MEI PING CHAN
(geb. 1986) ist seit 2010
bei der BASF SE, Ludwigshafen,
im Fachzentrum
Automatisierungstechnik
auf dem Gebiet der Prozessleittechnik
tätig.
Ihre Themengebiete sind
technische Evaluierung für Automatisierungslösungen
und Leitsystemmigrationen.
BASF SE,
D-67056 Ludwigshafen,
Tel. +49 (0) 621 607 42 66,
E-Mail: rachel-mei-ping.chan@basf.com
56
atp edition
6 / 2014
Grenzwerte. Beim Verriegelungsfehler wurde entdeckt,
dass eine Schrittkette nicht weiterlaufen konnte, weil
ein Absperrventil falsch verriegelt wurde. Bei der Umsetzung
der Schrittketten auf das PCS7 wurden Teile
verschoben und Zusätze eingebracht, was falsche Synchronisationen
zur Folge hatte.
Diese Fehler würden in einem Projekt ohne virtuelle
Inbetriebnahme erst in der Inbetriebnahme entdeckt,
und es könnte länger dauern, bis die Fehlerquellen gefunden
werden. Das andere genannte Beispiel, die
falsch konfigurierte Anschaltbaugruppe, wäre erst bei
den Loop Checks in der Anlage gefunden worden.
Dies verdeutlicht, dass nicht alle Fehler in einem traditionellen
FAT gefunden werden können und dass
durch die frühzeitige Entdeckung und Korrektur der
Fehler die Zeit bei der Inbetriebnahme wesentlich reduziert
wurde. Im Fall, dass dieses Projekt ohne virtuelle
Inbetriebnahme abgewickelt würde, wäre das Anfahren
der Anlage verzögert worden, siehe Bild 5.
Beim Projekt besteht natürlich noch Verbesserungspotenzial
in verschiedenen Bereichen, zum Beispiel
was die Wartezeit bei längeren Vorgängen betrifft, die
in diesem ersten Projekt unterschätzt wurden. Dies
könnte potenziell durch auf PCs emulierten Steuerungen
verbessert werden. Die positive Erfahrung dieser
Pilotierung zeigt, dass es in einer Anlage mit einer
komplexen Batch-Applikation und einem engen Projektzeitplan
sehr wertvoll war, in eine virtuelle Inbetriebnahme
zu investieren.
ZUSAMMENFASSUNG UND AUSBLICK
Zum Bewältigen der Herausforderungen, wie kürzere
Projektabwicklungszeiten, knappe Ressourcen, kom-
plexe Funktionalitäten und Erfüllung aller Erwartungen
des Kunden, ist es notwendig die virtuelle Inbetriebnahme
einzusetzen. Beim Engineering von Leitsystemen
ist es nicht möglich, sich unter Zeitdruck mit
allen technischen Details zu beschäftigen. Daher
braucht es Werkzeuge um die Planungsdaten beziehungsweise
Applikationen frühzeitig zu prüfen. Durch
die virtuelle Inbetriebnahme kann eine höhere Engineering-Qualität
erreicht werden, weil Fehler früh erkannt
und eine falsche Konzeptionierung zeitnah korrigiert
werden können.
Mit zunehmenden Innovationen rund um Industrie 4.0
und integriertes Engineering ist zu erwarten, dass virtuelle
Inbetriebnahme und andere Werkzeuge integrale
Bestandteile des Engineering-Ablaufs werden.
Werkzeuge und Konzepte für integriertes Engineering
werden entwickelt, um eine einheitliche Datenhaltung
über den gesamten Lebenzyklus der Anlage hinweg
zu gewährleisten. Eine Initiative in diese Richtung ist
der Namur-Datencontainer zwischen CAE und PLS.
Der Container wird in einer Namur-Empfehlung definiert,
um die Schnittstelle zwischen CAE und PLS zu
standardisieren [6]. Weiterhin lässt sich das Simulationstool
im laufenden Betrieb für Anlagenänderungen
und als Systemtrainingssimulator verwenden. Ein
nächster Schritt wäre, die in Forschungsarbeiten erfolgreich
untersuchten Ansätze [2] in Produkten umzusetzen,
damit Endanwender ihre Anlagentopologie
und Planungsdaten aus dem CAE-Planningstool per
Knopfdruck in das Simulationstool laden können. Das
wird die Zeit für die Modellerstellung nochmal deutlich
verkürzen.
MANUSKRIPTEINGANG
03.01.2014
Im Peer-Review-Verfahren begutachtet
REFERENZEN
Dr. rer. nat. MICHAEL KRAUSS
(geb. 1984) ist seit 2010 bei
der BASF SE, Ludwigshafen,
im Fachzentrum Automatisierungstechnik
tätig.
Er leitet seit 2013 das Fachgebiet
DCS Technology
Support. Seine Schwerpunkte
sind Projekte auf dem Gebiet
der Höherautomatisierung, Unterstützung der
Beschaffung von Leitsystemen und Strategien für
Leitsystemmigrationen.
BASF SE,
D-67056 Ludwigshafen,
Tel. +49 (0) 621 604 66 94,
E-Mail: michael.krauss@basf.com
[1] HS-Merseburg, Jan. 2014. http://www.hs-merseburg.de/~seela/cms/
[2] Barth, M., Fay, A.: Automated generation of simulation models for
control code tests. Control Engineering Practice 21, S. 218-230, 2013
[3] Process News 4/2012: Virtuelle Inbetriebnahme
[4] Siemens: SIMBA Profibus Produktbeschreibung
http://www.industry.siemens.com
[5] Forschungsunion, Acatech, Bundesministerium für
Bildung und Forschung: Abschlussbericht des Arbeits kreises
Industrie 4.0: Umsetzungsempfehlungen für das Zukunftsprojekt
Industrie 4.0, April 2013.
[6] Tauchnitz, T. (2013): Integriertes Engineering – wann,
wenn nicht jetzt! Notwendigkeit, Anforderungen und Ansätze.
atp – edition (1-2), S. 46-53.
[7] Liu, Zh., Suchold, N., Diedrich, Ch.: Virtual Commissioning of Automated
Systems. Otto-von-Guericke University, Magdeburg,
http://cdn.intechopen.com/pdfs/37992/InTech-Virtual_commissioning_
of_automated_systems.pdf
atp edition
6 / 2014
57
IMPRESSUM / VORSCHAU
IMPRESSUM
VORSCHAU
Verlag:
DIV Deutscher Industrieverlag GmbH
Arnulfstraße 124, D-80636 München
Telefon + 49 (0) 89 203 53 66 0
Telefax + 49 (0) 89 203 53 66 99
www.di-verlag.de
Geschäftsführer:
Carsten Augsburger, Jürgen Franke
Verlagsleiterin:
Kirstin Sommer
Spartenleiterin:
Kirstin Sommer
Herausgeber:
Dr.rer.nat. Thomas Albers
Dr. Gunther Kegel
Dipl.-Ing. Hans-Georg Kumpfmüller
Dr.-Ing. Wilhelm Otten
Beirat:
Dr.-Ing. Kurt Dirk Bettenhausen
Prof. Dr.-Ing. Christian Diedrich
Prof. Dr.-Ing. Ulrich Epple
Prof. Dr.-Ing. Alexander Fay
Prof. Dr.-Ing. Michael Felleisen
Prof. Dr.-Ing. Georg Frey
Dipl.-Ing. Thomas Grein
Prof. Dr.-Ing. Hartmut Haehnel
Dipl.-Ing. Tim-Peter Henrichs
Dr.-Ing. Jörg Kiesbauer
Dipl.-Ing. Gerald Mayr
Dr.-Ing. Josef Papenfort
Igor Stolz
Dr. Andreas Wernsdörfer
Dipl.-Ing. Dieter Westerkamp
Prof. Dr.-Ing. Michael Weyrich
Dr.rer.nat. Christian Zeidler
Organschaft:
Organ der GMA
(VDI/VDE-Gesell schaft Messund
Automatisierungs technik)
und der NAMUR (Interessengemeinschaft
Automatisierungstechnik
der Prozessindustrie).
Redaktion:
Jürgen Franke (verantwortlich)
Telefon + 49 (0) 89 203 53 66 10
E-Mail: franke@di-verlag.de
Aljona Hartstock (aha)
Telefon + 49 (0) 89 203 53 66 78
E-Mail: hartstock@di-verlag.de
Gerd Scholz (gz)
Einreichung von Hauptbeiträgen:
Prof. Dr.-Ing. Leon Urbas
(Chefredakteur, verantwortlich
für die Hauptbeiträge)
Technische Universität Dresden
Fakultät Elektrotechnik
und Informationstechnik
Professur für Prozessleittechnik
D-01062 Dresden
Telefon +49 (0) 351 46 33 96 14
E-Mail: urbas@di-verlag.de
Fachredaktion:
Dr.-Ing. Michael Blum
Dipl.-Ing. Heinrich Engelhard
Prof. Dr.-Ing. Jürgen Jasperneite
Dr.-Ing. Bernhard Kausler
Dr.-Ing. Niels Kiupel
Prof. Dr.-Ing. Gerrit Meixner
Dr.-Ing. Jörg Neidig
Dipl.-Ing. Ingo Rolle
Dr.-Ing. Stefan Runde
Prof. Dr.-Ing. Frank Schiller
Bezugsbedingungen:
„atp edition – Automatisierungs technische
Praxis“ erscheint monatlich mit Doppelausgaben
im Januar/Februar und Juli/August.
Bezugspreise:
Abonnement jährlich: € 519,– + € 30,–/ € 35,–
Versand (Deutschland/Ausland);
Heft-Abonnement + Online-Archiv: € 704,70;
ePaper (PDF): € 519,–; ePaper + Online-Archiv:
€ 674,70; Einzelheft: € 59,– + Versand;
Die Preise enthalten bei Lieferung in EU-
Staaten die Mehrwertsteuer, für alle übrigen
Länder sind es Nettopreise. Mitglieder der
GMA: 30% Ermäßigung auf den Heftbezugspreis.
Bestellungen sind jederzeit über den Leserservice
oder jede Buchhandlung möglich.
Die Kündigungsfrist für Abonnement aufträge
beträgt 8 Wochen zum Bezugsjahresende.
Abonnement-/Einzelheftbestellung:
DataM-Services GmbH, Leserservice atp
Herr Marcus Zepmeisel
Franz-Horn-Str. 2, 97082 Würzburg
Telefon + 49 (0) 931 417 04 59
Telefax + 49 (0) 931 417 04 94
leserservice@di-verlag.de
Verantwortlich für den Anzeigenteil:
Inge Spoerel
Telefon + 49 (0) 89 203 53 66 22
E-Mail: spoerel@di-verlag.de
Kirstin Sommer (Key Account)
Telefon + 49 (0) 89 203 53 66 36
E-Mail: sommer@di-verlag.de
Angelika Weingarten (Key Account)
Telefon + 49 (0) 89 203 53 13
E-Mail: weingarten@di-verlag.de
Es gelten die Preise der Mediadaten 2014
Anzeigenverwaltung:
Brigitte Krawczyk
Telefon + 49 (0) 89 203 53 66 12
E-Mail: krawczyk@di-verlag.de
Art Direction / Layout:
deivis aronaitis design | dad |
Druck:
Druckerei Chmielorz GmbH,
Ostring 13,
D-65205 Wiesbaden-Nordenstadt
Gedruckt auf chlor- und
säurefreiem Papier.
Die atp wurde 1959 als „Regelungstechnische
Praxis – rtp“ gegründet.
DIV Deutscher Industrieverlag
GmbH München
Die Zeitschrift und alle in ihr enthaltenen
Beiträge und Abbildungen sind urheberrechtlich
geschützt. Mit Ausnahme der gesetzlich
zugelassenen Fälle ist eine Verwertung ohne
Ein willigung des Verlages strafbar.
Gemäß unserer Verpflichtung nach § 8
Abs. 3 PresseG i. V. m. Art. 2 Abs. 1c DVO
zum BayPresseG geben wir die Inhaber
und Beteiligungsverhältnisse am Verlag
wie folgt an:
DIV Deutscher Industrieverlag GmbH,
Arnulfstraße 124, D-80636 München.
Alleiniger Gesellschafter des Verlages
ist die ACM-Unternehmensgruppe,
Ostring 13,
D-65205 Wiesbaden-Nordenstadt.
ISSN 2190-4111
DIE AUSGABE 7-8 / 2014 DER
ERSCHEINT AM 04.08.2014
MIT AUSGEWÄHLTEN BEITRÄGEN DES
GMA-KONGRESSES AUTO MATION 2014
SOWIE WEITEREN THEMEN
Modellierung industrieller
Kommunikationssysteme
mit AutomationML
Herstellerübergreifende
SPS-Ablaufprogrammierung
für flexible Produktionssysteme
Sicherheitsgerichteter
Stellantrieb
Aus aktuellem Anlass können sich die Themen
kurzfristig verändern.
LESERSERVICE
E-MAIL:
leserservice@di-verlag.de
TELEFON:
+ 49 (0) 931 417 04 59
58
atp edition
6 / 2014
Erreichen Sie die Top-Entscheider
der Automatisierungstechnik.
Sprechen Sie uns an wegen Anzeigenbuchungen
und Fragen zu Ihrer Planung.
Inge Spoerel: Telefon +49 (0) 89 203 53 66-22
E-Mail: spoerel@di-verlag.de
Der Klassiker für die
Prozessautomation geht
ins 21. Jahrhundert
Das Handbuch der Prozessautomation ist ein Standardwerk für die Planung
verfahrenstechnischer Anlagen. In der 5., überarbeiteten Version geht es auf
die Herausforderung bei der Digitalisierung der Anlage ein. Das Handbuch
wurde von fast 50 Experten mit umfassenden Praxiskenntnissen gestaltet
und deckt das gesamte Feld der Prozessautomatisierung ab.
Hrsg.: K. F. Früh, U. Maier, D. Schaudel
5. Auflage 2014
740 Seiten, 170 x 240mm, Hardcover
Erhältlich in 2 Varianten
www.di-verlag.de
DIV Deutscher Industrieverlag GmbH, Arnulfstr. 124, 80636 München
Jetzt vorbestellen!
Bestellung per Fax: +49 (0) 201 Deutscher / 82002-34 Industrieverlag GmbH oder | Arnulfstr. abtrennen 124 und | 80636 im München Fensterumschlag einsenden
Ja, ich bestelle gegen Rechnung 3 Wochen zur Ansicht
___ Ex.
Handbuch der Prozessautomatisierung
5. Auflage – ISBN: 978-3-8356-3372-8
für € 199,90 (zzgl. Versand)
Firma/Institution
Vorname, Name des Empfängers
___ Ex.
Handbuch der Prozessautomatisierung
mit interaktivem eBook (Online-Lesezugriff im MediaCenter)
5. Auflage – ISBN: 978-3-8356-7119-5
für € 259,90 (zzgl. Versand)
Straße / Postfach, Nr.
Land, PLZ, Ort
Antwort
Vulkan-Verlag GmbH
Versandbuchhandlung
Postfach 10 39 62
45039 Essen
Telefon
E-Mail
Telefax
Branche / Wirtschaftszweig
Widerrufsrecht: Sie können Ihre Vertragserklärung innerhalb von zwei Wochen ohne Angabe von Gründen in Textform (z.B.
Brief, Fax, E-Mail) oder durch Rücksendung der Sache widerrufen. Die Frist beginnt nach Erhalt dieser Belehrung in Textform.
Zur Wahrung der Widerrufsfrist genügt die rechtzeitige Absendung des Widerrufs oder der Sache an die Vulkan-Verlag GmbH,
Versandbuchhandlung, Huyssenallee 52-56, 45128 Essen.
Ort, Datum, Unterschrift
PAHBPA2014
Nutzung personenbezogener Daten: Für die Auftragsabwicklung und zur Pflege der laufenden Kommunikation werden personenbezogene Daten erfasst und gespeichert. Mit dieser Anforderung erkläre ich mich damit einverstanden,
dass ich vom DIV Deutscher Industrieverlag oder vom Vulkan-Verlag per Post, per Telefon, per Telefax, per E-Mail, nicht über interessante, fachspezifische Medien und Informationsangebote informiert und beworben werde.
Diese Erklärung kann ich mit Wirkung für die Zukunft jederzeit widerrufen.