atp edition Automatisierung im Life Cycle modularer Anlagen (Vorschau)
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
1-2 / 2013
55. Jahrgang B3654
DIV Deutscher Industrieverlag GmbH
Automatisierungstechnische Praxis
Automatisierung im Life Cycle
modularer Anlagen | 24
Erfahrungen mit Web-basierter
As-Built-Dokumentation | 32
Genauigkeit von Messgeräten überwachen | 38
Integriertes Engineering –
wann, wenn nicht jetzt! | 46
Anforderungsprofil von Software wechseln | 56
OPC UA and ISA 95 | 64
Cloud Computing im Kontext
eines Prozessleitsystems | 74
Danke!
atp edition ist vom Verband Deutsche
Fachpresse als Fachmedium des Jahres
2012 in der Kategorie Industrie/Produktion/
Design ausgezeichnet worden. atp edition
ist eine Gemeinschaftsleistung aus der
Branche für die Branche. Hinter der hochwertigen
Publikation für Automatisierungstechnik
stecken viele kluge Köpfe. Nicht
nur Chefredakteur, Herausgeber und Beiräte
tragen mit ihrem Agenda-Setting dazu bei,
dass atp edition in ihrer seit über 50-jährigen
Tradition die maßgeblichen Themen der
Automatisierungstechnik bestimmt. Auch
die Fachredaktion leistet mit einem Peer-
Review-Verfahren für wissenschaftlich
fundierte Veröffentlichungen einen unverzichtbaren
Beitrag. Nicht möglich wäre dies
ohne unsere zahlreichen Fach-Autoren. Ein
großes Dankeschön an alle, die hinter atp
edition stehen und das Fachmagazin zu
einem Erfolg machen – und nicht zuletzt
an Sie, unsere Leser.
Ihre Entscheidung für die hochwertige
Publikation atp edition stärkt die Bedeutung
wissenschaftlicher Forschungsarbeiten
in der Automatisierungstechnik.
Print wirkt
„atp edition“ ist ein Printtitel auf höchster
Qualitätsstufe und mit Nachhaltigkeit im
Sinne wiederkehrender Nutzung. Der Titel
erfüllt den selbstgestellten Anspruch eines
anspruchsvollen und seriösen Magazins für
Top-Entscheider zwischen Wissenschaft
und Praxis konsequent.
Entsprechend der journalistischen Konzeption
ist Online hintenangestellt. Die Jury
sah hier „die beispielhafte Umsetzung einer
wissenschaftlich ausgerichteten Fachzeitschrift
mit Magazincharakter“.
EDITORIAL
Integration versus Flexibilität
Die technischen Aspekte von „Integration“, „Interoperabilität“ und „Schnittstellen“
spielen in dieser Ausgabe der atp edition die zentrale Rolle. Auch in unserer
Wirtschaft stehen wir vor der Herausforderung, durch Integration Synergien
zu nutzen. Im Wesentlichen geschieht dies stets durch Vermeidung von Doppelarbeit:
im Engineering in der Dateneingabe, in der Industrie in den Geschäftsprozessen.
Daher sucht man Firmen, bei denen man erwartet, dass durch Kauf oder
Fusion und das anschließende „Mergen“ Synergien generiert und Kosten eingespart
werden können.
Ein Blick in die Literatur zu den Erfolgen dieser Firmenfusionen sorgt allerdings
für Ernüchterung: Nur weniger als die Hälfte der Fusionen erbrachte die gewünschten
Synergien. Bei den übrigen stellten sich die erhofften Kosten- und Wertsynergien
(etwa Skaleneffekte) nicht ein oder sie wurden durch Integrations- und Koordinationskosten
überkompensiert. Dafür finden sich vor allem zwei Gründe. Meist
wurden die potenziellen Synergien sehr ambitioniert geplant, um die bezahlte
Prämie (Differenz zwischen Marktwert und Kaufpreis) zu rechtfertigen, oder der
Changeprozess im Umgang mit den Firmenkulturen hat nicht funktioniert.
Die Erwartungen bei der Integration von technischen Systemen oder Prozessen
wie „integriertes Engineering“ sind hoffentlich realistischer. Aber generell führt
eine Integration zur Erhöhung von Komplexität und Größe. Zunehmende Größe
führt zu längeren Entscheidungswegen und damit zur Trägheit der Organisation.
Nicht umsonst sind in unserem Land viele kleine und mittelständische Unternehmungen
erfolgreich. Die Komplexität bringt außerdem höhere Anforderungen an
diejenigen mit sich, die das System betreuen oder an die im Prozess mitarbeitenden
Ingenieure und Techniker.
Was ist die Konsequenz? Erstens sollte man nur jene Dinge integrieren, die einen
direkten Mehrwert generieren. Wo kein Mehrwert generiert wird, tut man gut
daran, Strukturen dezentral und auch in dezentraler Entscheidung zu belassen.
Zweitens muss Integration gesteuert werden, und vor allem müssen die am Integrationsprozess
Beteiligten jene Fähigkeiten besitzen oder erlangen, die nötig sind,
um in den integrierten Systemen zu arbeiten. Dazu sind eine gute Grundausbildung
und eine Weiterbildung notwendig. Die atp edition leistet hier mit ihren hochwertigen
Inhalten einen wichtigen Beitrag.
Den gleichen Überlegungen folgt die Namur bei ihrer Internationalisierung. Wir
achten sehr darauf, dass die Namur China eine eigene Identität entwickelt und die
Arbeit sich an den Anforderungen der Region orientiert. Auch in der Diskussion
mit den europäischen Verbänden werden wir weiter auf Nutzung der dezentralen
Strukturen setzen und nur die wesentlichen Fragestellungen zentral angehen, dort
wo die gemeinsame Aktivität einen Mehrwert generiert.
Der Erfolg des Fortschritts hängt also nicht nur davon ab, was wir machen, sondern
auch wie (intelligent) wir etwas tun. Die Namur wird den Weg der Integration
gehen, sowohl technisch als auch in ihrer Organisation. „Integriertes Engineering“
wird das Thema auf der Hauptsitzung 2013 sein.
In unseren Arbeitskreisen verfügen wir über die notwendigen Kompetenzen,
diese Themen voranzutreiben – aber auch zu erkennen, wo Integration keinen Sinn
mehr macht.
DR. WILHELM
OTTEN,
Vorsitzender des
Namur-Vorstands
atp edition
1-2 / 2013
3
INHALT 1-2 / 2013
VERBAND
06 | Norbert Kuschnerus tritt in den Ruhestand
Höchste DKE-Auszeichnung für Hartwig Steusloff
07 | Profibus: Integration und Diagnose
Bitkom setzt auf Industrie 4.0 und engere Vernetzung
Funktionale Sicherheit für die Praxis
BRANCHE
08 | GMA-Tagung zum Integrated Plant Engineering
aus Sicht von Industrie und Wissenschaft
Ulrich Turck leitet den Fieldbus-Beirat
Processnet/Namur-Symposium: Digitale Anlagenplanung und -führung
09 | Die Umsatzdelle soll 2013 ausgebeult werden
FORSCHUNG
10 | Leistungsfähige Sensoren einfach aufgesprüht
Die drahtlose Fabrik baut auf dezentrale Intelligenz
11 | Dresdener Studenten greifen nach den Sternen
Namur-Award 2013: Verband nimmt bis zum
28. Juni 2013 Fachaufsätze entgegen
PRAXIS
12 | Lineares Transport-System XTS: Zentraler Antrieb
mit den Vorteilen eines dezentralen Systems realisiert
16 | Spezialarmatur für Öl- und Gasindustrie garantiert
zuverlässige Regelung bei tiefen Temperaturen
18 | Wirbelfrequenzmessung ermittelt Produktion von Bio-Methan
auch unter schwierigen Bedingungen
INTERVIEW
20 | „Die Diagnose-Informationen sind da – wir müssen Sie nur nutzen“
JÖRG KIESBAUER, VORSTANDSMITGLIED DER SAMSON AG,
IM INTERVIEW MIT ATP-EDITION-CHEFREDAKTEUR LEON URBAS
4
atp edition
1-2 / 2013
HAUPTBEITRÄGE | NAMUR-HAUPTSITZUNG
24 | Automatisierung im Life Cycle
modularer Anlagen
M. OBST, T. HOLM, S. BLEUEL, U. CLAUSSNITZER, L. EVERTZ,
T. JÄGER, T. NEKOLLA, S. PECH, S. SCHMITZ UND L. URBAS
32 | Erfahrungen mit Web-basierter
As-Built-Dokumentation
M. BRENDELBERGER UND M. DUBOVY
Produkte,
Systeme
und Service
für die
Prozessindustrie?
Natürlich.
38 | Genauigkeit von Messgeräten
überwachen
T. HAUFF, W. LIANG, M. STRAUSS, C. BRECHER
UND M. OBDENBUSCH
46 | Integriertes Engineering –
wann, wenn nicht jetzt!
T. TAUCHNITZ
HAUPTBEITRÄGE
56 | Anforderungsprofil von
Software wechseln
W. EHRENBERGER
64 | OPC UA and ISA 95
D. BRANDL, P. HUNKAR, W. MAHNKE UND T. ONO
74 | Cloud Computing im Kontext
eines Prozessleitsystems
M. SCHNEIDER, S. RUNDE, M. GLASER UND S. GERACH
Zum Beispiel der magnetischinduktive
Durchflussmesser
ProcessMaster. Er setzt neue
Maßstäbe mit umfangreichen
Diagnosemöglichkeiten, einer
Messabweichung von 0,2 %,
Explosionsschutz sowie der
ScanMaster-Software. Erfahren
Sie mehr über die erste Wahl in
der Durchflussmessung für die
Prozessindustrie:
www.abb.de/durchfluss
Wussten Sie, dass Ihnen ABB
neben dem umfassenden Portfolio
für die Instrumentierung ebenso
herausragende Produkte und
Lösungen für die Analysentechnik,
maßgeschneiderte Leitsysteme
sowie erstklassigen Service bietet?
Lesen Sie mehr unter:
www.abb.de/
prozessautomatisierung
RUBRIKEN
3 | Editorial: Integration versus Flexibilität
82 | Impressum, Vorschau
ABB Automation Products GmbH
Tel.: 0800 111 44 11
Fax: 0800 111 44 22
vertrieb.messtechnik-produkte@de.abb.com
VERBAND
Norbert Kuschnerus tritt in den Ruhestand
STABWECHSEL: Dr. Norbert Kuschnerus
(rechts) verlässt mit seinem Eintritt in den
Ruhestand auch den Herausgeberkreis der
atp edition – Automatisierungstechnische
Praxis. Hier folgt ihm der Namur-Vorsitzende
Dr. Wilhelm Otten (links). Bild: Namur
NEUER
DIVISIONS LEITER
Operation Support
& Safety bei Bayer
Technology
Services wird
Dr. Thomas
Steckenreiter als
Nach folger von
Dr. Norbert
Kusch nerus.
Bild: BTS
Nach fast 30 Jahren bei Bayer und einem Jahrzehnt an
der Spitze der Namur tritt Dr. Norbert Kuschnerus
zum 30. Juni in den Ruhestand. Kuschnerus ist Divisionsleiter
Operation Support & Safety bei Bayer Technology
Services (BTS). Bis 2011 leitete er neun Jahre die Namur
als Vorstandsvorsitzender, aktuell ist er stellvertretender
Vorsitzender. Für die Interessen der Automatisierungstechnik-Anwender
setzt sich Dr. Kuschnerus auch seit
vielen Jahren als Mitherausgeber der atp edition – Auto-
matisierungstechnische Praxis ein. Die Aufgabe im Herausgeber-Kreis
der atp edition wird Dr. Wilhelm Otten,
Evonik Industries, übernehmen, der seit 2011 Namur-
Vorstandsvorsitzender ist.
Neuer Divisionsleiter Operation Support & Safety bei
Bayer Technology Services wird zum 1. Juli Dr. Thomas
Steckenreiter (47). Steckenreiter fungiert bislang als Direktor
Marketing bei der Endress+Hauser Conducta GmbH
in Gerlingen. Als Mitglied des BTS Management Committees
übernimmt er die weltweite Verantwortung für die
Division Operation Support & Safety.
„Dr. Steckenreiter besitzt fundierte Erfahrung in den
Bereichen Prozesssicherheit und -analysentechnik. Er
verfügt über besondere Qualitäten, die für den fokussierten
Ausbau unseres Portfolios und damit unseres zukünftigen
Geschäfts von großer Bedeutung sind“, sagte BTS-
Geschäftsführer Dr. Dirk Van Meirvenne. Er dankte Kuschnerus
für seine sehr erfolgreiche Arbeit, die das weltweite
Renommee der BTS wesentlich mitgeprägt hat.
Kuschnerus implementierte bei BTS unter anderem das
Konzept der Operational Excellence, also der ganzheitlichen
Optimierung von Anlagenverfügbarkeit, Energieund
Rohstoffeinsatz sowie Prozesssicherheit. Darüber
hinaus wurden unter seiner Leitung neue, intelligente
Online-Prozessanalytikmethoden und Automatisierungsplattformen
entwickelt. Er etablierte neue Prozessstandards
für die chemisch-pharmazeutische Industrie und
arbeitete weltweit mit renommierten Forschungseinrichtungen
und Hochschulen zusammen.
(gz)
BAYER TECHNOLOGY SERVICES GMBH,
Gebäude K 9, D-51368 Leverkusen,
Tel. +49 (0) 214 301, Internet: www.bayertechnology.com
Höchste DKE-Auszeichnung für Hartwig Steusloff
HÖCHSTE EHRUNG: Hartwig Steusloff (Mitte) erhielt vom
DKE-Vorsitzenden Wolfgang Hofheinz (links) und Dr.-Ing.
Bernhard Thies (rechts), dem Sprecher der DKE-Geschäftsführung,
die goldene Ehrennadel der Organisation. Bild: DKE
Für seine herausragenden Leistungen bei der zukunftsorientierten
Gestaltung des deutschen Normungssystems
erhielt Prof. Dr. Hartwig Steusloff die DKE-Nadel in
Gold. Die Nadel in Gold ist die höchste Auszeichnung der
vom VDE getragenen Normungsorganisation DKE Deutsche
Kommission Elektrotechnik Elektronik Informationstechnik
im DIN und VDE (VDE|DKE). Zuvor war sie erst ein
einziges Mal verliehen worden: Im Jahr 2010 erhielt sie der
ehemalige DKE-Vorsitzende Dr. Dietmar Harting.
Der DKE-Vorsitzende Dipl.-Ing. Wolfgang Hofheinz und
der Sprecher der DKE-Geschäftsführung Dr.- Ing. Bernhard
Thies hoben in ihrer Laudatio die Verdienste des
Ehrenpreisträgers für die deutsche Normung hervor. Unter
anderem war Hartwig Steusloff maßgeblich an der
Erarbeitung der Deutschen Normungs-Roadmaps Elektromobilität
und E-Energy/Smart Grid beteiligt.
Steusloff, heute als Bevollmächtigter Berater der Institutsleitung
des Fraunhofer-Instituts für Optronik, Systemtechnik
und Bildauswertung (IOSB) tätig, hat sich in
zahlreichen Funktionen und Gremien für die deutsche
Normungsstrategie eingesetzt. 2004 wurde der langjährige
Vorsitzende des DKE-Fachbereichs 9 „Leittechnik“
Mitglied des Lenkungsausschusses und 2. Stellvertretender
Vorsitzender der DKE sowie Vorsitzender des DKE-
Beraterkreises Technologie. Von 2009 bis 2011 leitete er
auch den DKE-Lenkungskreis „Dezentrale Energien“. (gz)
DKE – DEUTSCHE KOMMISSION ELEKTROTECHNIK
ELEKTRONIK INFORMATIONSTECHNIK IM DIN UND VDE
Stresemannallee 15, D-60596 Frankfurt am Main,
Tel. +49 (0) 69 630 80, Internet: www.dke.de
6
atp edition
1-2 / 2013
Profibus: Integration und Diagnose
Leistungsfähige Kommunikationssysteme bilden die Basis
für die Automatisierung. Dazu gehören neben dem
klassischen Feldbus zunehmend ethernetbasierte Lösungen
sowie die Sensor-/Aktor-Kommunikation. PI (Profibus
& Profinet International) stellt dazu mit Profibus,
Profinet und IO-Link führende Technologien zur Verfügung.
Entscheidend sind neben der Funktionalität und
Performance vor allem die Integration in die Systemlandschaft
und der zuverlässige Betrieb.
Die PI-Konferenz 2013 am 6. und 7. März 2013 in Düsseldorf
greift diese Aufgabenstellungen auf und steht unter
dem Leitthema „Integration und Diagnose“. Das Programm
adressiert dabei gleichermaßen die Anwendungsfelder
der Fertigungs- wie auch der Prozessautomation.
Anwenderberichte und Technologie-Konzepte bilden das
Rückgrat für den Erfahrungsaustausch.
Der Weg zur Smart Factory beziehungsweise zur Industrie
4.0 wird in unterschiedlichen Branchen unterschiedlich
schnell ablaufen. Die Ideen der Automatisierungstechnik
sowie industrielle Informationstechnik und Industriesoftware
gewinnen an Bedeutung, virtuelle und
reale Fertigung verschmelzen. Die Themen Integration
und Diagnose in Verbindung mit Kommunikationssystemen
spielen hierbei eine wichtige Rolle. Auf der PI-Konferenz
wird in einer Podiumsdiskussion mit namhaften
Industrievertretern die Bedeutung der industriellen Kommunikation
im Internet der Dinge thematisiert.
Ein weiteres Thema der Tagung ist das effektive Gerätemanagement
bezogen auf technische Weiterentwicklungen,
Gerätetauschszenarien und Anlagenerweiterungen
beziehungsweise -modernisierungen. Beleuchtet werden
auch Systemdesign und -integration, bei denen der Anwender
den nicht immer einfachen Spagat zwischen Auswahl
von Komponenten aus einem großen Spektrum verschiedener
Anbieter und Integration zu einem einheitlichen
Automatisierungssystem bewältigen muss. Weitere Informationen
sowie das komplette Programm sind zu finden
unter www.pi-konferenz.de.
(gz)
PROFIBUS-NUTZERORGANISATION,
Haid-und-Neu-Straße 7, D-76131 Karlsruhe,
Tel. +49 (0) 721 965 85 90, Internet: www.profibus.com
Bitkom: Industrie 4.0 und engere Vernetzung
Der Branchenverband der Informations- und Kommunikationsindustrie
Bitkom baut seine Aktivitäten zum
Thema „Industrie 4.0“ stark aus. Dazu bündelt der Verband
die entsprechenden Aktivitäten in einem neuen
Kompetenzbereich.
Dieser Bereich wird zunächst vier Arbeitsplattformen
haben: Ein Arbeitskreis „Strategie und Markt“ soll vor allem
Geschäftsmodelle entwickeln und Best Practices nutzen.
Ein Arbeitskreis „Interoperabilität“ soll die Schnittstellen
zwischen Fabrik-IT und Büro-IT entwickeln. Nicht-Mitglieder
haben die Möglichkeit, an den Aktivitäten eines Dialogkreises
teilzunehmen. Der bisherige Arbeitskreis „Cyber-
Physical Systems“ mit seinem Kernthema „Embedded Systems“
komplettiert den neuen Kompetenzbereich Industrie
4.0. Bereichsleiter Industrie 4.0 wird Wolfgang
Dorst, bei Bitkom bislang für Software zuständig.
Präsident Prof. Dieter Kempf betont: „Durch
Industrie 4.0 wird die Bitkom-Branche künftig
stärker denn je mit der Fertigungsindustrie verzahnt
– nicht nur mit dem Maschinen- und Anlagenbau,
ebenso mit der Elektrotechnik oder
dem Automobilbau.“
(gz)
BITKOM BUNDESVERBAND INFORMATIONS-
WIRTSCHAFT, TELEKOMMUNIKATION
UND NEUE MEDIEN E.V.,
Albrechtstraße 10 A, D-10117 Berlin,
Tel. +49 (0) 30 27 57 60, Internet: www.bitkom.org
BITKOM-PRÄSIDENT
PROF. DIETER KEMPF
betont: „Durch Industrie
4.0 wird die Bitkom-
Branche künftig stärker
denn je mit der
Fertigungs industrie
verzahnt“. Bild: Bitkom
Funktionale Sicherheit für die Praxis
Dem Thema funktionale Sicherheit widmet die DKE Deutsche
Kommission Elektrotechnik Elektronik Informationstechnik
im DIN und VDE (VDE|DKE) zwei Tagungen.
Am 31. Januar 2013 findet das VDE|DKE-Kolloquium
„Schutzeinrichtungen der Elektrotechnik und funktionale
Sicherheit nach IEC 61508 (VDE 0803) – Fokus sichere Messtechnik“
in Köln statt. Die Grundsätze für die Auslegung
sicherheitsgerichteter Steuerungen finden sich in der Norm
IEC 61508, in Deutschland übernommen als DIN EN 61508
(VDE 0803). Das Kolloquium soll potenziellen Anwendern
Hilfestellung zu einem besseren Verständnis der funktionalen
Sicherheit geben. Im Mittelpunkt stehen die Themen
Sicherheitsnormung, Risikoanalyse und Berechnung von
sicherheitstechnischen Kennzahlen sowie die Anwendung
der funktionalen Sicherheit in neuen Gebieten, speziell die
sichere Messtechnik.
Die „Tagung zur Funktionalen Sicherheit IEC 61508 (VDE
0803) IEC 61508 & Co – aber wie anwenden?“ findet am 12.
und 13. März in Erfurt statt. Dort informieren Experten der
DKE über die konkrete Anwendung der Norm. Zu groß ist
oft noch die Lücke, die zwischen dem Text der Norm und
konkreten Anwendungen liegt. Wie geht man beispielsweise
vor, wenn diese nicht in der Literatur beschrieben sind,
die zuverlässigkeitstechnischen Kenngrößen der einzusetzenden
Geräte nicht vorliegen oder schwierig zu interpretieren
sind? Hier liefert die Tagung Lösungen. (gz)
DKE – DEUTSCHE KOMMISSION ELEKTROTECHNIK
ELEKTRONIK INFORMATIONSTECHNIK
IM DIN UND VDE
Stresemannallee 15, D-60596 Frankfurt am Main,
Tel. +49 (0) 69 630 80, Internet: www.dke.de
atp edition
1-2 / 2013
7
BRANCHE
GMA-Tagung zum Integrated Plant Engineering
aus Sicht von Industrie und Wissenschaft
Der durchgängigen Anlagenplanung widmet die VDI/
VDE-Gesellschaft Mess- und Automatisierungstechnik
eine Tagung. Die „Integrated Plant Engineering Conference
2013“ findet am 20 März 2013 in der IHK Nürnberg für
Mittelfranken statt. Praxisnahe Referenten erläutern und
diskutieren das Thema aus unterschiedlichen Sichtweisen.
Zum Einstieg wird Dr. Ulrich Löwen (Siemens AG,
Corporate Technology) das Thema „Herausforderungen
an die Durchgängige Anlagenplanung“ beleuchten. Die
weiteren Redner Prof. Dr.-Ing. Uwe Bracht von der Technischen
Universität Clausthal (VDI-GPL „Fabrikplanung
und -betrieb“) und Prof. Dr.-Ing. Alexander Fay (Helmut-
Schmidt-Universität Hamburg) zeigen die Visionen für
die Durchgängige Anlagenplanung auf. Die Industrie
Ulrich Turck leitet den Fieldbus-Beirat
wird mit Vorträgen aus dem Bereich der Prozessindustrie zur
Integrierten Anlagenplanung in der Wassertechnik durch
Achim Ewig (Abteilungsleiter Anlagenbau PWT Wasser- und
Abwassertechnik GmbH) sowie der Diskreten Industrie mit
Vision und Wirklichkeit der Digitalen Fabrik vertreten sein.
Eine Podiumsdiskussion soll Wissenschaft und Industrie
in den Dialog bringen. Die Konferenz schließt mit einem
Get Together und interessanten Gesprächen ab. (gz)
VDI/VDE – GESELLSCHAFT MESS- UND
AUTOMATISIERUNGSTECHNIK (GMA)
VEREIN DEUTSCHER INGENIEURE E.V.,
VDI-Platz 1, D-40468 Düsseldorf,
Tel. +49 (0) 211 621 40, Internet: www.vdi.de
Ulrich Turck, geschäftsführender Gesellschafter der
Hans Turck GmbH & Co. KG, ist für die Amtsperiode
2012/13 zum Vorsitzenden des Beirats der Fieldbus
Foundation für Europa, den Nahen Osten und Afrika
(EMEA) gewählt worden. Turck übernahm den Vorsitz
von Jean-Marie Alliet (Honeywell Process Systems). Er
amtiert bis zur nächsten Wahl. Diese findet am Rande
der Messe SPS/IPC/Drives statt.
Dem Beirat gehören ebenfalls an: Gregor Kilian (ABB),
Travis Hesketh (Emerson Process Management) Dr. Raimund
Sommer (Endress+Hauser) Jean-Marie Alliet (Honeywell),
Hartmut Wallraf (Invensys), Günter Pinkowski (Krohne),
Rob Stockham (Moore Industries), Peter Maxwell (MTL-
Cooper Crouse Hinds), Dr. Gunther Kegel (Pepperl+Fuchs),
Paul Brooks (Rockwell Automation),
Herbert Schober (R. Stahl), Dr. Wolfgang
Trier (Softing) und Henk van der
Bent (Yokogawa). Der Beirat soll die
Anwendung der Technologie durch
Hersteller und Nutzer von Automatisierungslösungen
vorantreiben. (gz)
FIELDBUS FOUNDATION,
9005 Mountain Ridge Drive,
Bowie Bldg – Suite 200,
Austin, TX 78759-5316, USA,
Tel. +1 (0) 512 794 88 90,
Internet: www.fieldbus.org
ULRICH TURCK
leitet den Beirat
der Fieldbus
Foundation für
Europa, den Nahen
Osten und Afrika
Foto: Turck
Processnet/Namur-Symposium:
Digitale Anlagenplanung und -führung
Am 21. und 22. März 2013 findet in Frankurt/Main im
Dechema-Haus das Processnet/Namur Symposium IDA
2013 – Integrierte Digitale Anlagenplanung und -führung
unter der wissenschaftlichen Leitung von Prof. Leon Urbas
(TU Dresden) statt. Mit Vorträgen aus Hochschule und Praxis,
Softwaredemonstrationen sowie einer begleitenden
Ausstellung bietet die Veranstaltung eine ideale Plattform
zum Informationsaustausch und zur Diskussion aktueller
Anforderungen an digitale Anlagen und Produkte in Verfahrens-
und Automatisierungstechnik und der dafür notwendigen
informationstechnischen Methoden und Werkzeuge.
Die Schwerpunktthemen der IDA 2013 sind:
Assistenzsysteme: Modellgestützte Unterstützungssysteme
für das Engineering, Lebenszykluskostenmodelle
für Anlagen, Risiko- und Investitionsmanagement,
Integriertes Workflow Management
Das Symposium setzt die Diskurstradition des Berlin-
Aachener Symposiums fort – wie in den vergangenen Jahren
richtet sich das Symposium sowohl an Softwareentwickler
als auch an Anwender und Forscher moderner
Informationstechnologien in der Prozesstechnik und in der
Prozessleittechnik. Weitere Informationen zur Veranstaltung
finden Sie unter www.processnet.org/ida2013. (lu)
Smart Scale Anlagen: Modularisierung, Scale Up/
Number Up, Anlagenkonzepte für weltweit verteilte
Einsatzstoffe und Märkte
Informationsmodelle für die Digitale Anlagenplanung
und –führung sowie Einsatz von Standards für den Datenaustausch
im Engineering und für die Prozessführung
DECHEMA – GESELLSCHAFT FÜR CHEMISCHE TECHNIK
UND BIOTECHNOLOGIE E.V.,
Theodor-Heuss-Allee 25, D-60486 Frankfurt/Main,
Frau Katharina Bauß, Tel. +49 (0) 69 756 42 95,
E-Mail: bauss@dechema.de,
Internet: www.processnet.org/ida2013
8
atp edition
1-2 / 2013
Die Umsatzdelle soll
2013 ausgebeult werden
Für 2013 zeigt sich der Branchenverband
ZVEI vorsichtig optimistisch.
Er erwartet, dass mit einem
Wachstum von 1,5 Prozent die Delle
von 2012 weitgehend ausgebeult
wird. Nach den bis Ende Januar vorliegenden
Zahlen ging der ZVEI für
das Jahr 2012 von einem Minus von
zwei Prozent bei Produktion und
Umsatz aus. Der Umsatz dürfte 175
Milliarden Euro betragen haben.
Für 2012 geht der ZVEI von einem
Rekordexport aus. Auf Basis der bis
Ende Januar vorliegenden Zahlen
prognostizierte ZVEI-Chefvolkswirt
Dr. Andreas Gontermann „einen Exportanstieg
um zwei Prozent auf ein
Allzeithoch von 161 Milliarden
Euro“. Zwar waren die Ausfuhren
ZVEI-CHEF-
VOLKSWIRT
DR. ANDREAS
GONTERMANN
geht für das
vergangene Jahr
von einem Exportrekord
aus.
Foto: ZVEI
im November mit 13,7 Milliarden Euro zwei Prozent hinter
dem Vorjahresniveau zurückgeblieben. Aber von Januar
bis November waren die Exporte bereits um drei
Prozent auf 148,0 Milliarden Euro gestiegen. Zwar kann
sich die Branche der Krise im Euro-Raum nicht entziehen:
Die Ausfuhren in Euro-Länder nahmen von Januar
bis November 2012 um vier Prozent auf 48,8 Milliarden
Euro ab. Dafür wuchs der Export in Nicht-Euro-Staaten
um sieben Prozent auf 99,2 Milliarden Euro. „Auch die
Ausfuhren nach China, die in der ersten Jahreshälfte
rückläufig waren, sind zuletzt wieder kräftig gestiegen“,
sagte Gontermann. „Im Oktober und November 2012
legten sie um jeweils 14 Prozent gegenüber Vorjahr zu.“
Dieses Auseinanderklaffen machen auch Zahlen zu
den Auftragseingängen im November 2012 deutlich: Die
Branche erhielt insgesamt zwei Prozent weniger Bestellungen
als im Vorjahr (Januar bis November: minus acht
Prozent). „Allerdings nahmen die Auftragseingänge aus
dem gesamten Ausland um fünfeinhalb Prozent und aus
dem Nicht-Euro-Ausland sogar um 15 Prozent gegenüber
Vorjahr zu“, so Gontermann. „Die Inlandsbestellungen
waren im November hingegen um neun Prozent rückläufig,
und aus der Eurozone kamen sieben Prozent weniger
Orders als vor einem Jahr“.
75 Prozent der deutschen Elektroexporte kamen in
den ersten elf Monaten 2012 aus dem Bereich der Investitionsgüter
(111 Milliarden Euro), 13 Prozent waren
Vorerzeugnisse oder elektronische Bauelemente (19 Milliarden
Euro) und zwölf Prozent Gebrauchsgüter (18
Milliarden Euro). Die Investitionsgüter-Ausfuhren erhöhten
sich von Januar bis November 2012 um vier Prozent
gegenüber Vorjahr, wobei besonders elektrische
Schienenfahrzeuge (plus 13,5 Prozent), Medizintechnik
(plus zehn Prozent), Batterien (plus 7,5 Prozent), Messtechnik
und Prozessautomatisierung (plus sieben Prozent)
oder Energietechnik (plus sechs Prozent) sehr gefragt
waren.
(lu)
Mit Sicherheit
kompetent
Mit den Stellventilen Typ 3241 von
SAMSON sind Sie immer auf der
sicheren Seite. Dank ihrer hohen
MTBF brauchen Sie sich um einen
Ausfall nicht zu sorgen.
Noch mehr Sicherheit garantieren die
Stellungsregler der Bauarten 3730 und
3731. Mit ihrem zertifizierten Magnetventil
und dem induktiven Grenzkontakt
führen sie die Sprung antworttests
automatisch durch und dokumentieren
die Ergebnisse.
Gehen Sie auf Nummer sicher mit
SAMSON.
SIL
SIL SIL
ZVEI – ZENTRALVERBAND ELEKTROTECHNIK- UND
ELEKTRONIKINDUSTRIE E.V.,
Lyoner Straße 9, D-60528 Frankfurt am Main,
Tel. +49 (0) 69 630 20, Internet: www.zvei.org
A01039DE
SAMSON AG · MESS- UND REGELTECHNIK
Weismüllerstraße 3 · 60314 Frankfurt am Main
Telefon: 069 4009-0 · Telefax: 069 4009-1507
E-Mail: samson@samson.de · www.samson.de
SAMSON GROUP · www.samsongroup.net
FORSCHUNG
Leistungsfähige Sensoren einfach aufgesprüht
Leistungsfähige Bildsensoren haben Prof. Paolo Lugli
und Dr. Daniela Baierl von der Technischen Universität
München (TUM) entwickelt. Die Mikroelemente
werden einfach aufgesprüht. Dieser hauchdünne Film
besteht aus Kunststoffen. Aufgebracht wird die Kunststoff-Lösung
auf die Oberfläche von Bildsensoren. Ein
Farbsprühgerät oder ein Sprühroboter trägt die Lösung
so auf, dass die Schicht nur wenige hundert Nanometer
dünn und ohne Makel ist. Die organischen Sensoren
sind, laut TU München, bis zu dreimal lichtempfindlicher
als herkömmliche CMOS-Sensoren, bei denen
elektronische Bauteile einen Teil der Pixel und damit
der lichtaktiven Siliziumfläche verdecken. Bei der Herstellung
der organischen Sensoren entfällt die sonst
übliche, teure Nachbearbeitung des CMOS-Sensors,
etwa das Aufbringen von Mikrolinsen zur Verstärkung
des Lichteinfalls. Jeder Pixel wird vollständig, inklusive
seiner Elektronik, mit der flüssigen Kunststoff-Lösung
besprüht und erhält so eine zu 100 Prozent lichtempfindliche
Oberfläche. Für den Einsatz in Kameras
sind die organischen Sensoren auch durch ihr geringes
Bildrauschen und die hohe Bildrate gut geeignet.
„Mit geeigneten organischen Verbindungen können
wir Anwendungsgebiete erschließen, die bislang mit hohen
Kosten verbunden waren“, erklärt Prof. Paolo Lugli
vom TUM-Lehrstuhl für Nanoelektronik. „Wir können
etwa Nachtsicht-Fahrassistenzen mit organischen Infrarot-Sensoren
ausstatten, aber auch ganz normale Kompakt-
oder Handykameras. Bislang fehlen dafür aber die
geeigneten Polymere.“
(ahü)
HAUCHDÜNN: Organische Sensoren können klein- und großflächig
auf CMOS-Chips aufgebracht werden, aber auch auf Glas
oder biegsame Kunststoff-Folien. Foto: U. Benz / TUM
TECHNISCHE UNIVERSITÄT MÜNCHEN,
Lehrstuhl für Nanoelektronik,
Prof. Dr. Pauli Lugli,
Arcisstrasse 21,
D-80333 München,
Tel. +49 (0) 89 28 92 53 33,
Internet: www.nano.ei.tum.de
Die drahtlose Fabrik baut auf dezentrale Intelligenz
it der Entwicklung einer robusten Wireless-Technologie
zur Steuerung und Überwachung industrieller
M
Produktionsabläufe befördern Wissenschaftler der Helmut-Schmidt-Universität/Universität
der Bundeswehr
Hamburg neuartige Automatisierungskonzepte, die die
Produktion nicht nur flexibler machen, sondern auch
Energie einsparen.
Die bislang übliche zentrale Steuerung und Verkabelung
der Anlagen führt zunehmend zu Energiekosten
und einem Koordinierungsaufwand, den sich die Industrie
bei steigenden Energiepreisen im internationalen
Wettbewerb nicht mehr leisten kann. Besondere Anforderungen
an die Übertragungssicherheit verhinderten
bislang die Einführung drahtloser Technologien zur
Steuerung- und Überwachung der Produktionsabläufe.
Das Forschungsprojekt MIKOA (Miniaturisierte energieautarke
Komponenten mit verlässlicher drahtloser
Kommunikation für die Automatisierungstechnik) verspricht
Lösungen für autonom arbeitende Sensoren, die
energieautark betrieben werden können und kaum störanfällig
sind. Zur Steuerung und Diagnose von Produktionsprozessen
können diese direkt an den Produktionsanlagen
angebracht werden. Zentrale Leitrechner werden
somit von eigenständigen Produktionseinheiten abgelöst.
Die kabellose Lösung macht nicht nur die Produktion
flexibel. Auch kosten- und zeitintensive Um-
baumaßnahmen der Produktionsanlagen können zunehmend
vermieden werden. Nebenbei ergeben sich
Einsparmöglichkeiten im Energieverbrauch, wie Prof.
Dr. Gerd Scholl, Leiter der Professur für Elektrische
Messtechnik an der Helmut-Schmidt-Universität, erläutert:
„Mit den Ergebnissen des Projektes wird es
möglich sein, ein differenziertes Bild des Energieverbrauches
zu bekommen. Auf dieser Informationsbasis
können dann Methoden zur Verbesserung der Energieeffizienz
aufsetzen“.
Das Verbundprojekt MIKOA lief von 2009 bis Herbst
2012. Unter Projektkoodinator Festo forschten neben
der Helmut-Schmidt-Universität die EnOcean GmbH,
die HSG-IMIT- Hahn-Schickard-Gesellschaft für angewandte
Forschung, das ifak - Institut für Automation
und Kommunikation Magdeburg, die Siemens AG, die
Universität Paderborn und die Zollner Elektronik AG
forschten.
(gz)
HELMUT-SCHMIDT-UNIVERSITÄT
UNIVERSITÄT DER BUNDESWEHR HAMBURG,
Prof. Dr.-Ing. Gerd Scholl,
Holstenhofweg 85, D-22043 Hamburg,
Tel. +49 (0) 40 65 41 33 41,
Internet: www.hsu-hh.de
10
atp edition
1-2 / 2013
Dresdener Studenten greifen nach den Sternen
Studenten der Technischen Universität Dresden (TU
Dresden) gehen wieder in die Luft. Bereits zum zweiten
Mal konnten Lehrende am Institut für Luft- und Raumfahrt
einen Raketenstartplatz im REXUS-Programm des Deutschen
Zentrums für Luft- und Raumfahrt (DLR) gewinnen.
REXUS, kurz für Rocket-borne EXperiments for University
Students, ist eine Experimentierplattform. Jährlich werden
zwei Raketen mit bis zu zwölf Studenten-Experimenten
gestartet. Die Studenten führen die Experimente auf der
Forschungsrakete mit einem verbesserten Orion-Motor mit
290 Kilogramm Brennmasse durch. Die Rakete erreicht
dabei 90 Kilometer Höhe. Nachdem bereits im vergangenen
November ein Experiment von Dresdner Studenten mitfliegen
konnte, hat sich nun das Projekt MOXA aus Dresden
durchgesetzt. MOXA (Measurement of Oxygen in the Atmosphere)
will auf der Forschungsrakete REXUS 15/16
genaue Messungen in der Erdatmosphäre durchführen. Die
Sensoren für die Sauerstoff- und Ozonmessung entwickelte
die Professur Raumfahrttechnik der Dresdner Universität.
REXUS 15/16 startet im März 2014 in Schweden. (ahü)
TECHNISCHE UNIVERSITÄT DRESDEN,
Institut für Luft- und Raumfahrttechnik,
Professur für Raumfahrttechnik,
Leiter Sensorentwicklung, Dr. Tino Schmiel,
Marschnerstraße 32, D-01307 Dresden,
Tel. +49 (0) 351 46 33 82 87, Internet: www.rexus-moxa.de
FAST-ASTRONAUTEN: Bastian Klose, Alexander Schultze, Patrick
Geigen gack, Daniel Becker und Alexander Mager von der TU
Dresden sicherten sich mit ihrem MOXA-Projekt einen Platz auf der
Forschungsrakete. Bild: TU Dresden/ K. Eckold
Namur-Award 2013: Verband nimmt bis zum
28. Juni 2013 Fachaufsätze entgegen
Die Namur (Verband von Automatisierungsanwendern in
der Verfahrenstechnik) lobt erneut den Namur-Award
aus. Der Zusammenschluss vergibt traditionell seinen Preis
für hervorragende Arbeiten zum Thema „Intelligente Prozess-
und Betriebsführung“. Bewerben sollten sich Bachelor-,
Master-, Diplom- oder Promotionsarbeiten aus den
Bereichen Automatisierungstechnik, Elektrotechnik, Infor-
PREISTRÄGER: Den Namur-Award 2012 nahm Dr.-Ing.
Ala Eldin Bouaswaig (li.) für seine Promotionsarbeit zum
Thema "Simulation, control and inverse problems in
particulate processes" entgegen. Den Preis überreichte der
Namur-Vorsitzende Dr. -Ing. Wilhelm Otten. Bild: Anne Hütter
mationstechnik, Mess-, Regelungstechnik, Prozessleittechnik
sowie Verfahrenstechnik. Die Namur möchte einen
Anreiz schaffen, leistungsfähige Methoden für die
Prozessautomatisierung zu entwickeln. Dafür sind Fachkenntnisse
der Automatisierungstechnik als auch der Verfahrens-
und Prozesstechnik wichtig. Lehrstuhlinhaber
der genannten Fachgebiete sind nun aufgefordert, einen
formlosen Antrag an die Namur zu richten. In diesem Antrag
soll die einzureichende Forschungsarbeit sowie Autor
kurz vorgestellt werden. Zugehörige Veröffentlichungen
können ebenso eingereicht werden. Die Kontaktadresse
lautet office@namur.de. Vollständige Beiträge sollten bis
28. Juni 2013 eingegangen sein. Bis zum 15. Oktober 2013
werden alle Bewerber benachrichtigt. Im Rahmen der
Namur-Hauptversammlung findet dann am 8. November
2013 in Bad Neuenahr die Preisverleihung statt. Der besten
Diplom- oder Masterarbeit winken 1000 Euro. Ein Preisgeld
in Höhe von 2000 Euro erhält die beste Promotionsarbeit.
Den Namur-Award 2012 erhielten im vergangenen
Jahr Shen Yin (Universität Duisburg-Essen) und Ala Eldin
Bouaswaig (TU Dortmund).
(ahü)
NAMUR-GESCHÄFTSSTELLE
C/O BAYER TECHNOLOGY SERVICES,
Gebäude K 9, D-51368 Leverkusen,
Tel. +49 (0) 214 307 10 34, E-Mail: office@namur.de,
Internet: www.namur.de
atp edition
1-2 / 2013
11
PRAXIS
Lineares Transport-System XTS: Zentraler Antrieb
mit den Vorteilen eines dezentralen Systems realisiert
Dynamisches Maschinenkonzept realisiert platz- und energiesparendes Engineering
– Positionsberechnung
– Geschwindigkeitsberechnung
– Positionsregelung
– Geschwindigkeitsregelung
– Phasentransformation
Anbaufläche Führungsschiene –
mechanisches Interface
Motor,
Spulenpakte
Signale,
Positionssensor
Kompletter Regelzyklus
für alle Mover in 250 μs
Phasen,
Stromsollwerte
Integrierte
Leistungselektronik
Power,
EtherCAT durchkontaktiert
Integrierte
Positionserfassung
Anbaufläche Maschinenbett
und Kabelabgang Einspeisung
alle 3 m
BILD 1: Überblick über das XTS-Gesamtsystem
BILD 2: Bei den Motormodulen stehen Geraden von 250 mm
Länge und Bogenstücke von 180° zur Verfügung.
Das lineare Transport System (XTS) von Beckhoff verbindet
die Vorteile rotatorischer Motoren mit denen
von Linearmotoren, ohne die Einschränkungen bisheriger
Lösungsansätze.
Bei Servotechnik unterscheidet man im Maschinenbau
zwischen rotatorischen und linearen Servomotoren. Mit
rotatorischen Motoren und entsprechender Mechanik,
wie Zahnriemen oder Förderkette, gelingt die unendlich
umlaufende, lineare Transportbewegung. Dadurch wird
jedoch der Riemen oder die Förderkette immer gleichmäßig
bewegt. Eine Variation der Geschwindigkeit, um
etwa die Varianz in einem Produktfluss auszugleichen,
ist nicht möglich. Der Motor verschleißt schnell und die
mechanischen Komponenten sind nur ungenügend steif.
Dies kann Dynamik, Performance und Lebensdauer reduzieren.
Linearmotoren erlauben die direkte Kraftkopplung zwischen
Motor und dem zu bewegenden Produkt. Sie können
die Bewegung mit mehreren, voneinander unabhängig beweglichen
Schlitten ausführen. Ein Nachteil ist allerdings
der endliche Fahrweg, der eine Rückstellbewegung der
beweglichen Elemente des Linearmotors erfordert. Dies
stört den kontinuierlichen Produktfluss einer hochdynamischen
Maschine und reduziert die Produktionstaktrate.
Dieser doppelte Brems- beziehungsweise Beschleunigungsvorgang
verbraucht außerdem zu viel Energie.
Man kann das Linearmotorprinzip so nutzen, dass auf
einer aktiven, durch bestrombare Spulen gebildeten Strecke
passive, kabellose Schlitten oder Mover fahren. Die
Mover werden dabei auf einer zweiten Strecke zurückbewegt,
so dass sie nicht gegen den Produktstrom der
Maschine bewegt werden müssen. Doch: Eine Servoelektronik
bestromt und regelt einen festen Streckenabschnitt
mit einem einheitlichen Feld für alle Mover auf
dieser Strecke. Auch bei einem Übergang zwischen den
Teilstücken werden beide Abschnitte gleich bestromt. In
den Bögen erfolgt die Bewegung der Mover über einen
rotatorischen Motor und eine Hilfsmechanik. Eine geschlossene
Positionsauswertung ist nicht möglich, so
dass in einigen Bereichen nur gesteuert gefahren wird.
MOVER LAGE- UND GESCHWINDIGKEITSGEREGELT
POSITIONIEREN
Bei dem Antriebskonzept von XTS sind Einzelspulen des
Linearmotors entlang des Fahrweges angeordnet. Die
beweglichen Mover sind mit Permanentmagnetplatten
versehen. Über die dynamische Ansteuerung der einzelnen
Spulen entlang des Weges wird für jeden Mover ein
eigenes drehstromäquivalentes Wanderfeld erzeugt, das
ihn bewegt. Dabei wird die bisherige feste Verknüpfung
(Verdrahtung) zwischen Umrichter und Motorwicklung
aufgebrochen und stattdessen über Software auf einem
zentralen Industrie-PC (IPC) hergestellt. Bild 1 zeigt die
Übersicht des gesamten Systems. Signale aus dem Positionssensor
sind über Ethercat-Kommunikation mit dem
IPC verbunden. Dort wird per Servoachs-Software die
Position und Geschwindigkeit des Movers berechnet und
anschließend die Regelung und Phasentransformation
12
atp edition
1-2 / 2013
ieten geringen leitenden Verlust und kurze Schaltzeiten,
so dass eine Leistungselektronik mit einem Wirkungsgrad
von > 99 % möglich wird. Die H-Brücke wird dabei
mit einer Schaltfrequenz von 32 kHz und einem FPGAbasierten
Stromregler, mit einer Update-Rate von über
300 kHz, betrieben. Die Leistungselektronik ist rückspeisefähig
und erlaubt einen Energieaustausch zwischen
Bereichen, in denen Mover abbremsen und generatorisch
Energie zurückspeisen, und solchen, in denen motorische
Energie entnommen wird. Durch die Integration der
Leistungs- und Wegerfassungselektronik in die Motormodule
wird der im Schaltschrank benötigte Platz reduziert.
Der Magnetkreis des Motors ist mit einem eisenbehafteten
Doppelluftspalt ausgeführt. Dies ermöglicht
eine effiziente Spulenausnutzung und die Reduzierung
der Reibungsverluste in der Führung. Für die auf die
Führung einwirkende Kraft gilt:
BILD 3: Vergleich zwischen einem Kreisbogen
und einer Klothoide
ausgeführt. In der Phasentransformation werden aus
dem Sollstrom des Geschwindigkeitsreglers die sinusförmigen
Phasenströme aller Spulen unterhalb des Movers
berechnet und über Ethercat als Sollwert dynamisch
an die Stromregelung der entsprechenden Spulen übertragen.
So erhält jeder Mover exakt die Ansteuerung, die
er für sein eigenes Wanderfeld benötigt. Es werden nur
die Spulen angesteuert und bestromt, über denen sich
ein Mover befindet. Das System erlaubt, jeden einzelnen
Mover, zeitlich synchron innerhalb von 250 μs, lage- und
geschwindigkeitsgeregelt exakt zu positionieren.
ANTRIEBSLEISTUNG WIRD VON DEZENTRALEN
ELEMENTEN AUFGEBRACHT
Die geraden und die bogenförmigen Module (Bild 2) sind
aneinander gereiht, wobei alle 3 Meter eine Einspeisung
der 24-V-Steuer- und der 48-V-Leistungsversorgung sowie
eine Ethercat-Anbindung erfolgen. Das Motordesign
beruht auf einer Aneinanderreihung von Einzelspulen,
die jeweils von einer integrierten, als H-Brücke aufgebauten
Leistungselektronik angesteuert werden. Dies gilt
auch für den 180°-Bogen, so dass die freie Positionierfähigkeit
jedes Movers gewährleistet ist.
Da die Antriebsleistung nicht von einer zentralen Achse,
etwa einem rotatorischen Motor und einer verbundenen
Kette, aufgebracht wird, sondern sich auf die einzelnen
Mover verteilt, kann auch auf eine geringere Zwischenkreisspannung
von 48 V mit effizienten Mosfet-
Transistoren gewechselt werden. Diese Transistoren
Das ungefähr Vierfache der motorischen Vorschubkraft
wirkt so als Kraft in Richtung des Luftspaltes. Beim Aufbau
mit einem einfachen Luftspalt muss die Führung der
Mover diese Kräfte aufnehmen und abfangen, was zu
erhöhten Reibungsverlusten und Verschleiß der Führung
führt. Bei einem Aufbau mit Doppelluftspalt, wie er für
das XTS gewählt wurde, heben sich die Kräfte idealerweise
auf – mit der Einschränkung von Toleranzen in
der Mechanik und der Permanentmagnete. Insgesamt
kommt diese Anordnung bei einer Nenngeschwindigkeit
von 4 m/s und einer Nennkraft von 30 N sowie Verlusten
von etwa 12 W auf einen Wirkungsgrad von:
KRITISCHE PUNKTE MITTELS KLOTHOIDE GELÖST
Einen kritischen Punkt in der Mechanik bei einem umlaufenden
Transportsystem zeigt Bild 3 am Übergang
zwischen Gerade und Bogen. Verläuft dieser Übergang
auf einer Kreisbahn, ergibt sich dort ein sinusförmiger
Anstieg der Geschwindigkeit in y-Richtung. Als Folge der
Beschleunigung entsteht ein sprungförmiger Verlauf, der
wiederum einen theoretisch unendlich hohen Ruck zur
Folge hat und insbesondere die Führung stark belastet.
Darum wurde das 180°-Bogen-Motormodul, inklusive der
Führung, als Klothoide ausgeführt. Eine Klothoide (blauer
Verlauf in Bild 3) ist ein Kreisbogen, dessen Radius sich
verändert. Am Anfang des Übergangs ist der Radius größer
und wird dann bis zum Scheitelpunkt des Bogens
kontinuierlich kleiner, bevor sich die Klothoide zur zweiten
Gerade hin wieder öffnet. Dies führt zu einem kontinuierlichen
Anstieg der Beschleunigung, wodurch sich
die Lebensdauer der Mechanik erhöht.
Um die Mover gegebenenfalls auszutauschen, enthält
das System eine einfach zu öffnende Schleuse. Damit
sich mit diesem System aus wenigen Standardkompo-
atp edition
1-2 / 2013
13
PRAXIS
BILD 4: Ausschnitt aus der Wegerfassung
BILD 5: Zeitliche Abfolge und
Übertragung im System
nenten viele Einsatzbereiche abdecken lassen, haben die
Motormodule zusätzlich ein mechanisches Interface zur
Führung. Es bestehend aus Passstift- und Schraubverbindungen.
So lassen sich für die Standardmotormodule
verschiedene spezifische Führungen entwickeln und
anbauen, die Spezialanforderungen erfüllen. Die Einbaulage
des Systems ist frei wählbar.
KONTAKTLOSE POSITIONSMESSUNG FÜR ALLE MOVER
Die Wegerfassung ist in das System integriert und erlaubt
die Berechnung der absoluten Position jedes Movers
im System ohne aktive Bauelemente. Das hier eingesetzte
Prinzip des induktiven Wegsensors ist robust
gegenüber EMV-Störungen. Man kann es sich wie einen
abgewickelten Resolver vorstellen: Auf eine ebene Fläche
werden eine Erregerwicklung und mehrere innenliegende
sinus- und cosinusförmige Empfangsleiterschleifen
aufgebracht. Auf dem Mover fährt parallel,
mit einem Luftspalt von 0,5 Millimeter zum feststehenden
Wegsensor, eine Geberfahne aus leichtem und faserverstärktem
Material mit. Auf der Fahne sind mehrere
metallische Flächen aufgebracht. Hierdurch findet
Wechselwirkung mit dem elektromagnetischen Feld der
Erregerwicklung statt.
In den Sekundärwicklungen kann eine positionsabhängige
Spannung gemessen werden. Sie verläuft zeitlich
sinusförmig, wenn die Geberfahne beispielsweise mit
einer konstanten Geschwindigkeit über den feststehenden
Sensor bewegt wird. Aus den Spannungen, der inversen
Tangensfunktion und einer festen Positionszuordnung der
Sekundärwicklungen, oder deren Spannungen im System,
kann im IPC zentral die absolute Position aller Mover berechnet
werden. Die Positionsmessung ist damit kontaktlos
und absolut für alle Mover. Es ist keine weitere Referenzfahrt
oder Bewegung zur Kommutierungsfindung
notwendig. Im Übergang zwischen zwei Modulen ist in
einem kurzen Überlappungsbereich eine Positionsberechnung
aus beiden Modulen möglich. Nach dem Einschalten
wird die Position aller Mover geschlossen berechnet. In
automatisierten Messfahrten wird nach dem Zusammenbau
des Systems in der Maschine ein eventueller Positionssprung,
hervorgerufen durch mechanische Einbautoleranzen,
eingelernt und ausgeglichen.
Das induktive Verfahren ist, im Gegensatz zum optischen,
unempfindlich gegenüber elektrisch nichtleitenden
Verschmutzungen. Durch geeignete Geometrie lassen
sich hohe Genauigkeiten erreichen, wie etwa Stillstands-Wiederholgenauigkeit
von weniger als 10 μm bei
einer Positionsauflösung von zirka 0,2 μm. Die Erregung,
Abtastung und Digitalisierung erfolgen, von einem FPGA
(Field Programmable Gate Array) gesteuert, innerhalb
einer Zykluszeit von 10 μs (Bild 4). Die Flächen einzelner
Geberfahnen lassen sich so anpassen, dass ihre Hardware-Identifikation
und damit die eindeutige Zuordnung
der Servoachsen in der Applikationssoftware zu den
realen Movern gegeben ist.
ETHERCAT VERBINDET DIE ELEMENTE ZU EINEM SYSTEM
Eine wesentliche Voraussetzung zur Realisierung des
Linearen Transport Systems XTS ist die schnelle und
synchrone Ethercat-Kommunikation zwischen IPC und
Hardware. Ein Motormodul mit einer Länge von 250 Millimetern
umfasst 132 Byte Prozessdaten. In einem 2 Meter
langen Transportsystem mit abgewickelter Länge von
5 Metern, bestehend aus Bögen sowie Hin- und Rückweg,
entstehen rund 2640 Byte Prozessdaten. Sie werden taktsynchron,
mit einer Zykluszeit von 250 μs, in zwei Ethercat-Strängen
übertragen. Dies entspricht einer Datenmenge
von 84 Mbaud. Das System kann auf verschiedene
100-MBaud-Stränge aufgeteilt werden, so dass die
Übertragung der Daten maximal die Hälfte der Zykluszeit
von 250 μs benötigt.
14
atp edition
1-2 / 2013
BILD 6: Zusammenspiel der XTS-Softwaremodule
Gegebenenfalls bündelt der Port-Multiplier die Prozessdaten
der 100-MBit-Stränge zu einer 1-GBaud-Verbindung
zum IPC und übernimmt per Distributed- Clocks die nanosekundengenaue
Synchronisation der angeschlossenen
Hardware. In der restlichen Zykluszeit von mindestens
125 μs finden die folgenden Berechnungen der Servo-
Algorithmen aller Mover statt:
Achsverfolgung der verschiedenen Signale des
Wegmesssystems
Positionsberechnung
Geschwindigkeitsberechnung
Feininterpolation der Achssollwerte
Positionsregelung
Geschwindigkeitsregelung
Lastfilter höherer Ordnung
Phasentransformation des Stromsollwertes
auf die entsprechenden Hardwarekanäle
Durch kurze Verzögerungszeiten in den FPGA-basierten
Komponenten werden in diesem zentralen System
Verzögerungs- und Zykluszeiten wie bei einer dezentralen
Lösung erreicht. Jedoch mit dem Vorteil, dass die
einer Achse zugehörige Hardware über eine Achsverfolgungssoftware
kontinuierlich weiterbewegt und
umgeschaltet wird. Eine zusätzliche Kommunikation
ist nicht erforderlich. Bild 5 zeigt den zeitlichen Ablauf
im System.
KONFIGURATION UND MASCHINENPROGRAMMIERUNG
Die Systemänderung verbunden mit der großen Datenmenge
wirkt komplex. Darum wurde die Bedienbarkeit
einfach gehalten. Die Hardware wird zusammengesteckt
und über Ethercat an den PC angeschlossen. Das Scan-
Kommando erkennt alle Hardwarekomponenten im System
und nimmt sie in die Konfiguration auf. Der Stromregler
ist auf Einzelspulen und Mover abgestimmt. Die
Zuordnung der einzelnen Prozessdaten im System erfolgt
über den XTS-I/O-Wizard. Dieser erkennt die angeschlossenen
Systemkomponenten nach einem weiteren Scan-
Kommando, zeigt sie grafisch an. Er bietet die Möglichkeit,
die Stränge grafisch zu verschieben. Nach Anordnung
der Module erzeugt ein weiterer Mausklick alle
Zuordnungen und Verknüpfungen, so dass alle I/O-Daten
in einem Servoachs-Interface zur Verfügung stehen.
Die entsprechende Anzahl von Steuerungsachsen,
inklusive ihrer Verknüpfung mit den Achs-Interfaces
der Hardware, wird als Softdrive aus einer Parameterdatei
angelegt. Diese XML- beziehungsweise tmc-Datei
kann jeder Anwender selbstständig editieren, um die
für seine Mechanik ermittelten Werte der Regelung einzustellen.
Die Parametrierung, etwa aufgrund unterschiedlicher
Massen in bestimmten Positionsbereichen,
ist ebenfalls möglich.
Für die abwechselnde Bewegung der Mover auf demselben
Fahrweg wurde eine XTS-Gruppe als Softwarekomponente
entwickelt, welche die Abhängigkeiten
der Mover untereinander selbstständig überwacht. Die
Kollisionsüberwachung ermöglicht das Weiterfahren im
Stau. Ein Mover gibt beispielsweise ein Produkt an einen
weiteren Produktionsschritt ab. Nun bekommt er, kurz
vor der Aufnahme eines neuen Produktes, als Zielposition
eine Warteposition zugewiesen. Wenn nun mehrere
Mover in einer Art Warteschlange stehen, erkennt der
neu heranfahrende Mover dies und bremst automatisch.
Sobald der erste Mover von der Warteposition losfährt,
um sich auf ein neu einlaufendes Produkt zu synchronisieren,
fahren alle Mover in der Warteschlange, unter
Einhaltung der eingestellten Dynamikparameter, weiter.
Erst wenn der Mover seine Zielposition erreicht hat, meldet
er, dass die Bewegung abgeschlossen ist. Die Überwachung
ist auf dem gesamten Fahrweg und in allen
Bewegungen permanent aktiv. Die Programmierung der
einzelnen Fahrbefehle erfolgt aus Twincat PLC mit Standardbausteinen
gemäß PLC open. Die Motion-Sollwertgeneratoren
einer modernen Steuerung sind ohne Einschränkung
anwendbar.
AUTOR
Beckhoff Automation GmbH,
Eiserstraße 5, D-33415 Verl,
Tel. +49 (0) 5246 96 30,
E-Mail: info@beckhoff.de
JAN ACHTERBERG
entwickelt die Grundlagensoftware
der Antriebstechnik
bei Beckhoff.
atp edition
1-2 / 2013
15
PRAXIS
Spezialarmatur für Öl- und Gasindustrie garantiert
zuverlässige Regelung bei tiefen Temperaturen
Ölunternehmen Hess setzt bei Prozess zur kryogenen Trennung Spezialventile von Samson ein
RESISTENT GEGEN
VERSCHMUTZUNG,
UNDICHTIGKEIT
UND TIEFE
TEMPERATUREN:
Die Ventile vom
Typ 3291, die in der
Gasverarbeitungsanlage
des Ölunternehmens
Hess zum
Einsatz kommen.
Einfache Wartung und uneingeschränkte Funktionsfähigkeit
auch bei Tiefsttemperaturen, wie sie bei der
thermischen Gasverflüssigung entstehen – so lauten
Kernforderungen der Ölfirma Hess an Ventile für ihre
Gasverarbereitungsanlage im US-Bundesstaat North Dakota.
Nachdem Ventile anderer Hersteller die hohen Ansprüche
nicht erfüllten, setzt Hess nun bei der Erweiterung
der Anlage Samson-Ventile vom Typ 3291 ein.
Hess fördert im US-Bundesstaat North Dakota aus dem
Bakken-Ölfeld auch sogenanntes Schiefergas. Es enthält neben
dem Hauptbestandteil Methan auch verwandte Verbindungen
wie Ethan, Butan oder Propan und ist zudem mit
Wasserdampf, Schwefelwasserstoff, Stickstoff oder Ölrückständen
vermischt. Zur Energiegewinnung oder zur chemischen
Weiterverarbeitung müssen die Verunreinigungen
entfernt und die unterschiedlichen Gase getrennt werden.
DIE GASE WERDEN DURCH KÄLTE VERFLÜSSIGT
Dazu betreibt Hess im Provinzstädtchen Tioga eine Gasverarbeitungsanlage,
die zurzeit mit beträchtlichem Aufwand
ausgebaut wird. Ihre Kapazität soll von rund drei auf sieben
Millionen Kubikmeter Gas am Tag gesteigert werden.
Während für das Raffinieren von Rohöl hohe Temperaturen
notwendig sind, herrscht bei einigen Schritten der
Gasverarbeitung fast kosmische Kälte. Bei der Trennung
der verschiedenen gasförmigen Kohlenwasserstoffe ist
das kryogene Verfahren – der Einsatz von Tiefsttemperaturen
– das effektivste. Dabei nutzt man die unterschiedlichen
Siedepunkte der beteiligten Gase. Wird der Siedepunkt
eines Gases unterschritten, dann geht es in die
flüssige Form über und kann von den anderen, noch gasförmigen
Kohlenwasserstoffen, abgeschieden werden.
Unter den gasförmigen Kohlenwasserstoffen besitzt Methan
mit –161,7 °C den niedrigsten Siedepunkt. Die kryogenen
Teile der Anlage müssen also auch bei extrem
niedrigen Temperaturen störungsfrei arbeiten können.
GROSSE KÄLTE BELASTET MATERIAL EXTREM
Solche Kälte stellt das Material auf eine harte Probe,
selbst viele Metalle werden dabei spröde. Für Armaturen,
deren bewegliche Teile dem tiefkalten Medium ausgesetzt
sind, kommen deshalb nur besonders hochwertige
Legierungen und spezielle technische Konzepte in Frage.
„Hess hatte genau in diesem Bereich Probleme mit den
Ventilen eines anderen Herstellers gehabt“, erinnert sich
Abraham John. Er leitet die Samson Project Engineering
Inc. in Houston, Texas, die Öl- und Gasprojekte auf der
ganzen Welt betreut. „Da wir seit Jahrzehnten eng mit den
Herstellern technischer Gase zusammenarbeiten, kennen
wir die Anforderungen auf diesem Gebiet sehr genau und
haben die technischen Lösungen dafür parat. Das hat
auch die für Tioga zuständigen Ingenieure überzeugt.“
SPEZIALLÖSUNG MIT EINGESPANNTEM SITZ
Hess hat sich bei der Erweiterung der Anlage für Ventile
des neuen Typs 3291 entschieden. Sie regeln Druck, Temperatur
und Volumenstrom der Gase im neu installierten
Verflüssigungsprozess – zur vollen Zufriedenheit des
Kunden. Die Armatur wurde speziell für die Öl- und Gasindustrie
entwickelt. Sie basiert auf den bewährten Konzepten
der Samson-Ventile, unterscheidet sich aber in
einem wichtigen Detail: Während bei Samson sonst geschraubte
Sitze verwendet werden, enthält dieses Ventil
einen eingespannten Sitz zur Aufnahme des Ventilkegels.
Der Vorteil dieser Konstruktion ist vor allem die erleichterte
Wartung. Sie ist in der Öl- und Gasbranche
besonders wichtig. „Während etwa Chemieanlagen in
MASSGESCHNEIDERT FÜR DIE ÖL- UND GASINDUSTRIE
Das Ventil Typ 3291 wurde gezielt für die
besonderen Anforderungen in der Öl- und
Gasindustrie entwickelt.
Es basiert auf der bewährten Ventiltechnologie
von Samson, verfügt aber statt eines geschraubten
über einen eingespannten Sitz.
Anders als die branchenüblichen Cage-Ventile
verursacht es im Betrieb nur minimale Reibung
und ist gegen Verschmutzung und Undichtigkeit
resistent. Die wichtigsten Eigenschaften:
Eingespannter Sitz
Wartung ohne Spezialwerkzeug
Bewährte Konstruktionselemente
Verschleiß an Sitz und Kegel minimiert
Hohe Resistenz gegen Verschmutzung und
Undichtigkeit
Temperaturbereich –198 bis 450 °C
Besonders geeignet für Anwendungen mit
voraussicht licher Spaltkorrosion zwischen
Sitz und Gehäuse
16
atp edition
1-2 / 2013
estimmten Abständen für Wartungsarbeiten vollständig
heruntergefahren werden, arbeiten die Anlagen, die direkt
an der Öl- und Gasförderung hängen, meist ununterbrochen
durch“, erklärt Abraham John. „Fällt hier ein
Gerät aus, muss die Reparatur möglichst schnell und einfach
zu erledigen sein.“
Undichtigkeit“, erläutert Abraham John. „Das ist beim
Typ 3291 konstruktionsbedingt weitgehend ausgeschlossen.
Da das Gerät im Betrieb außerdem deutlich weniger
Reibung erzeugt als ein Cage-Ventil, bleibt auch der normale
Verschleiß wesentlich geringer, was seine Lebensdauer
und Wartungsintervalle enorm verlängert.“
SCHNELLE WARTUNG MIT STANDARDWERKZEUG
Ventilsitze sind einem natürlichen Verschleiß unterworfen
– zumal unter den verschärften Bedingungen der Gasverarbeitung.
Deshalb ist die Wartungsfreundlichkeit der
Geräte ein entscheidender Vorteil. Beim Typ 3291 lässt
sich der Sitz in kürzester Zeit ein- und ausbauen. Dafür
braucht man nur das Standardwerkzeug, das in solchen
Anlagen immer vorhanden ist. Gegenüber den Stellventilen
mit Cage, die in der Branche weit verbreitet sind, hat
die Samson-Armatur entscheidende Vorteile. „Ein Cage
ist im druckentlasteten Zustand anfällig für eindringenden
Schmutz. Zugleich läuft der kolbenförmige Ventilkegel
über eine lange Strecke im Cage. Beides zusammen
erleichtert die Entstehung von Riefen oder Rissen und von
AUTOR
Dipl.-Ing. MARKUS NEUFELD ist Produktmanager
Stellventile bei Samson.
Samson AG,
Mess-und Regeltechnik,
Weismüllerstraße 3,
D-60314 Frankfurt am Main,
Tel. +49 (0) 69 40 09 11 03,
E-Mail: mneufeld@samson.de
2013
Prozessleitsysteme - Messtechnik - Regeltechnik - Steuerungstechnik
Produktpräsentation - Fachvorträge
MSR-Spezialmesse Chemiedreieck
MSR-Spezialmesse Nord
MSR-Spezialmesse Südost
MSR-Spezialmesse Niedersachsen
am 20. März 2013 in der HALLE MESSE in Halle (Saale)
am 05. Juni 2013 in der MesseHalle in Hamburg-Schnelsen
am 18. September 2013 in der Sparkassen-Arena in Landshut
am 30. Oktober 2013 in der Volkswagen Halle in Braunschweig
Der Eintritt zur Messe und die Teilnahme an den Workshops ist kostenlos.
Internet: www.meorga.de
Email: info@meorga.de
MEORGA GmbH
Sportplatzstraße 27
66809 Nalbach
Tel. 06838 / 8960035
Fax 06838 / 983292
atp edition
1-2 / 2013
17
PRAXIS
Wirbelfrequenzmessung ermittelt Produktion von
Bio-Methan auch unter schwierigen Bedingungen
Zuverlässige Ergebnisse trotz geringem Druck, schwankenden Temperaturen und Feuchtigkeiten
BIO-METHAN AUS ABWASSER:
Die Stadtwerke Burghausen
erzeugen in einem Kanalwerk
mit Kläranlage Faulgas zur
Befeuerung eines angeschlossenen
Blockheizkraftwerks.
GASEINGANG MIT ERSTEM
WASSERABSCHEIDER: Trotz
dieser Anlage ist das Gas in den
Rohrleitungen noch sehr feucht.
Mit einem Wirbelfrequenz-Durchflussmessgerät können
die Stadtwerke Burghausen trotz extrem
schwieriger Bedingungen exakt messen, wie viel Biomethangas
die Kläranlage ihres Kanalwerks liefert. Die
messtechnische Herausforderung besteht in sehr niedrigen
Gasdrücken von 7 bis 8 mbar oder sogar darunter
sowie schwankenden Temperaturen und Feuchtigkeiten
des erzeugten Gases. Die Mengenermittlung mit einem
Differenzdruckmessgerät scheiterte aufgrund fehlerhafter
Messwerte. Schließlich lieferte Krohne Messtechnik
mit dem Wirbelfrequenz-Durchflussmessgerät Optiswirl
4070 C eine Lösung, die sich mittlerweile in der
Praxis bestens bewährt hat.
Die Stadtwerke im oberbayerischen Burghausen betreiben
ein Kanalwerk mit Kläranlage und angeschlossenem
Blockheizkraftwerk, das mit Faulgas (Methan)
befeuert wird. Zu diesem Zweck wird der Klärschlamm
aus der Kläranlage in den Faulturm gefahren,
wo die Restfeststoffe durch Mikroorganismen
teilweise abgebaut werden. Das bei diesem Prozess
freigesetzte Methan wird der Biogasanlage anschließend
als Energieträger zugeführt.
SCHWANKENDE DICHTE ERSCHWERT DIE MESSUNG
Um genaue Informationen über die Energieproduktion
des Klärwerks zu erhalten, benötigt der Betreiber kontinuierliche
Messwerte über den Volumen- beziehungsweise
Energiedurchfluss des vom Faulturm zum Blockheizkraftwerk
transportierten Methans. Das Abgas ist
trotz zweier installierter Wasserabscheider in der Rohrleitung
sehr feucht. Der Druck des erzeugten Gases war
ursprünglich mit 65 mbar schon sehr gering. Durch den
Einbau einer Niederdruckanlage sank er im Laufe der
Zeit auf 20, dann sogar auf durchschnittlich nur noch 7
bis 8 mbar ab.
Trotz der Isolierung des Faulturms ist das Gas äußeren
Einflüssen wie jahreszeitlich bedingten Temperaturschwankungen
ausgesetzt, die sich auf die Gasdichte
(0,7177 kg/Nm³) auswirken. Der Kläranlagen-Betreiber
hatte bereits den Einsatz eines Druckdifferenzgeräts geprüft,
aber wegen fehlerhafter Messwerte wieder eingestellt.
Aufgrund dieser Erfahrung war er sehr skeptisch,
ob sich ein Messprinzip für die vorliegenden Parameter
finden würde.
SENSORWECHSEL AUCH BEI LAUFENDEM BETRIEB
Krohne stellte das Wirbelfrequenz-Durchflussmessgerät
Optiswirl 4070 C – zunächst als Testgerät – in der empfohlenen
Nennweite DN 25 zur Verfügung. Dazu musste
die Rohrleitung von ursprünglichen DN 50 auf DN 25
eingezogen werden. Die Installation erfolgte auf Wunsch
des Kunden mit Flanschanschluss in eine fallende Rohrleitung.
Dabei wurden die notwendigen Ein- und Auslaufstrecken
berücksichtigt.
Das Vortex-Gerät (Druckstufe PN 40) misst den Betriebsdruck,
die Temperatur und den Volumendurchfluss
und errechnet auf dieser Basis automatisch den Masseund
Energiedurchfluss des Methangases. Da das Instrument
zusätzlich auch mit einer Absperrarmatur ausgeliefert
wurde, kann sein Drucksensor gegebenenfalls
18
atp edition
1-2 / 2013
OPTISWIRL 4070 C IN FALLENDER LEITUNG:
Dank der Absperrarmatur könnte der Sensor
auch im laufenden Betrieb gewechselt werden.
HERAUSFORDERUNG:
Die Durchflussmessung
von
Methangas erfolgt
in der Anlage der
Stadtwerke Burghausen
bei nur 7 mbar.
FÜR FEUCHTE GASE
GEEIGNET: Wirbelfrequenze-Durchflussmessgerät
Optiswirl
4070 C mit integrierter
Druck- und Temperaturkompensation.
Bilder: Krohne
auch bei laufendem Betrieb und ohne Prozesseingriff
ausgewechselt werden.
DRUCK- UND TEMPERATURKOMPENSATION
Die wichtigsten Eigenschaften des Wirbelfrequenz-
Durchflussmessgeräts Optiswirl 4070, das in der Anlage
der Stadtwerke Burghausen zum Einsatz kommt:
2-Leiter-Gerät mit integrierter Druck- und
Temperaturkompensation und Umrechnung
in Energie
Verschleißfreie, vollverschweißte Edelstahlkonstruktion
Für feuchte Gase geeignet
Hohe Korrosions-, Druck- und Temperaturbeständigkeit
Hohe Messgenauigkeit und Langzeitstabilität
Sofortige Betriebsbereitschaft durch
Plug-and-play
Mit dem Wirbelfrequenz-Durchflussmessgerät kann
der Betreiber des Kanalwerks Burghausen die Leistungsfähigkeit
und Energieproduktion seiner Kläranlage
genau überprüfen und nachweisen. Er profitiert
dabei von der großen Messspanne des Optiswirl.
Denn obwohl der Anlagendruck nach den Umbauarbeiten
auf 7 bis 8 mbar oder sogar darunter absinkt
und das Gas eine hohe Feuchtigkeit aufweist, misst
das Gerät kontinuierlich und liefert fehlerfreie Messergebnisse.
Angesichts der Messparameter waren die Stadtwerke
Burghausen von der Messleistung des Optiswirl
überrascht und entschieden sich für die Anschaffung
des Instruments. Inzwischen läuft der Optiswirl seit
mehr als drei Jahren unterbrechungsfrei und ohne
jeglichen Wartungsaufwand. Bis heute hat das Vortex-Gerät
im Kanalwerk über 620 000 m³ Faulgas gemessen.
AUTOR
MICHAEL MÖLLER
ist Produktmanager
Wirbelfrequenz-
Durchflussmess geräte bei
Krohne Messtechnik.
Krohne Messtechnik GmbH,
Ludwig-Krohne-Straße 5, D-47058 Duisburg,
Tel. +49 (0) 203 301 44 13,
E-Mail: m.moeller@krohne.com
atp edition
1-2 / 2013
19
INTERVIEW
JÖRG KIESBAUER:
Seit Oktober 2008 ist er Mitglied
im Vorstand des Stellgeräteanbieters
Samson. Er vertritt
den Bereich Forschung und
Entwicklung. Kiesbauer ist seit
1992 bei der Samson AG tätig.
Vor fünf Jahren nahm er
außerdem einen Lehrauftrag an
der TU Darmstadt zum Thema
Aktorik in der Prozessautomatisierung
an. Auf der diesjährigen
Namur-Hauptversammlung
stellte Kiesbauer den Beitrag
„Aktorik – von der Handdrossel
zum smarten Stellgerät“ vor.
20
atp edition
1-2 / 2013
„Die Diagnose-Informationen sind
da – wir müssen sie nur nutzen“
Jörg Kiesbauer, Vorstandsmitglied der Samson AG,
im Interview mit atp-edition-Chefredakteur Leon Urbas
Die Namur-Hauptversammlung am 8. und 9. November 2012 stand unter dem Motto „Aktorik – von der Handdrossel
zum smarten Stellgerät“. Anlass für atp-edition-Chefredakteur Prof. Dr.-Ing. Leon Urbas, Dr.-Ing. Jörg Kiesbauer,
Vorstandsmitglied im Bereich Forschung und Entwicklung beim Stellgeräte-Hersteller Samson, zu der historischen
Entwicklung von Aktorik zu befragen. Im Interview fordert Kiesbauer den standardisierten Zugriff auf Gerätedaten.
Insgesamt fehle es im Prozessleitsystem an einem effizienten Informationsmanagement. Kiesbauer nimmt in dem
Gespräch auch Stellung zu Themen wie der internationalen Normung und dem Bachelor/Master-Abschluss.
Bilder: Anne Hütter
LEON URBAS: Sie haben in Ihrem Vortrag auf der Namur-
Hauptsitzung dargestellt, wie sich die Samson AG über die
Jahre entwickelt hat. Welche Rolle nimmt Ihr Unternehmen
heute im Markt ein?
JÖRG KIESBAUER: In der Chemieindustrie sind wir bei Aktorik
weltweit der Marktführer. Wenn wir über den gesamten Weltmarkt
reden, positionieren wir uns etwa an vierter Stelle. Die
Entwicklung hat gezeigt, dass wir von einem mechanischen zu
einem mechatronischen Aktor gelangt sind. Darin liegt unsere
Kompetenz, mit einem Baukasten-System und dem entsprechenden
Engineering zu einer Lösung für jede Anforderung zu
gelangen.
LEON URBAS: Der Weg dahin war doch sicher nicht einfach.
Welches waren in dieser Zeit die größten Schwierigkeiten, die
es zu überwinden galt?
JÖRG KIESBAUER: Samson begann mit Reglern ohne Hilfsenergie.
Dies ist neben der Gebäudeautomation heute immer
noch ein wichtiges Geschäftsfeld für uns. Weiterentwicklung
und Kundennähe waren immer wichtig für Samson. Irgendwann
haben wir uns mit Pneumatik und dem modularen Aufbau einen
Namen in der Prozessautomation gemacht. Die Entwicklung
dorthin war nicht einfach. Der Durchbruch kam mit unserer
heutigen Standardventilbaureihe 240, weil wir erstmals ein
sehr modularisiertes Konzept umgesetzt hatten. Nach wie vor
ist gleichmäßiges Wachstum und Gewinn entscheidend.
LEON URBAS: Ist Aktorik ein Wachstumsmarkt?
JÖRG KIESBAUER: Ja. Wir haben neue Geschäftsfelder hinzugewonnen,
wie beispielsweise die Öl-& Gasindustrie oder Kryotechnik.
Zahlreiche spezialisierte Tochtergesellschaften sind
dazugekommen (Air Torque, Cera System, Leusch, Pfeiffer,
Starline und Vetec [Anm. der Redaktion]). Das entscheidende
war aber in der Tat die Digitalisierung.
LEON URBAS: Was zeichnet das Samson-Stellgerät denn nun
aus?
JÖRG KIESBAUER: Das heutige Stellgerät ist ein modularer
Baukasten aus Armatur, Antrieb und Anbaugeräten. Dazu
kommt die Auslegungserfahrung auf Basis von experimentellen
und auch theoretischen Untersuchungen. Nur ein gut ausgelegtes
Stellgerät kann später seinen Dienst in der Anlage tun.
Die Diagnose durch die smarten Anbaugeräte ist nur dann
sinnvoll nutzbar. Diagnose muss im Leitsystem ankommen,
aber dann auch im Rahmen eines Plant Asset Managements
genutzt werden. Eins ist wichtig: Die Besonderheit der Applikation.
Durch unsere Modularisierung können wir für jede Herausforderung
die richtige Lösung finden. Jedoch muss man
den Aktor auch als Ganzes sehen. Es macht für uns keinen Sinn
eine Gesamtfunktion auseinander zu reißen. Dazu entwickeln
wir alle Komponenten ständig weiter.
LEON URBAS: Wo sehen Sie beim Plant Asset Management
neue Herausforderungen für die Aktorik?
JÖRG KIESBAUER: Die Namur-Workshops ergaben, dass es
an vielen Stellen wirklich um Detailarbeit geht. Die Diagnose-
Informationen im Feldgerät sind da. Um von der Gerätediagnose
zum Informationsmanagement zu gelangen, werden neue
Ansätze zur Verdichtung und Archivierung von Diagnose-Informationen
übergeordnet hinzukommen.
LEON URBAS: Welche Rolle spielen Standards bei der Leitsystemintegration?
Kann man sich vorstellen, dass ein Leitsystemhersteller
eine spezielle Samson-Library anbietet? Ich möchte
doch als Anwender Diagnose im Leitsystem haben. Die Namur
arbeitet an einheitlichen Profilen für alle Ventile.
JÖRG KIESBAUER: Die Geräteintegration ins Leitsystem ist ja
schon standardisiert, sodass wir keine spezielle Library für
Samson-Stellgeräte brauchen. Wir haben die komplette Gerätediagnose
im Stellungsregler mit den Statusinformationen
nach NE 107 einschließlich aller wichtigen Signaldaten. Wir
brauchen keine zusätzlichen Diagnoseauswertungen im Leitsystem
wie einige Marktbegleiter. Wir unterstützen alle Integrations-Standards
wie EDDL und FDT/DTM.
LEON URBAS: Sie sagten in einem Interview, dass Samson heute
„zu allen mechanischen, elektrischen und softwarebezogenen
Fragestellungen auf dem Gebiet der Stellgeräte Stellung
beziehen“ kann. Was heißt das konkret?
JÖRG KIESBAUER: Wir verstehen das gesamte Stellgerät, mechanisch,
Elektronik- und Software-basiert. Wir haben eine
starke Entwicklungsmannschaft, die sich auf allen dafür notwendigen
Kompetenzfeldern auskennt und daraus Produktkonzepte
mit dem vertriebsbezogenen Produktmanagement fest
atp edition
1-2 / 2013
21
INTERVIEW
„Die Workshops auf der
diesjährigen Namur-Hauptversammlung
zeigten, dass
es um Detailarbeit geht. Die
Frage ist ganz klar, wie Geräteinformationen
zukünftig
genutzt werden.“
legt und abstimmt. Wir nutzen dazu unser Werkstofflabor, einen
sehr leistungsfähigen strömungstechnischen Prüfstand, eigenes
EMV-und Explosionsschutz-Know-how sowie unser Smart
Valve Integration Center für die Leitsystemintegration.
LEON URBAS: Es gibt verschiedene Gremien, die Profile für
Stellgeräte erarbeiten. Sind Sie mit dabei?
JÖRG KIESBAUER: Ja. Wir sind von Anfang an in der Normung,
an verschiedenen Stellen wie Namur, IEC, ISA, DKE, PNO, HCF,
FF und anderen dabei.
LEON URBAS: Zurzeit wird in der Namur versucht, wichtige
Feldgeräteparameter zu standardisieren. Wann gibt es denn
einen solchen Standard für Stellungsregler?
JÖRG KIESBAUER: Relativ knapp vor der Namur-Hauptsitzung
ist ein erster Vorschlag erarbeitet worden. Der bezieht sich im
Wesentlichen auf die Grundfunktionen. Dazu müssen wir aber
unsere Geräte nicht ändern. Es braucht eine saubere Definition
und eine herstellerunabhängige Übersetzungstabelle. Wie das
mit den Parametern der einzelnen Hersteller funktioniert, ist
Sache des Herstellers. Standardisierte Defaultwerte müssen
dazu führen, dass sich alle Geräte erst einmal gleich verhalten.
LEON URBAS: Integrationsmethoden sind derzeit EDDL (electronic
Device Description Language) und FDT/DTM (Field Device
Tool/Device Type Manager). Ist FDI (Field Device Integration)
eine bessere Lösung?
JÖRG KIESBAUER: Wenn FDI kommt, werden wir dies wie EDDL
und FDT/DTM natürlich auch unterstützen. Wir hoffen, dass
hier manches einfacher und besser wird. Bisher ist EDDL nicht
gleich EDDL, denn wir haben EDDLs in unterschiedlichen Ausführungen
je nach Leitsystem. Auf unserer Wunschliste ganz
oben steht die standardisierte Zugriffsmöglichkeit auf die über
die Kommunikation wie Hart, PA oder FF im Leitsystem angekommenen
Gerätedaten, unabhängig vom Asset-Management
oder Engineeringsystem des Leitsystems. Sehr viel lässt sich
durch historische Daten erreichen, die man gerätebezogen
verwalten und miteinander vergleichen kann. Die OPC UA-
Schnittstelle, wie sie bei FDI vorgesehen ist, wäre dazu vielleicht
ein Lösungsansatz.
LEON URBAS: Wenn FDI im Laufe des Jahres 2013 spezifiziert
ist, bekommen wir dann FDI Device Packages von Samson?
JÖRG KIESBAUER: Könnte ich mir vorstellen. Was wir meiner
Meinung aber nicht brauchen, ist diese Vielzahl von EDDL, FDT/
DTM und FDI für die neuen Geräte, sondern endlich dann eine
standardisierte Möglichkeit für jedes Leitsystem.
LEON URBAS: Stichwort Energieeffizienz: Sie haben postuliert,
nicht Drosselregelung und Pumpendrehzahlregelung gegeneinander
auszuspielen, sondern aufgrund des größeren Einsatzbereiches
auch über eine Kombination aus smartem Stellgerät
und drehzahlgeregelter Pumpe als Flow Unit nachzudenken.
Wann lohnt sich diese Investition?
JÖRG KIESBAUER: Das hängt von Prozessdaten und Größe ab.
Das muss man im Einzelfall berechnen, was wir auch mit entsprechenden
Werkzeugen leisten. Neben verbesserter Energieeffizienz
sind funktionale Vorteile und weniger Verschleiß
weitere wichtige Bewertungsparameter.
LEON URBAS: Was passiert in Zukunft im Bereich der Selbstdiagnose
von Stellgeräten?
JÖRG KIESBAUER: Wir haben bereits viel abgedeckt. Die Statusmeldung
nach NE 107 ist ganz wichtig. Auf dem Weg zum
Informationsmanagement sind sicherlich ergänzende Schritte
notwendig.
LEON URBAS: In Ihrem Vortrag klang es so, als hätte Samson
jetzt ein eigenes Diagnose-Werkzeug?
JÖRG KIESBAUER: Ja, wir haben eine zusätzliche Schnittstelle
am Stellungsregler und eigene Software ähnlich einem FDT.
Diese Software liest am Stellungsregler alle Daten aus und
stellt sie entsprechend dar. Wir haben das entwickelt, damit
unsere Mitarbeiter schnell reagieren zu können. Manchmal
stand man vor dem Stellungsregler in der Werkstatt oder in der
Anlage und konnte die Daten nicht auslesen, weil das Feldbussystem
noch nicht vorhanden oder angeschlossen war. Aber
man bekommt die gleiche Information auch über das Leitsystem
per EDDL oder FDT/DTM. Oft sind aber Hart-Geräte in die
Anlage eingebaut, man kann aber Hart im Leitsystem nicht
nutzen, weil anlagenseitig gar nicht die Voraussetzungen für
Hart-Kommunikation umgesetzt wurden.
LEON URBAS: Wir haben im Vortrag von Herrn Bleuel („Automatisierung
im Life Cycle modularer Anlagen“, S. 24-31,
Anm. der Redaktion) gehört, dass, wenn man Modularisierung
22
atp edition
1-2 / 2013
weiter denkt, Hersteller eine gewisse Freiheit haben müssen,
damit sie Geschäftsmodelle entwickeln können. Eigentlich
muss dann nur noch die Schnittstelle spezifiziert werden.
Kann ich bei Ihnen ein Ventilmodul kaufen, in dem Sie eine
Total Cost of Ownership und Verfügbarkeitsgarantie anbieten?
Welchen Service bieten Sie da an? Kann man mit so was überhaupt
Geld verdienen?
JÖRG KIESBAUER: Klar sehen wir Potenzial in Dienstleistung.
Wir haben den After Sales-Bereich verstärkt und werden diesen
noch weiterentwickeln. Hier spielt die Nutzung der Diagnosedaten
für unsere Stellgeräte eine zunehmend wichtigere
Rolle.
LEON URBAS: Welche informationstechnischen Konzepte verfolgen
Sie hierzu?
JÖRG KIESBAUER: Wir haben uns ein Datenbank-Tool geschaffen,
mit dem wir die Daten aus unseren Stellgeräten – woher
sie auch kommen, ob vorort oder über das Asset Management
des Kunden ausgelesen – für uns mit der Dokumentation unserer
Service-Aktionen zusammen archivieren können.
LEON URBAS: Sie haben OPC UA angesprochen. Das wandert
derzeit nur zögerlich in die Leitsysteme. Da haben Sie sicherlich
weitere Wünsche an die Prozessleitsystem- Architektur, oder?
JÖRG KIESBAUER: Wir treiben schon großen Aufwand für die
Integration unserer Geräte ins System und sind in Kontakt mit
den Herstellern. In der Regel funktioniert das, sodass wir auch
im Bereich von Schulungen gewisse Kompetenz besitzen.
Es gibt Beschränkungen beim regelmäßigen Auslesen der Feldgeräte.
Die große Herausforderung wird sein, die Detailinformationen
aus den Feldgeräten zentral zu sammeln, zu klassifizieren
und dann noch Suchfunktionen darüber zu legen. Dies soll gezielt
kritische Anlagenzustände abfragen und definieren, wie sich die
Geräte in diesem Augenblick zu verhalten haben. Hierfür brauchen
wir Gerätehersteller und Systemhersteller im selben Boot.
Solche Auswertungen können wir schon in unserem eigenen
zuvor angesprochenen Service-Datenbanktool durchführen.
LEON URBAS: Welche Wünsche haben Sie im Bereich Visualisierung
oder Einbindung zusätzlicher Informationen in die Leitsysteme?
Die Leitsystemhersteller versprechen mit FDI erweiterte
Integrationsmöglichkeiten. Ein Vorteil eines FDI wäre,
direkt im Leitsystem die UIP einzubinden. Wie sehen Sie das?
JÖRG KIESBAUER: Ja, EDDL könnte die wichtigsten Basisfunktionen
integrieren und mit UIP kann man herstellerspezifische
Auswertungen bei der Diagnose umsetzen.
LEON URBAS: Welches Fazit zieht Ihr Unternehmen aus der
Namur-Hauptsitzung?
JÖRG KIESBAUER: Die Namur-Hauptversammlung war, wie
immer, eine sehr interessante und hochkarätige Veranstaltung.
Samson war es schon immer ein Anliegen, die Namur-Hauptversammlung
zu unterstützen. Schön, dass diesmal auch einmal
die sehr feldnahe Aktorik im Fokus stand. Zu Themen wie Asset
Management und Datenverarbeitung gab es interessante Ansätze,
wie der von uns inhaltlich voll unterstützte Vortrag von Sven
Seintsch („Von der Gerätediagnose zum Informationsmanagement“,
voraussichtliche Veröffentlichung in 55 (3), Anm. der
Redaktion). Auch die Modularisierung lässt die spannende Frage
zu, was dies für die Aktorik bedeutet. Unsere Flow Unit greift
Modularisierung als Begriff in einem großen Umfang bereits auf.
LEON URBAS: Wo könnte die Namur-Hauptversammlung Ihrer
Meinung nach noch besser werden?
JÖRG KIESBAUER: Die Verbindung zu den internationalen Verbänden
ist angestoßen. Es wäre vielleicht nicht schlecht, wenn
man gerade mit der ISA (International Society of Automation)
schneller zusammen kommen würde. Ich weiß natürlich, dass
das schwierig ist.
LEON URBAS: Welche Aufgaben kommen bei der Normung auf
die Community Ihrer Meinung nach zu?
JÖRG KIESBAUER: In den internationalen Arbeitskreisen der
IEC für Stellgeräte geht viel voran. Das funktioniert sogar oft
besser als in den ISA-Arbeitskreisen. Das Eclass-Thema ist in
die Normung zumindest mit aufgenommen worden. Es wird
allerdings noch dauern bis zur Umsetzung.
LEON URBAS: Was machen Sie eigentlich aktuell im Bereich
Eclass?
JÖRG KIESBAUER: Man versucht bei der IEC (International
Electrotechnical Commission) die Begriffe für Ventile exakt zu
normen. Das gibt es schon mit Eclass. Das will man natürlich
übertragen. In der IEC und ISA gibt es entsprechende Beschreibung
von Ventilen. Wir brauchen mehr Daten als diejenigen, die
heute dort definiert sind. Der Prozess ist angestoßen. Die Anwender
müssen es mittragen. Im Prinzip unterstützen wir dies.
Wir können auch demonstrieren, dass es funktioniert. Ich
denke, die Frage, wie wir Daten eingeben und wie wir sie bekommen,
hat Zukunft. Gerade für integriertes Engineering ist
das eine Grundvoraussetzung.
LEON URBAS: Sie haben die vielen Innovationen aufgezeigt, die
Sie vor sich haben. Dazu brauchen Sie ausgebildete Leute. Woher
kommen die Fachkräfte? Wachsen Sie nur außerhalb von
Deutschland?
JÖRG KIESBAUER: Zwischenzeitlich war der Facharbeiter-
Mangel in der Tat ein großes Problem. Wir bilden jetzt noch
mehr selbst aus. Entwicklungsingenieure versuchen wir durch
Hochschulprojekte, Masterarbeiten und Praktika schon als
Studenten an das Unternehmen zu binden und für uns zu gewinnen.
Wir beteiligen uns an von Studenten organisierten Berufsmessen
wie beispielsweise der Konaktiva in Darmstadt.
LEON URBAS: Die Hochschulen haben den Bologna-Prozess
einführen müssen. Finden Sie als Arbeitgeber, das Modell Bachelor/Master
angemessen? Sind die Absolventen berufsqualifiziert?
JÖRG KIESBAUER: Ja, grundsätzlich brauchen wir aufgrund
der Kom plexität unserer Entwicklungen sehr gut ausgebildete
Absolventen mit hoher Lösungskompetenz. Häufig stellen wir
Bewerber mit Master oder noch mit Diplom ein, aber auch mit
Bachelorabschluß, am besten dann mit vorheriger Lehre.
LEON URBAS: Herr Kiesbauer, wir danken Ihnen recht herzlich
für das ausführliche Gespräch.
JÖRG KIESBAUER (links) im Gespräch mit Leon Urbas.
atp edition
1-2 / 2013
23
HAUPTBEITRAG | NAMUR-HAUPTSITZUNG
Automatisierung im Life Cycle
modularer Anlagen
Welche Veränderungen und Chancen sich ergeben
In Verfahrenstechnik und Anlagenbau werden zunehmend Konzepte zur Standardisierung
der Modularisierung diskutiert. Dies hat weitreichende Auswirkungen auf das Engineering
und den Betrieb der Anlagen. Der Beitrag zeigt die Einflüsse eines modularen Anlagendesigns
auf den Lebenszyklus einer Anlage von der Planung über den Betrieb bis zur
Demontage. Grundlage der Ausführungen sind die Arbeiten des Namur Arbeitskreises
1.12 „Anforderungen an die Automatisierungstechnik durch die Modularisierung verfahrenstechnischer
Anlagen“.
SCHLAGWÖRTER Modularisierung / Life Cycle / Automatisierungstechnik
Automation in the lifecycle of modular process plants –
Modularisation – Which Consequences arise for automation?
Standardisation and modularisation are intensively discussed in the Process Industries.
Introducing these concepts will dramatically change plant engineering processes as well
as plant operation strategies. This paper shows the impact of a modular plant design to
the plant life cycle from engineering over the operation to disassembling. Basis of the
paper are the discussions within the Namur working group 1.12
KEYWORDS modularisation / life cycle / automation
24
atp edition
1-2 / 2013
MICHAEL OBST, Technische Universität Dresden
THOMAS HOLM, Helmut-Schmidt-Universität
STEPHAN BLEUEL, Sanofi-Aventis
ULF CLAUSSNITZER, Merck
LARS EVERTZ, RWTH Aachen
TOBIAS JÄGER, Helmut-Schmidt-Universität
TOBIAS NEKOLLA, Evonik Industries
STEPHAN PECH, BASF SE
STEFAN SCHMITZ, Bayer Technology Services
LEON URBAS, Technische Universität Dresden
Mit dem Ziel einer drastischen Reduzierung der
Zeitspanne zwischen Produktidee und
Markteinführung [1] entstehen aus der Verfahrenstechnik
heraus neue Anlagenkonzepte
auf Basis modularer Anlagenkomponenten.
Neben kürzerer Projektierungsdauer liefern diese Konzepte
einen erheblichen Gewinn an Flexibilität. Die Automatisierungstechnik
ist gefordert, diese Entwicklung
zu unterstützen. Darüber hinaus sollte die Automatisierungstechnik
in dieser Entwicklung Vorreiter und Innovator
werden, zumal viele der notwendigen Entwicklungen
sich in konventionell errichteten Anlagen als Wettbewerbsvorteil
nutzen lassen.
Während sich im klassischen Anlagenbau eine Vielzahl
an Standards etabliert hat, fehlen für den modularen
verfahrenstechnischen Anlagenbau – besonders im
Bereich der Automatisierung – passende Rahmenbedingungen.
Dabei schreitet die Entwicklung des modularen
Anlagenbaus auf dem Gebiet der Verfahrenstechnik immer
weiter voran. Es darf nicht passieren, dass die Automatisierungstechnik
die Einführung modularer verfahrenstechnischer
Anlagen behindert. Dabei ergeben
sich durch die Modularität der Anlage für Lieferanten
und Betreiber und für beteiligte Servicepartner neue
Herausforderungen und Chancen, zum Beispiel durch
die Erweiterung bestehender und Einführung neuer Geschäftsmodelle.
Für eine breite Anwendung modularer Anlagen sind
allerdings Mindestanforderungen an die Standardisierung
der Automatisierung erforderlich, um mittelfristig
die Flexibilität der Produktionsanlage zu akzeptablen
Kosten zu erhalten. Die Entwicklung und Anwendung
von Automatisierungskonzepten für modulare Anlagen
ist von der weiteren Entwicklung des Anlagenkonzepts
durch die Verfahrenstechnik und von der Nachfrage
durch die Industrie abhängig. Hier sind die Hersteller
und Serviceanbieter der Automatisierungsbranche gefordert,
passende Anwendungen und Dienstleistungen
zu entwickeln sowie weitere Impulse zu liefern. Dies
sollte in Abstimmung zwischen Verfahrenstechnik, Apparatetechnik
und Automatisierung geschehen.
1. DER MODULBEGRIFF
Modularität wird im Allgemeinen als Aufteilung eines
Ganzen in definierte, meist standardisierte Elemente
verstanden. Die einzelnen Elemente, die Module, agieren
dabei über Schnittstellen miteinander [2]. So eingängig
diese Definition ist, so unterschiedlich kann sie ausgelegt
werden.
In [3] wird ein Modul unter Verwendung der Definition
aus der Konstruktionslehre [4] als eine Kombination
von Bausteinen definiert. Neben der domänenspezifischen
Betrachtung, finden sich bei der Variation der Granularität
weitere Moduldefinitionen [10].
In der Prozessindustrie ist der Begriff somit nicht eindeutig
definiert. Dieser Beitrag stellt zunächst den Modulbegriff
aus Sicht des Namur AK 1.12 und der Prozessindustrie dar.
Unter einem Modul wird in diesem Zusammenhang eine
funktionale Einheit, zum Beispiel Teilanlage, verstanden,
die geschlossen eine technische Funktion ausführen kann
(vergleiche hierzu auch die NE33 [5]). Ein Modul besteht
somit aus Apparaten und deren Verrohrung und Verkabelung.
Es weist Montagestrukturen auf und beinhaltet automatisierungstechnische
Hardware und gegebenenfalls auch
Software. In der praktischen Umsetzung entspricht dies
einer heute bereits verfügbaren Package Unit.
Ein solches Modul ist in ein übergeordnetes Prozessleitsystem
(PLS) zu integrieren. Dieses Leitsystem ist
Bestandteil des Backbone, in welchem sich darüber hinaus
die Anschlüsse für Hilfsenergie und weitere Einund
Ausgangsstoffe für die modulare Anlage befinden.
Der Backbone stellt somit die Infrastruktur der Anlage
dar. Er kann dabei als eine Halle, in welcher sich die
Anschlüsse, Schaltraum und Leitwarte befinden, oder
auch selber als modulare Einheit konzipiert sein.
2. ANLAGEN LIFE CYCLE
Das Namur Arbeitsblatt 35 [6] bildet ein Vorgehensmodell
für die Durchführung der leittechnischen Projektierung
für verfahrenstechnische Anlagen ab. Darin werden En-
atp edition
1-2 / 2013
25
HAUPTBEITRAG | NAMUR-HAUPTSITZUNG
gineeringtätigkeiten erläutert, ihnen bestimmte Methoden
zugeordnet und ihre zeitliche Abfolge in Phasen
vorgenommen. Es gliedert sich in die drei Hauptbereiche
Projektierung, Qualitäts- und Projektmanagement. Die
Projektierung beinhaltet insgesamt sieben Phasen, die
jeweils ein bestimmtes Ziel in Hinblick auf die Realisierung
einer technischen Anlage verfolgen. Dabei liegt der
Fokus auf der Planung der Errichtung einer technischen
Anlage. Darüber hinaus definiert beispielsweise das Process
Plant Engineering Activity Model, PPEAM [7] die
gesamte verfahrenstechnische Planung, die Betriebsphase
und die Demontage einer Anlage. Zusammenfassend
ergeben sich somit die in Bild 1 dargestellten vier Phasen:
Planung, Errichtung, Betrieb inklusive Umbauten sowie
Demontage. Anhand dieser Phasen werden im Folgenden
die Einflüsse des modularen Anlagendesigns diskutiert.
3. PLANUNG
Die Planung der modularen verfahrenstechnischen Anlage
ist geprägt durch die konstruktive Zusammenarbeit
des Anlagenplaners, des Entwicklers und/oder späteren
Betreibers der Anlage sowie den Lieferanten der Apparate,
Mess- und Stellgeräte. Diese Kooperation im Entstehungsprozess
beeinflusst den späteren Betrieb der Anlage.
Diese Vorgehensweise erfordert ein Umdenken bei der
Auswahl des einzusetzenden Equipments sowie der Beziehung
zwischen Planer und Hersteller der verfahrenstechnischen
Anlage beziehungsweise Module. Die Nutzung
vorgefertigter Lösungen aus einem Katalog (siehe
Bild 2 und 3) birgt aus verfahrenstechnischer und automatisierungstechnischer
Sicht erhebliche Einsparpotenziale.
Dem entgegen steht die verringerte Individualität
und damit Auslegung der Anlage auf einen optimalen
Arbeitspunkt.
Im Planungsprozess einer modularen Anlage kann sich
das Risiko eines Missverständnisses bei der Auswahl des
Moduls aus dem Katalog des Lieferanten erhöhen (unzureichende
Erfüllung der Anforderungen). Wie in [8] beschrieben,
erscheint es hilfreich, eine gemeinsame Sprache
(Glossar) zwischen Lieferanten und Anlagenplaner zu
finden, um Fehlinvestitionen zu vermeiden. Auch kann
die Auswahl beziehungsweise Auditierung geeigneter
Lieferanten hinsichtlich der Erfüllung firmenspezifischer
Standards, beispielsweise Feldgerätetyp, sinnvoll sein.
Darüber hinaus kann sich eine erhöhte Abhängigkeit
von den Lieferanten ergeben, die durch deren technische
Kompetenz begründet ist. So genügt im zukünftigen Planungsprozess
die Kenntnis einiger relevanter Kenngrößen
zur Modulauswahl; dies schafft aber keinen tieferen
Einblick in den Aufbau des Moduls. Daher ist insbesondere
der Wegfall eines Lieferanten, zum Beispiel durch
Insolvenz, bei der Lieferantenauswahl zu berücksichtigen
und gegebenenfalls vertraglich abzusichern.
Selbst bei einer umfassenden Dokumentation hoher
Güte wird der Planer mitunter gezwungen sein, den Lieferanten
in die Maßnahmenbewertung der Risikoanalysen
zur Produkt- und Anlagensicherheit einzubeziehen.
Dies muss aus technischer Sicht kein Nachteil sein. In
einigen Fällen müssen Teile des Produktionsprozesses
gegenüber Lieferanten offengelegt werden. Dies erfordert
ein erhöhtes Maß an Vertrauen zwischen Lieferant, Betreiber
und Planer.
Innerhalb eines Moduls ist der Modulhersteller für den
Aufbau des Automatisierungssystems verantwortlich. Bei
der Zusammenstellung verschiedener Module zu einer
Anlage ist die Automatisierungshardware innerhalb der
Module also bereits vorgegeben. Auch Einzelsteuerungen
und diverse Verriegelungslogiken können auf Modulebene
bereits implementiert sein. Dies verringert den Planungs-
und Implementierungsaufwand, setzt aber voraus,
dass Module herstellerübergreifend kompatibel sind. Diese
Forderung hat weitreichende Bedeutung für das Engineering
eines Moduls. Die umfangreichen Aspekte der
Interoperabilität der Module werden in [8] erläutert. Eine
Bewertung wie sie beispielweise für Engineeringwerkzeuge
[9] vorgeschlagen wurde ist hier ebenfalls von nutzen.
Generell kann sich die Rollenverteilung zwischen (Modul-)Lieferant,
Planer und Betreiber der Anlage verändern.
Teile des Detail-Engineering lassen sich an den
Modullieferanten auslagern. Der Betreiber oder Planer
wird verstärkt die Aufgabe haben, verschiedene Module
zu einem Gesamtsystem zu integrieren (Modul-Integrator).
Der Planungsaufwand verringert sich dadurch, wie
bereits beschrieben.
Im Gegensatz dazu wird der Planer bei Auswahl und
Optimierung des Automatisierungssystems deutlich
eingeschränkt. Dies setzt ein großes Vertrauen in den
Lieferanten voraus, da unter anderem sicherheitsrelevante
Funktionen vom Modulhersteller implementiert
werden müssen, die sicherheitstechnische Verantwortung
aber in der Hand des Anlagen- beziehungsweise
Modulbetreibers bleibt.
4. ERRICHTUNG
Die Errichtung und Montage eines Moduls liegt in der
Verantwortung des Modulherstellers. Er kann die in seinem
Katalog gelisteten Eigenschaften und Leistungsmerkmale
des Moduls nach eigenem Ermessen realisieren
und anbieten. Eine individuelle Konstruktion nach Vorgabe
des Anlagenbetreibers kann zu einer verzögerten
Modulbereitstellung und höheren Kosten führen. Nach
Fertigstellung des Moduls wird die Erfüllung der Spezifikation
innerhalb eines Factory Acceptance Test (FAT)
überprüft. Soweit möglich, wird eine Leistungsfahrt des
Moduls auf einem Teststand durchgeführt. Die Modultests
liegen im Verantwortungsbereich des Modulherstellers
und sind als Leistungsnachweis zu dokumentieren.
Dem FAT kommt bei der Errichtung einer modularen
Anlage ganz besondere Bedeutung zu. Durch die zeitliche
Straffung der Anlagenerrichtung müssen zahlreiche
Aktivitäten in den FAT verlagert werden, um später keine
Zeitverzögerungen zu erzeugen. Entsprechende Testumgebungen
müssen von dem Modulhersteller vorgesehen
werden. Dies bietet die Möglichkeit, Schwachstellen
und Fehler bereits in der Umgebung des Herstellers und
nicht erst auf der Baustelle zu erkennen. Durch Verlagern
von Prüfungen in die Testumgebung des Modulherstellers
lassen sich neben Zeit- auch Kostenvorteile und eine
Risikominimierung für das Gesamtprojekt erzielen.
Besonderes Augenmerk ist auf die Schulung der Anlagenbediener
und des Instandhaltungspersonals zu legen,
da bei der späteren Inbetriebnahme nur ein verkürzter
Zeitrahmen zur Verfügung steht. Die Modulhersteller
sind hier ebenfalls gefordert, entsprechende Test- und
26
atp edition
1-2 / 2013
27
atp edition
1-2 / 2013
BILD 1: Phasen im Anlagen Life Cycle
BILD 2:
Modulauswahl
anhand Modulkatalog
(Teil 1)
BILD 3:
Modulauswahl
anhand Modulkatalog
(Teil 2)
Planung
Errichtung
Betrieb inkl.
Umbauten
Demontage
!"#$%&%
Modulkatalog(e)
Engineeringbereich
YO
Y0013
YO
Y0012
YO
Y0010
YO
Y0011
YO
Y0030
LS
L0025
S-
LS
L0021
S+
PIA
P0022
TIA
T0023
A+
A+
LIA
L0020
A+
A-
US
U1001
US
U1002
YO
Y0013
YO
Y0030
LS
L0021
S+
PIA
P0022
TIA
T0023
A+
A+
US
U1001
YO
Y0013
YO
Y010
YO
Y0011
YO
Y0030
LS
L0025
S-
LS
L0021
S+
PIA
P0022
TIA
T0023
A+
A+
LIA
L0020
A+
US
U1001
US
U1002
M
MCO
M0026
YO
Y0013
YO
Y0010
YO
Y0011
YO
Y0030
LS
L0024
S-
LS
L0021
S+
PIA
P0022
TIA
T0023
A+
A+
LIA
L0020
A+
US
U1001
US
U1002
M
MCO
M0025
Bild 2
Modulkatalog(e)
Engineeringbereich
M
YO
Y0010
FIC
F0011
UIC
U1001
MCOS
M0012
PI
P9001
PI
P9002
YO
Y0013
M
MOS
M0012
YO
Y0013
M
YO
Y0010
FIC
F0011
UIC
U1001
MCO
M0012
PI
P9002
YO
Y0013
YO
Y0013
YO
Y0010
YO
Y0011
YO
Y0030
LS
L0024
S-
LS
L0021
S+
PIA
P0022
TIA
T0023
A+
A+
LIA
L0020
A+
UIC
U1001
US
U1002
M
MOS
M0012
YO
Y0013
M
YO
Y0010
FIC
F0011
UIC
U1001
MCO
M0012
PI
P9002
YO
Y0013
M
YO
Y0010
FIC
F0011
UIC
U1001
MCO
M0012
PI
P9002
YO
Y0013
M
YO
Y0010
FIC
F0011
UIC
U1001
MCO
M0012
PI
P9002
YO
Y0013
YO
Y0020
YO
Y0010
TI
T0011
M
MCO
I-236
Bild 3
HAUPTBEITRAG | NAMUR-HAUPTSITZUNG
Servicepartner
Zusammenfassend ergibt sich bei der Errichtung modularer
Anlagen unter dem Aspekt Zeitminimierung
eine starke Verschiebung von Aktivitäten in den Zeitbereich
des FAT hinein. Die Modulhersteller sind gefordert,
stärkere Unterstützung bei der Inbetriebnahme und
Schulungskonzepte für Bediener und Instandhaltung zu
einem frühen Zeitpunkt anzubieten. Eine große Herausforderung
besteht für die Hersteller von Automatisierungssystemen,
um die Grundlage für das notwendige
Plug and Produce [8] der Systemkomponeten zu schaffen
und damit zu verhindern, dass die Automatisierungstechnik
modulare Anlagenkonzepte ausbremst.
5. BETRIEB INKLUSIVE UMBAUTEN
Modulhersteller
Anlagenbetreiber
BILD 4: Neue Geschäftsmodelle zwischen
Modulhersteller und Betreiber
Schulungsmöglichkeiten vorzusehen. Spätestens zu diesem
Zeitpunkt muss auch die Umsetzung vereinbarter
Service Level abgeschlossen sein, zum Beispiel müssen
Ersatzteile bereitliegen.
Im Rahmen der Inbetriebnahme eines Moduls gilt es
das vorher durch den Anlagenbetreiber gewählte Modul
in die bestehende Infrastruktur eines Betriebsstandorts
zu integrieren. Hierfür muss es aufgestellt und angeschlossen
werden. Der Anschluss an die übergeordnete
Infrastruktur erfolgt durch das Verbinden der vorher
vereinbarten, idealerweise standardisierten Schnittstellen.
Der Modullieferant und der Betreiber haben zu überprüfen,
dass alle festgelegten und im FAT getesteten
Schnittstellendefinitionen eingehalten wurden. Beim
Anschluss werden auch die benötigten Informationen
vom Modul an das übergeordnete Automatisierungssystem
übertragen und umgekehrt. Dabei ist auf eine rückwirkungsfreie
Einbindung in das Gesamtsystem zu achten.
Eine automatisierte Überprüfung der Kompatibilität
des Moduls zu der jeweiligen Andockstelle ist eine nützliche
Zusatzfunktion.
Im Rahmen der Inbetriebnahme werden auch bei einem
modularen Anlagenkonzept verschiedene Tests
erforderlich sein. Zum einen gibt es übergreifende Funktionen
der Module und zum anderen muss die Funktion
des Backbones im Zusammenspiel mit den Modulen getestet
werden. Insgesamt stehen für die Inbetriebnahme
aber ein sehr viel kürzeres Zeitfenster und wenig Eingewöhnungszeit
für das Betriebspersonal zur Verfügung.
Ebenso liegt das technische Know-how beim Betreiber
noch nicht vor und muss erst in der betrieblichen Praxis
erlangt werden. Bei einer zeitminimierten Inbetriebnahme
ist daher eine Unterstützung vor Ort durch den Modulhersteller
nötig.
In einer klassisch errichteten Produktionsanlage ist die
über Jahrzehnte gewonnene Betriebserfahrung in der
Regel berücksichtigt worden. Beispiele hierfür sind die
durchgängige Bedienung und Nutzung einheitlicher Geräte
in den Anlagen. Hier wird es zwangsläufig zu Abstrichen
kommen, da unterschiedliche Modulhersteller
mit unterschiedlichen Erfahrungen aus den verschiedenen
Anwendungsbereichen auch eine unterschiedliche
Ausrüstung ihrer Module vornehmen werden.
Weiterhin sind die heutigen Geschäftsmodelle optimiert
und ausgereift für klassische Anlagen. Für modulare
Anlagen öffnen sich weitere Möglichkeiten der Zusammenarbeit,
wie zum Beispiel durch Leasingmodelle
für Module, Ersatzteilvorhaltung und Life Cycle Management
durch externe Servicepartner (siehe Bild 4). Dies
bedeutet nicht, dass zwingend neue Geschäftsmodelle
erforderlich werden. Es ergeben sich aber je nach Verteilung
des Know-hows und der Ressourcen zwischen
Modullieferant und Betreiber neue Möglichkeiten, um
bestehende Geschäftsmodelle zu ergänzen.
Als Beispiel sei hier das Life Cycle Management im
Rahmen der Instandhaltung angeführt, welches System-
Updates oder auch den Gerätetausch am Ende der individuellen
Nutzungsdauer umfasst. Neue Möglichkeiten
ergeben sich bei größeren Instandsetzungsmaßnahmen
durch Modultausch anstelle eines Komponentenwechsels.
Dabei ist eine Kompatibilität auf Modulebene ausreichend.
Selbstverständlich muss die Nutzung und die
Instandhaltung eines Moduls lückenlos dokumentiert
werden, um bei Tausch eines Moduls eine Checkhefthistorie
mitgeben zu können.
Weiterhin muss der Modulhersteller für Schulungen
über die Funktionalitäten der Module Personal zur Verfügung
stellen. Dies gilt insbesondere für die Erstinbetriebnahme
aber auch bei Bedarf in der nachfolgenden
Zeit. Die Koordination dieser Schulungen für die jeweiligen
Module obliegt dem Betreiber der Gesamtanlage.
Wie in [8] bereits ausgeführt, soll für die Gesamtanlage
eine einheitliche Bedienung und Beobachtung ermöglicht
werden. Durch Nutzung von Modulen unterschiedlicher
Hersteller ist diese Einheitlichkeit aber oft nicht
gewährleistet. Hier sind die PLT-Stellen mit dem jeweiligen
Modulkennzeichnungssystem des Modulherstellers
ausgestattet. Um dem Bedien- und Wartungspersonal
Eingriffsmöglichkeiten zu geben, muss der Bezug zwischen
örtlicher Kennzeichnung, innerhalb des Moduls
und der Kennzeichnung im übergeordneten Automatisierungssystem
bekannt gemacht werden. Gemäß [8]
28
atp edition
1-2 / 2013
www.atp-edition.de
Jetzt bestellen!
erfolgt diese Zuordnung im übergeordneten Automatisierungssystem
und ist auch von diesem zu dokumentieren.
6. DEMONTAGE
Bei der Demontage ist grundsätzlich zwischen der
eines Moduls und der des Backbones, als Bezeichner
für die eigentliche Anlage, zu unterscheiden. Wird
ein Modul, als Teil einer Anlage, außer Betrieb genommen,
ist der Abkoppelvorgang unabhängig von
der anschließenden Nutzung des Moduls. Somit ist
dieses Vorgehen auch bei Abkoppelvorgängen im
Rahmen von Umbauten der Anlage zu beachten.
Grundsätzlich ist während und nach der Demontage
eines Moduls auf Rückwirkungsfreiheit zu achten.
Weder das mechanische, noch das datentechnische
Entfernen des Moduls aus der Anlage darf die Funktionsfähigkeit
der verbleibenden Anlage einschränken.
Nach Abschluss des Demontagevorgangs eines
Moduls muss die Anlage mit den verbliebenen Funktionalitäten
wieder funktionstüchtig sein. Wenn identische
Module im Rahmen eines Up- oder Downscale
betroffen sind, sollte das Leitsystem in der Lage sein,
den Abkoppelvorgang ohne Unterbrechung des Produktionsprozesses
durchzuführen.
Durch die Anwendung von – vom heutigen konventionellen
Anlagenbau – abweichenden Geschäftsmodellen
ist es denkbar, dass ein Modul durch dessen
Hersteller zurückgenommen, erneut eingelagert oder in
andere modulare verfahrenstechnische Anlagen integriert
wird. Dabei stellt sich die Frage nach dem Verbleib
der im Modul gespeicherten Informationen. Um
Know-how-Schutz zu gewährleisten, ist die Prozesshistorie
innerhalb des Moduls zu löschen. Ein generelles
und vollständiges datentechnisches Rücksetzen des
Moduls ist allerdings nicht zielführend, da für eine
weitere und über den aktuellen Gebrauch hinausgehende
Instandhaltungsplanung alte Betriebszustände und
Laufzeiten benötigt werden. Verglichen mit der Nutzung
eines Gebrauchtwagens, werden hier weniger Informationen
über genauen Ort, Insassen und Fahrten
des Wagens benötigt werden. Wichtiger ist vielmehr,
wie viele Kilometer mit dem Fahrzeug zurückgelegt
wurden und welche Belastungen dabei auf den Wagen
eingewirkt haben. Angewandt auf die Nutzung eines
Moduls, müssen Informationen über die Nutzung eines
Moduls, wie eingebrachte Stoffe, Oberflächenbeeinträchtigungen
und Lastzustände dokumentiert werden.
Auch in Hinblick auf das übergeordnete Prozessleitsystem
muss der datentechnische Abkoppelvorgang
rückstandslos vonstattengehen. Nach der Entfernung
eines Moduls dürfen keine Altlasten im
übergeordneten Backbone zurückbleiben. Alte Bedienbilder,
dem abgekoppelten Modul entsprechende
Funktionsbausteine oder Rezeptfunktionen,
sollten in einem dafür vorgesehenen Archivbereich
abgelegt werden. Der Vorteil wäre eine vereinfachte
erneute Anbindung des Moduls an die Anlage.
Neben der digitalen Reinigung muss das Modul
auch chemisch gereinigt werden, um einen weiteren
Einsatz zu gewährleisten. Der eigentlichen Demontage
muss somit ein Reinigungsvorgang vorgeschaltet
atp edition erscheint in der DIV Deutscher Industrieverlag GmbH, Arnulfstr. 124, 80636 München
Die Referenzklasse für die
Automatisierungstechnik
atp edition ist das Fachmagazin für die Automatisierungstechnik.
Die Qualität der wissenschaftlichen Hauptbeiträge
sichert ein strenges Peer-Review-Verfahren. Bezug zur
automatisierungstechnischen Praxis nehmen außerdem
die kurzen Journalbeiträge aus der Fertigungs- und Prozessautomatisierung.
Sichern Sie sich jetzt diese erstklassige Lektüre! Als exklusiv
ausgestattetes Heft oder als praktisches ePaper –
ideal für unterwegs, auf mobilen Endgeräten oder zum
Archivieren.
Wählen Sie einfach das Bezugsangebot, das Ihnen zusagt:
als Heft, ePaper oder Heft + ePaper!
HAUPTBEITRAG | NAMUR-HAUPTSITZUNG
werden. Die Funktionalität und die Belieferung mit Lösungsmitteln
und weiteren Hilfsmitteln, zum Reinigen
des Moduls, müssen vom übergeordneten Leitsystem
beziehungsweise von den dort angeschlossenen Modulen
stammen. Kann oder soll die Reinigung eines Moduls
nicht erfolgen, wird der ungereinigte Zustand in dem
Modullogbuch hinterlegt.
Die Außerbetriebnahme des Backbones entspricht in
Umfang und Qualität, dem einer konventionellen verfahrenstechnischen
Anlage. Um Produktionschargen
rückverfolgbar zu gestalten ist es unter Umständen notwendig,
über die Existenz der Anlage hinaus Prozesswerte
und Zustände zu speichern. Auch hierfür könnte
die Nutzung eines MES in Frage kommen.
AUSBLICK
Die Ergebnisse der Betrachtung von modularen verfahrenstechnischen
Anlagen und deren Auswirkung
AUTOREN
Dipl.-Ing. MICHAEL OBST (geb. 1985) ist
wissenschaftlicher Mitarbeiter der Professur für
Prozessleittechnik an der TU Dresden mit den
Schwerpunkten: Unterstützungssysteme für
modulares Anlagenengineering, Lifecycle Cost
Engineering und Fallbasiertes Schließen.
Technische Universität Dresden,
Fakultät Elektrotechnik und Informationstechnik,
Institut für Automatisierungstechnik,
D-01062 Dresden, Tel. +49 (0) 351 46 33 21 62,
E-Mail: michael.obst@tu-dresden.de
Dipl.-Ing. THOMAS HOLM (geb. 1979) ist
wissenschaftlicher Mitarbeiter der Professur
Automatisierungstechnik an der Helmut-
Schmidt-Universität / Universität der Bundeswehr,
Hamburg. Seine Forschungsschwerpunkte
sind mechatronische Methoden im Anlagenbau
und modulares Anlagen Engineering.
Helmut-Schmidt-Universität /
Universität der Bundeswehr, Hamburg,
Professur für Automatisierungstechnik,
Holstenhofweg 85, D-22043 Hamburg,
Tel. +49 (0) 40 65 41 33 27,
E-Mail: thomas.holm@hsu-hh.de
Dipl.-Ing. STEPHAN BLEUEL (1965) ist Betriebstechnikleiter
bei Sanofi-Aventis Deutschland
GmbH. Des Weiteren hat er die Leitung des AF
Leittechnik bei der IGR (Interessengemeinschaft
Regelwerksverfolgung) und ist im AK1.12 der
Namur aktiv.
Sanofi-Aventis Deutschland GmbH,
Industriepark Höchst, G680, D-65916 Frankfurt am
Main, Tel. +49 (0) 69 30 58 30 96,
E-Mail: stephan.bleuel@Sanofi.com
Dipl.-Ing. ULF CLAUSSNITZER (geb. 1978) ist Senior Manager
bei der Merck KGaA. Seine Gruppe ist für das EMSR-
Engineering von Pilot- und Versuchsanlagen innerhalb der
Verfahrensentwicklung verantwortlich.
Merck KGaA,
Frankfurter Str. 250, D-64293 Darmstadt,
Tel. +49 (0) 6151 72 86 99,
E-Mail: ulf.claussnitzer@merckgroup.com
Dipl.-Ing. LARS EVERTZ (geb. 1987) ist wissenschaftlicher
Mitarbeiter am Lehrstuhl für Prozessleittechnik der
RWTH Aachen University. Seine Arbeitsschwerpunkte
sind Automatisierungskonzepte für modulare Anlagen,
Dienstsysteme in der Prozessleittechnik sowie Apps für
die Leittechnik.
RWTH Aachen University,
Lehrstuhl für Prozessleittechnik,
Turmstraße 46, D-52064 Aachen,
Tel. +49 (0) 241 809 51 60,
E-Mail: l.evertz@plt.rwth-aachen.de
Dipl.-Wirt.-Ing. TOBIAS JÄGER (geb. 1984) ist Doktorand
am Institut für Automatisierungstechnik der Helmut-
Schmidt-Universität/Universität der Bundeswehr Hamburg.
Seine Arbeitsschwerpunkte sind Modellassoziationen und
Abhängigkeitsmanagement im industriellen Lösungsgeschäft
für eine effiziente Gestaltung des Engineerings.
Helmut-Schmidt-Universität,
Holstenhofweg 85, D-22043 Hamburg,
Tel. +49 (0) 40 65 41 36 63,
E-Mail: tobias.jaeger@hsu-hh.de
Dipl.-Ing. TOBIAS NEKOLLA (geb. 1961) ist PLT-Projektmanager
für die internationale Anlagenplanung beim
Servicebereich Process Technology & Engineering der
Evonik Industries AG. Zusätzlich hat er leitende
Funktionen im PLS-Fachreferat des Servicebereichs.
Evonik Industries AG, TE-EN-E-A2,
Rodenbacher Chaussee 4, D-63457 Hanau-Wolfgang,
Tel. +49 (0) 61 81 59 40 43,
E-Mail: tobias.nekolla@evonik.com
30
atp edition
1-2 / 2013
auf die Automatisierungstechnik durch den Namur
AK 1.12 werden derzeit in der geplanten Namur Empfehlung
148 festgehalten. Die NE148 soll Herstellern
und Serviceanbietern der Automatisierungsbranche
aufzeigen, wie die Automatisierungstechnik aus Sicht
des Anwenders auf die Herausforderungen des modularen
verfahrenstechnischen Anlagenbaus reagieren
sollte. Hersteller und Serviceanbieter werden gefordert,
passende Anwendungen und Dienstleistungen
zu entwickeln sowie weitere Impulse zu liefern.
Die Herausforderung in der Anwendung eines modularen
Konzeptes im Anlagenbau wird allerdings
auch bei den Betreibern zu Veränderungen führen.
Der organisatorische Paradigmenwechsel wird je nach
Geschäftsmodell zu Kompetenzwechseln führen, mittel-
und langfristig wird ein Übergang von Know-how
vom Anlagenbetreiber zum Servicebetreiber zu beobachten
sein. Entscheidend sind dabei sicher auch die
Wahl des Lieferanten und dessen Einbindung in das
betriebliche Umfeld.
Dipl.-Ing. STEPHAN PECH (1979) arbeitet als
Automation Engineer bei der BASF SE in Ludwigshafen.
Die Schwerpunkte seiner Arbeit liegen im
Bereich Manufacturing Operations Management.
DANKSAGUNG
MANUSKRIPTEINGANG
19.12.2012
Im Peer-Review-Verfahren begutachtet
BASF SE,
GTF/ED - M314, 67056 Ludwigshafen,
Tel. +49 (0) 621 602 08 52,
E-Mail: stephan.pech@basf.com
Dr.-Ing. STEFAN SCHMITZ (geb. 1979) ist
PLT-Projektmanager bei der Bayer Technology
Services GmbH in Leverkusen. Neben seiner
Tätigkeit als PLT-Projektleiter in der Anlagenplanung
war er im F³ Factory Projekt für das
Automatisierungskonzept der modularen
Demonstrationsanlagen von BTS verantwortlich.
Bayer Technology Services GmbH,
Kaiser-Wilhelm-Allee, D-51368 Leverkusen,
Tel. +49 (0) 214 304 32 75,
E-Mail: stefan.schmitz2@bayer.com
Prof. Dr.-Ing. LEON URBAS (geb. 1965) ist Inhaber
der Professur für Prozessleittechnik an der
Technischen Universität Dresden. Seine Hauptarbeitsgebiete
beim Engineering verteilter sicherheitskritischer
Systeme sind Funktionsintegration,
modellgetriebenes Engineering, Modularisierung,
Informationsmodelle der Prozessindustrie und
Middleware in der Automatisierungstechnik.
Einen weiteren Schwerpunkt bildet die Gebrauchstauglichkeit
von mobilen Informationssystemen
für die Prozessindustrie, Analyse, Gestaltung und
Bewertung von Alarmierungs- und Unterstützungssysteme
sowie Methoden der Benutzermodellierung
zur prospektiven Gestaltung von Mensch-Technik-
Interaktion.
TU Dresden,
Institut für Automatisierungstechnik,
D-01062 Dresden, Tel. +49 (0) 351 46 33 96 14,
E-Mail: leon.urbas@tu-dresden.de
Die Autoren bedanken sich bei den ehemaligen
Mitgliedern des Namur AK 1.12 Markus Vogel und
Andreas Bamberg, Andreas Bamberg, Hisham
Mubarak und Markus Vogel für die tatkräftige
Unterstützung im Arbeitskreis.
REFERENZEN
[1] Bott, T., Schembecker, G.: Die 50 %-Idee – Vom Produkt
zur Produktionsanlage in der halben Zeit. Tandemvortrag
ProcessNet Jahrestreffen 8. – 10.9.2009,
Mannheim.
[2] Schuh, G.: Produktkomplexität managen, 2. Auflage,
Carl Hanser Verlag München Wien, 2005.
[3] Urbas, L., Doherr, F., Krause, A., Obst, M.: Modularisierung
und Prozessführung. Chemie Ingenieur Technik
84(5), S. 615-623, 2012.
[4] Pahl, G., Beitz, W.: Konstruktionslehre, Springer-
Verlag, Berlin, 1997.
[5] NAMUR Empfehlung 33: Anforderungen an Systeme
zur Rezeptfahrweise, 2003.
[6] NAMUR Arbeitsblatt 35: Abwicklung von PLT-Projekten,
2003.
[7] Früh, K., F. Maier, U.: Handbuch der Prozessautomatisierung,
3. Auflage, Oldenbourg Industrieverlag,
München, 2004.
[8] Urbas, L., Bleuel, St., Jäger, T, Schmitz, St., Evertz,
L., Nekolla, T.: Automatisierung von Prozessmodulen.
Von Package-Unit-Integration zu modularen Anlagen.
atp edition - Automatisierungstechnische Praxis
54(1-2), S. 44-53, 2012.
[9] Drath, R., Barth, M., Fay, A.: Offenheitsmetrik für
Engineering-Werkzeuge, atp edition - Automatisierungstechnische
Praxis 54(9), S. 46-55, 2012.
[10] Katzke, U., Fischer, K., Vogel-Heuser, B.: Entwicklung
und Evaluation eines Modells für modulare Automatisierung
im Anlagenbau. In: Tagungsband PEARL
Verteilte Echtzeitsysteme, S. 69-77, 2003.
atp edition
1-2 / 2013
31
HAUPTBEITRAG | NAMUR-HAUPTSITZUNG
Erfahrungen mit Web-basierter
As-Built-Dokumentation
Die vollständige Datenintegration bleibt ein Traum
Das Bestreben, eine vollkommen integrierte CAE-Welt mit stets aktuellen Daten zu generieren,
auf die alle Gewerke Zugriff haben, scheint ein wünschenswertes Ziel zu sein. Die
Praxis zeigt jedoch, dass ein anderer Ansatz sinnvoller ist, denn Anlagenplanung, -montage
und -betrieb stellen an die eingesetzten Werkzeuge völlig unterschiedliche Anforderungen.
Das zeigt sich, wie in diesem Beitrag beschrieben wird, am Beispiel der BASF SE in Ludwigshafen,
die 2010 begann, die elektronische Anlagendokumentation Livedok für den
gesamten Standort einzuführen. Das System unterstützt die Betriebsphase der Anlage und
sorgt für eine praxisgerechte Ankopplung an Planungssysteme.
SCHLAGWÖRTER As-Built-Dokumentation / elektronische Anlagendokumentation /
CAE-System / vollständige Datenintegration / Rotstiftfunktionalität
The Usefulness of Web-based As-built-Documentation –
Complete data integration will always remain a dream
The endeavor to generate a fully integrated CAE world, in which data are always up to date
and accessible to all departments, would seem to be desirable. However, in practice it emerges
that because plant engineering, installation and operation make completely different
demands on the tools used, another approach makes better sense. This is demonstrated, for
example, by BASF SE in Ludwigshafen, which began the introduction of the electronic plant
documentation Livedok for the whole site in 2010. Livedok supports the operating phase of
the plant while also providing a practical link-up to engineering systems.
KEYWORDS as-built-documentation / electronic plant documentation / E&I-CAE system /
complete data integration / redline functionality
32
atp edition
1-2 / 2013
MICHAEL BRENDELBERGER, BASF
MARTIN DUBOVY, Rösberg Engineering
Wer im täglichen Leben mit Bürokratie zu
tun hat, dem kommt meist die Redensart
in den Sinn „Von der Wiege bis zur Bahre,
Formulare, Formulare“. Wer mit Anlagentechnik
zu tun hat, dem geht es ähnlich.
Je komplexer eine Anlage ist, desto mehr Dokumente,
Listen, Zeichnungen und so weiter entstehen und müssen
praktikabel gehandhabt werden. Die Entstehung
dieser Papierberge fängt bereits in der ersten Planungsphase
an, setzt sich bei der Inbetriebsetzung fort, geht
während des Anlagenbetriebs weiter und endet erst nach
Stilllegung und Rückbau. Gleichzeitig ist man in jeder
dieser Phasen auf Informationen, also Daten angewiesen;
nicht immer auf alle, aber stets auf die jeweils relevanten.
Auf der Namur-Hauptsitzung im Jahre 2001 wurde der
Wunsch nach einer vollständigen Datenintegration formuliert
[1, 2]. Verglichen mit den heutigen Ansprüchen, ist
festzustellen, dass sich die damaligen Forderungen keineswegs
von den derzeitigen unterscheiden. Interessant
ist aber auch die Feststellung, dass die praktische Realisierung
dieser Forderungen immer noch auf sich warten
lässt. Es fehlt ein Werkzeug, das von der Planung bis zur
Serviceunterstützung und Dokumentation im Betrieb alles
kann. Ideal wäre ein herstellerneutrales Datenaustausch-
Format, auf das alle Gewerke mit ihren eigenen, spezifisch
optimierten Werkzeugen zugreifen und in dem sie wiederum
ihre Daten ablegen (Bild 1). Das ist offensichtlich nicht
so einfach, wie es auf den ersten Blick scheint, denn wirklich
weiterentwickelt hat sich in dieser Richtung wenig.
Die Praxis zeigt dafür gleich mehrere Gründe.
Systeme ein Mapping machen. Zurzeit praktiziert die
BASF SE in Ludwigshafen das mit den Prolist-Merkmalleisten
für PLT-Feldgeräte [5]. Die Idee ist so genial wie
einfach, aber selbst für diesen kleinen Bereich ist die
Umsetzung in der Praxis keineswegs trivial. Hinzu
kommt die Problematik, dass in den Anlagen immer
Units, also komplette Maschinen oder Anlagenteile von
Zulieferern, einzubinden sind, die mit einer eigenen, herstellerspezifischen
Dokumentation geliefert werden.
Außerdem würde ein vollintegrierter Datenbestand zu
keiner Zeit inkonsistente Datensätze erlauben. Das klingt
zunächst gut, fördert aber letztendlich das Entstehen datentechnischer
Parallelwelten. Die Erfahrungen der letzten
Jahre zeigen, dass in der Phase der Konzeptions- (KP)
und erweiterten Konzeptionsplanung (EKP) mit Daten
gearbeitet wird, die oftmals nicht gesichert sind und
durch neue Erkenntnisse oder Vorgaben geändert werden
müssen. Schließlich ist das der kreative Part der Planung
– die Zeit der Entwürfe, Verbesserungen, Optimierungen.
Solche weichen Daten sind aber von gesicherten Daten
nicht unterscheidbar und das nächste Gewerk kann nicht
erkennen, ob mit diesem Datensatz weitergearbeitet werden
kann oder ob nur eine Idee näher untersucht wird.
Zwingen wir die Planer, nur gesicherte konsistente Daten
zu produzieren beziehungsweise weiterzugeben, so entstehen
datentechnische Parallelwelten in Formaten wie
Excel, Access. Diese bestehen dann mindestens so lange,
bis mit relativ gesicherten Daten die Massenproduktion
der Planung begonnen wird. Das sollte spätestens bei Beginn
der Detailplanung sein.
1. DIE PROBLEMATIK EINES KONSISTENTEN,
VOLLINTEGRIERTEN DATENBESTANDS
Die Erstellung eines gewerkeübergreifenden, universellen
Datenformats ist gleichbedeutend mit der Errichtung eines
Stammdatensatzes für alle planenden Gewerke der
Prozessindustrie weltweit. Eine praktikable Vorgehensweise
wäre dabei die Generierung von Objekten und
Merkmalen für alle Teile, auf die die jeweiligen CAE-
2. WAS IN DER BETRIEBSPHASE DER ANLAGE PASSIERT
Noch spannender wird es, wenn die Anlage in Betrieb
geht und planungstechnisch weiterlebt. Bis zur Inbetriebnahme
kümmerte sich nur das Planungsteam mit
seinen Gewerken um jeweils seine Datensätze. Nach der
Inbetriebnahme einer Anlage gehen diese Datensätze
dann an den Betrieb, die Instandhaltung, die Montage
und die Vor-Ort-Planung und müssen weiter gepflegt
atp edition
1-2 / 2013
33
HAUPTBEITRAG | NAMUR-HAUPTSITZUNG
werden. Einfach ausgedrückt wird dann jedes der Gewerke
den jeweils für sich relevanten Teil auf das zu
pflegende Minimum reduzieren. Das heißt, bestimmte
Datensätze werden nicht mehr aktuell sein, und insgesamt
wird der Datenbestand als „As-Built-Dokumentation“
unbrauchbar, weil nicht zwischen gepflegten und
toten Datensätzen unterschieden werden kann.
Hinzu kommt, dass Neuplanungen oder Änderungen
auch in diesen Datentopf fließen, der beispielsweise nicht
zwischen geplant, montiert, oder in Betrieb unterscheiden
kann. Wieder werden datentechnische Parallelwelten
entstehen. Letztendlich kann sich dann niemand
darauf verlassen, was wirklich aktuell ist und wo er auf
den gültigen Datensatz stößt. Das, was der mit viel Aufwand
generierte konsistente Datensatz eigentlich leisten
soll, kann er so nicht leisten. Außerdem wird es immer
Daten geben, die von mehreren Gewerken gebraucht und
deshalb auch in jedem Gewerk gebildet beziehungsweise
verändert werden. Die Integration erzwingt eine kausale
Bearbeitungskette, die in der Realität keinen Bestand
hat (Bild 2). In der Theorie reden wir zumeist von
seriellen Planungsabläufen. Streng gelebte serielle Planungsabläufe
bekommen aber nahezu immer ein Terminproblem,
was die Planer veranlasst, parallel mit eigenen
Planungen zu beginnen, die Datensätze verlangen können,
die noch nicht festgelegt sind. Die Folge sind Iterationsläufe,
die wiederum einen vollintegrierten Datensatz
mehrfach umsetzen. Die Idee, einen Datensatz nur
einmal zu generieren, ist damit hinfällig [4, 6].
Erschwerend kommt noch ein weiteres Problem hinzu:
Ist die Anlage in Betrieb, dann müssen vor Ort Änderungen
in die Dokumentation eingebracht werden. Somit ergibt sich
die Situation, dass ungeübte Mitarbeiter mit mächtigen
CAE-Werkzeugen auf Datenbanken arbeiten müssen. Hier
sind massive Berührungsängste vorhanden, da Nicht-Systemspezialisten
mit einfachen Handgriffen viel Information
unbeabsichtigt vernichten können. Auch hier wird wieder
eine parallele Datenwelt, diesmal auf Papier, aufgebaut.
Idealisierte CAE-Plattform aus Sicht des Inhouse-Planers
M&A
Technische
Spezifikation
EMR
Auswertungen
(Reports)
ERP-Systeme
(z.B. SAP-MM/PM/PS)
Dokumentenmanagement
(z.B. Documentum)
Kostenschätzung
Planungsdaten
Standardmaterialdaten
Planungsdokumente,
(Reports,
Zeichnungen)
Herstellerneutrales Datenaustausch-Format
Projekt-
Controlling
BILD 3: Dank zahlreicher Schnittstellen
lässt sich das Prozessleittechnik-
Planungssystem Prodok gut integrieren.
Simulation
Verfahrens-/
R&I-FB
M&A-Daten 3D-Modell EMR-Daten
Datensammler/
Integrator
CAE-Modell aus Sicht des Inhouse-Planers
BILD 1: Idealisiertes CAE-System aus Sicht des
Inhouse-Planers (Aus dem Vortrag „CAE-Modell
aus Sicht des Inhouse-Planer“ Dr. Klein, BASF SE
auf der Namur-HS 2001, Bild Nr. 14)
Die häufige Realität
Basisplanung
Errichtung
Konzeptplanung
Betrieb
Ausführungsplanung
Inbetriebsetzung
Ist-Zustand Planungsablauf im Anlagenbau
BILD 2: Die klassische sequenzielle Abwicklung und
die (häufige) Realität (Aus dem Vortrag „CAE-Modell
aus Sicht des Inhouse-Planer“ Dr. Klein, BASF SE auf
der Namur HS-2001, Bild Nr. 2 und 3)
34
atp edition
1-2 / 2013
3. TRENNUNG VON PLANUNGS- UND
INSTAND HALTUNGSWERKZEUGEN
Aus dem beschriebenen Szenarium folgt, dass die vollintegrierte
Datenwelt nur dann gewisse Vorteile bringt, wenn
es um eine straff geführte, überschaubare Planungseinheit
geht, die sich hauptsächlich im Bereich der Detailplanung
bewegt. Wer im Prinzip immer die gleiche Anlage baut, ist
damit sicher gut bedient. Die Randgebiete, wie die kreative
Konzeptions- und erweiterte Konzeptionsplanung sowie
die Jahrzehnte andauernde Betriebszeit, stellen die
Praktikabilität dieser Idee bei komplexen Anlagen infrage.
Hier empfiehlt sich ein anderes Vorgehen:
Eine Umfrage bei Namur-Firmen hat gezeigt, dass die
Frage, mit welchem CAE-System gearbeitet wird, eher
untergeordnet ist. Mit allen Systemen kann ein brauchbares
Ergebnis erzielt werden. Wird eine Anlage in ihrem
gesamten Lebenszyklus von Beginn der Planung bis zur
Stilllegung betrachtet, lässt sich feststellen, dass nicht
das jeweilige CAE-Werkzeug entscheidend ist, sondern
der Datensatz. Das Werkzeug ist Mittel zum Zweck, im
lesbaren Datensatz liegt die Effizienz. Am Ende der Planungsphase
muss ein lesbares Dokument stehen. Da Planung
und Betrieb unterschiedliche Anforderungen stellen,
sollten sie verschiedene Werkzeuge benutzen dürfen,
vorausgesetzt der zwischen beiden notwendige Informationsfluss
ist sichergestellt. Die BASF ist mit diesem Vorgehen
auf große Akzeptanz gestoßen.
Auf der Namur-Hauptsitzung 2001 wurde auch von
Dr. Rauprich in seinem Workshop „Unterstützung mit
Mitteln der Webtechnologie“ eine Idee vorgestellt, die
den Anlagenbetreibern und Planern ermöglicht, via Web
auf die Dokumentation zu schauen und diese mit einfachen
Mitteln (Rotstiftfunktionalität) zu bearbeiten. Eine
Änderung wird dabei nicht im CAE-System direkt eingepflegt,
sondern mit Editierwerkzeugen auf dem Planungsdokument
(zumeist PDF) eingezeichnet. Am Beispiel
der BASF SE in Ludwigshafen, die 2010 begann,
die elektronische Anlagendokumentation Livedok für
den gesamten Standort einzuführen, zeigt sich, wie einfach
es ist, ein solches Werkzeug in die breite Anwendung
zu bringen, wenn es praktikabel ist.
4. WERKZEUGE, DIE PRAKTIKABEL SIND,
WERDEN AKZEPTIERT
Am Standort Ludwigshafen gibt es mehrere Planungseinheiten,
für Großprojekte weltweit und für den Standort
selbst. Seit dem Jahr 2000 wird die PLT-Planung für Ludwigshafen
ausschließlich mit dem CAE-System Prodok
erstellt (Bild 3). Die Verfahrenstechnik- und die Rohrleitungsplanung
benutzen mehrere unterschiedliche Systeme.
Die PLT-Datenwelt war bis zu diesem Zeitpunkt schon
sehr geordnet. Um den Betrieben einen Überblick auf die
entsprechende Dokumentation zu geben, hatten einige
Betriebe bereits die Planungsdokumente aus Prodok als
Webdokumentation zur Verfügung gestellt. Nachteil von
diesem System war, dass die kurzlebigen Dokumente der
PLT-Planung relativ schnell dazu führten, dass die Web-
LiveDOK und Tablet-PCs – Die perfekte Ergänzung.
LiveDOK bietet die Möglichkeit, Dokumente, Pläne und Unterlagen von industriellen Anlagen
digital und in Echtzeit zu verwalten. Änderungen, Ergänzungen und neue Dokumente werden
sofort eingespielt und für alle Projektbeteiligten sichtbar. Mit einem Tablet-PC haben Sie nun
die ganze Dokumentations-Bibliothek vor Ort in Ihren Händen. Und Dank der Synchronisations-
Funktion haben Sie immer die Gewissheit, dass alle Dokumente auch aktuell sind.
Wenn Sie wissen möchten, wie Sie sich das Wühlen, Suchen oder Fragen nach Unterlagen in
Zukunft sparen können, servieren wir Ihnen gerne weitere Informationen.
www.livedok.de
Rösberg Engineering
Ingenieurgesellschaft mbH
für Automation
Industriestr. 9
76189 Karlsruhe
Germany
Telefon +49·7 21·9 50 18–0
Telefax +49·7 21·50 32 66
info.ka@roesberg.com
www.roesberg.com
Karlsruhe · Ludwigshafen · Rheinfelden · Schwarzheide · Dalian (P.R. China)
HAUPTBEITRAG | NAMUR-HAUPTSITZUNG
BILD 4: Der Livedok-Generator ist offen für nahezu alle
denk baren Aufgaben und verarbeitet alle gängigen Formate.
Betriebsführung
Service,
Wartung und
Instandhaltung
Dokumente
PDFs mit
Roteintrag
Synchronisation
Qualitätswesen
BILD 5: Die Bedienung ist einfach und intuitiv.
Paketaustausch
Dokumentenverwaltung
Service
Betriebsleitung
BILD 6: Die Redlining-Palette reicht von
Handschrifteingabe über Markieren,
Durchstreichen bis hin zu dynamischen
Stempeln und vielem mehr.
dokumentation nicht mit Sicherheit dem aktuellen As-
Built-Stand entsprach. Mit der Einführung von Livedok
hat sich das nun geändert, und das mit hoher Akzeptanz,
wie eine Zwischenbilanz vom September 2012 belegt.
Etwa 1 200 000 Dokumente mit einem Datenvolumen von
75 GB sind eingepflegt, die von 916 Usern in 155 Betrieben
genutzt werden. Die Gründe für die Akzeptanz liegen im
hohen Praxisnutzen der elektronischen Dokumentation.
Die Trennung des Redlining-Werkzeugs vom CAE-System
passt sehr gut auf die Organisationsstruktur der BASF
SE. Mit der Inbetriebnahme geht die Dokumentation an
den Betrieb und die entsprechenden Serviceeinheiten
über. Die Planung mit dem CAE-Werkzeug ist abgeschlossen,
die Informationen befinden sich in der Dokumentation.
Prozesstechnische Anlagen in der BASF unterliegen
einer ständigen Optimierung und Anpassung. Es bleibt
nicht aus, dass die Instandhaltung oder die Vor-Ort-
Mannschaft Änderungen in der Anlage vornehmen. Diese
Änderungen wurden bis zur Einführung von Livedok
auf der Papier festgehalten. Ursprünglich waren die Verantwortlichen
davon ausgegangen, dass, wenn alle eine
entsprechende CAE-Schulung haben, dann nur noch im
CAE-System gearbeitet wird. Dies hat sich in der Praxis
aus zuvor genannten Gründen als nicht praktikabel erwiesen.
Also hatte sich mit der Umstellung auf ein einziges
CAE-System die Welt im Betrieb und in der Instandhaltung
nicht geändert. Wenn alles im CAE-System liegt,
kann niemand sagen, ob dies geplant, gebaut oder schon
in Betrieb ist. Zur Vorlage bei einer Behörde ist eine solche
Dokumentation dann vollkommen ungeeignet.
Mit der Trennung von As-Built- und CAE-Werkzeug ist
dies dagegen jetzt eindeutig festgelegt. Durch eine elegante
Verwaltung der Änderungen in Livedok wird der PLT-
Planer (CAE-Systemspezialist) über alle Vor-Ort-Änderungen
mit Datum und Verursacher informiert und zu
gegebener Zeit vom Betrieb beauftragt, diese Änderungen
im CAE-System einzupflegen. So geht keine Information
verloren, und die Planungseinheit kann über Jahre hinweg
dokumentieren, wann welche Anlagenänderung in Betrieb
ging beziehungsweise welchen Umfang sie hatte. Für
eine Serviceeinheit ist dies ein großer Zusatznutzen.
5. WIE LIVEDOK FUNKTIONIERT
Livedok begleitet den kompletten Lebenszyklus der Dokumentation,
beginnend bei der Erstellung über die Benutzung
bis hin zur Revision der geänderten Dokumente
[7]. Dafür sorgt das Herz der Dokumentationssoftware,
der leistungsfähige Livedok-Generator, der für nahezu
alle denkbaren Aufgaben offen ist. So sind die Schnittstellen
zur Planung kein Problem (Bild 4), gleich mit welchem
CAE-System dort gearbeitet wird. Das Dokumentationssystem
verarbeitet alle gängigen Formate, kann also
Grundrisse, Lagepläne, Verfahrensfließbilder und PLT-
Stellenlisten ebenso managen wie Bedienvorschriften,
Prüfanforderungen und Wartungsanleitungen. Jeder Mitarbeiter,
der etwas sucht, wird auf diese Weise schnell
fündig, denn der Livedok-Browser vereinfacht die Navigation
und Suche innerhalb der elektronischen Ablage
36
atp edition
1-2 / 2013
dank leistungsstarker und intuitiv nutzbarer Werkzeuge.
Dazu trägt die Google-artige Suchsyntax ebenso bei wie
die synchrone Anzeige bei Dokumentvergleich und Aktualisierung
(Bild 5). Davon profitieren Betriebsführung
und Servicepersonal ebenso wie das gesamte Qualitätswesen.
Alle Beteiligten können immer auf die aktuellen
Informationen zugreifen. Änderungen sind schnell und
einfach gemacht und obendrein auch jederzeit nachverfolgbar.
Die Dokumentation lässt sich mit jedem beliebigen
Webbrowser einsehen. Lediglich für Änderungen
oder Aktualisierung ist eine Livedok-Lizenz erforderlich.
Weil auch die beste Dokumentation nur dann genutzt
wird, wenn sich der Anwender einfach darin zurechtfindet,
spielt Übersichtlichkeit eine wichtige Rolle. Gliederungen
der Dokumente und Ansichten lassen sich deshalb
individuellen Bedürfnissen anpassen. Auch für Änderungen
gibt es unterschiedliche Möglichkeiten. Die Redlining-Palette
reicht beispielsweise von Handschrifteingabe
über Markieren, Durchstreichen und vielem mehr bis
hin zu dynamischen Stempeln (Bild 6). Dazu nutzt der
Mitarbeiter den Stift eines Tablets oder Tastatur beziehungsweise
eine Maus. Wenn keine permanente Netzwerkverbindung
zur Dokumentation auf dem Fileserver
besteht, lassen sich mit dem Offline-Modul die Daten auch
unterwegs ohne Netzwerkverbindung eintragen. Bei der
anschließenden Synchronisation werden die Roteinträge
in die zentrale Dokumentation übernommen. Eventuelle
Konflikte werden angezeigt, falls zum Beispiel parallel
eine zweite Person dasselbe Dokument geändert hat.
6. FÜR SMARTPHONES UND ANDROID-TABLETS
GEEIGNET
Vor Ort, zum Beispiel im mobilen Feldeinsatz, kann der
Mitarbeiter die unterschiedlichsten Geräte nutzen. Da die
elektronische Dokumentation nicht nur das Betriebssystem
Windows, sondern jetzt auch Android unterstützt,
lassen sich Tablet-PCs ebenso verwenden wie Smartphones
(Bild 7) [3]. Bei Bedarf kann der Mitarbeiter dann beispielsweise
einer Änderung der Dokumentation auch ein
Foto beifügen, auf das dann ebenfalls jeder Berechtigte
Zugriff hat. Da kurzfristig die ersten Industrie- und Ex-
Bereich-tauglichen Tablets auf den Markt kommen werden,
wird diese Möglichkeit sicher auf reges Interesse stoßen.
AUSBLICK
Auch für die Zukunft ist die elektronische Dokumentation
bestens vorbereitet. Als weitere Ausbaustufe ist beispielsweise
die Aufbereitung der Daten ins jahrzehntelang elektronisch
archivierbare PDF/A-Format geplant. Bei der gesetzlich
vorgeschriebenen Langzeitarchivierung wird dann
auf Papier verzichtet. Digitale Signaturen werden künftig
außerdem die Dokumentation von Prüfabläufen erleichtern.
Für die elektronische Anlagendokumentation steht damit
ein leistungsfähiges Werkzeug zur Verfügung, das auch
ohne durchgehend herstellerneutrales Datenformat für die
notwendige Ankopplung an die planenden Gewerke sorgt.
Für keinen Planer dürfte es ein Problem sein, an die notwendigen
und immer aktuellen Datensätze der As-Built-
Dokumentation zu kommen.
MANUSKRIPTEINGANG
30.10.2012
Im Peer-Review-Verfahren begutachtet
REFERENZEN
[1] Rauprich, G., Haus, C., Ahrens, W.: PLT-CAE-Integration
in gewerkeübergreifendes Engineering und Plant-
Maintenance. atp –Automatisierungstechnische Praxis
44(2), S. 50-62, 2002.
[2] Klein, X.: Vortrag Planungswerkzeuge in Chemieanlagen
- aus Sicht eines inhouse Planers, Namur Hauptsitzung
2001
[3] Landgraf, E.: Unabhängig von der Quelle und fit für den
mobilen Einsatz: Anlagendokumentation mit Windows
und Android., PC&Industrie 10/2012, S. 52-53, 2012
[4] Landgraf, E.: PLT-CAE-Systeme nachrüsten: optimal
integriert dank maßgeschneiderter Schnittstellen Bei
BASF arbeitet Prodok problemlos mit bereits vorhandenen
Software-Systemen zusammen. atp edition - Automatisierungstechnische
Praxis 53(12), S. 20 – 22, 2011
[5] Still, W., Dubovy, M.: Umsetzung der NE 100 in der BASF,
atp - Automatisierungstechnische Praxis 50(1), S. 38-43,
2008
[6] Dubovy, M.: Bewährte Partnerschaft. atp - Automatisierungstechnische
Praxis 47(11), S. 28-30, 2005
[7] Landgraf, E.: Elektronische Anlagendokumentation
im Ex-Bereich: spart Zeit und Geld bei erhöhter Datenqualität.
IEE 11/2012, S.148 – 150, 2012
AUTOREN
MICHAEL BRENDELBERGER
(1961) studierte Elektrotechnik
an der Universität
Karlsruhe (TH). Seit 1989 ist
er Mitarbeiter der BASF SE
und leitet als Senior Engineering
Manager PLT in der
Projektplanung LU, Zentrale
Services, eine Fachgruppe
der PLT-Planung. In der Namur ist er Obmann
des Arbeitskreises 1.3 Computer Aided Engineering
(CAE).
BASF SE,
GTE/SB – B 014, D-67056 Ludwigshafen,
Tel. +49 (0) 621 604 02 31,
E-Mail: michael.brendelberger@basf.com
MARTIN DUBOVY (1964)
arbeitete nach seinem Eintritt
im Jahr 1987 als Entwicklungsingenieur
in der CAE-
Systementwicklung. 1992
übernahm er die Leitung
dieser Abteilung. Heute leitet
er als Prokurist den Geschäftsbereich
Plant Solutions.
Rösberg Engineering,
D-76189 Karlsruhe, Tel. +49 (0) 721 950 18 23,
E-Mail: martin.dubovy@roesberg.com
atp edition
1-2 / 2013
37
HAUPTBEITRAG | NAMUR-HAUPTSITZUNG
Genauigkeit von Messgeräten
überwachen
Erkennen von Drifteffekten von Kanälen in Schutzeinrichtungen
In komplexen Schutzeinrichtungen, bei denen mehrere Messsignale durch mathematische
Berechnungen zu einem sicherheitsrelevanten Resultat verknüpft werden, können Messfehler
das Resultat beträchtlich verfälschen. Bereits eine geringe Verschlechterung der Messunsicherheit
muss daher zuverlässig erkannt werden. Es wurde eine Strategie entwickelt, um das Driften
von Messsignalen in Schutzeinrichtungen durch Vergleich redundanter Kanäle automatisch
zu detektieren. Als partial proof test zwischen Kalibrierungen werden die redundanten Kanäle
gegeneinander geprüft. Dazu können in regelmäßigen Abständen die Differenzen der Kanäle
bei ungestörten Testsituationen überwacht werden. Die Zuverlässigkeit dieser Methode zur
Drifterkennung wurde durch eine Analyse der Fehlerwahrscheinlichkeit verifiziert. Zur Vereinfachung
sollen normale Betriebsdaten anstelle definierter Testsituationen verwendet werden.
Das erfordert eine hohe Qualität der zu vergleichenden Signale, was in der Praxis wegen Fluktuationen
der Messsignale nicht ohne weitere Maßnahmen möglich ist. Daher wurde eine
Methode zur Trendanalyse der Signale entwickelt. Dazu werden ein rekursives Tiefpassfilter
und ein Differenzierer zur Vorverarbeitung der Signale verwendet, sodass sich die Methode in
typischen sicherheitsgerichteten Steuerungen einfach online realisieren lässt.
SCHLAGWÖRTER Schutzeinrichtungen / Messunsicherheit / Drifterkennung / rekursives Filter
Inspection of the uncertainty of measurement instruments
in safety instrumented systems
Complex safety instrumented systems that determine a safety-relevant result based on mathematical
calculations with many measurands may accumulate a significant uncertainty of the
result. Therefore it is necessary to reliably detect even small deviations of the measurement
uncertainty. To fulfill this demand, a strategy has been developed to automatically detect drifts
that cause higher uncertainty by comparison of redundant channels. As a “partial proof test”
between calibrations, the redundant channels are checked against each other. For this purpose,
the difference of the channels can be monitored in regular time intervals using undisturbed
test situations. The reliability of this method is verified by analyzing the probability of failure
on demand. It is advantageous to use normal production data instead of defined test scenarios.
However, this requires high quality of the compared signals, which is not met in practical
applications because of signal fluctuations. Therefore a method for analyzing the trends of the
signals is introduced. A recursive low pass filter and a differentiator for pre-processing of the
signals are used so that the method can be realized online in typical safety PLCs easily.
KEYWORDS safety instrumented systems / measurement uncertainty / drift inspection /
recursive filter
38
atp edition
1-2 / 2013
THOMAS HAUFF, WUSHAN LIANG, MATTHIAS STRAUSS, BASF Ludwigshafen
CHRISTIAN BRECHER, MARKUS OBDENBUSCH, RWTH Aachen
Die Sicherheitsmargen in typischen Schutzeinrichtungen,
zum Beispiel Druck/Temperatur-
Maximum-Abschaltungen, sind in aller Regel
durch verfahrenstechnische Betrachtungen
gegeben. Die sicherheitstechnisch erforderlichen
Messgenauigkeiten sind meist gering gegenüber den
tatsächlichen Messgenauigkeiten der Messkette. Fehler
der Messkanäle lassen sich daher durch Vergleich der
Signale redundanter Kanäle leicht erkennen.
Schutzeinrichtungen, bei denen mehrere Messsignale
durch mathematische Berechnungen zu einem
sicherheitsrelevanten Resultat verknüpft werden [1],
müssen genauer betrachtet werden. Die Auswirkungen
der Messunsicherheiten der Kanäle auf das Resultat
der Berechnungen (Fehlerfortpflanzung) müssen bei
der Bestimmung der Sicherheitsmarge berücksichtigt
werden und können eine relevante Größenordnung
erreichen. Daher stellt sich die Frage, wie groß die
sicherheitstechnisch zu berücksichtigenden Messunsicherheiten
der Messkette sind und wie sich auch
geringe Fehler der Messkette erkennen lassen. Prozessund
einbaubedingte Fehlermöglichkeiten sind ebenfalls
zu betrachten, was aber nicht Gegenstand dieses
Beitrags ist.
Im Neuzustand sollen die laut Herstellerangaben spezifizierten
Messunsicherheiten von nahezu allen Geräten
erfüllt werden, was durch Kalibrierungsprotokolle aus
dem Produktionsvorgang der Geräte belegbar ist. Die
Gültigkeit der Kalibrierung bestätigt die spezifizierte
Messgenauigkeit. Die ist aber nur eine Momentangabe
und unabhängig von den Anforderungen der IEC 61508
zu sehen, da die Komponenten im produktiven Einsatz
nicht unbedingt ihre Initialkalibrierung beibehalten. Im
Worst-Case ist das Gerät mit der aus dem Proof-Test beziehungsweise
Kalibrierungsintervall und der Mean
Time To Fail (MTTF)) ableitbaren Wahrscheinlichkeit
defekt. Die Safe Failure Fraction (SFF) drückt aus, ob der
Fehler gefährlich ist. Der Diagnosegrad beschreibt, ob
der Fehler erkennbar ist. Voraussetzung für solche Betrachtungen
ist eine Failure Mode Effect and Detection
Analysis (FMEDA) [2].
Wie aber wird ein Fehler, der keinen Totalausfall,
sondern nur eine geringe Verschlechterung der Messgenauigkeit
verursacht, definiert? Drifts stellen einen
relevanten Teil dieser Fehler dar: Sie können aufgrund
von sich langsam entwickelnden Messgüteveränderungen
nach einer Kalibrierung auftreten und möglicherweise
das Prozessrisiko verdecken [3]. Wird zum Beispiel
erst eine Messunsicherheit von 2 % einer jeden
Komponente der Messkette als Fehler definiert, dann
ist die Fehlerwahrscheinlichkeit, die zur Probability of
Failure on Demand (PFD), siehe Abschnitt 1.2, des
Schutzsystems beiträgt, gering. In der gesamten Messkette
mit typischerweise drei Komponenten (Messinstrument,
Speisegerät und Analogeingangskarte einer Sicherheitssteuerung)
addieren sich die Messunsicherheiten
aber beträchtlich auf [2].
Wird bereits eine kleinere Abweichung als Fehler definiert,
so steigt die Fehlerwahrscheinlichkeit an. Würde
jede Abweichung von der für nicht sicherheitstechnische
Anforderungen spezifizierten Genauigkeit bereits als
Fehler im Sinne der IEC 61508 angesehen, so müssten
bereits solche Abweichungen erkannt oder mit ausreichend
hoher Wahrscheinlichkeit ausgeschlossen werden.
Eine Fehlerart, bei der ein Gerät zwischen Kalibrierungen
seine spezifizierte Genauigkeit verliert, müsste
also ausgeschlossen oder detektiert werden. Nur dann
ließen sich solche Genauigkeiten als Grundlage der Spezifikation
von Schutzeinrichtungen verwenden.
Bei einer MTTF von zum Beispiel 20 bis 50 Jahren und
typischen Kalibrierintervallen im Jahresbereich kann
durchaus eine beträchtliche Zahl von Geräten während
des Betriebs defekt werden. Die Erkennung dieser Defekte
ist jedoch nur aufgrund eines hohen Diagnosegrads
der betreffenden Schutzeinrichtung möglich. Eine beispielsweise
durch Alterungseffekte bedingte Drift ist
aber aus Gerätesicht kaum erkennbar, denn es fehlt die
Vergleichsgröße. Alterungseffekte, welche beispielsweise
durch Qualitätsprobleme von Elektronikbauteilen
oder andere Ursachen entstehen, sind aber nach Größe
und Häufigkeit schwer vorhersagbar oder quantifizierbar.
Betriebsbewährung bezieht sich eher auf Totalausfälle
atp edition
1-2 / 2013
39
HAUPTBEITRAG | NAMUR-HAUPTSITZUNG
als auf Drift und ist bezüglich der Qualität von Elektronikbauteilen
schwer extrapolierbar. Erhebliche Drift ist
also ein Qualitätsproblem, darf aber keine Schutzeinrichtungen
blockieren. Besonders bei nicht-diversitärer
Ausführung redundanter Kanäle kann eine Drift zwischen
zwei Kalibrierungszeitpunkten auch mehrere Kanäle
betreffen. Ohne zusätzliche Maßnahmen lässt sich
also nicht mit sicherheitstechnisch ausreichender Wahrscheinlichkeit
ausschließen, dass für nicht-sicherheitsrelevante
Anwendungen definierte Qualitätsangaben von
Geräten wegen Defekten verletzt werden.
Häufigere Kalibrierung und gegebenenfalls Justierung/
Reparatur erhöhen zwar einerseits den Diagnosegrad
und verringern die Wahrscheinlichkeit einer unerkannten
Drift, sind aber andererseits sehr aufwendig. Es stellt
sich die Frage, ob es möglich ist, durch Teilprüfungen
zwischen den Kalibrierungen zusätzliche Diagnoseinformationen
zu gewinnen. Eine solche Teilprüfung kann
beispielweise folgendermaßen realisiert werden:
Es wird direkt nach der Kalibrierung und anschließend
einmal im Monat eine stabile, ungestörte Testsituation
erzeugt.
Die Messdaten der redundanten Kanäle werden aufgenommen.
Die monatlichen Veränderungen der Differenzen der
Messdaten der redundanten Kanäle seit der letzten
Kalibrierung werden betrachtet.
Veränderungen werden als Anzeichen für Drifteffekte
in einem oder beiden Kanälen gewertet.
Solche Zwischenprüfungen sind ebenfalls mit einem
deutlichen Aufwand verbunden und umso wirkungsvoller,
je häufiger sie erfolgen. Es zeigt sich, dass für einen
ausreichenden Diagnosegrad der Fehlerart Drift relativ
genaue Vergleiche erforderlich sind. Eine automatische
Durchführung anhand aktueller Prozessdaten wäre daher
wünschenswert. Dazu müssen aber sehr stabile und
ungestörte Messdaten vorliegen, was typischerweise im
normalen Produktionsablauf nicht der Fall ist. Jedoch
besteht die Möglichkeit, mittels geeigneter Filter- und
Erkennungsmethoden die Messsignale aufzubereiten [4].
Die hierzu verwendeten Methoden wurden so entworfen,
dass sie in typischen sicherheitsgerichteten Steuerungen
leicht als Online-Funktionen realisiert werden können.
Die automatische Online-Durchführung der regelmäßigen
Teilprüfungen mit hohem Diagnosegrad anhand
entsprechend aufbereiteter Prozessdaten stellt damit
eine Möglichkeit dar, um die Genauigkeit der Messkette
sicherzustellen.
1. BERECHNUNG DER FEHLERWAHRSCHEINLICHKEIT
1.1 Vergleich der Messketten zwischen Kalibrierungen
Hier wird als Beispiel eine besonders sensitive Messgröße
verwendet: Es handelt sich um die Temperaturdifferenz
im Kühlsystem eines Reaktors (Bild 1). Es existieren
zwei Kanäle (T A,n und T B,n ), die jeweils den Temperaturunterschied
zwischen Ein- und Ausgang des Kühlsystems/der
Kühlflüssigkeit am n-ten Tag messen. Die Differenz
dieser beiden Kanäle (T A,n - T B,n ) wird als Driftindex
F n bezeichnet. Wir betrachten die Differenz zwischen
dem Driftindex des ersten Tages (F 1 ) und dem
Driftindex des n-ten Tages (F n ). Weicht F n um mehr als
einen festgelegten Wert von F 1 ab, wurde durch diese
Vergleichsstrategie eine Drift detektiert.
Treten Messfehler in der Größe der spezifizierten Genauigkeit
auf, entsteht durch die Drifteffekte ein gefährlicher
Fehler, siehe Bild 2 linkes Diagramm. Die Vergleichsmethode
muss einen Driftalarm auslösen, bevor
ein gefährlicher Fehler entsteht. Im Beispiel dieser Arbeit
wird ein Alarm gegeben, sobald F n um mehr als 20 % der
spezifizierten Genauigkeit von F 1 abweicht. Dies geschieht
jedoch nicht immer rechtzeitig. Wenn beispielsweise
T A,n und T B,n in gleicher Richtung und mit ähnlicher
Geschwindigkeit driften (Bild 2 rechtes Diagramm),
kann ein gefährlicher Fehler unentdeckt bleiben. In Abschnitt
1.2 wird auf die Wahrscheinlichkeit eines solchen
Ereignisses näher eingegangen.
Um diesen Vergleich mit der notwendigen Genauigkeit
durchzuführen, können – wie bereits erwähnt – geeignete
Testsituationen wie ein Nullpunktvergleich bei leerem
Reaktor, konstanter Zulauftemperatur des Kühlwassers
mit konstantem Durchfluss und abgeschalteter Temperaturregelung
verwendet werden.
1.2 Fehlerwahrscheinlichkeits-Analyse (PFD)
Zunächst soll untersucht werden, ob durch solche Teilprüfungen
Drifts mit einer hinreichend hohen Wahrscheinlichkeit
detektiert werden können. Dabei wird die
Fehlerwahrscheinlichkeit (PFD) als die Unverfügbarkeit
der Schutzfunktionen einer Schutzeinrichtung, die zur
Vermeidung von Gefahren für Mensch und Umwelt benötigt
werden [5], definiert. Gemäß der Definition des
Schutzlevels SIL 3 soll die PFD des Schutzsystems im low
demand mode einen geringeren Wert als 10 -3 aufweisen.
Zur Berechnung der PFD ist eine Modellvorstellung
der Driftentwicklung der Messeinrichtungen zwischen
zwei Proof-Tests (Kalibrierung) erforderlich. Die Drifts
werden hier als linear in der Zeit angenommen. In einer
stochastischen Simulation sind Startzeitpunkt und Steigung
als durch eine Gaußverteilung gegeben angenommen.
Wir gehen davon aus, dass die Kanalabweichungen
lediglich durch die Drifts verursacht werden. Zur Vereinfachung
nehmen wir außerdem an, dass der anfängliche
Driftindex F 1 null beträgt. Nach der Definition in
Abschnitt 1.1 gibt es einen Driftalarm zum Zeitpunkt t 1 ,
wenn der Absolutwert des Driftindexes F n (Differenz der
beiden Kanäle) 20 % der spezifizierten Genauigkeit erreicht.
Ein gefährlicher Fehler zum Zeitpunkt t 2 tritt auf,
wenn die Kanalabweichung die spezifizierte Messgenauigkeit
erreicht. Dabei wird der sicherheitstechnisch konservative
Wert der redundanten Kanäle genommen, im
Beispiel ist das der kleinere Wert. Konsequenterweise
sind Drifts in die negative Richtung ungefährlich. Bild 2
zeigt entdeckte beziehungsweise nicht entdeckte gefährliche
Fehler einer Schutzfunktion. Nur wenn t 1 < t 2 , wird
der Fehler rechtzeitig entdeckt.
40
atp edition
1-2 / 2013
Edukt
Produkt
Reaktor
Messkette A → T A,n Signal im Kanal A am n-tenTag
Kühlsystem
Messkette B → T B,n Signal im Kanal B am n-tenTag
BILD 1:
Reaktor und Kühlsystem
Temperatur [K]
Drift B Driftalarm
spezifizierte Genauigkeit Driftalarm
spezifizierte Genauigkeit Drift B
Drift A entdeckter
Drift A nicht entdeckter
gefährlicher Fehler
gefährlicher Fehler
Zeit
t 1 Zeit
t 1
t 2
Temperatur [K]
t 2
BILD 2:
Entdeckte und nicht entdeckte
gefährliche Fehler
Je mehr unentdeckte gefährliche Fehler während der
PFD-Analyse auftauchen, desto höher ist die Fehlerwahrscheinlichkeit.
Unentdeckte gefährliche Fehler
werden hier als Zeitbereiche zwischen t 2 und t 1 mit t 2 < t 1
verstanden (siehe Bild 2, rechtes Diagramm). In diesem
Fall können Schutzeinrichtungen nicht die benötigten
Schutzfunktionen ausführen, da sie die Gefahr nicht
rechtzeitig erkennen.
Zur Vereinfachung des Verifikationsprozesses nehmen
wir in diesem Beitrag als Fehlermodell an, dass
Drifts zufällig entstehen und, wie oben bereits erwähnt,
ein lineares Verhalten zeigen. Während mit dieser Einschränkung
das Prinzip dargestellt werden kann, sollte
zur weiteren Ausarbeitung und Präzisierung der
Fehlermodelle die Zusammenarbeit mit Herstellern
gesucht werden. Monte-Carlo-Simulationen mit Parametern
einer realen Schutzeinrichtung von relativ hoher
spezifizierter Genauigkeit und diesem linearen
Fehlermodell zeigen, dass eine Fehlerwahrscheinlichkeit
kleiner als 10 -3 erreichbar ist. Es ist also hinreichend
unwahrscheinlich, dass in einer redundanten
Messeinrichtung beide Kanäle den akzeptablen Messfehler
überschreiten, ohne dass vorher die Abweichung
beider Kanäle zumindest 20 % dieses Werts erreicht.
Vollkommen zeit- und wertgleiche Fehlerentwicklung
redundanter Kanäle ist also hochgradig unwahrscheinlich.
Als Ergebnis lässt sich festhalten, dass die Strategie
der Drifterkennung zur Fehlerreduktion geeignet ist
und mit dieser Strategie Schutzeinrichtungen den
SIL 3-Standard erfüllen können.
Neben dem Fehlermodell geht in diese Berechnungen
auch das Kalibrierintervall ein. Je länger das Kalibrierintervall,
desto größer die Wahrscheinlichkeit, dass ähnliche
Drifteffekte der redundanten Kanäle zu unzulässigen
Messfehlern führen, bevor ihre Abweichungen zu
einem Driftalarm führen. Weiterhin steigt die Abhängigkeit
der Detektionsrate von den Parametern des Fehlermodells,
das heißt, mit zunehmendem Kalibrierintervall
wird die Methode weniger robust. Umgekehrt bedeutet
das, dass sich anhand dieser Betrachtungen ein geeignetes
Kalibrierintervall in Abhängigkeit der geforderten
Genauigkeit der Messeinrichtung bestimmen und begründen
lässt.
2. REALISIERUNG MITTELS PROZESSDATEN
Es bleibt die Aufgabe, die so definierten Zwischenprüfungen
anhand der Prozessdaten aus dem normalen
Produktionsablauf durchzuführen. Dazu müssen die
Messsignale aufbereitet werden. Insbesondere wird der
Trend der Signale benötigt. Als Trend wird dabei die
langfristige Entwicklung des Signals ohne zufällige
oder betriebsbedingte Abweichungen angesehen. Solche
betriebsbedingten Abweichungen redundanter Kanäle
können beispielsweise durch den Einbauort in
Verbindung mit dynamischen Effekten des Prozesses
oder durch unterschiedliche Ansprechgeschwindigkeiten
redundanter Messeinrichtungen auftreten. Diese
sollen durch geeignete Maßnahmen (siehe Abschnitt
2.1) entfernt werden, um Drifteffekte nicht zu überdecken.
Unmittelbar nach der Kalibrierung sind die Abweichungen
der Trends beider redundanter Kanäle
durch die Differenzen der Kanäle gemäß Kalibrierungsprotokoll
gegeben. Sind bis zur nächsten Kalibrierung
keine Drifteffekte zu beobachten, so kann mit hoher
atp edition
1-2 / 2013
41
10
5
0
-5
1- 0
10
5
0
-5
1- 0
10
5
0
-5
1- 0
10
5
0
-5
1- 0
20 0 400 600 800 1000 1200
20 0 400 600 800 1000 1200
20 0 400 600 800 1000 1200
20 0 400 600 800 1000 1200
5
4
3
2
1
0
-1
-2
-3
-4
5
4
3
2
1
0
-1
-2
-3
-4
0 1000 2000 3000 4000 5000
5
4
3
2
1
0
-1
-2
-3
-4
0 1000 2000 3000 4000 5000
5
4
3
2
1
0
-1
-2
-3
-4
0 1000 2000 3000 4000 5000
5
4
3
2
1
0
-1
-2
-3
-4
5
4
3
2
1
0
-1
-2
-3
-4
0 1000 2000 3000 4000 5000
HAUPTBEITRAG | NAMUR-HAUPTSITZUNG
Wahrscheinlichkeit angenommen werden, dass der Zustand
der Geräte sich gegenüber dem Kalibrierungszeitpunkt
nicht verändert hat.
Bild 3 zeigt drei charakteristische Eigenschaften des
Signals, die dies erforderlich machen. Das Signal und
der Driftindex sind verrauscht und von starken dynamischen
Effekten beeinflusst, vor allem während ungeeigneten
Prozesszuständen (siehe Abschnitt 3.3). Weiterhin
ist der Driftindex aufgrund von Schwankungen, die
selbst dann auftreten, wenn die Signale in beiden Kanälen
einen regulären Verlauf zeigen, nicht stationär.
Schließlich ist die Spanne des Driftindexes so groß (einige
Kelvin), dass es unmöglich ist, sehr kleine Änderungen
(im mK-Bereich) genau genug zu entdecken.
Daher ist es notwendig, die Signale aufzubereiten, um
vergleichbare und sinnvolle Trends zu erhalten. Mit diesen
Trends, welche eine schmalere Spanne und ein geringeres
Rauschen aufweisen, kann der zuvor beschriebene
Vergleich durchgeführt werden.
2.1 Rekursive Filter und Differenzierer
zur Signalaufbereitung
Gleitende Mittelwertbildung ist eine typische Methode,
um Fluktuationen aus Signalen zu entfernen und Trends
zu ermitteln. Jedoch benötigt diese Methode relativ viel
Speicher und Rechenleistung und ist in einer grafischen
Programmierumgebung aufwendig zu implementieren,
siehe Bild 4. Daher wird eine exponentiell gewichtende
gleitende Mittelwertbildung verwendet, die durch ein
rekursives Tiefpassfilter realisierbar ist. Ein Tiefpassfilter
lässt tiefe Frequenzen passieren, filtert hohe Frequenzen
aus oder schwächt sie ab [6] und kann dadurch den
Trend vom Originalsignal trennen [7].
Rekursive Filter, wie in Bild 5 zu sehen, brauchen weniger
Funktionsbausteine, weniger Rechenleistung und
geringere Speicherkapazitäten im Vergleich zu gleitenden
Mittelwertfiltern. Der in Bild 5 ebenfalls dargestellte Differenzierer
wird in den folgenden Abschnitten benötigt.
Temperatur [K]
10 —— Signal des Kanals A
—— Differenz der KanäleA und B + 4 K
8
6
BILD 3:
Beispiel des Signals des
Kanals A (blau) und der
Differenz der Kanäle A und
B +4 Kelvin (grün)
Berechnen der
Standardabweichung σ N
Standardabweichung
σ N
Trend
ı
2
2
Standardabweichung σ NS Rausch-
Signal x
Signal y i
σ 2
x i -x i-1 y 2
N
i TPF 1
TPF 2
Standardabweichung
σ NS
4
Ungenauigkeitdes Trends σ T
2
BILD 6: Berechnung des Trends und dessen Unsicherheit Berechnen der
0
-2
2.214 2.215 2.216 2.217 2.218 2.219 2.22Zeit [s]
x i -x i-1
TPF 2
Standardabweichung
σ N
ı
2
2
Standardabweichung σ N
Standardabweichung σ NS Rausch-
Signal x
Signal y i
σ 2
y 2
N
i TPF 1
Standardabweichung
σ NS
Bild 3: Beispiel des Signals desKanals A (blau) und der Differenz der Kanäle A und B +4 K elvin (grün)
Trend
Ungenauigkeitdes Trends σ T
BILD 6: Berechnung des Trends
und dessen Unsicherheit
BILD 6: Berechnung des Trends und dessen Unsicherheit
BILD 4: Gleitendes Mittelwertfilter
Standardabweichung σ NS Rausch-
Signal x
Signal y i,1
1000 2000 3000 4000 0 5000
Rausch-
Signal y i,2
HPF
x i -x i-1
TPF 2
Standard -
abweichung
Berechnen der σ N,1
Standardabweichung
σ N,1
Konst.1
Standardabweichung
Berechnen der σ N,2
Standardabweichung
Konst.2
σ N,2
σ NS,1
σ NS,2
Standard -
abweichung
σ NS
Trend
BILD 5: Rekursives Tiefpassfilter und Differenzierer
42
atp edition
1-2 / 2013
Standardabweichung σ
Ungenauigkeit des Trends σ T
Rauschσ
N,1
NS Standard -
Signal x
Signal y
BILD 7: Erweiterung BILD 7: Erweiterung der Berechnung des i,1
der Trends Berechnung
und dessen Unsicherheit abweichung
Berechnen der σ N,1
des Trends x i -x i-1 und dessen Unsicherheit
Standardabweichung
Konst.1 σ NS,1
0 1000 2000 3000 4000 5000
Rausch-
Standardabweichung
Signal y i,2
HPF
Berechnen der σ N,2
Standardabweichung
Konst.2 σ NS,2
σ N,2
TPF 2
Trend
Standard -
abweichung
σ NS
2
2
( y Y N) + ( )
2
N , i
=
i
1
N , i 1
Y N
2.2 Zuverlässigkeit des Trendsignals
Das Originalsignal des Driftindex enthält zwei Komponenten:
das Trendsignal und das Rauschen. Zur
Gewinnung des Trendsignals kann das Rauschen
Y
durch einen Tiefpassfilter vom Originalsignal abgetrennt
werden. Vor der Nutzung für den Trendvergleich
muss jedoch verifiziert werden, inwieweit das Y N
Originalsignal durch das Trendsignal repräsentiert
Y N
wird. Hierzu muss die Genauigkeit des Trends berechnet
werden. Diese ergibt sich aus der Rauschkomponente
des Ursprungssignals. Lässt sich die Standardabweichung
des Rauschens berechnen, kann auch die
Genauigkeit des Trends (σ T ) ermittelt werden. Die Beziehung
der beiden Ergebnisse ist durch die Rauschübertragungsfunktion
des Tiefpassfilters gegeben (siehe
Abschnitt 2.2.3).
2.2.1 Standardabweichung der Rauschkomponente
des Originalsignals σ NS
Die Standardabweichung (σ NS ) der Rauschkomponente
des Originalsignals kann durch Differenzierung, Berechnung
der Standardabweichung des Resultats und Rückrechnung
gemäß der Rauschübertragungsfunktion erfasst
werden (Bild 6).
Zunächst benutzen wir einen Differenzierer, um den
Trend des Signals zu entfernen. Das Rauschsignal y i am
Ausgang des Differenzierers hat ähnliche Eigenschaften
wie die Rauschkomponente des Originals. Deswegen
kann, nachdem die Standardabweichung σ N von y i berechnet
wurde, die Standardabweichung (σ NS ) der
Rauschkomponente abgeschätzt werden.
Als Erweiterung können anstelle des Differenzierers
oder zusätzlich auch ein oder mehrere Hochpassfilter
verwendet werden (Bild 7). Ein Hochpassfilter in rekursiver
Konstruktion lässt sich durch einen Differenzierer
und ein Tiefpassfilter darstellen. Der Aufwand für eine
Online-Realisierung ist damit gering. Ähnlich wie in [8]
ist es dann möglich, durch Vergleich der rückgerechneten
Standardabweichungen aus zwei Filtern verschiedener
Übertragungsfunktionen abzuschätzen, ob das Rauschen
des Originalsignals gaußverteilt ist, um weitere
Analysen durchzuführen.
2.2.2 Standardabweichung σ N des Rausch-Signals
Die Berechnung der Standardabweichung des Rausch-
Signals σ N erfolgt durch Quadrieren des Resultats (y i ) des
Differenzierers und Aufaddieren in einem Tiefpassfilter
TPF 1, das eine exponentiell gewichtete Summe bildet
(Bild 6). Wie im R-Test [7] kann ein rekursives Tiefpassfilter
genutzt werden, um die Standardabweichung einer
Stichprobe zu berechnen (siehe Gleichung 1).
2
2
( y Y N) + ( )
2
N , i
=
i
1
N , i 1
y i
y
Y N i
N,i
=
(1)
= Rausch-Signal nach Differenzierer/
Hochpassfilter
y i
Y N
2
= Mittelwert 2 des Rausch-Signals
2
2
2
2
Nα , i
= = Parameter des Tiefpassfilters TPF 1
,
=
( y
σ N,i
(
i
Y N
N i
y
) +
i
Y )( 1
+ ( 1) N , i) 1
N
N , i 1
y i = Standardabweichung des Rausch-Signals
Y i
N
Y N = ist der Mittelwert des gefilterten Rauschsignals. Er
N
ist N,i sehr = klein und kann mit hinreichender Genauigkeit
vernachlässigt werden. Es ist daher möglich, die Standardabweichung
des Rauschsignals mit Gleichung (2)
N,i
zu berechnen. Der Ausgang des Tiefpassfilters TPF 1
ist das Quadrat der Standardabweichung des Rausch-
Signals 2 y 2
2
N , i
= i .
y
i
+ ( 1 )
N , i 1
2 2
2
N , i
= y
i
+ ( 1 )
N , i 1 (2)
( )
2
2 2
N , i
= y + 1
2.2.3 Beziehungen i zwischen N , i σ1
N , σ Ns und σ T
Aus σ N kann so die Standardabweichung σ NS des Originalsignals
berechnet werden und daraus die Unsicherheit
σ T des Trends (siehe Bild 6). Die Beziehungen zwischen
den drei Parametern ergeben sich aus den mathematischen
Beschreibungen des Tiefpassfilters TPF 2
und des Differenzierers und gegebenenfalls eines Hochpassfilters.
Gleichung (3) zeigt die mathematische Beschreibung
eines Tiefpassfilters.
( 1 ) y
1
y
i
= xi
+
i , y 0 = 0 ,(3)
y i
y i
x i
= Ausgang des Tiefpassfilters
y
ix= x
i
i = + ( Eingang 1 ) yi
1des , y 0 Tiefpassfilters
= 0
Temperatur [K]
20
i
HAUPTBEITRAG | NAMUR-HAUPTSITZUNG
= xi
+ ( 1 ) yi
1
y , y 0 = 0
y i
x i
y i
x
i i
y y
=
x
Der in Bild 25 gezeigte Differenzierer kann durch Gleichung
x (7) beschrieben werden.
geforderten Genauigkeit der Messeinrichtung bestimmen
und praxisgerecht begründen.
Ist die Sensitivität der berechneten Größe gegenüber
den Unsicherheiten der physikalischen Größen bekannt
(zum Beispiel online berechenbar oder linear
modellierbar), dann kann die Unsicherheit der
berechneten Größe aus den Messunsicherheiten der
physikalischen Größen bestimmt werden. Wenn
die Unsicherheiten der physikalischen Größen aus
den aktuellen Differenzen der Signale der redundanten
Messketten abgeschätzt werden können,
dann kann die Auswirkung von Drifteffekten auf
die berechnete Größe online abgeschätzt werden.
Prozess- und einbaubedingte Fehler können dazu
führen, dass die beschriebene Methodik hohe Abweichungen
anzeigt, die nicht durch Fehler der
Messkette selbst verursacht werden. Daraus lassen
sich gegebenenfalls Erkenntnisse über Messbedingungen
gewinnen und Optimierungspotenzial
ableiten. Im Rahmen der Inbetriebnahme
kann eine derartige Analyse wertvolle Hinweise
auf Realisierungsschwachstellen geben.
REFERENZEN
[1] Haase, S., Hablawetz, D., Hauff, T., Krauß, M.,
MANUSKRIPTEINGANG
21.05.2012
Im Peer-Review-Verfahren begutachtet
Lenhart, F.: Komplexe PLT-Schutzeinrichtungen,
atp edition – Automatisierungstechnische Praxis
54(1-2), S. 54-60, 2012
[2] DIN EN 61508: Functional Safety of Electrical/
Electronic/Programmable Electronic Safety-Related
Systems, 2011
[3] Resso, M., Bogatine, E.: Signal Integrity Characterization
Techniques. IEC, 2009
[4] Anonym: Method for Supervising Measurement
Instrumentation Devices, 2012,
http://ip.com, IP.com number: IPCOM000218485D
[5] DIN EN 61511-3: Functional Safety - Safety Instrumented
Systems for the Process Industry Sector. Part 3:
Guidance for the Determination of the Required Safety
Integrity Levels, 2005
[6] Wörn, H.: Echtzeitsysteme: Grundlagen, Funktionsweisen,
Anwendungen. Springer, 2005
[7] Cao, S.; Rhinehart, R.: An Efficient Method for Online
Identification of Steady State. Journal of Process
Control 5(6), S. 363-374, 1995
[8] Bebar, M.: Regelgütebewertung in kontinuierlichen
verfahrenstechnischen Anlagen anhand vorliegender
Messreihen, Dissertation Ruhr-Universität Bochum,
2005. http://www-brs.ub.ruhr-uni-bochum.de
AUTOREN
Prof. Dr.-Ing. CHRISTIAN BRECHER (geb. 1969) leitet seit 2004 den
Lehrstuhl für Werkzeugmaschinen am WZL der RWTH Aachen
und ist seit 2013 geschäftsführender Direktor des Werkzeugmaschinenlabors.
Seine Forschungsgebiete umfassen die Bereiche
Maschinentechnik, Steuerungstechnik und Getriebetechnik.
RWTH Aachen,
Werkzeugmaschinenlabor (WZL),
Steinbachstr. 19, D-52074 Aachen,
Tel. + 49 (0) 241 802 74 07,
E-Mail: c.brecher@wzl.rwth-aachen.de
Dr.-Ing. THOMAS HAUFF (geb. 1960) ist im Fachzentrum Automatisierungstechnik
der BASF SE auf dem Arbeitsgebiet der
Prozessleittechnik tätig. Themengebiete sind unter anderem
Qualitätssicherung, technische Evaluierung und Consulting für
Automatisierungslösungen. Er ist Obmann des Namur AK 2.11.
BASF SE,
D-67056 Ludwigshafen, Tel. +49 (0) 621 602 03 26,
E-Mail: thomas.hauff@basf.com
M. Sc. WUSHAN LIANG (geb. 1986) ist seit 2012 im Fachzentrum
Automatisierungstechnik der BASF SE in Ludwigshafen tätig.
Die vorliegende Arbeit basiert auf ihrer Masterarbeit, die bei
BASF angefertigt und von der RWTH Aachen betreut wurde.
Sie befasst sich mit der Implementierung modellbasierter Schutzkonzepte.
BASF SE,
D-67056 Ludwigshafen, Tel. + 49 (0) 621 607 32 44,
E-Mail: wushan.liang@basf.com
Dipl.-Ing. MARKUS OBDENBUSCH (geb. 1986) arbeitet seit 2011
als wissenschaftlicher Mitarbeiter am Lehrstuhl für Werkzeugmaschinen
der RWTH Aachen. Seine Forschungsgebiete umfassen
die automatisierte Anlagendiagnose und Inbetriebnahme von
Produktionsmaschinen im Maschinenbau.
RWTH Aachen,
Werkzeugmaschinenlabor (WZL),
Steinbachstr. 19, D-52074 Aachen,
Tel. + 49 (0) 241 802 82 36,
E-Mail: m.obdenbusch@wzl.rwth-aachen.de
Dipl.-Phys. MATTHIAS STRAUSS (geb. 1986) arbeitet auf den
Gebieten der Überwachung sicherheitsrelevanter Messeinrichtungen
und modellbasierte Schutzsysteme.
BASF SE,
D-67056 Ludwigshafen,
Tel. +49 (0) 621 609 17 25,
E-Mail: matthias.strauss@basf.com
atp edition
1-2 / 2013
45
HAUPTBEITRAG | NAMUR-HAUPTSITZUNG
Integriertes Engineering –
wann, wenn nicht jetzt!
Notwendigkeit, Anforderungen und Ansätze
Für die Planung und Betriebsbetreuung in der Prozessindustrie werden viele unterschiedliche
Engineering-Systeme verwendet. Diese sind jeweils für Komponenten, Lebenszyklusphasen
oder Gewerke spezialisiert, aber auch auf sie begrenzt. In Planungs- und Betriebsphase
müssen Daten zwischen diesen Systemen transportiert werden. Dieser Beitrag
schlägt vor, integrierte Engineering-Systeme zu verwenden. Zur Realisierung werden verschiedene
Ansätze präsentiert. Ein Blick auf Konzepte wie Industrie 4.0 zeigt, dass diese
Ansätze jetzt dringend fortentwickelt und in der Praxis implementiert werden müssen.
SCHLAGWÖRTER Engineering-Systeme / Anlagen-Lebenszyklus / Integration /
Schnittstellen
Integrated Engineering –
If not now, then when?
Many different engineering systems are used for the engineering and maintenance in the
process industries. These systems are specialized for components, certain phases of the
plant life cycle and engineering discipline, and they are limited to these areas. During
Engineering and Operation phase data has to be exchanged between these systems. This
paper suggests to implement integrated engineering systems. Several realisation approaches
are presented. A view on innovative concepts like Industry 4.0 shows that these approaches
urgently need further development and implementation for practical application.
KEYWORDS engineering systems / plant life cycle / integration / interfaces
46
atp edition
1-2 / 2013
THOMAS TAUCHNITZ, Sanofi-Aventis Deutschland
Während der Planung und Errichtung von
Anlagen wird eine große Datenmenge erzeugt,
es entsteht ein elektronisches Abbild
der Anlage. Dieses Abbild wird während
der Betriebsphase ständig fortgeschrieben
und durch Projekte weiterentwickelt. Der
Planungsaufwand verschlingt zehn bis fünfzehn Prozent
des Anlagenwertes, und die Qualität der Daten hat einen
großen Einfluss auf die Geschwindigkeit der Anlagenerrichtung
und auf Qualität und Kosten der späteren Betriebsbetreuung.
Zur Unterstützung der Planungs- und Betreuungsphase
wird eine Vielzahl von Engineering-Systemen verwendet.
Dieser Beitrag schlägt – auf Basis eines Vortrags auf
der Namur-Hauptsitzung vom 9. November 2012 – vor,
integrierte Engineering-Systeme zu verwenden.
1. INTEGRIERTES ENGINEERING
Für den Begriff Engineering gibt es ein enges und ein
weites Verständnis: Im engeren Sinne bezeichnet Engineering
– wie im Englischen – im Lebenszyklus von Anlagen
die Planungsphase: Nach der Engineeringphase
käme also die Errichtungs- und dann die Betriebsphase.
Im weiten Verständnis bezeichnet Engineering sämtliche
Prozesse zur Dokumentation von Anlagen während ihres
gesamten Lebenszyklus von der Planung über die Betriebsphase
bis zur Demontage. Wenn man von dem
Engineering-Tool eines Prozessleitsystems spricht, wird
dieses weitere Verständnis des Begriffs Engineering verwendet,
welches auch diesem Beitrag zugrunde liegt. Es
geht also um die Werkzeuge für die Dokumentation für
den gesamten Lebenszyklus von Anlagen.
Der Begriff Integration bezeichnet den Zusammenschluss
von unabhängigen Einheiten zu einem übergeordneten
Ganzen. Speziell geht es also um den Zusammenschluss
unabhängiger Engineering-Werkzeuge zu
einem Gesamt-Werkzeug. Die angestrebte Integration
geht über Komponenten-, Lebenszyklus- und Gewerkegrenzen
hinweg.
1.1 Kernfragen
Mit drei Fragen kann schnell bewertet werden, inwieweit
in dem jeweiligen Bereich integriertes Engineering
im Sinne dieses Beitrags verwendet wird:
Wird für die Planung und Betreuung aller Systeme
und Gewerke des Unternehmens nur ein einziges
Engineering-Tool beziehungsweise ein zusammenhängendes
Toolsystem eingesetzt?
Werden die Daten der technischen Einrichtungen im
gesamten Lebenszyklus nur einmalig eingegeben?
Werden diese Daten durch das Engineering-Tool
während des gesamten Anlagen-Lebenszyklus konsistent
gehalten?
In dem Maße, in dem diese Fragen bejaht werden können,
ist bereits ein integriertes Engineering realisiert. Und
umgekehrt: Je mehr unabhängige Systeme verwendet
werden, in je mehr Systemen dieselben Daten manuell
eingegeben und gepflegt werden müssen, je mehr organisatorischer
und personeller Aufwand für die Datenkonsistenz
betrieben werden muss, desto weiter ist man von
der Realisierung des integrierten Engineerings entfernt.
2. HERAUSFORDERUNGEN
Warum ist das integrierte Engineering noch nicht realisiert
und wie komplex ist diese Aufgabe? Wenn man über
integriertes Engineering spricht, ist zunächst der sinnvolle
Umfang der Integration zu definieren. Welche Komponenten,
welche Lebenszyklusphasen, welche Gewerke
sollen mit dem integrierten Werkzeug geplant und in der
Betriebsphase dokumentiert werden?
2.1 PLT-Systemlandschaft
Im ersten Schritt wird die Systemlandschaft im Bereich
der Prozessleittechnik (PLT) betrachtet. Feldgeräte müssen
atp edition
1-2 / 2013
47
HAUPTBEITRAG | NAMUR-HAUPTSITZUNG
Engineering-
Werkzeug
mit Konfi-Daten
ERP
BDIS
Produkt.-
Planungs-
System
Energie-
Managem.-
Sytem
Zeit
Datentransfer
Datenkonsolidierung
Datenkontrolle
Fehlerfolgen
(SCADA)
PLS
(SPS)
Sicherheits-
SPS
Feld geräte-
Parametr.
Adv.
Proc.
Contr.
manueller Transfer
ist Fehlerquelle
Datentransfer
Datenkonsolidierung
Datenkontrolle
Fehlerfolgen
Feldgerät
Qualität
Kosten
Globaler Wettbewerb
BILD 1: Systemlandschaft der Prozessleittechnik mit
dem jeweiligen spezialisierten Engineering-Werkzeug
BILD 2: Das Magische Dreieck des Projektmanagements
mit globalem Wettbewerbsdruck
parametriert werden. Prozessleitsysteme (PLS) benötigen
ebenso ein Engineering-Tool wie Sicherheits-SPSen
(SSPS) oder Systeme für Advanced Process Control
(APC). Darüber kommen Betriebsdaten-Informationssysteme
(BDIS), Produktionsplanungssysteme (PPS) und
Energiemanagementsysteme, darüber schließlich das
Enterprise Resource Planning System (ERP). Jedes dieser
Systeme hat ein spezialisiertes Engineering-Werkzeug,
in dem die Funktionen definiert und konfiguriert werden
(siehe Bild 1).
Wenn diese Engineering-Werkzeuge nicht integriert
sind, muss jede Änderung in ihnen von Hand parallel
konfiguriert werden. Für ein zusätzliches Feldgerät müssen
die Geräteparameter, die Verschaltung im PLS und
in der Sicherheits-SPS, die Anzeige im PLS, die Datenarchivierung
im BDIS und gegebenenfalls die Auswertung
im Energiemanagementsystem eingegeben werden,
und in jedem System häufig die gleichen Daten: PLT-
Stellen-Bezeichnung, Kurz- und Langtext, Messbereich
und ähnliches. Nur durch Perfektion und Kontrollen
kann dabei die Datenkonsistenz sichergestellt werden.
2.2 Lebenszyklus
In allen Phasen der Planung und der Betriebsbetreuung
werden Daten erzeugt und geändert. Die Planung kann
in verschiedene Phasen unterteilt werden: Konzeptplanung,
Basic Engineering, Detail Engineering, Errichtung
und Inbetriebnahme. Jede Planungsphase verwendet
Daten der vorherliegenden Phasen und detailliert sie
weiter. Nur, wenn die Daten der früheren Phasen in einem
integrierten elektronischen System zur Verfügung
stehen, können sie für die späteren Phasen verwendet
werden, ohne zusätzlichen Aufwand für den Transfer
und die Qualitätssicherung zu erfordern. Die Planungsphasen
sind aber nur in der Theorie aufeinander folgend
und einmalig. In aller Regel werden verschiedene Phasen
parallel bearbeitet, und es gibt ständig Änderungen, die
sich auf die vorhergehende Phase auswirken. Jede dieser
Umplanungen erfordert wiederum Datentransfers.
Im Übergang von der Planungs- zur Betriebsphase werden
Planungsdaten benötigt, um beispielsweise die Wartung
und Inspektion zu planen. Umgekehrt müssen die
bei der Inbetriebnahme erzeugten Parametersätze und
Betriebspunkte in die As-Built-Dokumentation eingepflegt
werden.
Während der eigentlichen Betriebsphase entstehen nur
Daten zur Dokumentation von Wartungs- und Inspektions-Maßnahmen,
aber das in der Planung erzeugte
elektronische Anlagenabbild wird für Dokumentation
und Fehlerbehebung benötigt, es muss also immer aktuell
und konsistent zur Verfügung stehen. Und es wird
benötigt, wenn es im Rahmen der Instandhaltung oder
als separates Projekt Verbesserungen oder Erweiterungen
gibt. Am Ende des Anlagenlebens dienen die Unterlagen
zur Demontageplanung und zur Dokumentation, die über
die Anlagenlebensdauer hinaus aufbewahrt werden
muss. Die Anforderung an ein integriertes Engineering
gilt also für den gesamten Lebenszyklus von prozesstechnischen
Anlagen.
2.3 Gewerke
Im Abschnitt 2.1 wurden die Komponenten der PLT-
Systemlandschaft genannt und deutlich gemacht, wie
aufwendig das Engineering in all diesen unabhängigen
Engineering-Werkzeugen ist. Nun stellt die Prozessleittechnik
aber nur ein Drittel oder Viertel der Anlage
48
atp edition
1-2 / 2013
dar. Auch der Prozess, die Apparate, die Rohrleitungen,
die Aufstellung, die Versorgungstrassen müssen
geplant werden, sowie der Bau der Gebäude und der
Stahlbau für die Apparate. Hierfür gibt es eigene spezialisierte
Engineering-Werkzeuge. Und wieder werden
Daten erzeugt und gepflegt, die auch für andere
Gewerke und Komponenten notwendig sind: Die Prozessauslegung
legt die Rohrdurchmesser fest, und für
die Rohrleitungsplanung benötigt man wiederum die
Abmessungen der Feldgeräte. Die Apparatebezeichnungen
werden für die Fließbilder des PLS benötigt
und die Prozessbeschreibungen für die Ablaufketten
im PLS.
Wer ein integriertes Engineering anstrebt, muss also
auch auf die Integration zwischen den verschiedenen
Gewerken achten. Und es wird deutlich, dass die Werkzeuge
der Prozessindustrie noch einen weiten Weg vor
sich haben, bis alle drei Kernfragen zum Engineering
(siehe Abschnitt 1.1) positiv beantwortet werden können.
3. ANFORDERUNGEN
Einen eingängigen Ausdruck für die durch die verschiedenen
Engineering-Werkzeuge für Komponenten, Lebenszyklus-Phasen
und Gewerke entstehende Engineering-Landschaft
hat Biffl geprägt: Er spricht vom Engineering-Polynesien
[1]. Im Folgenden werden Anforderungen
an die Integration von solchen Engineering-Inseln
diskutiert.
3.1 Datentransport
Zwischen den Engineering-Systemen – bildlich: den
Engineering-Inseln – ist ein Datenaustausch erforderlich.
Und zwar nicht einmalig, sondern immer wieder und
häufig sogar in beide Richtungen. Im Bild: Es müssen
Boote zwischen den Inseln hin- und herfahren und Daten
transportieren, und zwar nicht kleine Schnellboote, sondern
große Fähren mit Tausenden von Daten. In der realen
Welt können die Daten per Telefon übertragen werden
nach dem Motto: „An die PLT: Wir haben den Durchmesser
der Rohrleitung xyz von DN50 auf DN80 geändert.
Bitte ändert euren Durchflussmesser F1234“. Noch häufiger
wird der Austausch per Tabellenkalkulations-Blatt
sein: „An die PLT: Anbei erhalten Sie Version 15 der
nochmals überarbeiteten PLT-Stellen-Bezeichnungen.“
Der Empfänger dieser Tabelle muss dann aus den Hunderten
Zeilen die Änderungen heraussuchen und in seine
Systeme eingeben.
3.2 Magisches Projektdreieck
Im Projektmanagement wird vom magischen Dreieck
gesprochen, das aus Zeit, Qualität und Kosten besteht.
Die Projektleitung ist dafür verantwortlich, das Projekt
im vorgegebenen Budget, in den Terminen und mit
dem vorgegebenen Umfang sowie in hoher Qualität
abzuschließen. Der oben beschriebene Datentransport
ist Teil des Projektaufwands und wirkt sich auf alle
drei Kenngrößen aus:
Datenexport und -import, die Konsolidierung von bestehenden
und geänderten Daten, die Qualitätskontrolle
der Daten und die Identifikation und Beseitigung von
Fehlern kosten Zeit und verlängern die Projektdauer.
Die gleichen Aktivitäten erhöhen auch die Projektkosten.
Einerseits direkt als letztlich unproduktive Ingenieurstunden,
andererseits auch indirekt durch Fehlerbeseitigung,
Nachbesserungen, Dokumentenrevisionen
und ähnliches.
Jeder manuelle Transfer und jeder manuelle Abgleich
von Daten ist – wie jede menschliche Arbeit – eine Fehlerquelle.
Fehler können große Probleme bei der Inbetriebnahme
bis hin zu Nachbesserungsprojekten schaffen.
Um Fehler zu minimieren, müssen umfangreiche
Qualitätssicherungsmaßnahmen wie beispielsweise das
Vier-Augen-Prinzip eingesetzt werden.
Der steigende wirtschaftliche Druck im globalen Wettbewerb
erzwingt eine Verkleinerung des magischen Dreiecks,
siehe Bild 2: Die Projektlaufzeit muss minimiert
werden, die Kosten verringert – eine hohe Qualität wird
trotzdem erwartet. Ein integriertes Engineering kann
einen guten Beitrag in diesem Umfeld leisten. Selbst falls
Werkzeuge für das integrierte Engineering teurer sind
– der Wegfall des manuellen Datentransfers wird mindestens
im gleichen Maß Kosten einsparen. Und die eingesparte
Zeit sowie die Fehlervermeidung, durch die
zusätzlich auch das Projektrisiko sinkt, sind große und
vielleicht ausschlaggebende Vorteile des integrierten
Engineerings.
3.3 Schnittstellen
Die Namur-Empfehlung NE 139 Informationsschnittstellen
in der Prozessautomatisierung – Betriebliche Eigenschaften
[2] zielt zwar auf Echtzeit-Schnittstellen für
Prozessdaten, enthält aber einen Katalog von Anforderungen,
die sich leicht auf die Schnittstellen für das integrierte
Engineering übertragen lassen.
Integrität: Keine ungewollten Veränderungen während
der Datenübertragung; Security-Eigenschaften
Nachhaltigkeit: Langjährige Pflege, Erweiterung und
Modernisierung des Systems, unter anderem durch
Aufwärtskompatibilität, hierarchische Strukturierung
in unabhängige Layer- und Technologieunabhängigkeit
Durchgängigkeit: Allgemeine Einsatzmöglichkeit
über die Ebenen der Automatisierungspyramide
(vgl. Abschnitt 2.1), Lebenszyklusphasen (vgl. Abschnitt
2.2) und Gewerke (vgl. Abschnitt 2.3), unter
anderem durch Konformität zu Standards und
Marktverbreitung
Handhabbarkeit: Einfache Planung, Wartung und
Anwendung in der Praxis, unter anderem durch Installationsfreiheit,
Projektierungsfreiheit und Plugand-play-Fähigkeit
Betriebssicherheit: Beherrschung von Ausfällen und
anderen Fehlern
atp edition
1-2 / 2013
49
HAUPTBEITRAG | NAMUR-HAUPTSITZUNG
Eine weitere Anforderung ist, dass die Schnittstellen
ein Management des Workflows ermöglichen müssen.
Es muss eine klare Zuordnung der Daten zu Verantwortlichen
(owner) geben, Änderungen müssen nachvollziehbar
sein (wer hat wann was geändert?) und es
müssen diverse Stati vergeben werden können (zum
Beispiel freigegeben zum Detail Engineering oder as
built).
4. REALISIERUNGSANSÄTZE
Zur Realisierung eines integrierten Engineerings gibt es
zwei grundsätzliche Ansätze:
Entweder Schnittstellen werden vermieden, indem
man mit verschiedenen Werkzeugen oder Modulen
auf derselben Datenbank arbeitet,
oder es werden standardisierte Schnittstellen geschaffen,
über die die verschiedenen Datenbanken
der Werkzeuge Daten austauschen können.
Vorteil des ersten Ansatzes ist, dass Schnittstellen gar
nicht erst erforderlich sind. Die Integration leistet der
Anbieter der Datenbank sowie der Module, die auf diese
Datenbank zugreifen. Nachteil ist, dass man mit der
Wahl der Datenbank auf die zugehörige Werkzeugsuite
festgelegt ist. Wenn man zusätzliche Werkzeuge benötigt,
sind diese wieder Inseln oder müssen individuell per
Schnittstelle angedockt werden.
Vorteil des zweiten Ansatzes ist, dass die standardisierten
Schnittstellen eine grundsätzliche Offenheit
ermöglichen, sodass man frei wählbare Engineering-
Werkzeuge einsetzen kann – sofern sie den Schnittstellen-Standard
verwenden. Nachteil ist, dass eine solche
Standardisierung über alle Komponenten, Lebenszyklus-Phasen
und Gewerke noch nicht vorhanden ist und
einen hohen Aufwand erfordern wird. Außerdem müssen
solche Standards über Jahrzehnte stabil oder aufwärtskompatibel
sein, um die Anlagenlebensdauer
abzudecken.
Im Folgenden werden vier aktuelle Realisierungsansätze
vorgestellt. Ein Anspruch auf Vollständigkeit wird
nicht erhoben, der Autor ist dankbar für Hinweise auf
andere Ideen.
4.1 Werkzeugsuite mit zentraler Datenbank
Das in Europa wohl am weitesten verbreitete Werkzeug
mit zentraler Datenbank ist Comos von Siemens [3].
Basis ist eine relationale Datenbank mit einer objektorientierten
Abstraktionsschicht, auf die verschiedene Module
zugreifen. Diese Module decken die Prozessleittechnik
und weite Teile der Verfahrenstechnik über den gesamten
Lebenszyklus ab. Dadurch, dass alle Module auf
dieselbe Datenbank zugreifen (siehe Bild 3), ist jederzeit
die Konsistenz aller Daten gesichert. Wenn beispielsweise
eine Messstelle umbenannt wird, ist sie im R&I-Schema,
in der Messstellenliste, in der Ein-/Ausgangsliste des
Prozessleitsystems und in den Stromlaufplänen geändert.
Ein anderes Beispiel für ein Werkzeug mit zentraler
Datenbank ist Cadison [4], das seinen Schwerpunkt mehr
im Bereich der Verfahrenstechnik hat.
4.2 Schnittstelle zwischen Comos und PCS 7
Viele der für das PLS-Engineering erforderlichen Daten
liegen durch die Feldplanung bereits vor: PLT-Stellen,
Messbereiche und R&I-Fließbilder. Da liegt es nahe, die
Softwareplanung für Prozessleitsysteme ebenfalls im
PLT-Planungstool durchzuführen. Dieser Ansatz wurde
in einem Pilotprojekt von Sanofi-Aventis Deutschland
GmbH und Siemens AG verfolgt. Hierüber wurde bereits
auf der Namur-Hauptsitzung 2011 in Bad Neuenahr berichtet
(siehe Bild 4). Technische Basis ist der strukturierte
Austausch der Daten über ein gemeinsames Datenmodell
von Comos und PCS 7.
Für die Software – speziell für Chargen-Produktion
gemäß DIN EN 61512 – wurden in diesem Pilotprojekt
folgende Objekte in Comos angelegt:
Verriegelungspläne (Continuous Function Charts,
CFCs) für Control Modules (Einzelsteuerebene).
Die Funktionen wurden durch Sanofi-Aventis verbal
beschrieben und von Siemens manuell für
PCS 7 programmiert. In der Planung in Comos
werden dann die Instanzen dieser Control-Module
geplant und verdrahtet. Die Schnittstelle legt
dann entsprechende Instanzen der Bausteine mit
Verschaltungen und Verriegelung in PCS 7 an.
Ablaufpläne (Sequential Function Charts, SFCs) für
Equipment Modules. In diesen SFCs werden für jede
Betriebsart die Abläufe der Equipment-Module neutral
beschrieben. Der Compiler erzeugt die entsprechenden
Equipment-Module in PCS 7. Wenn dann
in Comos diese Equipment-Module für die konkrete
Anlage instanziiert werden, legt die Schnittstelle
entsprechende Instanzen dieser Equipment-Module
in PCS 7 an.
Zur Beschreibung der Equipment Module gehören
nicht nur die Ablaufpläne, sondern auch noch Parameter.
Im Prinzip wäre es möglich, auch die die Equipment-
Module aufrufenden Rezepte in Comos zu planen
und nach PCS 7 zu übertragen. Dies wurde im Pilotprojekt
aber noch nicht realisiert.
Die bisher im Pilotprojekt erstellten Schnittstellen-Funktionalitäten
zwischen Comos und PCS 7 sind für den
Bereich der Einzelsteuerebene bereits in den Produkten
verfügbar und werden für die Equipment Module von
Siemens demnächst als Marktprodukt freigegeben.
4.3 NAMUR-DATENCONTAINER ZWISCHEN CAE UND PLS
Die im vorigen Abschnitt beschriebene Schnittstelle
zwischen Comos und PCS 7 ist naturgemäß herstellerspezifisch.
Die Namur als Interessenverband aller PLT-
Anwender arbeitet an Vorschlägen, eine solche Schnitt-
50
atp edition
1-2 / 2013
stelle allgemeingültig zu beschreiben. Diese als Namur-
Datencontainer bezeichnete Schnittstelle soll im Jahr
2013 in einer Namur-Empfehlung veröffentlicht werden.
Die Grundidee ist in Bild 5 dargestellt: Statt eine spezifische
Schnittstelle von jedem CAE-System zu jedem
Prozessleitsystem zu entwickeln, wird ein Namur-Datencontainer
definiert, in den CAE-System und PLS Daten
hineinschreiben und herauslesen können – wobei
diese Schnittstelle auch bidirektional wirkt. Der Container
selbst speichert keine Daten, sondern ermöglicht nur
einen File-Transfer zwischen den Systemen.
Die Herausforderung wird sein, diesen Container ausreichend
detailliert zu beschreiben, damit die Schnittstellen
zu CAE-Systemen und Prozessleitsystemen im
Plug-and-play-Stil funktionieren. Andererseits muss
diese Schnittstelle breite Akzeptanz finden (alle marktgängigen
CAE-Systeme und PLS) und über Jahrzehnte
hinaus unterstützt werden.
4.4 Automation Service Bus
BILD 3: Comos von Siemens als Beispiel
eines CAE-Systems mit zentraler Datenbank
Comos von Siemens
Die bisher genannten Realisierungsansätze basieren entweder
auf einer gemeinsamen Datenbank oder beziehen
sich konkret auf die Schnittstelle zwischen CAE und
PLS. Der Automation Service Bus zielt auf das Bereitstellen
einer offenen Plattform zur Integration von heterogenen
Software-Werkzeugen für die Entwicklung von Automatisierungssystemen
[1]. An diese Plattform können
verschiedene, spezifische Werkzeuge angeschlossen
werden. Eine Engineering Data Base und eine Engineering
Knowledge Base speichern die gemeinsam verwendeten
Daten auf Projektebene. Bild 6 stellt die Grundstruktur
des Automation Service Bus dar.
Produktion
Verfahrens-Ing.
PLT-Ing.
Comos PCS 7
Compiler
Betrieb
5. RISIKEN UND CHANCEN
Die Idee eines integrierten Engineerings ist nicht neu.
Schon vor 20 Jahren gab es beispielsweise den Versuch,
eine systemneutrale Konfiguration von Prozessleitsystemen
zu entwickeln, die dann in jedes PLS hinuntergeladen
werde könnte [5, 6]. Auch werden die Engineering-
Tools mit zentralen objektorientierten Datenbanken und
darauf zugreifende Werkzeuge seit mehr als zehn Jahren
angeboten und ständig erweitert. Ein breit aufgestellter
Entwurf für die Integration des Prozessentwurfs-, Engineering-
und Betreuungsprozesses wurde bereits 2005
veröffentlicht [7, 8]. Von einem integrierten Engineering,
das die Herausforderungen von Abschnitt 2 und die Anforderungen
von Abschnitt 3 erfüllt – und letztlich die
eingangs gestellten Kernfragen bejaht – ist noch nicht
viel zu sehen.
5.1 Risiken für das integrierte Engineering
Softwareplanung
Softwareerstellung
BILD 4: Schnittstelle zwischen Comos und PCS 7
von Siemens für die Softwareerstellung
Dieser Beitrag hat verdeutlicht, dass ein integriertes Engineering
sinnvoll, der Weg dorthin jedoch nach wie vor
herausfordernd ist. Die Breite der abzudeckenden Komponenten,
Lebenszyklen und Gewerke, die Anforderungen
und die relative Begrenztheit der Realisierungsansätze
zeigen, wie groß die Aufgabe ist. Und der Blick auf
andere Schnittstellen-Standardisierungen wie beispielsweise
beim Feldbus zeigt, dass hier eine zähe gemeinsame
Anstrengung vieler Beteiligter erforderlich ist, deren
Interessen sich durchaus unterscheiden:
Unmittelbarer Nutznießer eines integrierten Engineerings
sind die Betreiberfirmen: Projekte sind billiger,
schneller und besser (siehe Abschnitt 3.2), der Übergang
von der Planungs- zur Betriebsphase erfordert keinen
Dokumentationsaufwand und Obsoleszenzprobleme
der Systeme (vergleiche [9]) lassen sich durch die geforderte
Aufwärtskompatibilität beherrschen. Aber: Wer
in den Betreiberfirmen kann und wird bei einem solchen
Entwicklungsprojekt mitarbeiten? Die einzelnen
Betriebe sicher nicht, die In-house-Engineering-Abteilungen
wohl schon, aber nur, wenn dafür Entwick-
atp edition
1-2 / 2013
51
HAUPTBEITRAG | NAMUR-HAUPTSITZUNG
Mapping
Mapping
Mapping
Mapping
Mapping
BILD 5: „Namur-Datencontainer“ zwischen CAE-Systemen
und Prozessleitsystemen. Quelle: Namur-Arbeitskreis 1.10
Tablett-PC
BILD 7: Anwendungsfall für Industrie 4.0 für den
Austausch eines Ventils (Quelle: www.samson.de)
BILD 6: Grundlegende Elemente einer
Software-Werkzeugintegration mit dem
Automation Service Bus. Quelle: [1]
lungsgelder vom Konzern zur Verfügung gestellt werden.
Einzelne Projekte werden den Entwicklungsaufwand
nicht tragen können.
Die Interessen von Engineering-Dienstleistern sind
schon nicht mehr so eindeutig. Einerseits erlauben effiziente
Entwicklungswerkzeuge eine günstige Projektabwicklung,
aber offene Standards stehen auch den Mitbewerbern
zur Verfügung und könnten Know-how-Vorsprünge
relativieren. Und: Zumindest kurzfristig gesehen
kann man auch mit dem Verkauf von Ingenieurstunden
für Datentransfers Geld verdienen.
Die Anbieter von CAE-Werkzeugen versuchen traditionell,
möglichst viele Anwendungen im eigenen Haus
anzubieten, sie tendieren also eher zu Systemen mit zentraler
Datenbank (siehe Abschnitt 4.1). Eine Offenheit
ermöglicht zwar die Ankopplung von spezialisierten
Fremd-Engineering-Systemen, ist aber keine Einbahnstraße
und ermöglicht auch anderen Anbietern, das eigene
Werkzeug als Subsystem anzubinden.
Die Anbieter von Systemen der Prozessleittechnik wie
PLS, BDIS wollen durch auf ihre Systeme spezialisierte
Engineering-Tools Vorteile vor den Mitbewerbern gewinnen:
Wenn man PLS mitunter als Commodities bezeichnet,
kann man durch effiziente Engineering-Tools punkten.
Wie groß ist dann das Interesse, das PLS-Engineering
einfach durch Compilierung der aus einem CAE-Werkzeug
heruntergeladenen Funktionsplanung zu erzeugen?
Bleiben die Verbände. Die Namur als Interessengemeinschaft
Automatisierungstechnik der Prozessindustrie
steht auf Seiten der Betreiber und treibt daher schon
seit Jahren Elemente des integrierten Engineerings voran.
Eigene Ressourcen für ein großes Entwicklungsprojekt
hat sie jedoch nicht und hängt insofern vom Engagement
ihrer Mitgliedsfirmen ab. Die VDI/VDE-Gesellschaft
Mess- und Automatisierungstechnik (GMA) verbindet
Hersteller, Betreiber und Universitäten und wäre daher
ein mächtiger und willkommener Partner.
Die Diskussion in den kommenden Monaten wird zeigen,
welche Interessengruppen mit welchen Ressourcen
das integrierte Engineering voranbringen.
5.2 Motivation Industrie 4.0
In Deutschland wird aktuell viel gesprochen von der
vierten industriellen Revolution, kurz als Industrie 4.0
bezeichnet [10]. Dieses Internet der Dinge und Dienste
und die Cyber-Physical Production Systems streben eine
Vernetzung von Prozessen, Produkten und Dienstleistungen
an. Die Durchgängigkeit des Engineerings über
den gesamten Lebenszyklus [10] wird dabei als kennzeichnendes
Merkmal dieser Strategie bezeichnet. Im
Folgenden sei ein einfacher Anwendungsfall von Industrie
4.0 durchgespielt (siehe auch Bild 7):
52
atp edition
1-2 / 2013
Ein Ventil fällt aus.
Der Schichthandwerker holt aus dem Lager ein Ventil.
Der Handwerker verbindet die CPU des Ventils
drahtlos mit seinem Tablett-PC.
Das Ventil fragt die PLT-Stellennummer ab, die es
einnehmen soll.
Das Ventil fragt die Spezifikation des technischen
Platzes ab, vergleicht sie mit den eigenen Daten (Anschluss,
Werkstoffe, Elektronik) und bestätigt, dass
es zum Ersatz geeignet ist.
Das Ventil übernimmt die Parameter des Vorgängers
aus dem Feldgeräte-Engineering-System.
Das Ventil lädt aus dem Internet die aktuelle Feldbusversion
und parametriert sich entsprechend.
Das Ventil führt einen Selbsttest durch und meldet:
„alles ok“.
Die Einbauanleitung wird von der Homepage des
Herstellers auf den Tablett-PC geladen und die Liste
der erforderlichen Werkzeuge wird angezeigt.
Das Formular für die Kalibrierung wird gedruckt.
Der Ersatz wird im W+I-System dokumentiert.
Der Ingenieur erhält eine Mail und prüft Reparatur
des alten Ventils oder Ersatzbeschaffung.
Ein solcher, im Moment noch nach Science-Fiction klingender
Anwendungsfall macht deutlich: Ohne ein
durchgängiges, während der Anlagenlebensdauer zur
Verfügung stehendes, eben integriertes Engineering
wird Industrie 4.0 in der Prozessindustrie nicht realisierbar
sein.
6. ZUSAMMENFASSUNG UND AUSBLICK
Dieser Beitrag ist ein Plädoyer für die Realisierung eines
integrierten Engineerings. Dieser Begriff wird dabei
relativ weit verstanden und auf die gesamte Planung
und Dokumentation von Prozessanlagen bezogen. Die
Integration soll alle Komponenten, alle Lebenszyklusphasen
sowie alle Gewerke umfassen. Anforderungen
an eine solche Integration wurden dargestellt und einzelne
Realisierungsansätze vorgestellt. An einem Anwendungsfall
gemäß der Methodik von Industrie 4.0
wurde deutlich gezeigt, dass hierfür eine Integration
der Engineering-Inseln zwingend erforderlich ist.
Die Idee von Integration und Schnittstellen im Bereich
von Prozessanlagen ist nicht neu. Es wird deutlich: Der
Aufwand dafür ist hoch, viel Standardisierungsarbeit
muss geleistet werden. Aber der Druck hin zu einer höheren
Wirtschaftlichkeit erzwingt den Übergang vom
manuellen zum industrialisierten Engineering-Prozess.
Und die datentechnischen Grundlagen sind mit Schnittstellen
wie XML und AutomationML gegeben. Es bleibt
die Aussage: „Integriertes Engineering – wann, wenn
nicht jetzt!“
MANUSKRIPTEINGANG
03.01.2013
Im Peer-Review-Verfahren begutachtet
AUTOR
Dr.-Ing. THOMAS TAUCHNITZ
(geb. 1957) studierte in
Hannover Elektrotechnik
und promovierte im Bereich
der Regelungstechnik. Bei
Sanofi-Aventis Deutschland
leitet er die Engineering-
Gruppe der Abteilung
Technologie der Site Frankfurt
Pharma. Er ist Vorstandsmitglied der
Namur. Arbeitsschwerpunkte sind Prozess- und
Betriebsleitsysteme, der Feldbus sowie Engineering-Systeme.
Sanofi-Aventis Deutschland GmbH,
SFP – H600, D-65926 Frankfurt am Main,
Tel. +49 (0) 69 305 41 94,
E-Mail: Thomas.Tauchnitz@Sanofi.com
REFERENZEN
[1] Biffl, S., Mordinyi, R., Moser, T.: Integriertes Engineering
mit Automation Service Bus. atp edition – Automatisierungstechnische
Praxis 54(12), S.36-43, 2012
[2] NAMUR-Empfehlung NE 139 „Informationsschnittstellen
in der Prozessautomatisierung – Betriebliche
Eigenschaften“, März 2012.
[3] Siemens: http://www.automation.siemens.com/mcms/
plant-engineering-software/de/Seiten/Default.aspx
[4] it and factory: http://www.cadison.de/
[5] Kempny, H.-P., Maier, U.: Herstellerneutrale Konfigurierung
von Prozessleitsystemen. atp - Automatisierungstechnische
Praxis 32(11), S. 529-536, 1990
[6] Scheiding, W.: Systemneutrale Konfiguration von
Prozessleitsystemen. atp - Automatisierungstechnische
Praxis 36(6), S. 55-61, 1994
[7] Tauchnitz, T.: CIPE oder: Die Zeit ist reif für eine
Integration des Prozessentwurfs- Engineering- und
Betreuungs-Prozesses – Teil 1. atp – Automatisierungstechnische
Praxis 47(10), S. 36-43, 2005
[8] Tauchnitz, T.: CIPE oder: Die Zeit ist reif für eine
Integration des Prozessentwurfs- Engineering- und
Betreuungs-Prozesses – Teil 2. atp – Automatisierungstechnische
Praxis 47(11), S. 56-63, 2005
[9] NAMUR-Empfehlung NE 121 „Qualitätssicherung
leittechnischer Systeme“, September 2008.
[10] Umsetzungsempfehlungen für das Zukunftsprojekt
Industrie 4.0 – Abschlussbericht des Arbeitskreises
Industrie 4.0. Vorabversion, 02.10.2012. Herausgeber:
Promotorengruppe Kommunikation der Forschungsunion
Wirtschaft – Wissenschaft.
www.forschungsunion.de
atp edition
1-2 / 2013
53
Deutscher Industrieverlag GmbH | Arnulfstr. 124 | 80636 München
www.di-verlag.de
Die neue Adresse für
das Wissen der Industrie:
Deutscher
Industrieverlag
Ein neues Kapitel beginnt:
Aus Oldenbourg Industrieverlag wird Deutscher Industrieverlag
Neue Zeiten erfordern neues Denken. In einer Welt des rasanten Wandels erwarten
Sie von Ihrem Fachverlag, dass er Sie schneller und umfassender als je zuvor mit allen
relevanten Informationen versorgt, die Sie für Ihre berufliche Praxis benötigen.
Wir nehmen diese Herausforderung an: Wir entwickeln uns für Sie zu einem integrierten
Medienhaus, das neben der Zeitschriften- und Buchproduktion künftig immer stärker
auch das Wissen des Fachs digital für alle Online-Kanäle auf bereitet.
Unser neuer Name unterstreicht diesen Wandel. Er verbindet unsere mehr als 150-jährige
Geschichte nahtlos mit der Zukunft.
Was sich nicht ändert: Im Mittelpunkt stehen weiterhin Sie und das Praxiswissen
Ihrer Branche. Ihre Fachkompetenz zu stärken – das ist für uns auch unter dem neuen
Namen Deutscher Industrieverlag Anspruch und Verpflichtung.
WIssEn Für DIE
ZuKunft
HAUPTBEITRAG
Anforderungsprof il von
Software wechseln
Versagenswahrscheinlichkeit bei bekannter Betriebserfahrung
Es ist möglich, aus der Erfahrung, die für Software mit der Abarbeitung bestimmter Anforderungen
in betrieblichen Umgebungen vorliegt, auf deren späteres Versagensverhalten
in anders gearteten Einsätzen zu schließen. Hierbei spielen die Pfade, in denen die Software
abläuft, eine entscheidende Rolle. Sie bilden mit den Häufigkeiten ihrer Abläufe das
jeweilige Anforderungsprofil. Sind das alte und das neue Anforderungsprofil bekannt,
lässt sich auf die Versagenseigenschaften in der neuen Umgebung schließen. Die Schlüsse
können auch die Ungenauigkeiten in den Kenntnissen der Profile berücksichtigen.
Ungenauigkeiten über das neue Profil wiegen besonders schwer. Ist dieses aber genau
bekannt und liegen entsprechend umfangreiche Betriebserfahrungen vor, lässt sich die
Erfüllung auch hoher Zuverlässigkeits-Anforderungen zeigen. Ergänzende deterministische
Verfikationsbemühungen sind immer nötig.
SCHLAGWÖRTER Betriebserfahrung / Versagenswahrscheinlichkeit pro Anforderung /
IEC 61508 / Pfadanalyse / Anforderungsprofilwechsel / Ungenauigkeiten
Changing the demand profile of software –
Failure probability and known operating experience
From the eperience with software in a specific operation environment conclusions about
its future behaviour in other environments can be drawn. In this regard the pathes that
are executed play a decisive role. The frequencies of path traversals determine the demand
profile. If both the old and the new demand profiles are known, the failure probabilities
in the new environment can be derived. The conclusions can also consider inaccuracies
in the knowledge of the demand profiles. Inaccuracies about the new profile weigh heavily.
If this profile is well known, if other pre-requisites are fulfilled to the ideal way, and
an extensive operating experience exists, it can be shown that even high reliability demands
are met. Supplementary deterministic verification efforts are always required.
KEYWORDS Operating experience / failure probability per demand / IEC 61508 /
path analysis / change of demand profile / inaccuracies
56
atp edition
1-2 / 2013
WOLFGANG EHRENBERGER, Hochschule Fulda
Bei Wiederverwendung von Softwarekomponenten
in neuer Umgebung kommt die Frage auf,
mit welchen Versagenseigenschaften zu rechnen
ist. Es geht um quantitative Aussagen, die
sich aus Betriebserfahrung bekannter Art und
Dauer herleiten lassen. Dabei wird angenommen, dass
kein grundsätzlicher Unterschied zwischen durch Betriebserfahrung
gesammelten Kenntnissen und durch
Test oder Probebetrieb gewonnenen besteht; falls die
jeweiligen Randbedingungen bekannt sind.
Ausgangspunkt sind die Pfade durch ein Programm
und deren Abläufe. Wir nehmen an, der jeweilige Pfad
liefere einwandfreie Ergebnisse oder nicht, und dies sei
nach jedem Ablauf beurteilbar. Bei nicht einwandfreien
Ergebnissen sprechen wir von einem Versagen des jeweiligen
Pfades und der zugehörigen Funktion. Die Betrachtungen
sind keine reinen Blackbox-Betrachtungen: Es
sind sogar recht genaue Kenntnisse über den Code der
betroffenen Komponente erforderlich. Dieser Beitrag gibt
einen probabilistischen Weg an, bei einfachen Software-
Teilen, genauer Dokumentation alter Einsätze und klaren
Vorstellungen über neue Einsätze das Einhalten von Anforderungen
auch hoher Sicherheitsstufen (SILs) im Sinne
der IEC 61508 [3] zu zeigen. Wird die zu beurteilende
Software so umfangreich, dass sich ihre Pfade nicht
mehr identifizieren lassen, sind mithilfe des Folgenden
keine sinnvollen Aussagen möglich.
Die Überlegungen sind hilfreich bei Software, die bereits
lange Zeit zur besten Zufriedenheit ihrer Anwender
gearbeitet hat, ohne einer formalen Verifikation unterzogen
worden zu sein: etwa Software in Smart Sensors,
CNC-Maschinensteuerungen, anderen Industrieausrüstungen
oder sonstiger Software in eingebetteten Systemen.
Interessant ist auch, ob, wann und wie aus dem
konventionellen Bereich auf einen Sicherheitseinsatz
geschlossen werden darf, also ob sich Verifikationskosten
sparen lassen. Für hohe SILs kommt das Dargestellte
in Betracht, falls die Software bereits für eine bestimmte
Anwendung qualifiziert wurde, sie aber nun
auch für eine andere verwendet werden soll, wie etwa
in IEC 61508-3-Anhang D [3] vorgesehen. Das vorliegende
Gebiet ist derzeit wichtig im Zusammenhang mit der
Neufassung des Softwareteils der IEC 61508.
Zunächst geht es hier um das in der Literatur Gefundene,
dann um das Beurteilen monolithischer Programme.
Die jeweils erforderlichen Randbedingungen werden
genannt, obgleich sie in der Literatur, etwa bei [10], [11],
[4], IEC 61508-7 [3] schon erwähnt worden sind. Behandelt
werden nur Programme, die auf Anforderung arbeiten.
Nicht behandelt wird Code, der gar nicht geschrieben
wurde, wie etwa bei Ariane [12], sowie Fragen der
Diversität, paralleler Prozesse oder von Zeitaspekten.
1. IN DER LITERATUR VERTRETENE AUFFASSUNGEN
Angesichts der Bedeutung der Schlussfolgerungen, die
sich aus Betriebserfahrung ziehen oder nicht ziehen lassen,
haben sich bereits mehrere Verfasser mit dem hier
beschriebenen Sachverhalt befasst. Littlewood und Strigini
[8] zitieren beifällig eine Auffassung der britischen
Kernenergie-Genehmigungsbehörde, nach der es unmöglich
sei, probabilistisch eine Versagenswahrscheinlichkeit
von Software nachzuweisen, die kleiner ist als 10 -4
pro Anforderung. Diese Auffassung betraf Reaktorschutzsysteme,
die aufgabengemäß auf Anforderung arbeiten
und nur selten angefordert werden. Die Meinung
wurde nicht vertreten für häufig angeforderte Funktionen,
etwa die Abspeicherfunktion eines Editors oder der
computergesteuerten Startfunktion eines Pkws.
Littewood [7] sowie Butler und Finelli [1] legen dar,
dass sich niemals hohe Zuverlässigkeit von Software
mithilfe probabilistischer Tests zeigen lasse. Sie gehen
von einer reinen Blackbox-Betrachtung aus. Dem dort
Ausgeführten wird gerne zugestimmt: Die mathematischen
Grundlagen sind sorgfältig und korrekt wiedergegeben,
ebenso die Schlüsse. Die folgenden Ausführungen
stützen sich im Gegensatz dazu nicht auf eine reine
Blackbox-Betrachtung, sondern nehmen bestimmte
Kenntnisse über den Aufbau der jeweilige Software an:
die Kenntnis ihrer Ablaufpfade. Soweit ich weiß, haben
sich bisher nur wenige Informatiker mit dem inneren
atp edition
1-2 / 2013
57
HAUPTBEITRAG
Aufbau von probabilistisch zu beurteilender Software
und den damit möglichen Schussfolgerungen beschäftigt.
Zu diesen gehören Kuball, May, Hughes [6] und
Söhnlein et al. [11]. Die von ihnen aufgeführten Einwände
gegen die Möglichkeit des Nachweises hoher Zuverlässigkeiten
per statistischem Test stützen sich in erster
Linie auf die in praktischen Fällen unerreichbar hohe
Anzahl erforderlicher Tests oder Testzeiten.
Littlewood und Wright [9] stellen sehr gründlich dar,
wie sich mithilfe statistischer Betrachtungen Zuverlässigkeitsaussagen
von Software herleiten lassen Im Gegensatz
zu diesem Beitrag betrachten sie auch den Fall,
dass Versagensfälle aufgetreten sind. Besonders bemerkenswert
ist in ihrem Aufsatz der Beweis der Äquivalenz
Bayes‘scher und frequentistischer Ansätze. Ein solcher
Nachweis findet sich auch in [11].
oberen Grenzwert, sein. Damit dies nachgewiesen
werden kann, sind n Vorbetriebsfälle erforderlich.
Dies führt zu:
ln
ln(1- ) a
n =
ln(1- ~ p)
- ~
= p p~ ; p ln
; (1)
(1) n
α heißt auch Signifikanzgrad. Die Formel (1) ist weithin
bekannt. Ihr Beweis findet sich unter anderem in [8], [4]
und [10]. Tabelle 1 enthält die Zusammenhänge nach (1)
für die wichtigsten Aussagesicherheiten.
Voraussetzung 7: Die Anforderungsbeschreibung
(Funktionale Spezifikation) der zu beurteilenden Software
ist vollständig, ausreichend detailliert und für alle
Beteiligten unmissverständlich; und zwar für die Umgebung
des Vorbetriebs und die neue Umgebung.
2. VERSAGENSWAHRSCHEINLICHKEIT PRO ANFORDERUNG
Zu beachten ist: Es gibt Versagensarten, die sich jeglicher
probabilistischer Blackbox-Betrachtung entziehen.
Wenn beispielsweise ein Programm für ein Verkehrsmittel
enthält:
Falls( (zukünftigesDatum == x) und (Zeit == y) )
verursache einen Unfall;
sind auch riesige Anzahlen von Betriebsfällen der Vergangenheit
wertlos. Hier hilft nur, sich den Code selbst
anzusehen oder einen Überdeckungstest zu machen.
Der Kürze wegen geht es im Weiteren stets um Vorbetrieb,
auch wenn zugleich Testfälle, Probebetrieb oder
Feldversuch gemeint sind.
2.1 Monolithischer Fall und allgemeine Voraussetzungen
Wir betrachten ein Programm, wie es Bild 1 darstellt.
Voraussetzung 1: Reihenfolge und Anzahl der Aufrufe
eines Programmteils haben keinen Einfluss auf das
Ergebnis eines Einzelaufrufs (Unabhängigkeit der Wirkung
der Abläufe voneinander).
Voraussetzung 2: Während des Vorbetriebs kommt jede
Eingangsdatenkombination mit der Wahrscheinlichkeit
zum Zuge, mit der sie im schließlich zu beurteilenden
Betrieb auftritt (Betriebstreue).
Weiter unten wird behandelt werden, worauf zu schließen
ist, wenn dies nicht gilt.
Voraussetzung 3: Innerhalb der Vorgabe von Voraussetzung
2 werden die einzelnen Eingabedatenkombinationen
nach Zufallsgesichtspunkten unabhängig voneinander
gewählt (Unabhängigkeit der Auswahl).
Voraussetzung 4: Die Beobachtung des Vorbetriebs ist
so gut, dass jedes Programm/Programmteil-Versagen bemerkt
wird.
Voraussetzung 5: Die Anzahl n der Vorbetriebs-Läufe
ist groß, auch bei einfachen Systemen größer als 100.
Voraussetzung 6: Es gibt keine Versagensfälle.
Es werde verlangt: Mit der Aussagesicherheit β = 1 – α
soll die Versagenswahrscheinlichkeit p ≤ , ihrem
2.2 Pfade
Das Folgende geht von den Pfaden durch ein Programm
aus, so wie sie ein üblicher Kontrollfluss-Graph aufzeigt.
Es gilt:
Definition i:
Ein Pfad besteht aus dem Code, der bei einem möglichen
Ablauf eines Programms oder Programmteils durchlaufen
wird; beginnend mit dessen Anfang,
oder ab der Stelle, ab der alle vorher begonnenen Pfade
zu Ende sind, bis zu seinem Ende,
oder bis zu der Stelle, ab der alle bisher verarbeiteten
Daten keine weitere Rolle spielen,
oder ein neuer Pfad beginnt.
Definition ii:
Ein Pfad kann aus Pfad-Abschnitten bestehen (Bild 5).
Ein Pfad an sich hat also keine Verzweigung; jede binäre
Verzweigung verdoppelt vielmehr die Anzahl aller ohne
sie bestehenden Pfade. Die Zahl der Pfade kann mit der
Anzahl der Verzweigungen eines Programms exponentiell
wachsen.
Weiterhin wird fest gehalten:
Voraussetzung 8: Die Pfade des zu beurteilenden Programms
sind bekannt und etwaige Fehler können gefunden
werden, wenn man seine Pfade ablaufen lässt. Jedes
Programm oder Unterprogramm lässt sich somit grundsätzlich
in der Form von Bild 2 darstellen.
Die Äquivalenzklassen von Eingabedaten, von denen
bei Testverfahren oft die Rede ist, lassen sich manchmal
leicht auf die Pfade abbilden. Oft führt eine Äquivalenzklasse
zu einem bestimmten Pfad oder Pfadabschnitt.
Freilich lässt sich den Eingangsdaten eines Programms
oft schlecht ansehen, welcher Äquivalenzklasse oder
welchem Pfad sie zugehören.
Das Anforderungsprofil eines Programms oder Unterprogramms
wird mithilfe der alternativen Abläufe nach
Bild 2 dargestellt. Für den Vorbetrieb ergibt sich folgende
Rechnung:
n
i
Anzahl der Abläufe des Pfades
Für jeden Pfad gilt :
~
p =
i
ln
n
i
=
i
a
n
i
(1a
)
(1a)
58
atp edition
1-2 / 2013
N
n
gesamte Anzahl aller Pfade
=
N
n
gesamte Anzahl aller Abläufe
Programm,
Programmteil
Bild Bild BILD 1: 1: 1: Programm oder oder Unterprogramm, von von links von links links
Eingangsdaten erhaltend, nach nach rechts rechts die die die zugehörigen ni
Anzahl
Ergebnisse weitergebend. Ablauf
Ablauf
Datenbewegung
Für jeden Pfad
Bild 1: Programm oder Unterprogramm, von links
Eingangsdaten erhaltend, nach rechts die zugehörigen
Ergebnisse weitergebend. Ablauf
Datenbewegung
Pfad 1
der Abläufe des Pfades i
gilt :
~
p =
i
ln
n
i
=
a
n
i
Pfad 2
(1a
)
Aussagesicherheit
β
Signifikanzgrad
α
0,999 0,001 6,9 6,9/p ~
0,99 0,01 4,6 4,6/p ~
0,95 0,05 3 3/p ~
0,90 0,1 2,3 2,3/p ~
0,63 0,37 1 1/p ~
a
Somit gilt auch:
TABELLE 1: Zusammenhang zwischen Aussagesicherheit
Bild 2
und Anzahl erforderlicher Vorbetriebsanforderungen, ~ a a
pg
= =
falls unter idealen Bedingungen und bei n Anforderungen ng
ng
kein Versagensfall aufgetreten ist.
ni
Anzahl der Abläufe des Pfades i
~ ln a
Für jeden Pfad gilt : pi
= =
(1a
)
n n
i
i
n
N
n
g
i
1 =
gesamte Anzahl aller Pfade
=
N
ni
i=
1
ni
=
n
g
N
i
i=
1
=
gesamte Anzahl aller Abläufe
Pfad i
relative Häufigkeit des Ablaufens des Pfades
, weil die Pfade zueinander exklusiv Pfad ablaufen N
i
i
=
BILD 2: 2Exklusivität der einzelnen in
ni
ia
a i 2
einem = Programm =
~
i pi
ablaufenden Pfade,
ning
Auswahl, ni
Flussdiagramm-Darstellung;
die Verzweigung selbst sei fehlerfrei
i
N
n
g
i
1 =
gesamte Anzahl aller Pfade
=
N
ni
i=
1
ni
=
n
N
i=
1
g
i
=
Somit gilt auch:
~ a a i ni
ia
a i 2
(2)
p = = = = =
~
g
i pi
n n n n n
g
gesamte Anzahl aller Abläufe
relative Häufigkeit des Ablaufens des Pfades i
, weil die Pfade zueinander exklusiv
i
g
i
g
i
2
ablaufen
Das Anforderungsprofil eines Programms charakterisiert
die Gesamtheit der jeweiligen π i . Das zeigt, dass (2)
nicht im Widerspruch zu (1) steht; es kommt bei der Gesamt-Versagens-Wahrscheinlichkeit
p g nicht auf die Anzahl
der Pfade an. Das lässt sich so veranschaulichen:
Wenn es durch ein Programm mehrere Pfade gibt, verteilt
sich der fiktive Versagensfall, der bei einem nur aus einem
Pfad bestehenden Programm diesem einzigen Pfad zugeordnet
ist, auf fiktive Teilversagensfälle der einzelnen
Pfade, deren gewichtete Summe dann auf (2) führt. Eine
Computersimulation mithilfe eines Zufallszahlengenerators
bestätigt dies.
mi
ni
mi
p gv = = = i pi
ng
ng
ni
Gilt allerdings die Voraussetzung 6 nicht, gilt auch
Formel (2) nicht; es ist vielmehr, wie die Theorie der
geschichteten Stichproben, etwa wiedergegeben in [5],
nahelegt:
mi
ni
mi
p gv = = = i pi(3)
n
(3)
g ng
ni
p gv ist hierbei der Erwartungswert der Versagenswahrscheinlichkeit
pro Anforderung des Programms, ohne
Oberschranke, m i
die Anzahl der Versagensfälle in Pfad
i, π i und n g wie oben.
(3)
m
p i
i = , wie intuitiv zu vermuten.
ni
p i = 0 für versagensfreie Pfade, Summe wieder über
alle Pfade.
2.3 Änderung des Anforderungsprofils
Falls sich die Anforderungen an ein Programm ändern,
etwa weil es an anderer Stelle für andere Aufgaben eingesetzt
p gwerden _ neu = soll, gilt
~ 2 ~
i _ neu die pFormel i _ alt (2) sinngemäß; denn zu (4)
ihrer Herleitung war keine Annahme über den Zeitpunkt
der Programmabläufe erforderlich. Die
~ ln
p i _ haben max nach wie
vor die im Vorbetrieb erhaltenen Werte, die π i ändern ni
_ min
=
n
i _ max_ neu
atp edition
1-2 / 2013
n
59
ni
ln
i _ neu i _ max_ neu
i _ min
HAUPTBEITRAG
Bild 3 :
sich aber aufgrund der neuen n i und des neuen n g . Die 2.4 Ungenaue Kenntnis der Pfadablauf-Zahlen
Obergrenze
~ 2
p g _ neu = der Gesamt-Versagenswahrscheinlichkeit
in der neuen Umgebung ergibt sich dann zu: Es kann sein, dass die Pfadablauf-Zahlen des Vorbetriebs
~
i _ neu pi
_ alt
(4)
und die des späteren Betriebs nur um δ
~ 2
p g _ neu =
~
x ungenau bekannt
i _ neu pi
_ alt (4) ni
Anzahl sind. (4) derEs Abläufe ist ratsam, des Pfades sich mit i den Wirkungen solcher Ungenauigkeiten
auseinanderzusetzen, ähnlich wie mit der
Dies gilt nur dann, wenn zutrifft:
Ungenauigkeit ~ ln a
Für jeden Pfad gilt : p physikalischer Messungen. Damit erhalten
wir nach (1a) für nidie Versagenswahrscheinlichkeiten,
ni
fils lassen sich auf die N Pfade des alten Profils abbilden, die aus dem Betrieb ermittelt werden:
i = =
(1a
)
Voraussetzung 9: Alle Anforderungen des neuen Pro-
die Abbildung wurde vorgenommen und die neuen N gesamte π i Anzahl ~ aller ln
wurden ermittelt.
~ p ln Pfade
ln
ln
p i _ max
=
i _ max
=
ni
_ min nn
(5)
i i _ i _ min n
min
i i _ min
N
Es ist ratsam, vorsichtig zu sein mit möglichen Versagens-
oder Fehler-Maskierungen, siehe Bild 3. Falls sol-
Wir nehmen ~
ln
ng
= ni
gesamte Anzahl aller
ln
Abläufe
i=
1
p beim neuen Profil für die π i das größtmögliche
ln δ i und das kleinstmögliche n δ g an und schätzen:
i _ max
=
che vorliegen, gilt (4) nicht mehr; ~ dann spielt lnmöglicher-
weise auch die Reihenfolge
p
der i _ max Abläufe der Pfade eine
n
i _ min ni
i _ min
i
(5)
n
neu
n
i =
max_
i _ neu i _ max_ neu
i _ min n
relative Häufigkeit des Ablaufens des Pfades i
Rolle und nicht nur deren Anzahl. Eine visuelle Überprüfung
des Codes sollte zeigen, dass kein solcher Ein-
i _ max_ neu
i _ max_ n i
neu
= i _ min = ni
neu
n
g
_ max_
i _ neu i _ max_ neu
ng
_ min_
ng
_ neu g _ min_ neu
= =
N
n
fluss vorliegt.
g neu
n2
1 =
_ min_ g _ neu g _ min_ neu
i = i,
weil n die Pfade zueinander
i _ neu n exklusiv ablaufen
i _ neu i _ max 2
Eine besondere Gefahr besteht, falls im Ablauf des Programms
eine Informationsreduktion stattfindet.
i _ max_ nneu
= = n n
i=
1
ni
_ max_ neu
ni
_ neu i _ max_ = neu*
2
i _ neu _ normal 2
n
g _ neu g _ min_ neu
g _ neu
i _ max_ neu
n
i _ neu
ni
_ neu i _ max
i _ neu Somit i _ max_ giltneu
auch:
2
ng
_ min_ neu
ng
_ neu g _ min_ neu
= *
Falls die Programmstruktur i _ max_ neu
= nach Bild 4 etwa = in einem
2
i _ neu _ norm
Überwachungssystem enthalten nist, g _ min_ an dessen neu
n
n
n
Ende g _ neueine
g neu
g _ min_
einfache Oder-Entscheidung steht, zum Beispiel, dass 1 neu
g _ neu g _ min_ 2 neu 2 _
~ a a i ni
ian
a i
i _
=
2 max_
i neu
n 2
p
~
g = = = = _ = i _ neu i
neu
i pi
_ max 2
n
=
= *
i neu normal
aufgrund des einen oder des anderen Überwachungsergebnisses
zu reagieren sei, mag das Ergebnis 2 von Pfadab-
ni
_ neu
n g ng
ning
2 ni
_ _
i _ neu i _ max
g _ min_ neu
1 n2
n
= *
i _ neu _ normal
n
n 1 g _ neu g _ min_ neu
g _ neu
g _ neu g _ min_ neu
g _ neu
i _
schnitt b oft unbeachtet bleiben, wenn fast immer gemäß
=
max_ neu
Die drei letzten Gleichheiten = gelten, falls stets:
Pfadabschnitt a reagiert wird und die Reaktion richtig g _ min_ neu
1
ist. Darauf hat meines Wissens zuerst Bishop [2] hingewiesen.
1 =
=
1 i _ max_ neu
i _
=
max_ neu
1
= ~
g _ min_ 2 neu
p g _ neu _ max = i _ neu _ max * p
1
i _ max
g _ min_ neu
Pfad
Pfad
~
2
p Gemeinsam
g = i _ neu _ max * p
_ neu _ max
Pfade, die über gemeinsame Daten verkoppelt sind
i
j
benutzter
Datenbereich
BILD 3: Pfade, die über gemeinsame
Daten verkoppelt sind
(
2
*
i _ max
i _ neu _ normal
2
ln
( *
~
p g _ neu _ max =
p
~
p g =
p
Pfad -
Abschnitt _ neu 1 _ max
mi
p gv 2
= ln = =
) ( ng
) ng
ni
n
i
i _ min_ alt
2
i _ neu _ normal ) ( )
n
2 i i _ min_ alt
i _ neu _ max * i _ max
Pfad 2
i _ neu
-
_ max *
Pfad -
Abschnitt 2 i _ max …
2
2 Abschnitt ln K
( * i _ neu _ normal ) (
2
2 ln
( n * ) ( n
i m~
… ln
p i
_ neu max _ normal
i = i _)
min_ alt
i pni
ni
i_ min n
i _ min_ alt (3) i
BILD 5: Mehrere aufeinander folgende Pfadabschnitte,
die jeweils zu gleichen Signifikanzgraden auf gleiche
Bild 5
ni
neu
n
Versagenswahrscheinlichkeiten _ max_
i _ neu i _ max_ neu
i _ max_ neu
=
getestet worden
=
sind.
Die Vorbetriebsanzahlen aller Abschnitte n sind
g _ min_ neu
n gleich. Die
g _ neu g _ min_ neu
Versagensmöglichkeiten lassen sich zusammenfassen.
n
n
n
g _ neu
i _ neu
2
g _ min_ neu
i _ neu
n
)
ln
i _ min
g _ neu
2
i _ max
=
2
*
Pfad-Abschnitt a
Pfad-Abschnitt b
Pfad-Abschnitt
c, logisches
Oder
Δ 1,1 1,15 1 1,2 1,32 1,5
i _
=
max_ 2 3 5
neu
=
Faktor 1,6 2 g _ 2,4 min_ neu5 7,51
32 243 3125
Bild 4 :
BILD 4: Versagensmaskierung. Es kann sein, dass meistens
nur die Ergebnisse von Pfadabschnitt a überprüft werden,
und damit ein Versagen des Pfadabschnitts b unbemerkt
bleibt oder nicht genügend oft überprüft wird.
60
atp edition
1-2 / 2013
TABELLE 2: Einfluss der Ungenauigkeiten der Kenntnis
der verwendeten Ablaufzahlen auf das Endergebnis
bei neuem Anforderungsprofil; Faktor der Vergrößerung
von ~ 2
p g _ neu zu =
~ ~ 2
p i
neu p=
i _ alt _ _ max *
(4)
g _ neu _ max nach (6). i neu pi
_ max
(
2
*
i _ neu _ normal
2
) (
n
i
ln
i _ min_ alt
)
i _ max_ neu
=
n
i _ max_ neu
g _ min_ neu
=
n
i _ neu
g _ neu
i _ max_ neu
g _ min_ neu
n
n
g _ neu
i _ neu
2
g _ min_ neu
n
i _ neu
n
g _ neu
2
i _ max
=
2
*
i _ neu _ normal
1 i _ max_ neu
g _ min_ neu
=
1
=
a
p k = pi
ni
Für den Neubetrieb erhalten wir mit (5):
Kommen mehrere, den Voraussetzungen gemäß getestete
~
2
Pfadabschnitte hintereinander vor, dann sind deren einzelne
Versagenswahrscheinlichkeiten pro Anforderung gemäß
p g _ neu _ max = i _ neu _ max * pi
_ max
2
2 ln
Formel p g_verkettet_Pfad 1 beziehungsweise = p i, oder 1a zu ~
p gleichen a und ~
g _ verkettet _ Pfad = pi
verifiziert
worden, und die gesamte Anordnung hat (5a?) die Versa-
~
( * i _ neu _ normal ) ( ) (5a)
n ip g_verkettet_Pfad i _ min_ alt = p i, oder genswahrscheinlichkeit
~
p
=
~
p
p mit der Aussagesicherheit β. i
Damit ist es möglich, den Einfluss der Ungenauigkeiten,
die mit der Beobachtung der Vorbetriebsfälle und
p g_verkettet_Pfad p = p i, oder ~
~
i pg
_ verkettet _ Pfad = pi
(7)
der Abschätzung der Neubetriebsfälle verbunden psind,
g_verkettet_Pfad = p i, oder ~
p
~
g _ verkettet _ Pfad = pi
zu berücksichtigen. Tabelle 2 gibt Beispiele. Es gilt: 2.6 Pfadabschnitte aus mehreren Anwendungen
~ 2
5 2
p g _ neu _ max = ~
i _ neu _ max * pi
_ max = *
~
i _ neuWenn _ normalnicht * p (6)
i _ alle normal Pfad-Versagenswahrscheinlichkeiten
die gleiche Aussagesicherheit haben, sondern verschiedene,
müssen ln(1- idiese )
~
5 2
* p i _ max = * i _ neu _ normal * p
i _ (6)
=
ln(1- nach j(1a) ) in die für das jeweils
ins Auge gefasste -
~
p System
i -
~
p festgelegte Aussagesicherheit
j
ln(1- i )
=
ln(1- jumgerechnet )
werden. Da es auf die für den
2.5 Mehrere aufeinander folgende Pfadabschnitte -
~
p jeweiligen ~
i - p Pfad durchgeführte Anzahl von Testläufen
j
ankommt, gilt:
ln(1-
Werden mehrere Pfadabschnitte hintereinander zusammengefügt,
etwa weil sie im Ablauf nacheinander fol-
ln(1- - p
~
i )
=
ln(1- j )
~
i )
=
ln(1i
- j ) - p j
(8)
gend, ihre Ausgangsdaten jeweils an den folgenden -
~
pi
-
~
p j
übergeben, entsteht eine Verkettung, wie sie Bild 5 zeigt.
Da ein Pfad ein möglicher Ablauf ist, geht er auch über Damit ergibt sich naturgemäß eine andere verifizierte
Unterprogrammgrenzen hinweg. Die Aneinanderreihung Obergrenze für seine Versagenswahrscheinlichkeit. Ein
der Pfad-Abschnitte ändert deren Versagenswahrscheinlichkeit
Nachtest kann erforderlich sein, denn der gesamte Pfad
nicht. Für jeden Abschnitt k des Pfades i gilt die versagt mit der Wahrscheinlichkeit, mit der sein schlech-
Versagenswahrscheinlichkeit, die er aufgrund seiner Abtester
Abschnitt versagt.
= 2 ~
i _ neu _ max
normal
läufe hat, also p k = pi
n a . Dies ist in Bild 5 mit den
i
Strichen unter den einzelnen Pfad-Abschnitten angedeutet.
CoT21
21 = 1/2
n 21
CoT11
11 = 2/3
n 11
CoT22
22 = 1/3
n 22
i _ max_ neu
CoT12
12 = 1/3
n 12
~ ln
p i _ max
=
ni
ni
_ max_ neu
n 23
ng
_ min_ neu
ni
_ neu
BILD 6: Flussdiagramm-Darstellung. Unterprogramm,
bestehend paus g_verkettet_Pfad fünf Codeteilen; 1 = p i, die i _ oder ~
max_ Ablaufhäufigkeiten
neu
=
= pg
_ verkettet _
nij jedes Codeteils wurden
g _ min_ neugezählt. 1 Daraus ergaben
verkettet_Pfad = psich i, oder die γ ij
~
p= n ij /n g . Für die Obergrenze ~
g _ verkettet _ Pfad = p der Versagenswahrscheinlichkeit
jedes Codeteils gilt gemäß (1a):
a
a
i
p
~ a
p
11j
j = mit a aus Tabelle 1. p
~ a
=
p2
2j
j= = . .
n1n
1j
j ~
nn
2 22j
j
Für jede „Zeile“ gilt p g n_
neu gesamt _ max
= i _ neu _ max * pi
_ max
=
_ min
CoT23
23 = 1/6
=
2
ng
_ neu g _ min_ neu
niZeile
(
2
*
ni
ln
ni
_ neu i _ max_ neu
ng
_ neu g _ min_ neu
i _ neu _ normal
i _ min
2
ni
_ neu i _ max
ng
_ neu
2
) (
n
ln
=
Pfad
i i _ min_ alt
)
2
*
g _ verkettet _ Pfad
~
i
2.7 Verzweigungen und Schleifen, ergänzend erforderliche
systematische Betrachtungen
Verzweigungen und Schleifen können zu einer unübersehbar
großen Zahl von Pfaden führen. Unübersehbar
zahlreiche Pfade aber machen die vorgeschlagene Vorgehensweise
unanwendbar, weil sich dann weder das alte,
noch das neue Anforderungsprofil bestimmen lässt. Systematische
Betrachtungen helfen dabei, die Verzweigungen
herauszufiltern, die keinen Einfluss auf das Ergebnis
(5)
eines Programms haben und demnach nicht beachtet
werden müssen. Im Allgemeinen ist, unabhängig von jeder
probabilistischen Betrachtung, ein vollständiger
Überdeckungstest nach mehreren der üblichen Kriterien
erforderlich. Als minimal wird angesehen: Anweisungstest,
Zweigtest, Test aller Prädikatenterme in logischen
Ausdrücken, Crash-Test, Test aller Zeiger.
i _ neu _ normal
3. BEISPIEL
= Ein ~
p Unterprogramm bestehe aus den Codeteilen CoTij
i
gemäß Bild 6.
3.1 Vorbetrieb
Wird das Unterprogramm als ein Monolith betrachtet,
so gilt gemäß (1) bei vorab ausgeführten n g = 30000 Betriebsfällen
und a = 3 entsprechend einer Aussagesicher-
(5a?)
heit von 95 %:
i )
=
ln(1-
-
~
pi
ln(1-
-
~
p j
j )
atp edition
1-2 / 2013
61
HAUPTBEITRAG
~
p i
p g_verkettet_Pfad = p i, oder
~
p
~
p i
p g_verkettet_Pfad = p i, oder
=
~
p
g _ verkettet _ Pfad
i
~
p
~
p i
g _ verkettet _ Pfad
=
~
p
i
p k =
pi
a
ni
die dem Bild 6 entnehmbaren Pfade P1 bis P6 mit den
in der Tabelle 3 angegebenen Ablaufhäufigkeiten ni verteilt.
Die π i errechnen sich ln(1- zu n i /ni
)
g und =
ln(1- die Einzel- j )
Pfad
Ablaufzahl Ablaufhäufigkeit
π i p ~
i zu 95%
Obergrenze,
Versagenswahrscheinlichkeiten ~
Code-Teile
ln(1- i )
- p
~
=
ln(1- j )
i mit den -Obergren-
zen -
p
P
n j
i
~
pi
gemäß (1a). -
~
p j
1 {CoT11,CoT21} 10 4 1/3 3*10 -4
Mit den Zahlen der Tabelle 3 erhalten wir nach (1), (1a)
~
und (2) auch
p i
2 {CoT11,CoT22} (2/3)*10 4 2/9 4,5*10 -4
6
~
4 2 ~ a 3
p _ = 10 p
g vor
g_verkettet_Pfad = * =
i p p
i = i, oder ~
~
3 {CoT11,CoT23} (1/3)*10 4 1/9 9*10 -4
6 = pg
_ verkettet. . _ Pfad = pi
(Formeln
~
4 2n
~ 30000 a 3
p ~ a
~ g _ vor =
a
p
a
p
~ ~
i10
= 1 = i * gpi
= = . (F
4 {CoT12,CoT21} (1/2)*10 4 1/6 6*10 -4
a
n 30000
1 j = 1 j =
i= 1
g
p
p2
j = .
2 j = .
5 {CoT12,CoT22} (1/3)*10 4 1/9 9*10n
-4
Sowohl die π i , als auch eventuell 6 die γ
1 j
n
ij sind während
~
42
j 2 ~ a 3
n
des Vorbetriebs p
1 j
ng2
_ j vor festzuhalten; = 10 = es gibt i * für pi
den = allgemeinen = . (F
6 {CoT12,CoT23} (1/6)*10 4 1/18 18*10 -4
Fall kein einfaches Verfahren, die π i aus nden γ 30000
i= 1
g ij zu berechnen.
~ a
p
~
6
alle Alle 3*10 4 1
1 j =
~ a
p2
n
~ 10 4
j = a
-4
2 ~ a 3
p g _ vor = 10.
=
p
1 j
1 j =
i * pi
= =
n
~ . a (Formelnummerie
n 30000
2 j i= 1
g p2
j = .
n1
j
n
TABELLE 3: Betriebserfahrung des Unterprogramms
3.2 Neue Profile 2 j
nach Bild 6 nach Pfaden (Vorbetrieb
6 Falls in einem Betriebsfall ln(1- ein neues i )
= Anforderungsprofil
ln(1- j )
~
4 2 ~ a 3
p g _ vor = 10 = i * pi
= vorliegt, = gibt . es neue π i , die (Formelnummerie
-
~
pi
dagegen -bleiben ~
p j die alten
n 30000
i= 1
g
und nach (4) gilt beispielsweise:
~ a 3
1 betr 1 = 1/6
~
4
p
1
= 3*10
-4
1 betr 1 = 1/6
~ p
1
= 3*10
-4
~ a p g _ vor3
= = 4 = 10
p g _ vor = = n
. (Formelnummerierung?)
= 10 30000
n
g . 2 betr 1 = 1/9
~
(Formelnummerierung?)
p
2 = 4,5*10
-4
g 30000
.
2 betr 1 = 1/9
~ p
2 = 4,5*10
-4
3 betr 1 = 1/18
~ p
3
= 9*10
-4
3 1/18 3
9*10 1 betr 1 = 1/6
~ p
1
= 3*10
-4
Die in Bild 6 eingetragenen Wahrscheinlichkeiten γ
3
ij
4
= = 10 geben
.
an,
~
wie groß adie relative 3 (Formelnummerierung?)
Häufigkeit
4
des Ablaufs 4 betr 1 = 1/3
~ p
4 = 6*10
-4
4 betr 1/3 4
6*10
-4
1 betr 1 = 1/6 ~ p
1
= 3*10
-4
2 betr 1 = 1/9
~ p
2 = 4,5*10
-4
30000 eines der p gCodeteile _ vor = im = Vorbetrieb = 10
2 1
n
= 1/9 war. ~ . Zunächst gelte,
(Formelnummerierung?)
30000 p
die CoT2j seien unabhängig g
5 betr 1 = 2/9
~ p
5
= 9*10
-4
6
5 betr 2/9 5
-4
2 = 4,5*10
-4
3 betr 1 = 1/18
~ p 6
3
= 9*10
-4
~
2
von den CoT1j zum Zuge
p ~
2 ~
gekommen und es seien keine Variablenwerte von einem 6 betr 1 = 1/9
~ g _ betr1p = i _ betr1 * p = 1,5* ~
i
p
6 = 18*10
-4
6 betr 1/9 g _ betr1
= i _ betr1 * pi
= 1
3 betr 1 = 1/18 ~ p
3
= 9*10
-4
i=
16
6
18*10
-4
4 betr 1 = 1/3
~ p
4 = 6*10
-4
i=
16
~
2
der CoT1j weitergegeben worden. Man hätte also das Unterprogramm
an der Stelle der zweiten Verzweigung
i=
i=
1
p
~
2 ~
g _ betr 2 = i _ betr2 * p = 4,
~
4 betr 1 1/3 4
6*10
-4
p g _ betr 2 = i _ betr2 i
* pi5
5 betr 1 = 2/9
~ p
5 betr 1 2/9 5
= 9*10
-4
6
1 betr 1 = 1/6 ~ p
1
= 3*10
-4
~
2
5
9*10
-4
6
p
~
~
2
4
auseinanderschneiden, beide Zeilen getrennt ablaufen p
~
lassen können und damit 6 betr keinen 1 1/9 g _ betr1
= i _ betr1 * p = 1,5* 10
6 betr 1 = 1/9
~ g _ betr1
= i _ betr1 * pi
= 1
Einfluss 6
auf 18*10
-4
p
6 = i 18*10
-4
2 betr 1 = 1/9 ~ p
2 = 4,5*10
-4
i=
16
i=
16
~
2
sein Versagensverhalten
ausgelöst.
~
2
1 betr 2 = 11/100
~ p
1
3*10
-4
1 betr 2 = 11/100
~ ~
4
p
~
p g _ betr 2 = i _ betr2 p = * p
1 3*10 = 4,5* -4 10 g _ betr 2 = i _ betr2 * pi
3 betr 1 = 1/18 ~ p
3
= 9*10
-4
In einem zweiten Betriebsfall i sei das Anforderungsprofil
in anderer
i=
1
i=
1
Es habe insgesamt n 4 g Vorbetriebsfälle 1 = 1/3 ~ p
4gegeben. = 6*10
-4
Mit einem
a aus Tabelle 1 und den γ ij aus Bild 6 gilt dann gemäß 2 betr 2 = 1/100 2 betr 2 = ~ Weise
p 1/100
~
2 = 4,5*10 p -4
2 = 4,5*10
geändert: -4
5 betr 1 = 2/9 ~ p
5
= 9*10
-4
6
~
2
(2) bezüglich jeder der beiden „Zeilen“ dieses Bildes für
3 betr 2 = 60/100
3 60/100 ~ p =
den Vorbetrieb:
3 9*10 -4
3 9*10 1 betr 2 11/100 1
3*10
-4
1 betr 2 = 11/100
~ p
1
= 3*10
-4
4
p
~
6 betr 1 = 1/9 ~ g _ betr1
= i _ betr1 * pi
= 1,5* 10
p
6 = 18*10
-4
i=
16
2
2
3
3
~ 2 a 2
a
4 betr 2 3~
4 ~ betr 2 = 2/100
~
3
p a2/100 2 ~ ~
~ a p g _ vor = 2 = a 1 j * 2
*
*
~ =
1 j * p1
j = 2pI
= a 2 j *
4
6*10 4
-4 6*10
-4
2 betr 2 = 1/100 ~ p
2 = 4,5*10
-4
~
2
2 betr 2 = 1/100
~ p
2 = 4,5*10
-4 4
p
~
g _ betr 2 = i _ betr2 * pi
= 4,5* 10
i=
1
6
2
p *
*
~ =
2 j * p2
j = pII
;
6
g _ vor = = 1 j ng
1 j n1
p1
j
I
2 j
2 j 2 p2
II ;
ng
n j 1 j
n
=
j = 1
5 betr 2 =
j 1 1 j
n j = 10 ~ ~
2 ~
5 betr p
0 ~
2 ~
5j
= j = 9*10 5 -4
-4
3 betr 2 = 60/100 ~ p =
p
p
1
g _ betr 2 = _ betr 2 = 3 9*10
-4
3 betr 2 = 60/100
~ p
3
= 9*10
-4
g i
i _ betr2 *_ betr2 p
*
i = 4,
p
5
i = 1
i
=
j =
4 betr 2 2/100 4
j = 6*10
-4
1
j j = 1
i = 1 (Formelnum
6 betr 26/100 (Formelnummerierung?
2
3
3
a
2
*
~ ~ 2 2
2
~
= 1~
j p1
j = p~ ~
6 betr 2 = 26/100
~ p
6 = 18*10
6
-4 18*10
-4
4 betr 2 = 2/100
~
6
5 betr 2 0 ~
2
p
4 = 6*10
-4
1 betr 2 = 11/100 ~ p ~
4
6
1
= 3*10
-4
5
9*10
-4 p g _ betr 2 = i _ betr2 * pi
= 4,5*
10
5 betr 2 = 0
~ ~
2 ~
2
3
3 i = 1 p
5
= 9*10
-4 p _ betr 2 = g i _ betr2 * p
2 betr 2 = 1/100 ~ p
a
~ 4 * ;
~ ~ pI
2 j2
a6 betr 2 26/100
g _ ~ vor = pI
4=
pII
2 2
j
.
2 j = ~ pII
2 a
2
~
n p *
1 j g _ vor = = 1 j
*
*
* ;
j = 1 pg
_ vor = pI
= pj
II
= 1 = 10 .
2 j = 1 j
6
18*10
-4
i = 1
i
2 = 4,5*10
-4
1 j = pI
= 2 j 6 betr 2 = 26/100
~
2 j p p6
2 = j = 18*10
-4
3 betr 2 = 60/100 ~ p
3
= 9*10
-4
pII
ng
n1
j = 1
j 1 j
n
=
j = 1
j = 1 2 j j = 1
4 betr 2 = 2/100 ~ p (Formelnummerierung?)
4 = 6*10
-4
6
das ergibt mit den obigen und den in Bild 6 angegebenen
(Formelnummerie
Zahlen:
5 betr 2 = 0 ~ ~
2 ~
4
p
5
= 9*10
-4 p g _ betr 2 = i _ betr2 * pi
= 4,5*
10
~
p g _ betr1
>
~
p ges _ vor
~
=10 4 p i = 1
.
6 betr 2 =
~ ~ ~ 4
26/100 ~ p
g _ betr1
>
~
p
6 = 18*10
-4 ges _ vor
~
p g _ betr1
>
~
~
p ges _ vor
pg
_ vor = pI
= pII
= 10 .
~
Wie
p
ersichtlich,
> ~
g _ betr2
p gilt gessowohl _ vor p g _ betr1
>
~
~
p ges _ vor als
p > ~
~
g _ betr2
p
auch p g _ betr2
> ~
ges _ vor
p ges _ vor; und dies bei gleichbleibender
Anforderungszahl, ~ p g _ betr2
> ~
Hängen dagegen die Berechnungen der zweiten Zeile
p ges _ vor allein aufgrund der Änderung
~
von denen der ersten ab, weil sie Ergebniswerte von ihr des Anforderungsprofils. p
~
g _ betr2
p
~
ist sogar größer als
~
verwenden, muss das Unterprogramm als Ganzes betrachtet
werden mit nicht mehr 2 beziehungsweise 3
8 ~
p
~
g8
_ betr2
p
~ I + pII
~
p
~ I + p
g _ betr2
p
~ I + pII
, obgleich beide Zeilen von Bild 6 die gleiche II
p
~
g _ betr2
p
~
Anforderungsanzahl erhalten haben, wie im Vorbetrieb!
I + pII
getrennten Pfaden, sondern 6, mit den entsprechenden
Ablaufhäufigkeiten und Versagenswahrscheinlichkeiten.
Die gesammelte Betriebserfahrung habe sich auf trachten sei, lässt sich aufgrund der Kenntnis des
Die Frage, wie das Unterprogramm von außen zu be-
Un-
62
atp edition
1-2 / 2013
8
8
vor
~
p g _ betr1
>
~
p ges _ vor
~
p g _ betr2
p I pII
~ p g _ betr2
> ~
p ges _ vor
~ +
~
terprogramms allein nicht beantworten. Die Antwort
hängt vielmehr davon ab, wie es in das oder die
aufrufende(n) Programm(e) eingebettet ist. Wird es etwa
an 5 anderen Stellen aufgerufen und da jeweils in 4
verschiedenen Pfaden, so sind insgesamt 5*4*6 = 120
Pfade zu betrachten.
3.3 Berücksichtigung von Ungenauigkeiten
Die Darlegungen des Beitrags können unter den angegebenen
Voraussetzungen dazu beitragen, Genehmigungsverfahren
zu beschleunigen. Für Einsätze mit andersartigem
Anforderungsprofil gestatten sie eine genauere
quantitative Aussage über das Versagensverhalten von
Software, als viele bisher bekannte Verfahren. Sie sind
aber nur anwendbar, wenn die Pfade durch die zu beurteilende
Software durch eine Analyse festgestellt worden
sind. Dies dürfte viele Programme von der Anwendung
der dargestellten Qualifikationsmethode ausschließen;
denn nur eine ungenau bekannte Anzahl von Pfaden
oder Zahl von Pfadabläufen führen zu einer erheblichen
Vergrößerung der für eine bestimmte neue Anwendung
vorauszusetzenden Betriebserfahrung oder schließen
dieses Verfahren gänzlich aus.
Die erforderliche Erfahrung ist für hohe SILs unter Umständen
nicht mehr zu erbringen. Kleine Programme oder
Programme, die zwar umfangreich sind, aber aus vielen
kurzen Pfaden bestehen, lassen sich, wie hier beschrieben,
mit geringerem Aufwand qualifizieren als große oder solche
mit vielen langen verschlungenen Pfaden. Es kann
sein, das dies bei kleinen Programmen zu einer Kosteneinsparung
in Genehmigungsverfahren führt, beispielsweise
um von SIL2 ausgehend SIL3 nachzuweisen
Für hohe SILs kommt das Verfahren vor allem dann in
Betracht, wenn ein bereits sicherheitsqualifiziertes Programm
für eine neue Aufgabe eingesetzt werden soll,
etwa gemäß 61508-3-D.
Unter ungünstigen Bedingungen können die verlangten
Analysen und Nachweise über Vorbetriebszeiten so
arbeitsintensiv werden, dass die probabilistische Verifikation
nicht empfehlenswert ist und das zu beurteilende
Programm eher mit deterministischen Mitteln verifiziert
wird. Angesichts der zahlreichen und sehr einschränkenden
Voraussetzungen, die für die Anwendung des
Dargestellten eingehalten werden müssen, ist es für große
und komplizierte Programme nicht einsetzbar.
Nach meiner Auffassung besteht keine Gefahr, die hier
beschriebene Vorgehensweise könnte Beweise oder analysebasierte
Tests überflüssig machen; sie kann sie aber
ergänzen und zu einer zahlenmäßigen Erfassung von
Zuverlässigkeitseigenschaften von Software beitragen,
ähnlich der bei Hardware üblichen.
~
p g _ betr1
>
~
p ges _ vor
~ +
~
~
p g _ betr2
p I pII
Weiteren Untersuchungen bleibt vorbehalten, unter
welchen Umständen es sinnvoll ist, mit Äquivalenzklassen
statt mit Pfaden zu arbeiten, und wann sich eine
Verknüpfung der Betrachtung von Datenströmen mit der
von Ablauf-Pfaden anbietet.
MANUSKRIPTEINGANG
07.04.2012
REFERENZEN
AUTOR
Im Peer-Review-Verfahren begutachtet
Wären die beteiligten Ablaufhäufigkeiten nur ungenau
bekannt, wie bei der Herleitung von (6) angenommen, [1] Butler, R.W., Finelli, G.B.: The Infeasibility of Quantifying the Reliability of
ergäbe sich für den Betriebsfall 2 bei einem =1,1:
~
p g _ betr 2 = Life-Critical 7,2*10 -4 Real-Time Software; IEEE Transactions on Software Engineering
=1,1:
~
p g _ betr 2 = 7,2*10 -4 statt des obigen Werts.
9(1), S. 3-12, 1993
[2] Bishop, P.G., Esp, D.G., Pullen, F.D., Barnes, M., Humphreys, P., Dahll, G., Bjarlan,
B., Lahti, J., Valisuo, H.: STEM – A Project on Software Test and Evaluation Methods.
FAZIT
In: Proceedings Safety and Reliability Symposium SARS 87, S. 100-117. 1987
[3] DIN/ISO/IEC 61508: Functional Safety of electrical/electronic/ programmable
electronic safety-related systems, 7 parts, 2010
[4] Ehrenberger, W.: Software-Verifikation – Verfahren für den Zuverlässigkeitsnachweis
von Software, Hanser Verlag, 2002
[5] Heinhold, J., Gaede, K.-W.: Ingenieurstatistik, S. 324-334. Oldenbourg Verlag, 1972.
[6] Kuball, S., May, J., Hughes, G.: Structural Software Reliability Estimation.
In Proceedings Safecomp 99, S. 336-349. Springer, 1999.
[7] Littlewood, B.: Eingeladener Vortrag Safecomp 85, Como/Italy, persönliche
Mitteilung
[8] Littlewood, B., Strigini, L.: Validation of Ultra-high Dependability for Softwarebased
Systems. Communications of the ACM, 36(11), 69-80, 1993
[9] Littlewood, B., Wright, D.: Some Conservative Stopping Rules for the Operational
Testing of Safety-Critical Software. IEEE Transactions on Software Engieering
23(11), 673-683,1997
[10] Söhnlein, S.: Quantitative Bewertung der Softwarezuverlässigkeit komponentenbasierter
Systeme durch statisische Auswertung der Betriebserfahrung. Dissertation
Friedrich-Alexander-Universität Erlangen Nürnberg, Oktober 2010
[11] Söhnlein, S., Saglietti, F., Meitner, M., Bitzer, F.: Auswertung der Betriebserfahrung
zum Zuverlässigkeitsnachweis von Softwaresystemen am Beispiel einer Getriebesteuerung.
atp edition - Automatisierungstechnische Praxis 52(6), 32-39, 2010
[12] Weyand, C.: Ariane 5 - Luftfahrt, Berühmt–berüchtigte Software–Fehler
http://formal.iti.kit.edu/~beckert/teaching/Seminar-Softwarefehler-SS03/
weyand.pdf, 2003
Professor e.m. Dr.-Ing. WOLFGANG
EHRENBERGER (geb. 1941) hat an der Hochschule
Fulda Software Engineering gelehrt
und an der DIN/ISO/IEC 61508 mitgearbeitet;
er kommt ursprünglich von der Gesellschaft
für Reaktorsicherheit.
Hochschule Fulda,
Angewandte Informatik,
D-36039 Fulda, Tel. +49 (0) 661 964 03 25,
E-Mail:
wolfgang.d.ehrenberger@informatik.hs-fulda.de
atp edition
1-2 / 2013
63
HAUPTBEITRAG
OPC UA and ISA 95
Interoperability for MES by implementing ISA 95 with OPC UA
ISA 95 bietet ein Informationsmodell, das Materialien, Personal, Equipment, technische
Anlagen, und andere Information auf der Ebene des Produktionsprozessmanagements
repräsentiert. OPC UA offeriert eine verlässliche Kommunikationsinfrastruktur. Die Fähigkeiten
zur Informationsmodellierung von OPC UA ermöglichen die generische und
konfigurierbare Repräsentation der ISA 95-Information und den schnellen synchronen
Datenaustausch, wie er für Produktionsabläufe erforderlich ist. Dieser Artikel beschreibt
einen Ansatz zur Abbildung von ISA 95 nach OPC UA, der den interoperablen Informationsaustausch
ermöglicht.
SCHLAGWÖRTER ISA 95 / OPC UA / Interoperabilität / Informationsmodellierung / MES
OPC UA and ISA 95 –
Interoperability for MES by implementing ISA 95 with OPC UAh
ISA 95 provides an information model representing materials, personnel, equipment,
physical assets and other information on the level of Manufacturing Operations Management.
OPC UA offers a robust and reliable communication infrastructure. OPC UA’s rich
information modeling capabilities can be used to represent ISA 95 information in a generic
and configurable way that allows for high-speed synchronous data exchanges required
for manufacturing workflows. This paper introduces an approach mapping ISA 95 information
into OPC UA allowing an interoperable manner of information exchange.
KEYWORDS ISA 95 / OPC UA / Interoperability / Information Modeling / MES
64
atp edition
1-2 / 2013
DENNIS BRANDL, BR&L Consulting
PAUL HUNKAR, DSInteroperability
WOLFGANG MAHNKE, ABB
TOSHIO ONO, Yokogawa
Automation does not end with equipment control;
it also includes higher levels of control
that manage personnel, equipment, and materials
across production areas. Effectiveness in
manufacturing companies is not based solely
on equipment control capability. Manufacturing companies
must also be efficient at coordinating and controlling
personnel, materials, and equipment across different
control systems in order to reach their maximum potential.
This coordination and control must occur in at least
four different parts of an organization; production, quality
tests and test labs, warehousing and inventory management,
and maintenance.
This coordination and control is often supported
by Manufacturing Execution Systems (MES) for management
of production operations, Laboratory Information
Management Systems (LIMS) for quality
tests and test lab management, Warehouse Management
Systems (WMS) or Tank Farm Management
systems for management of inventory operations, and
Asset Management or Computerized Maintenance
Management Systems (CMMS) for maintenance operations.
These systems together are collectively
called Manufacturing Operations Management
(MOM) systems. MOM defines a diverse set of functions
that operate above automation control systems,
reside below the level of enterprise business systems
and are local to a site or area.
1. OVERVIEW ON TECHNOLOGIES
1.1 ISA 95
The ANSI/ISA 95 Enterprise/Control System Integration
standard [1], also released as IEC 62264 [2], defines five
levels of activities in a manufacturing organization. Generally,
automation and control support Levels 1 and 2,
MOM systems support Level 3, and business Enterprise
Resource Planning (ERP) systems support Level 4 activities.
The ISA 95 levels are shown in Figure 1.
Level 0 defines the actual physical processes.
Level 1 elements are the sensors and actuators attached
to the control functions in automation systems.
Level 2 automation and control systems have realtime
responses measured in sub-seconds and are
typically implemented on Programmable Logic Controllers
(PLC), Distributed Control Systems (DCS),
and Open Control Systems (OCS).
Level 3 typically operates on time frames of days,
shifts, hours, minutes, and seconds. Level 3 functions
also include maintenance functions, quality
assurance and laboratory functions, and inventory
movement functions, and are collectively called Manufacturing
Operations Management. A wide variety
of systems support the Level 3 activities, including
SCADA (Supervisory Control and Data Acquisition)
systems for monitoring the process and providing
operator control, batch control systems for
execution of recipes, data historians for the collection
and preservation of time based data from Level
2 systems, recipe and document management systems
for managing recipes and workflow instructions,
detailed scheduling, campaign management
or work dispatching, and work or product tracking.
Level 4 is called Business Planning and Logistics.
Level 4 typically operates on time frames of months,
weeks, and days. Enterprise Resource Planning
(ERP) logistics systems are used to automate Level 4
functions.
It is important to remember that each level has some form
of control and each level has its own definition for realtime.
Level 3 systems consider real-time to mean information
available a few seconds after shop floor events
occur. Level 4 systems consider real-time to mean that
logistics and material information is available daily or
within a few hours after the end of a shift.
This paper deals with information exchange across Level
3 systems or between Level 2 and Level 3 systems.
Specifically this would involve information exchange
atp edition
1-2 / 2013
65
HAUPTBEITRAG
between MES, WMS, LIMS, AM, PLC and DCS systems.
This information exchange in real-time, often requiring
transaction times measured in seconds or subseconds, in
order to allow workflows and recipes to execute in a timely
manner. ISA 95 defines four primary types of information
that often must be exchanged among MOM systems
and between ERP systems and MOM systems, these types
are; information about material and the properties of materials,
information about equipment as it pertains to the
operations being performed, information about the physical
assets that make up the equipment, and information
about personnel and their roles and qualifications.
Material Class, Material Definition, Material Lot, Material
Sublot, and Material Test Information – This is the
definition of the lots, sublots, material definitions, and
material classes involved in production. This information
allows Level 3 and Level 4 systems to unambiguously
identify material specified in production schedules
and consumed or produced in actual production.
Equipment Class, Equipment, and Capability Test Information
– This is the definition of the roles that equipment
and equipment classes perform in production, inventory
management, and quality test labs. This information
may be used to associate production with specific
equipment as part of a production record, or with
equipment classes to schedule production and allocate
costs.
Physical Assets, Physical Asset Classes, and Physical
Asset Capability test information – This is an identification
of the specific physical asset (by serial number or
asset ID) used in manufacturing operations. It also includes
the make and model information that identifies the
type of physical asset and its properties.
Personnel Class, Person, and Qualification Test Information
– This is the definition of the persons and personnel
classes (roles) involved in production. This information
may be used to associate production with specific
persons as part of a production record, or with personnel
classes to allocate production costs.
1.2 OPC UA
Classic OPC – the predecessor of OPC UA – is used to
provide interoperable data exchange in automation between
components of potentially different vendors. It is
focusing on the second level defined by ISA 95 (see Figure
1). With over 15.000 OPC products on the market
from more than 2.500 companies [3] it is very well accepted
and applied and almost every system targeting industrial
automation implements classic OPC. With its
flavors OPC DA (data access), A&E (alarms and events)
and HDA (historical data access) it allows exchanging
current, real-time related data and their history, as well
as alarms and events between automation components
like controllers and HMI (human machine interface)
running on a Windows based PC.
OPC UA (unified architecture, [4]) unifies these specifications
and brings them to state-of-the-art technology
with a service-oriented architecture (SOA). By switching
the technology foundation from Microsoft’s COM/DCOM
to web service technology OPC UA becomes platformindependent
and can be applied in scenarios where classic
OPC cannot be used. OPC UA can directly be deployed
to controllers and intelligent devices without the
need for a Windows-based PC to expose the data, as in
classic OPC. It can also be seamlessly integrated into
MOM and ERP systems running on UNIX / Linux. It still
fits very well in the Windows-based environment where
classic OPC lives today.
Level 4
Business Planning
& Logistics
Plant Production Scheduling,
Operational Management, etc
4 - Establishing the basic plant schedule -
production, material use, delivery, and shipping.
Determining inventory levels.
Time Frame
Months, weeks, days, shifts
FIGURE 1: ISA 95 Activity
Levels in a Manufacturing
organization
Level 3
Manufacturing
Operations Management
Dispatching Production, Detailed Production
Scheduling, Reliability Assurance, ...
3 - Work flow / recipe control to produce the
desired end products. Maintaining records and
optimizing the production process.
Time Frame
Shifts, hours, minutes, seconds
Level 2
Level 1
Manufacturing Control
Basic Control, Supervisory Control,
Process Sensing, Process Manipulation,…
2 - Monitoring, supervisory control and automated
control of the production process
1 - Sensing the production process, manipulating
the production process
Level 0
Production Process
0 - The physical production process
66
atp edition
1-2 / 2013
OPC UA provides a robust and reliable communication
infrastructure having mechanisms for handling lost
messages, failover, heartbeat, etc. With its binary encoded
data it offers a high-performing data exchange
solution. Security is built into OPC UA as security requirements
become more and more important especially
since environments are connected to the office network
or the internet and attackers are starting to focus on automation
systems [5].
In addition, OPC UA provides powerful information
modeling capabilities. Unlike classic OPC with a very
basic model, OPC UA provides the ability to define types
and add semantic information to the data exchanged.
With these capabilities OPC UA offers a high potential
for becoming the standardized communication infrastructure
for various information models. Several information
models are already defined based on OPC UA
making use of the generic and powerful meta model of
OPC UA. This includes models for:
the IEC 61131-3 programming model [6] used to
program control applications;
a model for analyzer devices [7];
a base model used by FDI (field device integration),
OPC UA has built-in support allowing several
different standardized information models to be
hosted in one OPC UA server [8].
OPC UA is easily scalable. It can be applied on embedded
devices with limited hardware resources as well as on
very powerful machines like mainframes. Of course, an
application running on limited hardware can only provide
a limited set of data to a limited set of partners
whereas an application running on high-end hardware
can provide a large amount of data with several decades
of history for thousands of clients. The information modeling
capabilities also scale. An OPC UA server might
provide a very simple model or a very complex model
depending on the application needs. An OPC UA client
can make use of the model or only access the data it needs
and ignore the meta data accessible on the server.
2. MOTIVATION
MOM systems must often share definitions about resources:
personnel, equipment, materials, and physical
assets. This is needed to uniquely identify the resource
and to verify that it is qualified or appropriate for the
task to be performed, such as a material status that indicates
that a material has been released for use in production.
ISA 95 provides a standard framework to describe
this information model for exchange, but ISA 95
does not define a mechanism to exchange this information.
MESA International defined B2MML [9] as a transport
for exchanging ISA 95 based information, but this
information exchange is for periodic Level 3/Level 4
exchanges, not for sub-second based data exchange.
OPC UA provides an infrastructure for defining information
models in a standard manner and for exchanging
the data associated with the information model in a
secure reliable real-time manner. OPC’s typical applications
are for integrating Level 2 and Level 3. By adapting
the ISA 95 Information model to OPC UA, the
ISA 95 information model can be extended to Level 2.
In addition it allows the information represented by ISA
95 models to be exchanged using OPC UA on Level 3. It
provides services to query, browse, and update this information
in a controlled manner in a highly efficient
communication protocol.
The following subsections summarize the information
that needs to be exchanged.
Sharing Material Information
Manufacturing requires materials. It is not surprising
that manufacturing systems have a requirement to identify
and track materials because the main purpose of
manufacturing is to convert materials in one form into
materials of another form. An important part of MOM
integration is maintaining and exchanging material
identification and information.
MES identify materials and their suitability for use,
batch management systems confirm that the correct
materials are used as specified in the recipes,
tracking and tracking systems (bar-code scanners
and RFID readers),
LIMS confirm that the correct materials are tested
and the correct materials are used in testing,
WMS identify materials in their storage locations.
Shared material information can be divided into
three main categories;
material class information identifies the materials
without regard to the source of the material,
material definition information identifies material
from specific vendors or sources,
material lot information identifies actual material,
its location and quantity.
Sharing Equipment Information
One important element of managed information is the
correct identification of the equipment used for manufacturing.
Equipment identification is used for:
scheduling,
tracking and tracing,
maintenance,
troubleshooting,
visualization (HMI),
capacity tracking,
OEE (Overall Equipment Effectiveness) calculations.
Unfortunately, it is not uncommon for a manufacturing
company to have multiple identifications for a single piece
of equipment. Therefore, a critical aspect of equipment
information management is managing different
equipment ID’s across multiple vendor systems and applications.
Sharing Physical Asset Information
Identification of a unique physical asset, irrespective of
the role the equipment is performing is vital for:
atp edition
1-2 / 2013
67
HAUPTBEITRAG
maintenance,
equipment qualification and regulatory compliance,
financial asset tracking
Each physical asset has a vendor serial number that is
needed for financial tracking and maintenance contracts.
Vendor serial numbers are not unique, so each
physical asset is usually given a unique company-specified
financial asset tag number. The financial asset tag
number is maintained in a financial system and may not
be compatible with maintenance system identifications.
Usually differences are in the number of characters or
numbers used and the naming rules required by the applications.
Therefore, maintenance systems often have a
separate maintenance tag that is added to the physical
asset. In the case of small equipment, the three separate
identification tags and vendor make and model information
can cover most of the equipment’s surface area. All
of these different identifications often require that a system
can quickly determine if a physical asset is qualified
for production, and to obtain the physical asset identification
for any regulatory records.
Sharing Personnel Information
Multiple regulatory rules, laws, and internal procedures
require that personnel who perform shop floor actions are
unequivocally identified, are authorized to perform the
actions, and have valid training or qualifications to perform
the actions. Because personnel information is usually
maintained in multiple IT and control systems, it is a key
area of exchanged information. Specific uses in different
systems that require coordination and sharing include:
MES Personnel qualification to be checked before
someone is allowed to take an action
LIMS Identification of approved personnel to perform
tests and handle materials, often based on their
training qualifications,
AM Certification information about personnel performing
maintenance activities to ensure that they
have the proper training required by the activity,
WMS Certification that personnel are trained and
qualified to handle material movement systems,
such as fork trucks or crane systems.
3.1 Modeling Approach of ISA 95
The ISA 95 modeling approach to information is based
on a “Property” model. The ISA 95 models define a
minimum set of industry-independent information as
attributes. Industry specific, application specific, and
company specific information are represented as property
objects. For example, the personnel class property
would be used to define application or industry
specific attributes for personnel classes, and person
property would be used to contain instance values for
the properties.
In the ISA 95 resource models there are “Classes”
and “Instances”. The word “Class” used as part of an
object definition name should be considered as a category,
not as a “Class” in the official UML Modeling
definition. For example: “Personnel Class” should be
considered a “Personnel Category”, because it is used
to distinguish between the kinds of personnel in the
real world and to define properties that would be common
to personnel within the same category. The Figure
2, from ANSI/ISA 95.00.02, is the Personnel object
model. Each instance of the Personnel Class defines a
role that a person can perform, such as a Draftsman.
Each role may have specific properties, such as a Drafting
License Number and a License Expiration Date.
Each Person can be associated to one or more Personnel
Class Roles. If the person is Draftsman, then the Person
Properties define the values for the Drafting License
Number and License Expiration Date for that person.
The Qualification Test Specification identifies a test
that may be associated with determining the value for
a property (such as a test for Draftsman used to obtain
a Drafting License Number.) The information obtained
from taking the test can be modeled in the Qualification
Test Result.
This modeling approach for ISA 95 means that properties
must be able to be dynamically queried and browsed.
The properties available for individual objects will be
different, for example in Figure 3, Joe Smith has a Drafting
License Number, but Sally Jones does not. The OPC
UA modeling approach provides the flexibility to have
the dynamic data discovery required for Level 3 communications.
3. MAPPING ISA 95 TO OPC UA
After relating the benefitis of implementing the ISA 95
model with OPC UA and describing the information to
be exchanged this section focuses on how the mapping
can be done. To generate a mapping of the ISA 95 information
model to an OPC UA information model, first the
information model available in ISA 95 has to be understood.
This is described in section 3.1. The information
modeling capabilities of OPC UA as base of the mapping
are described in section 3.2. The mapping approach is
defined in section 3.3, and details as well as examples
given in sections 3.4 and 3.5. Section 4 describes an implementation
of the mapping in order to verify the efficiency
of the proposed mapping.
3.2 Modeling Approach of OPC UA
The basic information modeling principles of OPC UA
are (taken from [3]):
Using object-oriented techniques including type hierarchies
and inheritance. Typed instances allow
clients to handle all instances of the same type in
the same way. Type hierarchies allow clients to work
with base types and to ignore more specialized information.
Type information is exposed and can be accessed
the same way as instances. The type information is
provided by the OPC UA server and can be accessed
with the same mechanisms used to access instances.
68
atp edition
1-2 / 2013
FIGURE 2: Class
Diagram of ISA 95
[from ANSI/ISA
95.00.02]
FIGURE 3: Example
of a personnel class
instances and
person instances
BaseNode
+NodeId : NodeId
+NodeClass : NodeClass
+BrowseName : QualifiedName
+DisplayName : LocalizedText
+Description : LocalizedText
FIGURE 4: Modeling concepts of
OPC UA – the OPC UA meta model
Object
+EventNotifier : Byte
Variable
+Value
+DataType : NodeId
+ValueRank : Int32
+ArrayDimensions : Int32
+AccessLevel : Byte
+UserAccessLevel : Byte
+MinimumSampleInterval : Int32
+Historizing : Boolean
Method
+Executable : Boolean
+UserExecutable : Boolean
View
+ContainsNoLoops : Boolean
+EventNotifier : Byte
ObjectType
+IsAbstract : Boolean
ReferenceType
+IsAbstract : Boolean
+Symmetric : Boolean
+InverseName : LocalizedText
VariableType
+Value
+DataType : NodeId
+ArraySize : Int32
+IsAbstract : Boolean
DataType
+IsAbstract : Boolean
atp edition
1-2 / 2013
69
HAUPTBEITRAG
Full meshed network of nodes allowing information
to be connected in various ways. OPC UA allows
supporting various hierarchies exposing different
semantics and references between nodes of those
hierarchies. The same information can be exposed
in multiple ways depending on the use case.
Extensibility regarding the type hierarchies as well
as the types of references between nodes. OPC UA is
extensible in several ways regarding the modeling
of information. In addition to the definition of subtypes
of nodes it allows the definition of additional
types of references between nodes and the definition
of methods extending the functionality of OPC UA.
No limitation on how to model information in order
to allow an appropriate model for the provided data.
OPC UA servers targeting a system that already contains
a rich information model can expose that model
“natively” in OPC UA instead of mapping the
model to a different model.
OPC UA information modeling is always done on the
server-side. OPC UA information models always
exist on OPC UA servers, not on the client. They can
be accessed and modified from OPC UA clients. An
OPC UA client is not required to have an integrated
OPC UA information model and it does not have to
provide such information to an OPC UA server.
Those principles support very basic as well as very complex
and powerful information models such as ISA 95.
In Figure 4, the base concepts of OPC UA – the meta
model – are summarized. There are different node classes
for different purposes. Nodes are connected by references.
Node classes represent objects for structuring
the address space, methods, and variables containing
data. Node class attributes are described in the figure.
OPC UA defines a UML-like notation for modeling
OPC UA address spaces. Figure 5, illustrates the modeling
notation and concepts. The notation illustrates the
object, variable and data type symbols as well as object
type, variable type and reference type. The example
shows one object type called MyType inheriting from
the OPC UA defined BaseObjectType. It uses the Has-
PersonType
Personnel Class Type
Notation
Supervisor
Professional Engineer
Operator
Object
ObjectType
HasComponent
BelongsTo Personnel Class
BelongsTo Personnel Class
BelongsToPersonnel Class
HasProperty
Sally Jones
Variable
VariableType
HasSubtype
DataType
ReferenceType
HasTypeDefinition
Other Reference Types
(name written on it)
FIGURE 6: Mapping of ISA 95 to OPC UA
Classes and Instances (Alternative One)
Example
BaseObjectType
BaseDataVariableType
MyInstance
MyType
MyCounter
MyCounter
PersonType
Personnel Class Type
FIGURE 5: Example and
Notation of OPC UA modeling
Sally Jones SupervisorType Professional EngineerType Operator Type
Personal
Class Folder
Supervisor
Professional Engineer
Operator
FIGURE 7: Mapping of ISA 95 to OPC UA
Classes and Instances (Alternative Two)
70
atp edition
1-2 / 2013
Subtype reference. MyType contains a variable called
MyCounter, referenced by a HasComponent reference.
Variables, objects and methods on types are called instance
declarations and define the structure of the types.
That means that instances of MyType also have a variable
called MyCounter. As variables are typed as well,
they reference to the OPC UA defined BaseDataVariableType.
Variables have data types assigned to them defining
the data type of the value of the variable. This can
be built-in data types like Int16 or Boolean but also userdefined
data types.
Those concepts allow the definition of object types
with a specific structure and semantic, as well as reference
types with specific semantic.
3.3 Mapping Approach
When mapping the ISA 95 model to OPC UA typically
the same mapping rules should be applied when mapping
similar ISA 95 structures. However, sometimes the-
re are several useful mapping alternatives and it is more
effective to have different mappings depending on the
expected use of the models.
In the following, the rules and potentially alternatives
are described.
ISA 95 Properties
ISA 95 properties are mapped to OPC UA variables. That
means that for each UML class representing Properties
(e.g. Person Property in Figure 2) an OPC UA variable
type is created (inheriting from a variable type ISA95PropertyType).
Instances of the ISA 95 properties are instances
of the specific type, referenced by a HasISA95Property
reference.
ISA 95 Classes
As described in section 1.1, ISA 95 classes are used for
categorization rather than in the object-oriented sense
of class and instance. That means each class has some
ISA 95 properties assigned to it and each instance assigned
to the class contains at least the properties in
ISA-95 Base Information Model
ISA95Asset
AssignmentType
ISA95
ClassPropertyType
ISA95
PropertyType
ISA95
TestResultType
FIGURE 8: OPC UA ISA95
Architecture Sample
::
ISA95ClasspropertyType
HasISA95
ClassProperty
TestResult
HasISA95
Property
::
ISA95PropertyType
ISA95ClassType
ISA95Test
SpecificationType
ISA95ObjectType
HasISA95
ClassProperty
HasISA95
Property
ISA-95 Common Object Model Example
EquipmentClassType
EquipmentCapabilityTestSp
ecificationType
EquipmentType
AssetAssignment::
ISA95AssetAssignmentType
::
EquipmentType
MadeUpOf
Third Party Model Example
HeatingReactor
ClassType
ThirdPartyEquipmentTestSp
ecificationType
ReactorType
HasISA95
ClassProperty
HeatingTime::
ISA95ClassPropertyType
BelongsTo
HeatingTime::
ISA95PropertyType
HasISA95
Property
Third Party Instance Example
HeatingReactorClass
BelongsTo
HR1001
HasISA95
ClassProperty
HeatingTime::
ISA95ClassPropertyType
HeatingTime::
ISA95PropertyType
HasISA95
Property
MadeUpOf
FIGURE 9: OPC UA ISA 95 Server Address Space
TestSpecifications::
BaseObjectType
ConformsTo
ReactorHeatingTimeTest::
ThirdPartyEquipmentTestSpecificationType
OtherTestSpecifications::
ThirdPartyEquipmentTestSpecificationType
TS1001::
EquipmentType
EquipmentOf
TS#1234::
PhysicalAssetType
atp edition
1-2 / 2013
71
HAUPTBEITRAG
the class. An instance can have several classes and thus
all their properties.
Each ISA 95 concept representing a class (e.g. Personnel
Class in Figure 2) is mapped to an OPC UA object type.
There are two alternatives how to map the concrete class
(i.e. instances of Personal Class).
Map them to OPC UA objects (see Figure 6)
Map them to OPC UA object types and objects (see
Figure 7)
The first approach is the direct mapping from the ISA 95
model. Each instance fulfilling the class would reference
the object and clients aware of the ISA 95 model would
be able to interpret it. However, it does not make use of
the OPC UA type model and it would be hard for generic
clients to interpret and program against (e.g. it would
require a specific user interface that understood all of
the Operator properties for a person). A more generic
approach is shown in Figure 7, which defines subtypes
of the object type containing all properties and the instances
contain instances of the subtypes. Both alternatives
can make sense, depending on the expected use.
ISA 95 Objects
The ISA 95 Objects are mapped to OPC UA object
types and object instances. Therefore each UML class
modeling instances (e.g. Person in Figure 2) is mapped
to an OPC UA object type and the instances are
instances of that type. Depending on the mapping of
the ISA 95 class it either references the object or contains
an instance of the object type. In both cases it
contains all properties of the classification (see Figure
6 and Figure 7).
ISA 95 Relations
ISA 95 relations (e.g. from Person to Qualification Test
Specification) are mapped to OPC UA references. In oder
to expose the specific semantic new OPC UA reference
types need to be defined. However, this is a fixed set of
new reference types.
Implementation of the Mapping
The overall architecture of the model has been completed
and is illustrated in Figure 8. It includes the physical
asset and equipment models, their interactions with test
specification and personal models. The equivalent material
handling models are not shown.
REFERENZEN
AUTOREN
[1] ANSI/ISA-95.00.01: Enterprise-Control System
Integration - Part 1: Models and Terminology, 2010
[2] IEC 62264-1: Enterprise-control system integration
– Part 1: Models and terminology, Edition 1.0,
March 2003
[3] Mahnke, W., Leitner, S.-H., Damm, M.: OPC Unified
Architecture, Springer, 2009
[4] IEC 62541-1: OPC Unified Architecture - Part 1:
Overview and Concepts, February 2010
[5] Greenfield, D.: The Stuxnet Effect on Cyber Security,
Automation World, March 2012
[6] PLCopen and OPC Foundation: OPC UA Information
Model for IEC 61131-3, Version 1.00, March 2010
[7] OPC Foundation: OPC Unified Architecture Companion
Specification for Analyser Devices, Version 1.00,
October 2009
[8] OPC Foundation: OPC Unified Architecture for
Devices (DI), Version 1.00, December 2009
[9] WBF: Business To Manufacturing Markup Language
- B2MML , Version 0500, March 2011
DENNIS BRANDL (born in 1951) is the founder and
chief consultant for BR&L Consulting, specializing
in Manufacturing IT applications, including
Business-to-Manufacturing Integration, MES
solutions, General and Site Recipe implementations,
and automation system security. He has
been involved in automation system design and
implementation in a wide range of applications
over the past 25 years. Dennis has been an active
member of the ISA 95 Enterprise/Control System
Integration committee for the past 15 years and is
editor of the set of standards. He is a USA expert
on batch control to IEC, is the former chairman of
the ISA SP88 Batch System control standard, and
is the chairman of the IEC and ISO Joint Working
Group on Enterprise/Control Integration.
Mr. Brandl has written numerous papers and
articles on business to manufacturing integration
and flexible manufacturing solutions and has a
regular column in Control Engineering. Dennis
has a BS in Physics and an MS in Measurement
and Control from Carnegie-Mellon University,
and a MS in Computer Science from California
State University.
BR&L Consulting,
208 Townsend Ct, Suite 200 Cary, NC 27518 – USA,
Tel. +1 (0) 919 852 53 22,
E-Mail: dnbrandl@brlconsulting.com
72
atp edition
1-2 / 2013
A prototype of the information model is maintained as
part of the OPC UA ISA 95 working group, which is developing
the information model. The prototype includes
a fully functional version of the information model. The
information model includes samples of typical extensions
that a company may generate to adapt the generic
ISA95 information model to a company or deployment
specific information model.
The address space shown in Figure 9 illustrate sample
properties and objects such as an ISA 95 based
temperature sensor or larger ISA 95 based model of a
boiler, which include the aggregation of other equipment
items.
SUMMARY
This paper describes the union of two widely accepted
technologies – ISA 95 and OPC UA – that expands on
the strengths of both. The ISA 95 model is widely used
to define the information required for system integration.
It provides a set of abstract UML models that can
be used to represent exchanged information about materials,
personnel, equipment, physical assets and
other information. The OPC UA standard is an integration
technology that is based on web service technology,
is platform independent, and can be deployed
from small embedded systems up to large scale plantwide
systems. OPC UA provides a robust and reliable
communication infrastructure having mechanisms for
handling lost messages, failover, heartbeat, and a binary
encoding for high performance data exchanges.
OPC UA’s open data model can be used to represent
ISA 95 information in a generic and configurable method
that allows for high-speed synchronous data exchanges
required for manufacturing workflows.
The resulting union provides a robust high speed communication
system for widely accepted common MOM
information model. It also allows the ISA 95 model to be
extended down to the level 1-2 systems without custom
interfaces. It also allows ERP system to obtain select information
directly from level 1-2 systems. It is expected that
the OPC UA ISA 95 working group will finalize a mapping
specification by the end of 2012 and it will be made available
via the OPC Foundation.
MANUSKRIPTEINGANG
21.05.2012
Im Peer-Review-Verfahren begutachtet
PAUL HUNKAR (born in 1961) is president of
DS Interoperability, independent consulting
firm, specializing in design and development
of software systems. He has been running DS
Inter operability for 3 years, his client list includes
Yokogawa, ABB, Unified Automation,
Rovosys and the OPC Foundation. Paul is member
of the Technical Advisory Council of the
OPC Foundation. He is editor for the Profiles
and Alarm & Condition parts of the OPC UA
Specification. He was the Director of Certification
for the OPC Foundation and the chair of
the OPC Foundation Compliance Working
Group. He had previously worked for major
Process Automation vendors for more than 25
years in a variety of engineering roles including
designing, constructing and managing
development of advanced control application,
operator interface systems, historical systems
and investigating new technologies. Paul has a
Bachelors Degree in Computer Engineering
from the University of Michigan and a Masters
Degree in Computer Engineering from Case
Western Reserve University.
DSInteroperability,
4012 Deacon Ct, 44236 Hudson, Ohio,
Tel. +1 (0) 440 337 41 61,
E-Mail: paul.hunkar@dsinteroperability.com
Dr.-Ing. WOLFGANG MAHNKE (born in 1971) works at the ABB Corporate
Research Center in Germany in the field of Industrial Software Systems. He
is editor of the Address Space Model and the Information Model parts of the
OPC UA specification and author of the first book on OPC UA. Wolfgang is
member of the Technical Advisory Council of the OPC Foundation and the
OPC Europe Advisory Board. He holds a Diploma in Computer Science from
the University of Stuttgart. During his work at the University of Kaiserslautern
he gained his Ph.D. in the area of Databases and Information Systems.
ABB AG, Industrial Software Systems,
Wallstadter Straße 59, D-68526 Ladenburg,
Tel. +49 (0) 6203 71 62 55,
E-Mail: wolfgang.mahnke@de.abb.com
THOSHIO ONO (born in 1968) graduated in 1990 as a control engineer.
He has worked for Yokogawa Electric Corporation for more than
20 years and has been involved in automation system design and
implementation in SCADA, DCS, and NCS systems. He had been an
active member of technical committee in OPC Japan for the past 10 years.
He was nominated in 2009 as one of the three Japanese delegates to the
IEC SC65E WG8 as an OPC UA specialist. Today, he works for Yokogawa
Corporation of America as principal system architect and evangelizes
the OPC UA standard within Yokogawa.
Yokogawa Electric Corporation,
2-9-32 Nakacho, Musashino-shi,
Tokyo, Japan 180-8750, Tel. +81 (0) 972 417 27 50,
E-Mail: toshio.ono@us.yokogawa.com
atp edition
1-2 / 2013
73
HAUPTBEITRAG
Cloud Computing im Kontext
eines Prozessleitsystems
IT-Einfluss auf Architektur der Prozessautomatisierung
Die Informationstechnik hat wesentlichen Einfluss auf die Architektur von Prozessleitsystemen
genommen. Das belegen unterschiedliche Bussysteme sowie Anzeige- und Bedienansätze.
So hat die im ersten Beitragsteil beschriebene IT-Technologie Virtualisierung
bereits heute Einzug in die Praxis gehalten. Cloud Computing ist hingegen nicht übliche
Praxis im Kontext der Architektur eines Prozessleitsystems. Im Rahmen entsprechender
Vorfeldarbeiten fokussiert dieser zweite Beitragsteil auf das häufig kontrovers diskutierte
Cloud Computing hinsichtlich der Prozessleitsystem-Architektur.
SCHLAGWÖRTER PLS / Virtualisierung / Cloud Computing
Cloud Computing in the context of a Distributed Control System –
IT influence on the architecture of process automation
IT has significant influence on the architecture of distributed control systems. This influence
is overlaid by various technologies regarding communication, visualization and
operating systems. Virtualization is such a technology that was described in the first part
of this paper. Virtualization is used in practice and thus has already influence on the
architecture of a distributed control system. Cloud computing, however, is not common
practice so far. This second part of the paper focuses on the often controversial discussed
topic cloud computing regarding the distributed control system architecture.
KEYWORDS DCS / virtualization / cloud computing
74
atp edition
1-2 / 2013
MARTIN SCHNEIDER, STEFAN RUNDE, MARTIN GLASER, STEFAN GERACH, Siemens AG
Ein mögliches Mittel für die ständige Anforderung
Kostenreduzierung ist gegebenenfalls der
Einsatz neuester Technologien. Diese allgemeine
Tatsache beeinflusst auch die Architektur
eines Prozessleitsystems (PLS). Dabei stammen
die Technologien häufig aus der IT, wie im Beitrag „Virtualisierung
im Kontext eines Prozessleitsystems" bereits
dargestellt. Virtualisierung wird schon in der Praxis
angewendet und hat Einfluss auf die Architektur
eines PLS genommen [3]. Der Begriff Cloud Computing
wird einerseits für die dahinterstehenden Technologien
(Cloud-Plattform) und andererseits für die angebotenen
Services auf Basis der Cloud Computing Technologien
(Geschäftsmodell) verwendet – die Technologien sind
der Enabler für das Geschäftsmodell. Eine der Basistechnologien
einer Cloud-Computing-Plattform ist Virtualisierung
[2]. Der Einsatz von Cloud Computing ist im
Kontext eines PLS keine übliche Praxis. Veröffentlichungen
im Zusammenhang von Cloud Computing und
der Automatisierungstechnik im Allgemeinen sowie der
Architektur eines PLS im Speziellen sind rar [8] [9].
Dadurch, dass in der Community nicht unterschieden
wird zwischen den Technologien und dem Geschäftsmodell,
entsteht häufig der Eindruck, es könne „nichts“
mit Hilfe von Cloud Comuting besser werden, da es in
Grundzügen bereits angewendet wird, oder es könne
„alles“ Bestehende und Neue verbessert werden. Das folgende
Zitat bezüglich Services – ein wesentliches Element
des Cloud Computing – belegt diese Aussage eindrucksvoll:
„Sprach man zuerst von Software-as-a-Service
und Infrastructure-as-a-Service, so kamen weitere
Angebote [...] hinzu. Inzwischen gibt es sogar seltsam
anmutende Auswüchse wie Human-as-a-Service. Wegen
des gemeinsamen Suffix fasst man alle Arten von Cloud
Services gerne unter dem Begriff Anything-as-a-Service
(XaaS) zusammen. Zwar sind viele dieser Service-Bezeichner
durchaus sinnvoll [...], aber die Vielfalt trägt
nicht unbedingt zum Verständnis bei.“ [6]
Die Grundlagenbeschreibung (1) hinsichtlich des
Cloud Computings bildet einen Schwerpunkt dieses Beitrags.
Auf der Basis entsprechender Literatur, meist aus
dem IT-Umfeld, wurden die wesentlichen Charakteristika
in den Kontext der Automatisierungstechnik (AT)
gestellt. Ein weiterer Schwerpunkt ist die Darstellung
hinsichtlich der Realisierung eines PLS in der Cloud im
Kontext der Vorfeldentwicklung (3).
1. GRUNDLAGEN DES CLOUD COMPUTINGS
1.1 Einordnung
Cloud Computing ist im Grundsatz nicht neu. Es basiert
auf verschiedenen Ansätzen, die sich in den letzten Jahrzehnten
entwickelt haben, wie in Bild 1 dargestellt.
Grundsätzlich lassen sich diese Ansätze in die beiden
Kategorien Infrastruktur-Bereitstellung und Applikations-Bereitstellung
einteilen [6].
1. Kategorie: Infrastruktur-Bereitstellung:
Bereits Ende der 80er-Jahre wurden verteilte Rechen- und
Speicherressourcen zu einem Cluster virtueller Supercomputer
zusammengefasst, um rechenintensive Anwendungen
aus Gebieten wie beispielsweise der Physik, Biologie,
Meteorologie durchzuführen. Diese Anwendung tauchte
erstmals um das Jahr 2002 im wissenschaftlichen Kontext
unter dem Begriff Grid Computing auf. Virtualisierung
umfasst Methoden, die es erlauben, Rechen- und Speicher-
Ressourcen, die im Grid Computing zu einem Cluster zusammengefasst
werden, effizient zu verwenden (unter
anderem Konsolidierung, anwendungsorientierte Partitionierung).
Für detaillierte Informationen zum Thema Virtualisierung
sei auf Teil 1 des Beitrags verwiesen [3]. Auf
der Basis der beiden zuvor genannten Technologien sieht
das Utility Computing eine flexible Bereitstellung von IT-
Infrastruktur mit dem Ziel vollständiger Kostenkontrolle,
flexibler Kostenverrechnung und aktivem Management
des Service Level Agreement (SLA) vor. Ein SLA ist eine
Vereinbarung zwischen Auftraggeber und Dienstleister
für wiederkehrende Dienstleistungen. Die Vereinbarung
beinhaltet beispielsweise Regelungen zu Quality of Service
(QoS) – Bandbreite, Latenz, Jitter und Verfügbarkeit.
atp edition
1-2 / 2013
75
HAUPTBEITRAG
2. Kategorie: Applikations-Bereitstellung:
Das Application Service Providing ermöglicht es einem
Provider (Anbieter), Applikationen zentral bereitzustellen,
die ein Anwender über das Intranet oder Internet
nutzt. Dieser Ende der 90er-Jahre verfolgte Ansatz basiert
auf der Idee, IT-Investitionen durch gemietete Software
(SW) zu verringern. Weiterhin ermöglicht es aufgrund
der zentralen Bereitstellung eine einfachere Pflege und
Wartung der jeweiligen Software. Application Service
Providing (ASP) war der erste Schritt zur gemieteten SW.
Software-as-a-Service (SaaS) ist die Weiterentwicklung
des Gechäftsmodells in Richtung Self Service. Der große
Unterschied ist, dass im ASP Anwendungen gezielt für
Kunden angepasst wurden beziehungsweise bereitgestellt
wurden, bei SaaS hingegen Anwendungen für
Kunden-Zielgruppen vorab bereitgestellt werden und die
Kunden sich je nach Bedarf bedienen.
1.2 BEGRIFFSBESTIMMUNG
Ausgehend von den beiden zuvor beschriebenen Technologien
und Kategorien adressiert Cloud Computing
somit die Bereitstellung von Infrastruktur und Applikationen.
Es existieren zahlreiche Definitionen des Begriffs
Cloud Computing – eine einheitliche Definition gibt es
nicht. Eine viel zitierte Definition vom National Institute
of Standards and Technology (NIST) beschreibt Cloud
Computing wie folgt:
«Cloud computing is a model for enabling ubiquitous,
convenient, on-demand network access to a shared pool
of configurable computing resources (e.g., networks,
servers, storage, applications, and services) that can be
rapidly provisioned and released with minimal management
effort or service provider interaction.» [5]
Der überwiegende Teil der Cloud-Computing-Beschreibungen,
unter anderem vom European Network
and Informations Security Agency (ENISA), vom Bundesamt
für Sicherheit in der Informationstechnik
(BSI), sowie Bundesverband Informationswirtschaft,
Telekommunikation und neue Medien e.V. (Bitkom),
greifen die oben genannte Definition inhaltlich auf.
Nachfolgend sind die wesentlichen Merkmale kurz
beschrieben:
Ubiquitous, convenient, on-demand network access: Der
Cloud-Nutzer kann bei Bedarf (on-demand) überall (ubiquitous)
selbstständig auf die Cloud-Services (geeignet) zugreifen.
Durch den Einsatz aktueller Web-Technologien kann
der Zugriff über das Intranet, das Internet oder ein Virtual
Private Network von einem beliebigen Ort aus erfolgen.
Shared pool of configurable computing ressources: Der
Bereitstellende einer Cloud hält einen Pool an mehrmandantenfähigen
Ressourcen vor, die gebündelt einem oder
mehreren Benutzern zur Verfügung gestellt werden können
– der Benutzer hat keine Information darüber, welche
Ressourcen gerade verwendet werden und wo sich
diese befinden.
Rapidly provisioned: Die Ressourcen bieten eine gute Skalierbarkeit
und weisen demnach eine entsprechende Elastizität
auf. Aus Sicht des Cloud-Nutzers steht eine unbegrenzte
Kapazität an Ressourcen zur Verfügung. Den Prinzipien
des Utility-Computings (1.2) folgend werden die
Cloud-Services mittels definierter Metriken überwacht
(engl: metered-by-use), um einerseits die Service-Qualität
zu garantieren und andererseits eine verbrauchsabhängige
Abrechnung (pay-per-use) zu ermöglichen.
Minimal management effort: Cloud Computing zeichnet
sich durch einen hohen Grad an Automatisierung aus.
Dadurch können die Ressourcen mit minimalem Verwaltungsaufwand
durch den Cloud- und Service-Provider
automatisiert bereitgestellt werden.
1.3 SPI-Ordnungsrahmen
Der vom NIST [5] definierte und allgemein etablierte Software/Platform/Infrastructure-Ordnungsrahmen
(SPI-Ordnungsrahmen)
dient der allgemeinen Klassifizierung von
Dienst-Modellen, siehe Bild 2. Die Dienstmodelle lau-ten
Infrastructure-as-a-Service (IaaS), Platform-as-a-Service
(PaaS) sowie Software-as-a-Service (SaaS). Als gemeinsame
Eigenschaft besitzen alle drei Modelle die Bereitstellung
einer Dienstleistung als „as a Service“ (1.2).
Bei IaaS stellt ein Cloud-Provider die IT-Basisinfrastruktur
zur Verfügung. Zu dieser IT-Basisinfrastruktur
zählen zum Beispiel Rechen- und Speicher-Ressourcen
oder Netzinfrastruktur. Diese Basisinfrastruktur nutzt
Virtualisierungstechniken, die die Grundlage dafür bereitstellen,
die Ressourcen dynamisch und zeitnah bereitzustellen
(1.2).
Bei PaaS wird eine Anwendungsplattform zur Entwicklung
und zum Betrieb eigens entwickelter Anwendungen
zur Verfügung gestellt. Zu dieser Anwendungsplattform
zählen neben einem Betriebssystem zudem
entsprechende Laufzeitumgebungen. Diese beinhalten
unter anderem Frameworks (zum Beispiel für Runtime),
Message Queuing, Load Balancing oder Datenbanken,
die abhängig von den aktuellen Anforderungen skalierbar
sind – und/oder Entwicklungsumgebungen, Applikations-
und Web-Server sowie Bibliotheken.
SaaS hat seinen Ursprung im Application Service Providing
(1.1). Hierbei werden Anwendungen in einer
Cloud zur externen Nutzung zur Verfügung gestellt. Der
Zugriff erfolgt zumeist ohne zusätzliche Installation
über einen herkömmlichen Web-Browser. Die Verwendung
von Web-Techniken ermöglicht, dass der jeweilige
Kunde unabhängig von bestimmten Betriebssystemen
die entsprechende Anwendung nutzen kann. Die Abrechnung
bezüglich der Verwendung der jeweiligen Anwendung
erfolgt oftmals in Form von pay-per-use (1.2).
1.4 Zugangsmodelle
Ein wesentliches Unterscheidungsmerkmal der Zugangsmodelle
ist der autorisierte Kreis zur Benutzung bereitgestellter
Dienste bei IaaS, PaaS und SaaS. Die Zugangsmodelle
stehen orthogonal zu diesen Modellen des SPI-
Ordnungsrahmens. Somit lassen sich prinzipiell alle in
Bild 2 dargestellten Kombinationsmöglichkeiten auf der
Basis der nachfolgend beschriebenen Zugangsmodelle
realisieren.
76
atp edition
1-2 / 2013
Public Cloud: Bei dieser auch als External bezeichneten
Cloud stehen die verschiedenen angebotenen Cloud-
Dienste öffentlich zur Verfügung. Die (End-)Kunden
teilen sich die durch einen unabhängigen Cloud-Provider
öffentlich bereitgestellte Infrastruktur inklusive der
Dienste.
Private Cloud: Diese Cloud, die auch als Internal Cloud
bezeichnet wird, hat als Cloud-(End-)Kunden ausschließlich
eine einzige Interessengemeinschaft (zum Beispiel
im Rahmen des Engineerings [7]) aus einer Organisation
(beispielsweise einem Unternehmen). Die Infrastruktur
wird durch die Organisation bereitgestellt. Wird der Betrieb
dieser Cloud durch einen externen Dienstleister sichergestellt,
so wird der Begriff Managed Private Cloud
verwendet – Cloud-Provider ist weiterhin die Interessengemeinschaft,
wobei die Verantwortung des ordnungsgemäßen
Betriebs auf der Basis von SLA jedoch beim externen
Dienstleister liegt. Stellt der externe Dienstleister
zudem die Infrastruktur in seinem eigenen Rechenzentrum
bereit, so wird diese Lösung auch als Outsourced
Private Cloud bezeichnet – entsprechende SLAs sind
ebenfalls selbstverständlich.
Community Cloud: Diese Cloud ist eng verwandt mit der
Private Cloud, die ebenfalls als Vertical (Application)
Cloud bezeichnet wird. Sie steht ebenfalls lediglich einer
Interessengemeinschaft zur Verfügung, unterscheidet
sich jedoch von der Private Cloud dadurch, dass mehrere
Organisationen (zum Beispiel zwei Unternehmen)
Zugriff haben.
Hybrid Cloud: Im Gegensatz zur Public Cloud gewährt
die Hybrid Cloud wie die Private Cloud oder Community
Cloud ebenfalls einer Interessengemeinschaft den
Zugriff. Jedoch wird der Ansatz der Private Cloud/Community
Cloud dahin gehend erweitert, dass im Bedarfsfall
(zum Beispiel bei Lastspitzen) die Standardinfrastruktur
durch Infrastruktur aus der Public Cloud ergänzt
wird.
Dies setzt jedoch eine sorgfältige Planung der Schwellen
voraus. Vor allem die Provisionierung muss bedacht
werden. Bei komplexen Systemen kann dies mehrere
Stunden in Anspruch nehmen, bis die externen Ressourcen
tatsächlich genutzt werden können.
Neben den genannten Zugangsmodellen existieren weitere
Derivate (beispielsweise Virtual Private Cloud), die
jedoch hier im Rahmen der Grundlagen nicht skizziert
wurden. Weiterhin wurde auf eine Diskussion der Vorund
Nachteile der beschriebenen Modelle verzichtet.
Hinsichtlich der Zugangsmodelle kann zwischen dem
Consumer- und Industriegeschäft unterschieden werden.
Aufgrund der gegebenen Randbedinungen (unter
anderem Zertifizierung) im Industriegeschäft erlaubt
eine Private Cloud eine einfachere Umsetzung, welche
aber zu Lasten der Ressourceneffizienz geht – dies ist
jedoch insbesondere der Vorteil einer Hybrid Cloud und
Public Cloud. Bei den folgenden Ausführungen wird auf
die Unterscheidung zwischen Private Cloud und Community
Cloud verzichtet. Der Einfachheit halber wird
lediglich der Begriff Private Cloud verwendet.
1.5 Use Cases
Im Automatisierungstechnik(AT)-Umfeld kann aus Sicht
eines AT-Herstellers weiterhin zwischen einem AT-Kunden
BILD 1: Cloud Computing vereint IT-Basistechnologien
mit Geschäftsmodellen.
BILD 3: Cloud Computing Use Cases
BILD 2: Übersicht Cloud Stack
atp edition
1-2 / 2013
77
HAUPTBEITRAG
und einem IT-Dienstleister unterschieden werden.
Beim Cloud Computing kann zwischen dem Cloud-
Provider, dem Cloud-Kunden sowie dem Cloud-
Endanwender unterschieden werden. Ein wichtiger
Punkt ist die Tatsache, dass sich aufgrund der Philosophie
von Cloud Computing vielfältige Use Cases in
der Anwendung dieser Technologie ergeben. So können
die genannten Rollen aus dem Umfeld der Automatisierungstechnik
auf verschiedene Weise mit den
Rollen aus dem Umfeld des Cloud Computing kombiniert
werden.
Nachfolgend sind der Use Case 4 sowie der Use Case 5
in einer Ausprägung (etwa realisierte Private Cloud unter
Verwendung von IaaS) erläutert, um die zuvor beschriebenen
Grundlagen zu verdeutlichen.
Use Case 4 – Cloud für die interne Entwicklung eines
AT-Herstellers: Eine Ausprägung des Use Cases (Bild 3)
ist die Realisierung als Private Cloud (1.4) in der in Bild 2
dargestellten Kombination 1, Realisierung von IaaS.
So kann der AT-Hersteller beispielsweise ein eigenes
Betriebssystem auf der Basis seiner ausgewählten IaaS-
Dienstleistungen – bereitgestellt von einem IT-Dienstleister
– installieren und seine Anwendungen für interne
Aufgaben bereitstellen. In diesem Fall ist der AT-Hersteller
auch für die Wartung (wie Update des Betriebssystems)
verantwortlich, wohingegen die Verantwortung
bezüglich der bereitgestellten IT-Basisinfrastruktur in
der Verantwortung des IT-Dienstleisters liegt.
Use Case 5 – Cloud für den Kunden-Service eines AT-
Herstellers: Eine Ausprägung dieses Use Cases 5
(Bild 3) ist die Realisierung als Community Cloud (1.4)
in der Kombination 5 (Bild 2) – Realisierung von PaaS
und SaaS.
Diese Ausprägung ermöglicht, dass der AT-Hersteller
und -Entwickler eine PaaS-Anwendungsplattform
(engl.: managed) auf der Basis eigener IT-Basisinfrastruktur
zur Verfügung gestellt bekommt. Sofern es
sich um eine konventionelle Anwendungsumgebung
handeln würde, könnten konventionelle, auf einem
Rechner beim AT-Kunden zu installierende Anwendungen
entwickelt werden. Bei diesem Use Case handelt
es sich jedoch bei der bereitgestellten PaaS-Anwendungsplattform
um eine Entwicklungsumgebung zur
Erstellung Web-Browser-geeigneter Software, um entsprechend
SaaS-Anwendungen für die AT-Kunden
bereitzustellen. Der Kunde kann sich ausschließlich
auf die Nutzung der bereitgestellten Anwendung konzentrieren;
unter anderem wird Wartung und Pflege
zentral vom AT-Hersteller durchgeführt.
2. PLS IN EINER PRIVATE CLOUD
Aufgrund der notwendigen Randbedinungen erlaubt
eine Privat Cloud eine einfachere Umsetzung, welche
aber zulasten der Ressourceneffizienz geht. Dies ist jedoch
der Vorteil einer Public Cloud. Die folgenden Abschnitte
fokussieren auf die einfachere Realisierung
eines PLS in der Private Cloud anstelle einer Realisierung
in einer Hybrid Cloud oder Public Cloud (1.4). Die
Beschreibungen erfolgen exemplarisch anhand der Engineering
Station des PLS Simatic PCS 7.
2.1 Überführungsvarianten
Unabhängig von den beschriebenen Modellen des SPI-
Ordnungsrahmens (1.3) sowie dem Zugangsmodell (1.4)
bestehen die folgenden Migrationskonzepte, um eine existierende
Anwendung in einer Cloud zu betreiben.
Überführungsvariante 1: Diese Variante (Kapselung)
setzt lediglich eine virtualisierte Infrastruktur voraus.
Das Betriebssystem sowie die Anwendung(en) werden
in eine virtuelle Maschine portiert. Diese virtuelle Maschine
lässt sich auf einer kompatiblen IaaS-Cloud betreiben
– vergleiche Kombination 1 (1.3). Der Zugriff auf
diese erfolgt über Standardprotokolle (zum Beispiel TCP/
IP, HTTP, RDP). Mittels geeigneter Software ist es möglich,
diese Software entsprechend zu transformieren,
womit diese in einem Web-Browser nutzbar ist. Diese
Realisierungsvariante kann der Kombination 4 beziehungsweise
Kombination 6 (1.3) zugeordnet werden.
Überführungsvariante 2: Eine weitere Variante (Integration)
ist, dass die jeweilige bestehende, konventionelle
Anwendung – auf einem Rechner installiert -
Dienste aus der Cloud nutzt (zum Beispiel Speicher
für Backups, Big-Data-Anwendungen). Hinsichtlich
dieser Migrationsstrategie sind alle Kombinationen
(1.3) realisierbar.
Überführungsvariante 3: Bei dieser Variante (Migration)
können bestehende Applikationen nicht portiert
werden. Es können lediglich die Konzepte (zum Beispiel
Prozesse, Verfahren, Algorithmen) wiederverwendet
werden. Ausgehend von diesen Konzepten sowie
basierend auf der bereitgestellten Anwendungsplattform
(PaaS) sind dann die Anwendungen (SaaS) neu zu
entwickeln. Aufgrund der notwendigen PaaS-Anwendungsplattform
sind lediglich Kombinationen realisierbar,
welche PaaS und SaaS vorsehen – Kombination 5,
Kombination 6 und Kombination 7 (1.3).
Die Überführungsvariante 3 ermöglicht, den maximalen
Nutzen zu erzielen, den eine Cloud bietet. Es ist jedoch
notwendig, die entsprechende/n PLS-Anwendung/en auf
Basis von PaaS nahezu neu zu entwickeln, um sie darauf
aufbauend als SaaS bereitzustellen – der Aufwand ist in
Relation zu Variante 2 höher. So ermöglicht die Variante
2 ein höheres Maß an Wiederverwendung, indem gegebenenfalls
bestehende (Cloud-)Anwendungen um reale PaaSund/oder
IaaS-Dienste erweitert werden. Darüber hinaus
ist so eine Anpassung der bestehenden (Cloud-)Anwendungen
möglich. Ist eine Erweiterung/Anpassung nicht
notwendig, so liegt der Schluss nahe, Überführungsvariante
1 zu verfolgen. Damit verbunden sind relativ geringer
Aufwand mit einem verhältnismäßig guten Nutzen.
Nicht zuletzt aus diesem Grund wurde daher die letztgenannte
Überführungsvariante zur exemplarischen
Umsetzung der Simatic PCS 7 Engineering Station (ES)
in eine Private Cloud gewählt.
2.2 Realisierungsplattform
In Bild 5 ist eine Übersicht der aktuell gängigen Lösungen
im Umfeld des Cloud Computings dargestellt. SaaS-
78
atp edition
1-2 / 2013
Lösungen und -Produkte sind individuell und basieren
gegebenenfalls auf IaaS sowie PaaS (1.3). Bekannte SaaS-
Produkte sind Anwendungen wie Google Docs, Windows
Live Services oder das Strato HiDrive. Für Privatanwender
sind diese Angebote meist kostenlos und werden
über Werbenetzwerke finanziert. Auf Anwender in Unternehmen
zielen gewerbliche Anwendungen wie Google
Apps for Business, Microsoft Office 365 oder die CRM-
Anwendungen von Salesforce.
Die überwiegende Zahl der Kunden in der Prozessautomatisierung
setzt zur Virtualisierung – eine Basis-Technologie
von Cloud Computing – ihres PLS den
Hypervisor VMware ESXi ein. Daher wurden zur exemplarischen
Überführung von Simatic PCS 7 in eine Private
Cloud vorerst VMware-Produkte ausgewählt – weitere
Cloud-Plattformen, wie beispielsweise Microsoft
Azure, sind ebenfalls denkbar. Für Grundlagen hinsichtlich
der Architektur eines PLS sei auf den ersten Teil
dieses Beitrags zum Thema Virtualisierung verwiesen [1].
Nachfolgend sind die wesentlichen Komponenten der
Realisierung mit VMware vCloud [4] beschrieben (Bild 5):
Private Cloud Resource Pools / Public Cloud Resource:
Die Grundlage für den Aufbau einer Private Cloud ist ein
Pool von physikalischen Ressourcen an Server-, Netzwerk-
und Storage-Komponenten, der Cloud Resource
Pool. Ergänzt werden kann dieser Pool durch Ressourcen
einer Public-Cloud, die dann auch als Hybrid-Cloud bezeichnet
wird (1.4).
Als Virtualisierungsschicht dient der vSphere-Hypervisor
(auf ESXi-Basis). Diese Schicht ist die Grundlage
für die weiteren VMware-Produkte, die zum Aufbau einer
Private Cloud benötigt werden [1].
Die sogenannte Automatisierungsschicht wurde realisiert
durch VMware vCenter Server. Es organisiert die
von der VMware vSphere Virtualization Platform abstrahierten
Cloud Ressourcen.
Die sogenannte Self-Service-Automation-Schicht ermöglicht
dem Cloud-(End-)Kunden die Verwaltung der
Cloud-Ressourcen mittels eines Self-Service-Portals.
Diese Schicht wurde hier mit dem VMware vCloud Director
implementiert. Mit Hilfe des VMware vCloud Directors
greift der Cloud Provider auf die vom vCenter
Server bereitgestellten Ressourcen zu und stellt diese
entsprechend organisiert in virtuellen Rechenzentren
bereit. Der Cloud-Kunde kann dieses von ihm angeforderte
virtuelle Rechenzentrum nutzen.
Auf der Basis dieser Schichten ist es möglich, die drei
in Abschnitt 2.1 genannten Überführungsvarianten zu
realisieren. Dazu werden weitere entsprechende Komponenten
bereitgestellt.
Die Realisierung erfolgte exemplarisch auf Basis der
genannten VMware vCloud-Lösung.
Ausgehend von der dritten Variante (2.1) ist die Engineering
Station (ES) von Simatic PCS 7 in eine Private
Cloud überführt worden. Es handelt sich um die
Kombination 6 (1.3) und den Use Case 2 (1.5).
2.3 Umsetzung
Die ES wurde zur Darstellung in diesem Beitrag ausgewählt,
da sie als möglicher Kandidat beispielhaft für die
Vorteile einer Anwendung in der Cloud steht. So wird
eine ES beispielsweise während der zeitlich relativ kurzen
Engineering Phase genutzt – in der verhältnis mäßig
langen Betriebsphase einer Anlage in der Prozessindustrie
eher weniger.
In Bild 6 ist die Umsetzung der Überführung der ES
von Simatic PCS 7 basierend auf VMware skizziert – die
OS und MS werden lediglich als weitere PLS-Komponenten
aufgeführt. Als Private Cloud Resource Pool
stand die Hardware der SmartAutomation Karlsruhe
BILD 4: Cloud-Dienste
BILD 5:
Simatic PCS 7 auf
der Basis der
VMware vCloud-
Lösung
atp edition
1-2 / 2013
79
HAUPTBEITRAG
(SmA Khe) zur Verfügung. Dabei handelt es sich um einen
Fujitsu Server TX300 S6 (1 Intel Xeon X5660 mit
sechs Kernen à 2,8 GHz, 32 GB RAM) [1]. Auch wenn ein
Server im eigentlichen Sinne noch keine Cloud bildet,
ist dies hinsichtlich der prinzipiellen Funktionstests
zunächst ausreichend. Die von der VMware vSphere Virtualization
Platform abstrahierten Cloud Ressourcen
wurden mittels VMware vCloud Director entsprechend
bei VMware vCenter Server bestellt und von dort bereitgestellt.
Diese Schichten bilden die Grundlage für die
VM. Eine VM repräsentiert die ES. Ausgehend von der
gewählten Überführungsvariante 1 (2.1) wurde die bestehende
ES-Anwendung in eine VM transformiert.
2.4 Retrospektive
Grundsätzlich kann, wie auch im Umfeld der IT, für die
(Prozess-)Automatisierung als Vorteil aufgeführt werden,
dass es mithilfe von Cloud Computing möglich ist, ausgewählte
Investitionskosten auf die Betriebs- beziehungsweise
Anlagenlaufzeit abzuschreiben – eine Umverteilung
von Investitions- zu Betriebskosten. So können
beispielsweise zu Beginn eines Projektes die Kosten für
gewisse Werkzeuge entfallen, da sie bei Bedarf angefordert
und wie im SLA vereinbart verrechnet werden. Weiterhin
ist aufzuführen, dass für den jeweiligen Cloud-
Endanwender, siehe Bild 3, in der (Prozess-)Automatisierung
geringere Aufwände für Pflege und Wartung der
Infrastruktur anfallen können; zum Beispiel aufgrund
von zentral ausgeführten Updates und Upgrades. Dieser
grundsätzliche Fakt kann bereits aufgrund der gemachten
Erfahrungen im Rahmen der praktischen Umsetzung bestätigt
werden – notwendige Updates konnten zentral
eingespielt werden und standen jedem, im Rahmen der
Vorfeldtests jedem fiktiven AT-Endkunden, sofort zur
Verfügung. Als weiterer Fakt ist zu nennen, dass gewonnene
Erkenntnisse bei der Überführung von bestehenden
PLS-Komponenten in virtueller Umgebung im Allgemeinen
wertvoll waren; im Speziellen hinsichtlich der virtuellen
Umgebung von VMware – beispielsweise hinsichtlich
der Konfiguration der Kommunikationsbeziehungen
in virtueller Umgebung. Prinzipiell ist zu sagen,
dass es keine grundsätzlichen Einschnitte bezüglich der
ES-Funktionalität (zum Beispiel Projektierung, Offline-
Planung) gab hinsichtlich Simatic PCS 7 in einer Private
Cloud basierend auf VMware vCloud.
Gesamtheitlich kann der vielfach genannte Nutzen im
Kontext des Cloud Computings jedoch noch nicht bestätigt
werden, da Langzeiterfahrungen fehlen. Tatsache ist
zudem, dass noch keine belastbaren Aussagen zu wesentlichen
Anforderungen in der (Prozess-)Automatisierung
wie beispielsweise Zuverlässigkeit und Performanz getroffen
werden können.
ZUSAMMENFASSUNG UND AUSBLICK
Im Kontext von Cloud Computing stehende, bereits existierende
Ansätze (zum Beispiel Application Service
Providing, Grid Computing, Virtualisierung) erwecken
den Eindruck, dass Cloud Computing nichts Neues zu
sein scheint. Abstrakt betrachtet resultiert aus der Kombination
der Ansätze das Cloud Computing. Aus der
Kombination heraus scheint jedoch „Alles“ – zumindest
doch „Vieles“, möglich zu sein. So existieren drei
Dimensionen: SPI-Ordnungsrahmen, Zugangsmodelle
und Use Cases. Grundsätzlich sieht der SPI-Ordnungsrahmen
die drei individuell kombinierbaren Modelle
Infrastructure-as-a-Service (IaaS), Platform-as-a-Service
(PaaS) und Software-as-a-Service (SaaS) vor. Eine weitere
Dimension bilden die vier Zugangsmodelle Public
Cloud, Private Cloud, Community Cloud und Hybrid
Cloud. Zuletzt ist die Dimension Use Case entscheidend.
Ein triviales Beispiel für einen Use Case ist, dass ein
AT-Hersteller sowohl als Cloud-Provider, Cloud-Kunde
und Cloud-Endkunde auftreten kann. Alle drei Dimensionen
bilden einen Lösungsraum mit Nullstellen. Werden
die verschiedenen Punkte der drei Dimensionen
geschickt miteinander kombiniert, so kann einerseits
vielfältiger Nutzen daraus resultieren – flexiblere und
individuellere Bereitstellung von Software. Andererseits
resultieren daraus auch Herausforderungen – wie
Sicherstellung der notwendigen Performanz (beispielsweise
Bandbreite, Rechen- und Speicherressourcen).
Grundsätzlich kann bei den Zugangsmodellen zwischen
dem Consumer- und Industriegeschäft unterschieden
werden. Aufgrund der gegebenen Randbedinungen
(unter anderem Zertifizierung) im Industriegschäft erlaubt
eine Private Cloud eine einfachere Umsetzung.
REFERENZEN
[1] Runde, S.; Schneider, M.; Glaser, S., Thieme, S.: IT im Kontext
der Prozessleittechnik – Teil 1: Virtualisierung. atp edition –
Automatisierungstechnische Praxis 55(1), S. 28-36, 2013..
[2] Käfer, G.: Cloud Computing Architecture. Verfügbar unter:
http://www.sei.cmu.edu/saturn/2010/, zuletzt geprüft am:
20.01.2013.
[3] Runde, S., Schneider, M., Glaser, M., Drinjakovic, D.:
Automatisierungstechnische Architektur in der Prozessindustrie
mit Leitsystem in virtueller Umgebung. In:
Tagungsband Automation 2011, S. 28-35. VDI, 2011.
[4] VMware. Verfügbar unter: http://www.vmware.com/de/.
Zuletzt geprüft am: 14.01.2013.
[5] National Institute of Standards and Technology (NIST):
The NIST Definition of Cloud Computing. Verfügbar unter:
http://csrc.nist.gov/publications/nistpubs/800-145/
SP800-145.pdf, zuletzt geprüft am: 14.01.2013.
[6] Vossen, G., Haselmann, T., Hoeren T.: Cloud-Computing für
Unternehmen. Technische, wirtschaftliche, rechtliche und
organisatorische Aspekte. dpunkt-Verl., Heidelberg, 2012.
[7] Runde, S: Wissensbasierte Engineeringunterstützung in
der Automatisierungstechnik am Beispiel der Gebäudeautomation.
Fortschritt-Berichte VDI Reihe 20 Nr. 434:
Rechnergestützte Verfahren. Düsseldorf: VDI Verlag 2011.
[8] Schlesinger, D.: Automatisieren in der Wolke? Automatisierung
& Messtechnik - Sonderheft 2012, S. 8–9. 2012
[9] Inductive Automation: Cloud-Based SCADA Systems –
the Benefits & Risks. Is Moving Your SCADA System to the
Cloud Right For Your Company? Verfügbar unter:
http://files.inductiveautomation.com/whitepapers/
WhitePaper-Cloud-Based-SCADA-Systems.pdf, zuletzt
geprüft am: 14.01.2013
80
atp edition
1-2 / 2013
Diese einfacherer Umsetzung geht aber zu Lasten der
Ressourceneffizienz, die insbesondere der Vorteil einer
Hybrid Cloud und Public Cloud ist. Ausgehend von dieser
Situation wurde für einen prinzipiellen Funktionstest
die Engineering Station von Simatic PCS 7 in eine
Private Cloud überführt. Bei der Anwendung dieser Simatic
PCS 7-Komponente konnten keine grundsätzlichen
Einschnitte bezüglich Funktionalität (zum Beispiel Projektierung,
Offline-Planung) festgestellt werden. Gesamtheitlich
kann der suggerierte Nutzen noch nicht bestätigt
werden, da Langzeiterfahrungen fehlen. Der Nutzen
hinsichtlich einer vereinfachten Durchführung von Updates,
Upgrades etc. zeigte sich jedoch.
In Zukunft sind weitere PLS-Komponenten wie MS,
OS in der Cloud zu realisieren, um technische und
nichttechnische Aspekte besser bewerten zu können. Es
sind noch viele offene Punkte zu klären, um belastbare
Aussagen zu wichtigen Anforderungen in der (Prozess-)
Automatisierung, wie etwa Zuverlässigkeit und Performanz,
treffen zu können. Exemplarisch seien zudem die
Aspekte Security und Compliance genannt. In einer
Cloud können große Mengen verschiedener, teilweise
sensibler Daten und Informationen gespeichert werden.
So werden Cloud-Plattformen zu einem interessanten
Ziel für interne und/oder externe Angreifer. Cloud-spezifische
Security-Aspekte (Verfügbarkeit, Integrität, Vertraulichkeit,
Authentizität und Verbindlichkeit) sind
mit Bezug zu der jeweiligen Organisationsform/Bereitstellungsmodell
(1.4) zu berücksichtigen. Mit dem Thema
Security geht der Komplex Compliance einher. Zur
Compliance gehören die Einhaltung der gesetzlichen,
unternehmensinternen und vertraglichen Regelungen,
der Datenschutz, das Risiko-Management, der rechtliche
Rahmen und die Governance.
Werden Cloud-Dienste verwendet, insbesondere in der
Public Cloud, so ist die Einhaltung der Compliance eine
weitere Herausforderung.
DANKSAGUNG
MANUSKRIPTEINGANG
18.09.2012
Im Peer-Review-Verfahren begutachtet
Die Autoren danken dem Experten für Cloud Computing
Herrn Dr. Gerald Käfer für das Reviewen des
Beitrags. Er untersucht die Relevanz und Auswirkung
von „Software as a Service“ und Cloud Computing für
das zukünftige Produkt- und Servicegeschäft. Sein
Themenfeld der letzten Jahre war schwerpunktmäßig
Cloud Computing im Enterprise-IT-Umfeld.
AUTOREN
Dipl.-Ing. MARTIN R. SCHNEIDER (geb. 1960)
absolvierte ein Informa tik-Studium an der Hochschule
Karlsruhe. Er ist in der Vorfeldentwicklung
als Teilprojektleiter im Projekt „Future DCS Architectures“
zuständig für das Thema Integration von
IT-Trends in der Prozessautomatisierung, wie zum
Beispiel Virtualisierung oder Cloud Computing.
Siemens AG, Sector Industry,
Advanced Technologies and Standards,
Östliche Rheinbrückenstrasse 50,
D-76187 Karlsruhe, Tel. +49 (0) 721 595 61 13,
E-Mail: martin-rudolf.schneider@siemens.com
Dr.-Ing. STEFAN RUNDE (geb. 1980) ist in der
Vorfeldentwicklung Projektleiter für das Thema
„Future DCS Architecture“ und Programm Manager
für das Themenfeld „PC-based Architecture“. Nach
der Ausbildung zum Energieelektroniker, studierte
er Elektro- und Informationstechnik an der FH
Hannover und promovierte an der Helmut-Schmidt-
Universität Hamburg. Aktuelle Schwerpunkte seiner
Arbeit sind die Verbesserung von Engineering und
Architekturen im Umfeld von SCADA und PLS.
Siemens AG,
Sector Industry, Advanced Technologies and Standards,
Östliche Rheinbrückenstrasse 50,
D-76187 Karlsruhe, Tel. +49 (0) 721 595 79 77,
E-Mail: stefan.runde@siemens.com
Dipl.-Ing. MARTIN GLASER (geb. 1959) leitete
im Simatic PCS 7-Produktmanagement die
Gruppe „Software & Innovation“ und ist als
Projekt familienleiter „DCS SW-Products“ tätig.
Er studierte Elektrotechnik an der TH Karlsruhe
und beschäftigt sich seit vielen Jahren
mit der Entwicklung von PLS, insbesondere
mit dem Fokus auf neue Technologien für die
Innovation von PLS.
Siemens AG,
Sector Industry, Industry Automation,
Östliche Rheinbrückenstrasse 50,
D-76187 Karlsruhe, Tel. +49 (0) 721 595 68 90,
E-Mail: martin.glaser@siemens.com
M. Sc. STEFAN GERACH (geb. 1983) studierte
nach der Ausbildung zum Fachinformatiker –
Fachrichtung Systemintegration Informatik
an der HS Karlsruhe. Seine Masterarbeit
(„Cloud Computing im Kontext der Prozess
automatisierung“) schrieb er in der Abteilung
Advanced Technologies and Standards des
Sektors Industry der Siemens AG.
Siemens AG,
Industry Sector, Customer Services Division,
Siemensallee 84,
D-76187 Karlsruhe, Tel. +49 (0) 721 595 15 39,
E-Mail: stefan.gerach@siemens.com
atp edition
1-2 / 2013
81
IMPRESSUM / VORSCHAU
IMPRESSUM
VORSCHAU
Verlag:
DIV Deutscher Industrieverlag GmbH
Arnulfstraße 124, 80636 München
Telefon + 49 89 203 53 66-0
Telefax + 49 89 203 53 66-99
www.di-verlag.de
Geschäftsführer:
Carsten Augsburger, Jürgen Franke
Spartenleiterin:
Anne Hütter
Herausgeber:
Dr.-Ing. Thomas Albers
Dr. Gunther Kegel
Dipl.-Ing. Georg Kumpfmüller
Dr.rer.nat. Norbert Kuschnerus
Beirat:
Dr.-Ing. Kurt Dirk Bettenhausen
Prof. Dr.-Ing. Christian Diedrich
Prof. Dr.-Ing. Ulrich Epple
Prof. Dr.-Ing. Alexander Fay
Prof. Dr.-Ing. Michael Felleisen
Prof. Dr.-Ing. Georg Frey
Prof. Dr.-Ing. Peter Göhner
Dipl.-Ing. Thomas Grein
Prof. Dr.-Ing. Hartmut Haehnel
Dr.-Ing. Jörg Kiesbauer
Dipl.-Ing. Rolf Marten
Dipl.-Ing. Gerald Mayr
Dr. Jörg Nothdurft
Dr.-Ing. Josef Papenfort
Dr. Andreas Wernsdörfer
Dipl.-Ing. Dieter Westerkamp
Dr.rer.nat. Christian Zeidler
Organschaft:
Organ der GMA
(VDI/VDE-Gesell schaft Messund
Automatisierungs technik)
und der NAMUR
(Interessen gemeinschaft
Automatisierungs technik der
Prozessindustrie).
Redaktion:
Anne Hütter (ahü)
(verantwortlich)
Telefon + 49 89 203 53 66-58
Telefax + 49 89 203 53 66-99
E-Mail: huetter@di-verlag.de
Gerd Scholz (gz)
Einreichung von Hauptbeiträgen:
Prof. Dr.-Ing. Leon Urbas
(Chefredakteur, verantwortlich
für die Hauptbeiträge)
Technische Universität Dresden
Fakultät Elektrotechnik
und Informationstechnik
Professur für Prozessleittechnik
01062 Dresden
Telefon +49 351 46 33 96 14
E-Mail: urbas@di-verlag.de
Fachredaktion:
Dr.-Ing. Michael Blum
Dipl.-Ing. Heinrich Engelhard
Prof. Dr.-Ing. Jürgen Jasperneite
Dr.-Ing. Bernhard Kausler
Dr.-Ing. Niels Kiupel
Dr.-Ing. Gerrit Meixner
Dr.-Ing. Jörg Neidig
Dipl.-Ing. Ingo Rolle
Dr.-Ing. Stefan Runde
Prof. Dr.-Ing. Frank Schiller
Bezugsbedingungen:
„atp edition – Automatisierungstechnische
Praxis“ erscheint
monatlich mit Doppelausgaben im
Januar/Februar und Juli/August.
Bezugspreise:
Abonnement jährlich: € 468,– + € 30,–/
€ 35,- Versand (Deutschland/Ausland);
Heft-Abbonnement + Online-Archiv:
€ 638,40; ePaper (PDF): € 468,–;
ePaper + Online-Archiv: € 608,40;
Einzelheft: € 55,– + Versand;
Die Preise enthalten bei Lieferung
in EU-Staaten die Mehrwertsteuer,
für alle übrigen Länder sind es
Nettopreise. Mitglieder der GMA: 30%
Ermäßigung auf den Heftbezugspreis.
Bestellungen sind jederzeit über den
Leserservice oder jede Buchhandlung
möglich.
Die Kündigungsfrist für Abonnementaufträge
beträgt 8 Wochen zum Bezugsjahresende.
Abonnement-/
Einzelheftbestellung:
Leserservice atp
Postfach 91 61, 97091 Würzburg
Telefon + 49 931 41 70-4 94
Telefax + 49 931 41 70-4 92
E-Mail: leserservice@di-verlag.de
Verantwortlich für
den Anzeigenteil:
Inge Matos Feliz
Telefon + 49 89 203 53 66-22
Telefax + 49 89 203 53 66-99
E-Mail: matos.feliz@di-verlag.de
Es gelten die Preise der Mediadaten 2013
Anzeigenverwaltung:
Brigitte Krawczyk
Telefon + 49 89 2 03 53 66-12
Telefax + 49 89 2 03 53 66-99
E-Mail: krawczyk@di-verlag.de
Art Direction / Layout:
deivis aronaitis design | dad |
Druck:
Druckerei Chmielorz GmbH
Ostring 13,
65205 Wiesbaden-Nordenstadt
Gedruckt auf chlor- und
säurefreiem Papier.
Die atp wurde 1959 als „Regelungstechnische
Praxis – rtp“ gegründet.
DIV Deutscher Industrieverlag
GmbH München
Die Zeitschrift und alle in ihr enthaltenen
Beiträge und Abbildungen sind urheberrechtlich
geschützt. Mit Ausnahme der
gesetzlich zugelassenen Fälle ist eine
Verwertung ohne Ein willigung des Verlages
strafbar.
Gemäß unserer Verpflichtung nach § 8
Abs. 3 PresseG i. V. m. Art. 2 Abs. 1c DVO
zum BayPresseG geben wir die Inhaber
und Beteiligungsverhältnisse am Verlag
wie folgt an:
DIV Deutscher Industrieverlag GmbH,
Arnulfstraße 124, 80636 München
Alleiniger Gesellschafter des Verlages
ist die ACM-Unternehmensgruppe,
Ostring 13,
65205 Wiesbaden-Nordenstadt
ISSN 2190-4111
DIE AUSGABE 3 / 2013 DER
ERSCHEINT AM 04.03.2013
MIT DEM SCHWERPUNKT „APPS, SMARTPHONES
UND TABLETS IM INDUSTRIELLEN EINSATZ“
Gamification in kollaborativen
Produktionsnetzwerken –
Chancen und Risiken
Das Smartphone als
universelles Diagnosegerät –
Benutzerfreundliches Konzept
zur Fehlerdiagnose
Smartphones und Tablets in der
industriellen Produktion –
Nutzerfreundliche Bedienung
von Feldgeräten
Kontextsensitive UIs für die
Fabrik von morgen
App-Orchestrierung – Vernetzte
Apps für komplexe Aufgaben
Aus aktuellem Anlass können sich die Themen
kurzfristig verändern.
LESERSERVICE
E-MAIL:
leserservice@di-verlag.de
TELEFON:
+ 49 931 41 70-4 94
82
atp edition
1-2 / 2013
Erreichen Sie die Top-Entscheider
der Automatisierungstechnik.
Sprechen Sie uns an wegen Anzeigenbuchungen
und Fragen zu Ihrer Planung.
Inge Matos Feliz: Tel. +49 89 203 53 66-22
E-Mail: matos.feliz@di-verlag.de
atp kompakt
Methoden Verfahren Konzepte
Sonderpreise
für
Abonnenten
der atp edition
Die Automatisierungstechnik wird durch neue Forschungen und Entwicklungen bestimmt. Damit Ingenieure
fit für ihren Job sind und die entscheidenden Trends in der Automatisierungstechnik schnell zur Hand haben,
legt die Fachpublikation atp edition die Buchreihe atp kompakt auf. Alle darin enthaltenen Beiträge haben
ein wissenschaftliches Gutachterverfahren durchlaufen.
Herausgeber Prof. Dr.-Ing. Frank Schiller leitet am Lehrstuhl für Informationstechnik im Maschinenwesen der
TU München das Fachgebiet Automatisierungstechnik.
atp kompakt Band 1
Erfolgreiches Engineering – Die wichtigsten Methoden
Diese Ausgabe befasst sich mit den Methoden, Verfahren und Standards, die Sie in den nächsten Jahren im Engineering beschäftigen
werden. Wichtige Kriterien sind die einfache Wiederverwendbarkeit von Komponenten, die Unterstützung durch geeignete Werkzeuge,
die Erhöhung der Flexibilität von Anlagen sowie geeignete Modellierungs- und Gerätebeschreibungssprachen.
1. Auflage 2010, 138 Seiten mit CD-ROM, Broschur, € 79,- • ISBN: 978-3-8356-3210-3
Für Abonnenten
€ 74,-
atp kompakt Band 2
Effiziente Kommunikation – Die bedeutendsten Verfahren
Sie bekommen Einblick in die wachsende Bedeutung der industriellen Kommunikation und dem Wandel in der Gerätekommunikation.
Einen Schwerpunkt bildet die Kommunikationstechnik in der Prozessautomatisierung mit deren besonderen Rahmenbedingungen wie
dem Explosionsschutz. Die bedeutendsten Verfahren und Methoden der modernen Kommunikation werden praxisnah veranschaulicht.
1. Auflage 2010, 72 Seiten mit CD-ROM, Broschur, € 59,- • ISBN: 978-3-8356-3212-7
Für Abonnenten
€ 54,-
atp kompakt Band 3
Praktische Messtechnik – Die besten Konzepte
Dieser Band vermittelt wertvolles Know-how zu allen Aspekten der praktischen Messtechnik und fokussiert besonders die Prozessmesstechnik.
Lernen Sie die Fortschritte in der Sensortechnik entlang der Technologie-Roadmap kennen und profitieren Sie von erstklassigen
Konzepten zu kostengünstigen und effizienten Lösungen.
1. Auflage 2010, 72 Seiten mit CD-ROM, Broschur, € 59,- • ISBN: 978-3-8356-3213-4
Für Abonnenten
€ 54,-
atp kompakt Kollektion (Bände 1-3)
Erfolgreiches Engineering Effiziente Kommunikation Praktische Messtechnik
Mit dieser dreibändigen Kollektion zu den Themen Engineering, Kommunikation und Messtechnik erhalten Sie ein nützliches,
kompakt und praxisnah aufbereitetes Kompendium zu den Kernthemen der Automatisierungstechnik. Die wertvolle Grundlage
für Ihre tägliche und zukünftige Arbeit.
1. Auflage 2010, ca. 282 Seiten mit CD-ROM, Broschur • € 179,- • ISBN: 978-3-8356-3221-9
Für Abonnenten
€ 169,-
Sofortanforderung im Online-Shop www.di-verlag.de
oder telefonisch +49 (0)201 / 82002-14