05.05.2014 Aufrufe

atp edition Industrie 4.0 ohne modellbasierte Softwareentwicklung (Vorschau)

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

5 / 2014

56. Jahrgang B3654

DIV Deutscher Industrieverlag GmbH

Automatisierungstechnische Praxis

Industrie 4.0 ohne modellbasierte

Softwareentwicklung | 22

Engineering-Effizienz

automatisch messen | 32

Redundanz für verfügbare

Systeme | 42

Schutzzielorientiertes Design

der Sicherheitsleittechnik | 54


Rund um die Uhr

erstklassig informiert

• das innovative Online-Medium

• Nachrichten gezielt recherchieren

• die ideale Ergänzung zu atp edition

www.atpinfo.de

Automatisierung

auf den Punkt

Noch schneller informiert mit dem Newsletter atp!update

Jetzt für den Newsletter anmelden:

www.atpinfo.de/newsletter

atp edition

• Branche

• Veranstaltungen

• Forschung

• Produkte

update


EDITORIAL

Wir sind auf gutem Weg

Ist unsere Automatisierungstechnik reif für „Industrie 4.0“, die intelligente

und damit effizientere Fabrik der Zukunft? Diese Frage war Gegenstand

einer Podiumsdiskussion im Forum Industrial IT auf der diesjährigen Hannover

Messe. Mein Eindruck: Technologisch durchaus, konzeptionell noch

nicht ganz. Meine Überzeugung: Der Weg dorthin führt nur über die modulare

Automatisierung.

Da sind die Bemühungen des ISA-106 Technical Reports hilfreich, Strukturen

vorzuschlagen und Definitionsbarrieren zu überwinden. Da helfen die

Anforderungen der Namur-Empfehlung 148 Nutzern und Anbietern von

Automatisierungstechnik, ein gemeinsames Verständnis zu entwickeln und

die Brücke vom Abstrakten zum Konkreten zu schlagen. Da helfen auch die

Diskussionen, die aktuell zwischen den Fachverbänden geführt werden.

Noch sind nicht alle Aufgaben gelöst: ein ganzheitlicher Ansatz ist notwendig,

ja „alternativlos“. Herstellerneutralität, etwa in Form übergreifender

Zustandsmodelle, muss gewährleistet sein. Dabei darf Automatisierung die

Realisierung von „Industrie 4.0“ nicht ausbremsen, darüber herrscht Einigkeit.

Erreichen können wir dies nur gemeinsam. Bevor Geräte kommunizieren,

müssen zunächst Menschen miteinander reden: Automatisierer, Anlagenbauer,

Verfahrenstechniker, Betreiber.

Ganzheitlich vorzugehen und dabei der eigenen Kernkompetenz treu zu

bleiben bedeutet also, rasch weitere Akteure rund um den Prozess einzubeziehen.

Das betrifft zunächst vorrangig den Anlagenbau, um zügig den Schritt

in die Produktionsrealität zu machen, um Konzepte und Modelle praktisch

zu erproben. Gemeinsam mit der Verfahrenstechnik muss es gelingen, einen

kontinuierlichen Entwicklungsprozess anzustoßen, in dem sich konzeptionelle

und technologische Aspekte gegenseitig befruchten. Kundenindividuelle

Massenproduktion und Plattformstrategien wie in der Fertigungsindustrie

könnten ein gangbarer Weg sein, um in einer modularen Zukunft individuelle

Anlagen rasch, systematisch und damit kosteneffizient zu automatisieren.

Zunächst sollten Fallbeispiele gewählt werden, bei denen eine Modularisierung

besonders aussichtsreich, das heißt sowohl wirtschaftlich lohnend als auch

technologisch zeitnah umsetzbar erscheint. Relativ frei – aus modularen (!)

Untereinheiten – konfigurierbare Mehrzweckanlagen der Spezial- beziehungsweise

Feinchemie sind in dieser Hinsicht besonders attraktiv. Wann es schließlich

gelingt, auch komplexe verfahrenstechnische Einheiten modular zu betrachten

und zu automatisieren, wird die Zukunft zeigen. Können Sie sich zum

Beispiel jetzt bereits einen Cracker modularisiert vorstellen?

TIM-PETER

HENRICHS,

Head of Industrial Automation

Business Development,

Yokogawa Deutschland GmbH

atp edition

5 / 2014

3


INHALT 5 / 2014

VERBAND

6 | Verband der Chemischen Industrie begrüßt

Kompromiss der EU bei der EEG-Umlage

Erneuerbare-Energien-Gesetz (EEG):

VDI sieht Belastung von Eigenstromerzeugern kritisch

Seminar: Industrielle Bildverarbeitung

im Umfeld moderner Anforderungen

7 | Konferenz „Industrial IT Security 2014“

FORSCHUNG

8 | Startschuss für „Ruhr Master School of

Applied Engineering“ gefallen

Achema-Kongress: Beiträge gesucht

Call for Experts: Automation der Automation

9 | Alexander Verl verantwortet seit Anfang April

Technologie-Marketing bei Fraunhofer

BRANCHE

10 | BASF hört auf die guten Ideen von Mitarbeitern

und spart 50 Millionen Euro ein

VDE-Trendreport: Deutschland bleibt Innovationstreiber, aber…

11 | Hannover Messe: SAG GmbH und Keba AG

sichern sich Industriepreise

RUBRIKEN

3 | Editorial

62 | Impressum, Vorschau

4

atp edition

5 / 2014


PRAXIS

12 | Aus der Ferne warten:

Stillstandzeiten verhindern und teure

Vor-Ort-Einsätze vermeiden

14 | Vöslauer Mineralwasser modernisiert

die 40-Bar-Drucklufterzeugung

16 | In der Sortier- und Verteiltechnik setzen

Anwender auf individuelle Systemlösungen

18 | Optimierter Brandschutz durch moderne

Klappen mit angepasstem Stellantrieb

20 | Dank Abwärmenutzung bei Gussteil-

Herstellung vermindert Automobilzuliefer

CO2-Emmissionen

Produkte,

Systeme

und Service

für die

Prozessindustrie?

Natürlich.

HAUPTBEITRÄGE

22 | Industrie 4.0 ohne modellbasierte

Softwareentwicklung

O. NIGGEMANN

32 | Engineering-Effizienz

automatisch messen

R. DRATH, C. MESSINGER, B. SCHRÖTER, N. LI, G. GUTERMUTH

42 | Redundanz für verfügbare Systeme

T. GAMER, S. STATTELMANN

54 | Schutzzielorientiertes Design

der Sicherheitsleittechnik

Y. DING

Zum Beispiel der magnetischinduktive

Durchflussmesser

ProcessMaster. Er setzt neue

Maßstäbe mit umfangreichen

Diagnosemöglichkeiten, einer

Messabweichung von 0,2 %,

Explosionsschutz sowie der

ScanMaster-Software. Erfahren

Sie mehr über die erste Wahl in

der Durchflussmessung für die

Prozessindustrie:

www.abb.de/durchfluss

Wussten Sie, dass Ihnen ABB

neben dem umfassenden Portfolio

für die Instrumentierung ebenso

herausragende Produkte und

Lösungen für die Analysentechnik,

maßgeschneiderte Leitsysteme

sowie erstklassigen Service bietet?

Lesen Sie mehr unter:

www.abb.de/

prozessautomatisierung

ABB Automation Products GmbH

Tel.: 0800 111 44 11

Fax: 0800 111 44 22

vertrieb.messtechnik-produkte@de.abb.com


VERBAND

UTZ TILLMANN,

Hauptgeschäftsführer

des Verbandes

der Chemischen

Industrie begrüßt

die Entlastung

energie intensiver

Branchen im EU-

Kompromiss. Bild: VCI

Verband der Chemischen Industrie begrüßt

Kompromiss der EU bei der EEG-Umlage

Ohne den jetzigen Kompromiss

hätten unsere Unternehmen

eine bis zu 25-fache Mehrbelastung

im Vergleich zu heute schultern

müssen. Dies hätte ihrer Wettbewerbsfähigkeit

massiv geschadet“,

sagt Utz Tillmann, Hauptgeschäftsführer

des Verband der Chemischen

Industrie e.V (VCI). In einer

Erklärung des Verbandes vom

8. April 2014.

Umso erfreulicher ist für ihn die

Entscheidung der EU zur Entlastung

energieintensiver Branchen.

Der Verband der Chemischen Industrie sieht im von

Bundeswirtschaftsminister Gabriel verkündeten Kompromiss

mit der EU zu den Beihilfeleitlinien einen

großen Schritt zum Erhalt der Wettbewerbsfähigkeit

der Branche. „Das Ergebnis ist ein wichtiger politischer

Erfolg für den Chemiestandort Deutschland.

Viele Arbeitsplätze in der drittgrößten Industriebranche

wurden gesichert, indem die extrem hohen Zusatzbelastungen

abgewendet sind, wie die EU sie geplant

hatte“, so Tillmann weiter. Tillmann äußerte sich

auch positiv zu den Vorgaben im Kabinettsentwurf,

nach denen für die industrielle Eigenstromerzeugung

weiter der volle Bestandsschutz gilt. Für die Chemie

verbleiben unter anderem beim Thema Neuanlagen

noch Unsicherheiten, die im parlamentarischen Verfahren

gelöst werden sollten.

(ahü)

VERBAND DER CHEMISCHEN INDUSTRIE E.V. (VCI),

Mainzer Landstraße 55,

D-60329 Frankfurt am Main,

Tel. +49 (0) 69 255 60, Internet: www.vci.de

Erneuerbare-Energien-Gesetz (EEG): VDI sieht

Belastung von Eigenstromerzeugern kritisch

Kritisch hingegen sieht der VDI (Verband Deutscher

Ingenieure) die Pläne der Bundesregierung, Eigenstromerzeuger

künftig an der EEG-Umlage zu beteiligen.

„Die Belastungen gefährden die Wirtschaftlichkeit

neuer Anlagen. Sie stellen damit das Erreichen

der Ausbauziele für die erneuerbaren Energien in

Frage, ohne dass durch die Beteiligung die Stromkosten

für Endverbraucher sinken würden“, sagt Ralph

Appel, Direktor des VDI.

Zudem trage der Gesetzentwurf dem Systemgedanken

ungenügend Rechnung. „Das EEG ist bislang darauf

ausgerichtet, durch Anreize die Technologieentwicklung

zu unterstützen“, so Appel. Um die Effizienz des

Energiesystems zu erhöhen, müssen systemische Zusammenhänge

stärker berücksichtigt und die einzelnen

Energiemärkte und -technologien besser miteinander

vernetzt werden. Vor allem die Entwicklung und der

Ausbau der Netze sowie der Speicher, die zentrale und

dezentrale Energieerzeugung, das Lastmanagement sowie

die Kopplung des Strom- mit anderen Energiesystemen,

wie Gas- und Wärmenetze, sollen besser aufeinander

abgestimmt werden.

(ahü)

VDI VEREIN DEUTSCHER INGENIEURE E.V. (VDI),

VDI-Platz 1, D-40468 Düsseldorf,

Tel. +49 (0) 211 621 40,

Internet: www.vdi.de

6

Seminar: Industrielle Bildverarbeitung

im Umfeld moderner Anforderungen

Einsatz- und Anwendungsmöglichkeiten, Anforderungen,

Grundlagen und Entwicklungen der industriellen

Bildverarbeitung stehen im Mittelpunkt des

Seminars zur industriellen Bildverarbeitung am

8. und 9. Mai 2014 in Frankfurt am Main. Wie sie

Rationalisierungsdruck, 100-Prozent-Kontrolle und

Rückverfolgbarkeit für Ihre Produkte gewährleisten

können, vermittelt das Seminar. Danach wissen sie

mit welchen etablierten Methoden der Bildverarbeitung

Sie Prüfaufgraben lösen können und welchen

Einfluss das Zusammenspiel der einzelnen System-

atp edition

5 / 2014

komponenten und die Datenübertragung auf die Güte

der Bildverarbeitungslösung haben. Die Leitung der

Tagung übernehmen Prof. Dr. Christoph Heckenkamp

und Prof. Dr. Thomas Netzsch.

(ahü)

VDI WISSENSFORUM GMBH,

Kundenzentrum, Postfach 10 11 39,

D-40002 Düsseldorf, Tel. +49 (0) 211 621 42 01,

E-Mail: wissensforum@vdi.de,

Internet: www.vdi-wissensforum.de


Konferenz „Industrial

IT Security 2014“

EINE

AUSSTELLUNG

begleitet die

Fachkonferenz

am 7. und 8.

Mai 2014.

Bild: VDI

Wie können Sie verhindern, dass Malware oder

Cyberangriffe Ihre Produktion lahmlegen?

Dazu will die 2. VDI-Fachkonferenz „Industrial IT

Security 2014“ am 7. und 8. Mai 2014 in Frankfurt

am Main Antworten liefern. Fachexperten von Industrie,

Verband und Politik referieren aus ihrer

Alltagspraxis. Holger Junker vom Bundesamt für

Sicherheit in der Informationstechnik (BSI) informiert

zur Eröffnung über den korrekten Schutz der

Anlage. Unter der Leitung von Prof. Dr. Michael

Waidner vom Fraunhofer-Institut für Sichere Informationstechnologie

SIT werden danach Fragen

beantwortet, wie etwa:

Wie erkennen Sie die Bedrohungen und

Schwachstellen Ihres Produktionsnetzwerkes?

Was für Chancen und Risiken bietet Industrie

4.0 für Ihre Produktion?

Was können Normen zur Sicherheit Ihrer

Produktions- und Automatisierungssysteme

beitragen?

Welche wirkungsvollen Schutzmaßnahmen

und Lösungsansätze gibt es?

Am Vortag der Konferenz finden der Spezialtag

„Rechtsfragen der IT-Sicherheit in Produktionsumgebungen“

sowie der Spezialtag „IT-Sicherheit in

der Industrie – Erste-Hilfe-Kurs gegen Cyberbedrohungen“

statt. Am nachfolgenden Tag „Industrielle

IT-Sicherheit – Gefahren und Schutzmöglichkeiten“

bietet sich ebenfalls die Möglichkeit zur

Weiterbildung.

(ahü)

VDI WISSENSFORUM GMBH,

Kundenzentrum, Postfach 10 11 39,

D-40002 Düsseldorf, Tel. +49 (0) 211 621 42 01,

E-Mail: wissensforum@vdi.de,

Internet: www.vdi.de/IT-Security


FORSCHUNG

Startschuss für „Ruhr Master School of

Applied Engineering“ gefallen

Der Startschuss für den Aufbau einer gemeinsamen

Masterausbildung im Ingenieurbereich der Fachhochschule

Dortmund, der Hochschule Bochum und

der Westfälischen Hochschule in Gelsenkirchen ist

gefallen. Ziel der künftigen „Ruhr Master School of

Applied Engineering“ der drei Hochschulen ist es, ein

abgestimmtes regionales Portfolio von 10 bis 15 technisch

orientierten Masterstudiengängen aufzulegen.

Prof. Dr. Carsten Wolff, Prorektor für Studium, Lehre

und Internationales der Fachhochschule Dortmund,

entwickelte das Konzept mit und sieht die Partner damit

auf einem zukunftsorientierten Weg: „Die drei

Ruhr-Fachhochschulen wollen sich in der Masterausbildung

durch ein enges Andocken an den Wissenschaftsbereich

neu positionieren. Unser Ziel ist der

Transfer von neuesten wissenschaftlichen Erkenntnissen

in die Anwendung.“ Am Ende der gemeinsamen

Ausbildung stehen Ingenieure mit hoher Anwendungskompetenz.

Zum Angebot können auch englischsprachige

und berufsbegleitende Formate gehören. Typische

Achema-Kongress: Beiträge gesucht

Themen für künftige Studienangebote ergeben sich aus

den Profilen der Hochschulen: Nachhaltige Energieversorgung,

Sicherheit in der Kommunikation und medizintechnische

Anwendungen sind Beispiele für spezialisierte

Master-Angebote.

Ein Rahmenprogramm mit Schlüsselkompetenzen,

Internationalität, Projekten und Summer Schools soll das

Portfolio ergänzen und abrunden. Leisten soll die Kooperation

vor allem den vereinfachten Übergang aus den

Bachelorstudiengängen der beteiligten Hochschulen in

Masterstudiengänge der „Ruhr Master School“. Gemeinsam

können die Hochschulen außerdem die Vielfalt der

Masterstudiengänge steigern, da sich dann auch für eher

spezialisierte Masterstudiengänge genügend Interessenten

finden. Die Stiftung Mercator unterstützt das Projekt

mit einer Fördersumme von 750 000 Euro. (ahü)

FACHHOCHSCHULE DORTMUND,

Sonnenstraße 96, D-44139 Dortmund,

Tel. +49 (0) 231 911 20, Internet: www.fh-dortmund.de

Beiträge zu den Themen Energiewende, Globalisierung,

Öko- und Prozesseffizienz oder Bioökonomie

mit Praxisbezug zur Industrie sucht der Achema-Kongress

für 2015. Die Themengebiete Innovative Prozessanalytik,

Industrielles Wassermanagement und Biobased

World stehen dabei besonders im Mittelpunkt.

Mit etwa 800 Vorträgen bietet der Achema-Kongress

den Überblick über die Bandbreite der Prozesstechnik

ab. Mit rund 3800 Aussteller aus über 50 Ländern und

etwa 170 000 Besucher ist nach Angaben des Veranstalters

Dechema zu rechnen. Die Achema findet vom 15.

bis 19. Juni 2015 in Frankfurt am Main statt. (ahü)

DECHEMA AUSSTELLUNGS-GMBH,

Theodor-Heuss-Allee 25, D-60486 Frankfurt am Main,

Tel. +49 (0) 69 756 41 00, Internet: www.achema.de/congress

Call for atp experts: Automation der Automation

DIE AUSGABE 56(11) DER ATP EDITION

widmet sich dem Thema Automation

der Automation. Größere Anlagen, höhere

Auflagen, mehr Iterationen, weniger

Personal und weniger Zeit sind aktuelle

Herausforderungen für die Automation.

In bestimmten Branchen und Projekten

kann dieser Teufelskreis durch Automation

der Automation durchbrochen werden.

Erste erfolgreiche Ansätze sind in

Gebäude-, Fertigungs- und Prozessautomation

zu beobachten. In Ausgabe

56(11) diskutieren wir Lösungs-ansätze,

praktische Erfahrungen, Widerstände

und Projekterfolge in Theorie und Praxis.

Wir bitten Sie bis zum 5. Juli 2014 zu diesem

Themenschwerpunkt einen gemäß

der Autorenrichtlinien der atp edition

ausgearbeiteten Hauptbeitrag per E-Mail

an urbas@di-verlag.de einzureichen.

Die atp edition ist die hochwertige Monatspublikation

für Fach- und Führungskräfte

der Automatisierungsbranche. In

den Hauptbeiträgen werden die Themen

mit hohem wissenschaftlichem und technischem

Anspruch und vergleichsweise

abstrakt dargestellt. Im Journalteil werden

praxisnahe Erfahrungen von Anwendern

mit neuen Technologien, Prozessen

oder Produkten beschrieben.

Alle Beiträge werden von einem Fachgremium

begutachtet. Sollten Sie sich selbst

aktiv an dem Begutachtungsprozess beteiligen

wollen, bitten wir um kurze

Rückmeldung. Für weitere Rückfragen

stehen wir Ihnen selbstverständlich gerne

zur Verfügung.

Redaktion atp edition

Leon Urbas, Aljona Hartstock

CALL FOR

Aufruf zur Beitragseinreichung

Thema: Automation der Automation

Kontakt: urbas@di-verlag.de

Termin: 05. Juli 2014

8

atp edition

5 / 2014


Alexander Verl verantwortet seit Anfang April

Technologie-Marketing bei Fraunhofer

Prof. Alexander Verl, Institutsleiter des Fraunhofer

Instituts für Produktionstechnik und Automatisierung

IPA, tritt am 1. April 2014 sein Amt als Vorstand

Technologiemarketing und Geschäftsmodelle bei der

Fraunhofer-Gesellschaft an. Ziel des neu geschaffenen

Postens soll es sein, die Interessen von bestimmten

Branchen zu bündeln und diese mit dem Leistungsportfolio

von Fraunhofer abzugleichen, um konkrete

Angebote zu entwickeln.

Prof. Dr.-Ing. Alexander Verl (1966) startete nach seinem

Studium der Elektrotechnik als Entwicklungsingenieur

bei Siemens ins Berufsleben. Seine Dissertation

zur nichtlinearen Gelenkregelung eines Leichtbauroboters

schrieb er am DLR-Institut für Robotik und

Systemdynamik. Er gründete 1997 die Amatec Robotics,

die er acht Jahre als Geschäftsführer und Gesellschafter

leitete. 2005 wurde seine Firma als Tochterunternehmen

von der Kuka Roboter GmbH übernommen.

Die von ihm maßgeblich entwickelte Inline-Messtechnik

für den Karosseriebau ist heute weltweit bei

vielen Autobauern im Einsatz.

Nach der Selbstständigkeit wurde Alexander Verl

2005 Direktor am Institut für Steuerungstechnik der

Werkzeugmaschinen und Fertigungseinrichtungen

ISW der Universität

Stuttgart. 2006 trat er am

Fraunhofer IPA die Nachfolge von

Prof. Dr.-Ing. Rolf-Dieter Schraft

an und leitete das Institut bis zu

seinem Wechsel in den Fraunhofer-

Vorstand seit 2011 gemeinsam mit

Prof. Dr.-Ing. Thomas Bauernhansl.

An der Universität Stuttgart

hatte Verl auch den Vorstandsvorsitz

der Graduiertenschule für Advanced

Manufacturing Engineering

in Stuttgart inne, einem Promotionsprogramm

innerhalb der

Exzellenzinitiative des Bundes

und der Länder.

(ahü)

ALEXANDER VERL

ist seit dem 1. April

2014 im Vorstand der

Fraunhofer-Abteilung

Technologiemarketing

und Geschäftsmodelle.

Bild: Fraunhofer-Gesellschaft

ZENTRALE DER FRAUNHOFER-GESELLSCHAFT,

Hansastraße 27c, D-80686 München,

Tel. +49 (0) 89 12 05 40 00,

Internet: www.fraunhofer.de

E I N L A D U N G

Messtechnik Regeltechnik Steuerungstechnik Prozessleitsysteme

Mittwoch, 4. Juni 2014

8:00 bis 16:00 Uhr

Smidt-Arena

Bismarckstraße 125

51373 Leverkusen

Führende Fachfirmen der Branche präsentieren ihre Geräte und Systeme und

zeigen neue Trends in der Automatisierung auf. Die Messe wendet sich an

alle Interessierten, die auf dem Gebiet der Mess-, Steuer- und Regeltechnik

sowie der Prozessautomation tätig sind.

Der Eintritt zur Messe, die Teilnahme an den Workshops und der Imbiss

sind für die Besucher kostenlos.

Weitere Informationen finden Interessierte auf unserer Internetseite.

www.meorga.de

info@meorga.de

MEORGA GmbH

Sportplatzstraße 27

66809 Nalbach

Tel. 06838 / 8960035

Fax 06838 / 983292

atp edition

5 / 2014

9


BRANCHE

BASF hört auf die guten Ideen von Mitarbeitern

und spart 50 Millionen Euro ein

DAS TEAM in einem BASF-Betrieb zur Pflanzenschutzmittelherstellung

optimierte den Produktionsprozess, sodass rund

1,5 Millionen Euro gespart werden konnten. Bild: BASF

Knapp 50 Millionen Euro gespart hat die BASF, weil

sie Ideen ihrer Mitarbeiter umgesetzt hat. Im vergangenen

Jahr sind nach Angaben des Konzerns weltweit

23 000 Verbesserungsvorschläge umgesetzt worden. Insgesamt

hatten die Mitarbeiter 42 000 Ideen eingereicht.

In Ludwigshafen seien insgesamt 31 Millionen Euro

durch gute Ideen eingespart worden.

Das Team eines Betriebs, der Wirkstoffe für Pflanzenschutzmittel

herstellt, hat beispielsweise mit drei aufeinander

folgenden Ideen insgesamt 1,5 Millionen Euro

gespart. In der Anlage werden zwei Produkte hergestellt,

eins im Winter und ein anderes im Sommer. Bei

jeder Produktionsumstellung muss die Anlage aus Qualitätsgründen

gereinigt werden. Bisher dauerte die Umstellung

etwa sechs Wochen. Vor zwei Jahren nahmen

die Mitarbeiter schichtübergreifend alle Prozesse unter

die Lupe: Abwasseraufbereitung, Aufwärm- und Abkühlprozesse,

Stoffkreisläufe sowie Fahrweisen. Ihre

Verbesserungsideen setzten sie nach und nach um. Jetzt

dauert die Umstellung nur noch zwei statt sechs Wochen

und es werden größere Mengen der beiden Produkte

hergestellt. Viel Zeit wurde zum Beispiel beim

Überprüfen der gesäuberten Behälter auf Rückstände

gespart. Dank eines eigenen Geräts werden die Proben

jetzt direkt im Betrieb analysiert und das Warten auf

die Ergebnisse aus dem Zentrallabor fällt weg. Außerdem

sorgt ein Umstellungskoordinator für einen reibungslosen

Ablauf des Gesamtprozesses. „Er arbeitet

schichtübergreifend und ist Ansprechpartner für alle

beteiligten Mitarbeiter und Gewerke. Dadurch werden

die vielen verschiedenen Aktivitäten besser koordiniert

und effizient umgesetzt“, sagt Dr. Harald Bernard, Leiter

des Betriebes. Für die Gesamtleistung bekam das

Team 130 000 Euro Prämie.

(ahü)

BASF SE,

Carl-Bosch-Str. 38, D-67056 Ludwigshafen,

Tel. +49 (0) 621 600, Internet: www.basf.com

VDE-Trendreport: Deutschland

bleibt Innovationstreiber, aber…

ENERGIEEFFIZIENZ

ist eines der Trendthemen,

die Deutschland

zum weltweiten

Innovationstreiber

macht.

Bild: Rainer Sturm/pixelio.de

Die diesjährigen Ergebnisse des Trendreports vom

Verband der Elektrotechnik Elektronik Informationstechnik

e.V. (VDE) sind da. Die Befragung unter

1300 VDE-Mitgliedsunternehmen und Hochschulen

ergab, dass Deutschland Innovationsführer im Bereich

der Elektrotechnik bleibt. Treiber in der Entwicklung

seien, nach Angaben des Verbandes Anfang

April, Energieeffizienz und intelligente Stromnetze,

Elektromobilität, Medizintechnik sowie Industrie 4.0.

Weiterhin wurde festgestellt, dass Unternehmen der

Elektro- und IT-Branche 2014 ihre Investitionen in

Forschung und Entwicklung auf hohem Niveau halten

oder sogar erhöhen. Berufsperspektiven für Elektroingenieure

bleiben weiterhin gut.

Allerdings nehme der Wettbewerb um die besten

Köpfe zu. Unternehmen und Hochschulen bemängeln

personelle Engpässe. Sechs von zehn Befragten kritisieren

die Ausstattung von Forschung und Lehre und

befürworten Bürokratieabbau.

(ahü)

VDE-VERBANDSGESCHÄFTSSTELLE,

Stresemannallee 15, D-60596 Frankfurt am Main,

Tel. +49 (0) 69 630 80,

Internet: www.vde.de

10

atp edition

5 / 2014


Hannover Messe: SAG GmbH und Keba AG

sichern sich Industriepreise

Kanzlerin Angela Merkel warnte zur Eröffnung der

diesjährigen Hannover Messe am 6. April 2014 davor,

dass Deutschland im internationalen Wettbewerb

der Industrie abgehängt werden könnte. Gegen diesen

vermeintlichen Trend steuern die Veranstalter der internationalen

Industriemesse mit der Verleihung des

Hermes Awards. Außerdem wurde auf der Hannover

Messe der Robotics Award vergeben. Die Keba AG sicherte

sich mit einem neuartigen Roboterbediengerät

den ersten Platz im Wettbewerb für angewandte Roboterlösungen

vor der Fanuc Deutschland GmbH. In

diesem Jahr wurde der Technologiepreis Hermes

Award an die SAG GmbH übergeben.

Die SAG GmbH erhält die Auszeichnung für ihr intelligentes

Verteilnetzmanagement, mit dem ein konventionelles

Niederspannungsnetz schrittweise zu

einem Smart Grid umgerüstet werden kann. Die modulare,

dezentrale und autarke Mess- und Regelsystemplattform

besteht aus einer dezentralen Netzzustandserfassung

unter Einbeziehung dezentraler intelligenter

Software-Agenten. Die Einspeise- und Lastflusssituationen

werden in Echtzeit kontrolliert. Bei Bedarf werden

kritische Abweichungen durch Regelung der im

Netz vorhandenen Betriebsmittel sowie der eingebundenen

Erzeuger und Verbraucher ausgeglichen. So können

in drei Ausbauschritten vom Stationsmonitoring

über das Netzmonitoring bis hin zur Netzautomatisierung

mit Ines vorhandene Netzkapazitäten optimal

genutzt werden.

Prof. Johanna Wanka, Bundesministerin für Bildung

und Forschung, überreichte den Hermes Award am

Sonntag vor der Messe-Eröffnung. „Die Energiewende

ist ein gesamtgesellschaftliches Großprojekt. Für die

erfolgreiche Umsetzung sind wegweisende Innovationen

für einen intelligenten Netzumbau von großer

Bedeutung, da sie Umwelt und Ressourcen schonen“,

so die Ministerin in ihrer Laudatio anlässlich der Preisverleihung.

„Das Votum der Jury war einstimmig. Dabei hat uns

neben der technologischen Lösung auch der wirtschaftliche

Aspekt überzeugt, da aufgrund der verbesserten

Auslastung der bestehenden Netze auf einen Teil des

kostenintensiven Netzausbaus verzichtet werden kann,

ohne die Netzstabilität zu gefährden“, ergänzte Prof.

Wolfgang Wahlster, Vorsitzender der Jury und Vorsitzender

der Geschäftsführung des Deutschen Forschungszentrums

für Künstliche Intelligenz (DFKI).

Neben dem Gewinner SAG GmbH (Langen) waren

auch die Bürkert Werke GmbH & Co. KG (Ingelfingen),

KHS GmbH (Dortmund), Phoenix Contact GmbH & Co.

KG (Blomberg), und Sensitec GmbH (Lahnau) nominiert.

Der Gewinner des Robotics Award 2014 ist die Keba AG.

Sie sicherte sich mit einem Roboterbediengerät den ersten

Platz im Wettbewerb für angewandte Roboterlösungen vor

der Fanuc Deutschland GmbH. Nachdem in diesem Jahr

vier statt der üblichen drei Nominierten in das Rennen

um den Award gingen, wurde erstmals der dritte Platz

doppelt vergeben: Platz drei teilen sich die Robert Bosch

GmbH sowie die Continental Reifen Deutschland GmbH

gemeinsam mit Preccon Robotics GmbH. Niedersachsens

Wirtschaftsminister Olaf Lies überreichte die Preise am

Dienstag während der Hannover Messe. (ahü)

DEUTSCHE MESSE AG,

Messegelände, D-30521 Hannover,

Tel. +49 (0) 511 890,

Internet: www.hannovermesse.de

DIE SAG GMBH

gewann den Hermes

Award auf der

Hannover Messe

2014. Er wurde

überreicht von

Johanna Wanka

(rechts).

Bild: Deutsche Messe

atp edition

5 / 2014

11


PRAXIS

Aus der Ferne warten: Stillstandzeiten verhindern

und teure Vor-Ort-Einsätze vermeiden

Internetbasierte Fernwartung bei weltweit 100 Rundtakt-Maschinen erfolgreich etabliert

TOBIAS HALBRITTER aus dem

Bereich Maschinen-IT und Software-

Entwicklung ist für das Teleservice-

System verantwortlich.

DER IM SCHALTSCHRANK installierte

Security-Router FL MGuard RS4000

TX/TX VPN sorgt für sichere

VPN-Verbindungen.

DIE K.R. PFIFFNER GMBH stellt

Rundtaktmaschinen zur Massenfertigung

von Präzisionsteilen her.

DIE PORTAL-STRUKTUR

des Fernwartungssystems

ermöglicht die einfache

Anbindung von

Zulieferunternehmen.

DIE TELE-

SERVICE-BOX

dient zur

temporären

VPN-Anbindung

von Kundenanlagen.

Bilder: Phoenix

Contact

Alle 3 bis 60 Sekunden, je nach Komplexität, verlässt

ein Werkstück die Rundtaktmaschine der K.R. Pfiffner

GmbH. Um den reibungslosen Produktionsprozess

mit hoher Verfügbarkeit sicherzustellen, ist ein 24-Stunden-Service

des Maschinenbauers nötig. Nur so können

im Fehlerfall schnell entsprechende Maßnahmen ergriffen

werden, damit die Bearbeitungszentren nur für

kurze Zeit außer Betrieb sind. Den sicheren Fernzugriff

ermöglicht nun ein Security Router der Phoenix Contact

Electronics GmbH.

GUTE ERFAHRUNGEN MIT DER

MGUARD-TECHNOLOGIE

Die Rundtaktmaschinen produzieren jeweils mehr als

300 000 Werkstücke pro Jahr. Die Stücke können faustgroß

werden. 450 weltweit tätige Mitarbeiter des zur

Pfiffner-Gruppe mit Sitz im schweizerischen Thalwil

gehörenden Unternehmens stellen die Bearbeitungszentren

her. Diese werden beispielsweise zur Massenfertigung

von Präzisionsteilen für die Automobil-Industrie

verwendet. Beispiele bilden Einspritzsysteme

oder Turbolader.

„Ursprünglich wurde die Fernwartung durch analoge

Modem-Verbindungen realisiert. Allerdings hat die

Performance nicht mehr unseren Anforderungen genügt.

Außerdem traten oft Verbindungsprobleme auf“,

sagt Tobias Halbritter, der das Fernwartungssystem bei

Pfiffner betreut und maßgeblich für die umgesetzte

Struktur auf Basis sicherer VPN-Verbindungen (Vir tual

Private Network) verantwortlich ist. Das Kernelement

des neuen Fernwartungskonzepts ist der Security-Router

FL MGuard RS4000 TX/TX VPN von Phoenix

Contact, der in den Bearbeitungszentren verbaut ist.

„Da wir die MGuard-Technologie mit integrierter Firewall-Funktionalität

bereits zur Ankopplung unserer

Anlagen an das Kundennetz nutzen, war es nur folgerichtig,

dass wir das Gerät auch für den sicheren Fernzugriff

einsetzen“, erklärt Halbritter.

12

atp edition

5 / 2014


REDUZIERUNG DER WARTUNGSKOSTEN

Die Vorteile des Internet-basierten Fernzugriffs: Für

den Service-Techniker verhält sich die VPN-Verbindung

so, als ob er direkt vor der Anlage sitzen würde.

Das verkürzt die Reaktionszeiten im Wartungsfall

deutlich. Darüber hinaus ist ein Vor-Ort-Einsatz

meist nicht mehr notwendig, sodass erhebliche Wartungskosten

eingespart werden. Auf diese Weise

rechnen sich die Investitionen in die Teleservice-

Lösung schnell.

Falls der Service-Techniker doch einmal zum Kunden

reisen muss, kann er seine Arbeit deutlich besser

vorbereiten. „Ein häufig bei uns auftretendes Problem

sind die Sprachbarrieren zwischen unseren Mitarbeitern

und dem Personal des zum Teil auch im Ausland

ansässigen Anwenders, weshalb Fehlermeldungen des

Steuerungssystems oftmals falsch oder unvollständig

kommuniziert werden. Durch den Direktzugriff auf die

Meldungslisten entfallen diese Probleme“, erläutert

Roland Schneider, Leiter der Elektrokonstruktion.

KONTROLLE ÜBER DEN NETZWERKZUGANG

Aktuell sind 100 Maschinen sowie mehr als 25 Service-

Techniker in das System eingebunden. Durch das Betätigen

eines Schlüsselschalters initiiert der Anwender

im Wartungsfall den Aufbau des IPsec-Tunnels zum

Pfiffner Remote Services Center. Anschließend hat der

Wartungstechniker Zugriff auf die Anlage. Der Betreiber

behält die Kontrolle über den Zugang zur Anwendung,

was die Akzeptanz der Technologie steigerte.

Der optionale externe Konfigurationsspeicher des

FL MGuard erweist sich ebenfalls als hilfreich. Da die

Pfiffner-Mitarbeiter die IP-Parameter des Kundennetzes

im Vorfeld der Maschinenauslieferung noch nicht kennen,

lässt sich die Konfiguration nachträglich per SD-

Karte übertragen, ohne dass das Personal des Anwenders

über spezielle Kenntnisse verfügen muss. Das gilt

auch für den einfachen Gerätetausch im Fehlerfall.

mit hier kein Adresskonflikt entsteht, wenn mehrere

Rundtaktmaschinen gleichzeitig gewartet werden sollen,

müssen die Adressen virtualisiert respektive in

eigenständigen Adressbereichen abgebildet werden.

So ist wieder für eine Eindeutigkeit gesorgt. Diese Anforderung

wird in den MGuard-Routern durch 1:1-

NAT (Network Address Translation) im VPN-Tunnel

umgesetzt.

TELESERVICE-BOX FÜR TEMPORÄRE ZUGRIFFE

Weltweit sind rund 2 500 Pfiffner-Rundtaktmaschinen

in Betrieb, wobei die meisten Anlagen netzwerktechnisch

noch nicht erreichbar sind. Um im Service-

Fall oder bei Umrüstarbeiten auch hier einen Fernzugriff

zwecks Unterstützung des Technikers vor Ort zu

ermöglichen, hat der Maschinenbauer eine Teleservice-Box

entwickelt. Die Box umfasst zusätzlich zum

Security-Router FL MGuard einen WLAN-Router FL

WLAN 5100 von Phoenix Contact. Somit kann die

temporäre Internet-Anbindung der Maschine entweder

über Ethernet-Patchkabel oder durch Ankopplung

an ein kundenseitiges WLAN-Netzwerk realisiert

werden. Nach der Beendigung des Service-Einsatzes

wird die Box einfach an den nächsten Wartungsort

mitgenommen.

FAZIT

Die Verwendung einer Internet-basierten Fernwartung

mit sicheren VPN-Verbindungen bringt sowohl dem

Hersteller als auch dem Betreiber der Pfiffner-Bearbeitungszentren

Vorteile. Dazu zählt neben der schnelleren

Reaktion im Fehlerfall durch den direkten Zugriff

auf die Anlage und damit der Minimierung von Stillstandzeiten

ebenfalls die Reduzierung der Service-

Kosten, weil kostspielige Einsätze vor Ort entfallen.

Dies sind Kriterien, die insbesondere bei der Massenteil-Fertigung

durch die Rundtaktmaschinen eine entscheidende

Rolle spielen.

ZUGRIFF BESCHRÄNKT AUF BESTIMMTE

ANLAGENTEILE

Die VPN-Zentrale ist bewusst nicht in das Pfiffner-

Unternehmensnetzwerk integriert, sondern wird als

Portal-System mit eigenem Internet-Zugang betrieben.

So kann Pfiffner externen Zulieferern den sicheren Zugriff

auf Teile der entsprechenden Kundenanlage einräumen,

ohne diesen durch das eigene Kommunikationsnetz

zu tunneln. Die Security-Funktion des

MGuard-Routers – insbesondere die frei konfigurierbare

Firewall innerhalb des VPN-Tunnels – erlaubt selektive

Zugriffsbeschränkungen auf bestimmte Teile

der Bearbeitungszentren.

Aus netzwerktechnischer Sicht sind die Kundenanlagen

mit identischen Adressbereichen konfiguriert.

Das hat den Vorteil, dass sich einzelne Anlagenteile

stets mit der gleichen IP-Adresse erreichen lassen. Da-

AUTOR

Dipl.-Ing. (FH) MICHAEL VETTER ist

Technical Sales Network & Security bei

Phoenix Contact in Blomberg.

Phoenix Contact Deutschland GmbH,

Flachsmarktstraße 8, D-32825 Blomberg,

Tel. +49 (0) 5235 31 20 00,

E-Mail: info@phoenixcontact.de

atp edition

5 / 2014

13


PRAXIS

Vöslauer Mineralwasser modernisiert

die 40-Bar-Drucklufterzeugung

Steuerung wählt die günstigste Kompressorkombination

DIE GETRÄNKE-

INDUSTRIE

erwartet 2014 ein

starkes Wachstum im

Volumen.

Bild: Comp Air

NACH UNTER-

SUCHUNGEN

VON COMPAIR

verbrauchen diese

PET-Kompressoren

mindestens 5 %

weniger Energie als

vergleichbare

Verdichter.

Bild: Comp Air

DIPL.-ING. HERBERT SCHLOSSNIKL,

Vostand Produktion, Technik bei der Vöslauer

Mineralwasser: „Bis 2018 haben wir hier

keinen Modernisierungsbedarf, und wenn

der Bedarf überproportional wachsen sollte,

können wir einfach den Redundanzkompressor

zuschalten.“ Bild: Vöslauer

Für die Getränkeindustrie war der Sommer 2013

erfolgreich. Speziell die Mineralbrunnenunternehmen

hatten allen Grund zur Freude bei einem Plus von

30 % bereits im Juli 2013. Auch 2012 haben die Deutschen

trotz des eher kühlen Sommers 1,7 % mehr Mineral-

und Heilwasser getrunken als im Jahr zuvor. Der

Pro-Kopf-Verbrauch von Mineral- und Heilwasser lag

bei 137 Litern wie der Verband Deutscher Mineralbrunnen

(VDM) mitteilte.

ZWEI MILLIONEN PET-FLASCHEN PRO TAG

Da heißt es technisch Aufrüsten – auch bei unseren

Nachbarn in Österreich. In der PET-Technologie ist Bewegung:

Vöslauer Mineralwasser, Marktführer für Mineralwasser

in Österreich, hat die Drucklufterzeugung

für die PET-Flaschen-Produktion modernisiert und den

Systemanbieter Comp Air damit beauftragt, zwei

40-Bar-Kompressoren durch eine energieeffiziente, ölfrei

verdichtende Maschine der Marke Belliss & Morcom

zu ersetzen. Ebenso wie Comp Air gehört B&M zur

Gardner Denver-Gruppe.

Das Unternehmen ist mit einem Marktanteil von über

41 % Österreichs größter Mineralwasserhersteller und

gehört zu Ottakringer Getränke. Es beschäftigt rund

180 Mitarbeiter und füllt pro Tag bis zu zwei Millionen

PET-Flaschen ab, die Jahresproduktion beträgt über

3 Millionen Hektoliter. Basis aller Erzeugnisse ist Mineralwasser

aus einer artesischen Quelle, das in zirka

660 Metern Tiefe lagert und einen sehr ausgewogenen

Mineralgehalt aufweist.

NIEDRIGE DREHZAHL FÜR RUHIGEN LAUF

Einer der Gründe für die Erneuerung der Drucklufterzeugung

war, die Energieeffizienz zu verbessern. In der

PET-Flaschenproduktion werden die angelieferten

daumengroßen Preforms mit einem Druckstoß von

40 Bar auf die gewünschte Größe aufgeblasen. Vöslauer

hat für diese Aufgabe mehrere Hochgeschwindigkeits-Streckblasmaschinen

im Einsatz, die große Mengen

Druckluft benötigen – wobei es in den letzten Jahren

durch die Anschaffung neuer Maschinen schon gelang,

den Druckluftbedarf um rund 25 % auf 5 000 m 3 /h zu

reduzieren.

Für die benötigte Druckluftmenge empfahlen die

Comp-Air-Ingenieure den Einsatz eines dreistufigen

ölfrei arbeitenden WH 29 H3N von Belliss & Morcom,

14

atp edition

5 / 2014


Herausforderung

Automatisierungstechnik

dessen drei doppeltwirkende Zylinder in W-Form angeordnet

sind. Dieses Design, das speziell für die PET-

Produktion entwickelt wurde, schafft durch die niedrige

Drehzahl eine wichtige Voraussetzung für den

ruhigen, schwingungsarmen Lauf. Deshalb benötigen

die Verdichter kein spezielles Fundament.

ÜBERGEORDNETE STEUERUNG

Die in Bad Vöslau installierte Maschine liefert maximal

1950 m3/h Druckluft in das 40-Bar-Netz – und das mit

hoher Wirtschaftlichkeit. Nach Untersuchungen von

Comp Air verbrauchen diese PET-Kompressoren mindestens

5 % weniger Energie als vergleichbare Verdichter.

Dazu trägt das doppelwirkende Verdichtungsprinzip

ebenso bei wie die Zweistufenregelung mit Vollund

Halblast sowie der direkt angeflanschte 385 kW-

Elektromotor.

Da alle Kompressoren in ein gemeinsames Netz speisen,

bot es sich an, mit der Modernisierung der Station

eine übergeordnete Steuerung zu installieren, die die

einzelnen Verdichter bedarfsgerecht zu- und abschaltet.

Deshalb gehörte zum Lieferumfang eine Gesamtsteuerung,

die in vielen Werksluftnetzen im Einsatz ist

und vor allem bei höheren Druckbereichen die Energieeffizienz

der Station verbessert. „Wir setzen prinzipiell

drei Kompressoren ein, der vierte bleibt nur als

Redundanzmaschine für Wartungsarbeiten am Netz.

Die Steuerung sorgt dafür, dass immer die wirtschaftlichste

Kompressorkombination die benötigte Druckluft

liefert“, sagt Walter Goisser, Technischer Leiter bei

Vöslauer Mineralwasser.

Der Mineralwasserhersteller ist mit der modernisierten

40-Bar-Station gut vorbereitet auf das geplante

Wachstum. „Bis 2018 haben wir hier keinen Modernisierungsbedarf,

und wenn der Bedarf überproportional

wachsen sollte, können wir einfach den Redundanzkompressor

zuschalten“, sagt Giosser.

AUTOR

JOSEF HUBER

ist Niederlassungsleiter

und Mitglied der

Geschäftsführung bei

der Comp Air in Linz.

Comp Air GmbH,

Im Südpark 207, A-4030 Linz,

Tel. +43 732 320 88 00,

Internet: www.compair.de

Mit dem atp-award werden zwei Autoren der atp edition für

hervorragende Beiträge ausgezeichnet. Ziel dieser Initiative

ist es, Wissenschaftler und Praktiker der Automatisierungstechnik

anzuregen, ihre Ergebnisse und Erfahrungen in Veröffentlichungen

zu fassen und die Wissenstransparenz in der

Automatisierungstechnik zu fördern. Teilnehmen kann jeder

Autor der zum Zeitpunkt der Veröffentlichung nicht älter als

35 Jahre ist. Nach Veröffentlichung eines Beitrags ist der Autor,

wenn er die Bedingung erfüllt, automatisch im Pool. Die

Auswahl des Gewinners übernimmt die atp-Fachredaktion.

Derjenige Autor, der im Autorenteam der jüngste ist, erhält

stellvertretend für alle Autoren die Auszeichnung. Der Preis

wird in zwei Kategorien ausgelobt: Industrie und Hochschule.

Die Kategorien ermittlung ergibt sich aus der in dem Beitrag

angegebenen Adresse des jüngsten Autors.

Veröffentlichungen – Beitrag zum Wissenspool im

Fachgebiet Automatisierungstechnik

Die Entwicklung eines Wissensgebietes erfolgt durch einen

kooperativen Prozess zwischen wissenschaftlicher Grundlagenforschung,

Konzept- und Lösungsentwicklung und Anwendung

in der Praxis. Ein solcher Prozess bedarf einer gemeinsamen

Informationsplattform. Veröffentlichungen

sind die essentielle Basis eines solchen Informationspools.

Der atp-award fördert den wissenschaftlichen Austausch

im dynamischen Feld der Automationstechnik. Nachwuchsinge

nieure sollen gezielt ihre Forschungen präsentieren

können und so leichter den Zugang zur Community erhalten.

Der Preis ist mit einer Prämie von jeweils 2000€ dotiert.

Die Auswahl erfolgt in zwei Stufen:

Voraussetzung für die Teilnahme ist die Veröffentlichung

des Beitrags in der atp edition. Jeder Aufsatz, der als Hauptbeitrag

für die atp edition eingereicht wird, durchläuft das

Peer-Review-Verfahren. Die letzte Entscheidung zur Veröffentlichung

liegt beim Chefredakteur. Wird ein Beitrag veröffentlicht,

kommt er automatisch in den Pool der atp-award-

Bewerber, vorausgesetzt einer der Autoren ist zum Zeitpunkt

der Veröffentlichung nicht älter als 35 Jahre. Ausgezeichnet

wird der jüngste Autor stellvertretend für alle Autoren der

Gruppe. Eine Jury aus Vertretern der atp-Fachredaktion

und des -Beirats ermittelt schließlich den Gewinner in den

jeweiligen Kategorien Hochschule und Industrie.

Der Rechtsweg ist ausgeschlossen.

Beiträge richten Sie bitte an:

DIV Deutscher Industrieverlag GmbH

Herrn Prof. Leon Urbas

Chefredakteur atp edition

Arnulfstraße 124 • 80636 München

Tel. +49 (0) 89 203 53 66-58 • E-Mail: urbas@di-verlag.de

Beachten Sie die Autorenhinweise der atp edition für

Hauptbeiträge unter folgendem Link:

http://www.atp-online.de

Bitte senden Sie Ihre Beiträge an: urbas@di-verlag.de


PRAXIS

In der Sortier- und Verteiltechnik setzen

Anwender auf individuelle Systemlösungen

Maßgeschneiderte automatisierte Lösungen: Einheitliche Standards verkürzen die Projektlaufzeiten

Der Trend zur Automatisierung setzt sich in der

Intralogistik weiter fort. Denn Anwender wollen

mit ihren Anlagen und Systemen rationeller und sicherer

arbeiten. Gleichzeitig sollen Mitarbeiter von

monotonen und körperlich schweren Arbeiten entlastet

werden. Die Beumer Group entwickelt Systemlösungen

in den Bereichen Förder- und Verladetechnik,

Palettier- und Verpackungstechnik sowie Sortier- und

Verteilanlagen. Diese stattet das Unternehmen je nach

Kundenanforderung mit effizienten Automatisierungslösungen

aus.

AUFEINANDER ABGESTIMMTE SYSTEME

Unternehmen aus unterschiedlichen Branchen setzen

dabei immer häufiger auf Systemlösungen, die speziell

auf ihre individuellen Bedürfnisse zugeschnitten sind.

„Die Anwender wollen nicht mehr nur eine Anlage haben,

sie wollen eine Kombination mehrerer Anlagen,

die optimal aufeinander abgestimmt sind“, sagt Franz-

Josef Kleigrewe, Automatisierungsleiter bei der Beumer

Group. Dazu gehören Sortier- und Verteilanlagen, die

beispielsweise in Distributionszentren eingesetzt werden.

Um schnelle Auslieferungen an die Kunden gewährleisten

zu können, sind effiziente Prozesse erforderlich.

Kommen die Produkte am Wareneingang an,

werden sie abgeladen und auf Paletten gestapelt. Mitarbeiter

legen die Waren auf Flachgurtförderer, die sie

einem Liniensorter zuführen. Dieser kann sie direkt

zum Versand-Sorter leiten, zur Einschleuseinheit des

Vorsortierers oder direkt ins Lager – wie im Nike China

Logistics Center (CLC) in Taicang.

BEI NIKE IN CHINA

In Jiangsu befindet sich das größte Distributionszentrum

des Sportartikelherstellers in Asien. Alle Lieferungen

von Kleidung und Schuhen für das chinesische

Festland werden über Anlagen des Intralogistik-Herstellers

abgewickelt. Bei Bedarf nehmen Mitarbeiter

die Produkte aus dem Lager und legen sie in die Kunststoffschalen

einer Förderanlage. Diese transportiert die

Schalen zu einem weiteren Förderer. Die Schalen sowie

die Kartons mit den Chargen aus dem Vorsortierer

werden zusammengeführt und geleert. Die Mitarbeiter

legen die Artikel anschließend auf einen Quergurtsorter.

Dieser sortiert die Waren in den Kunststoffschalen

automatisch in festgelegte Behälter, die im Kippbereich

ausgeschüttet werden. Von dort aus werden die Artikel

über ein System von Flachgurtförderern zu den Mitarbeitern

transportiert, die diese manuell auf den Endsortierer

legen. Kommissioniert wird mit Pick-by-

Voice. Als Systemintegrator steht Beumer seinen Kunden

von der Planung bis zur Inbetriebnahme zur Seite.

Ein Ansatz ist eine modulare Anlagenkonzeption mit

hochautomatisierter Sortiertechnik. Die Systemlösungen

kombiniert das Unternehmen dabei aus verschiedenen

Bausteinen. „Systeme und Anlagen, die

DIE MITARBEITER des Beumer Customer

Supports übernehmen vor Ort die Installation

sowie die Inbetriebnahme.

wir nicht im Programm haben, wie zum Beispiel Scanner,

kaufen wir von ausgewählten Zulieferern und integrieren

sie in unsere Lösungen“, sagt Kleigrewe.

ERFAHRUNGSWERTE ZÄHLEN

Damit Beumer die Anwender angemessen betreuen

kann, hat die Firma in den einzelnen Gruppengesellschaften

sowie am Standort Beckum Teams gebildet,

die sich speziell um Automatisierungslösungen kümmern.

Mittlerweile sind mehr als 200 Mitarbeiter für

diesen Bereich beschäftigt. Die Mitarbeiter begleiten

die Projekte von der Anfrage bis zur Übergabe an den

Kunden. Zuerst erstellen die Spezialisten einen Systementwurf.

Passt dieser, geht es an die Umsetzung.

Die Mitarbeiter übernehmen die Elektroinstallationen

und integrieren die Maschinen- und Anlagensteuerungen.

Teil des Systems ist zudem eine graphische

Darstellung der Prozesse auf einer Benutzeroberfläche.

Zwischen den verschiedenen Betriebsebenen

werden Informationen zum Beispiel

über ERP- und MES-Systeme übertragen.

Im Beumer-eigenen Technikum in Beckum sind verschiedene

Sortier- und Verteilanlagen aufgebaut. Die

Mitarbeiter können hier mehrere Tests durchführen,

um die Anlage auf besondere Anforderungen der Anwender

anzupassen. „Dabei helfen uns wertvolle Erfahrungen,

die wir in zahlreichen Projekten weltweit

16

atp edition

5 / 2014


ZU IHREN

AUFGABEN

gehören

außerdem die

Elektroinstallationen

sowie die

Integration der

Maschinenund

Anlagensteuerungen.

DIE HOCH-

LEISTUNGS-

SORTIER-

ANLAGE

LS-4000

DIE STEUERUNG

der einzelnen

Maschinen

ist mit einer

systemweiten

Transparenz des

W o r k fl o w s

verbunden.

DER E-TRAY

SORTER kommt

weltweit in

Post- und

Verteilzentren

zum Einsatz.

Bilder: Beumer Group

sammeln konnten“, sagt Kleigrewe. Die Feinarbeit übernehmen

anschließend die Mitarbeiter vor Ort bei der

Installation und Inbetriebnahme.

EINHEITLICHE STANDARDS

„Die Ausgangssituation sieht häufig so aus: Je größer

eine Anlage ist und je mehr Systeme integriert sind,

desto mehr Steuerungssysteme sind auch im Einsatz,

die aufeinander abgestimmt werden müssen“, erläutert

der Automatisierungsleiter. Bei Beumer wurden

im Lauf der Jahre zum Beispiel vier Steuerungssysteme

entwickelt. „Um bei der Entwicklung flexibler

zu sein und auch eine schnellere Inbetriebnahme zu

ermöglichen, ist es unser Ziel, bei allen Entwicklungen

auf ein einheitliches Antriebskonzept sowie

einheitliche Maschinen- und Anlagensteuerungen

zu setzen“, sagt Kleigrewe. „Förderelemente oder

Schnittstellendefinitionen für die horizontale und

vertikale Kommunikation bieten wir schon aus dem

Baukasten an.

Sind die Anlagen in Betrieb genommen, schulen Mitarbeiter

im Kundenservice die Maschinenbediener

und das Wartungspersonal. Denn nur so können die

Anlagen mit einer maximalen Betriebszeit laufen. Dabei

werden die Maschinenbediener auf den neuesten

Stand gebracht und neue Mitarbeiter an die Systeme

herangeführt. „Automatisierte Lösungen eignen sich

besonders bei kontinuierlichen Prozessen, wenn beispielsweise

Anlagen rund um die Uhr sieben Tage die

Woche laufen“, empfiehlt Kleigrewe. „Unternehmen

sparen somit Mitarbeiter ein, die sie an anderen Stellen

einsetzen können. Damit haben sich automatisierte

Lösungen in kurzer Zeit amortisiert.“

AUTORIN

Beumer Group GmbH & Co. KG,

Oelder Str. 40, D-59269 Beckum,

Tel. +49 (0) 252 12 40,

E-Mail: beumer@beumergroup.com

REGINA SCHNATHMANN

ist Director Communications

and Public Relations

bei der Beumer Group.

atp edition

5 / 2014

17


PRAXIS

Optimierter Brandschutz durch moderne

Klappen mit angepasstem Stellantrieb

Klappen-Modelle mit freiem Querschnitt: Energieeffizienz und bessere Zustandsüberwachung

Damit sich in brennenden Gebäuden giftige Gasen,

Rauch und Flammen nicht über die Lüftungskanäle

ausbreiten, müssen die in der Lüftungsanlage verbauten

Brandschutzklappen einwandfrei funktionieren.

Bei der Geba Bartholomäus GmbH sorgen angepasste

Stellantriebe in den Brandschutzklappen des

Typs GBK-K 90 EU für zuverlässiges Funktionieren. Die

dazugehörige Schalt- und Bewegungstechnologie der

Gruner AG ermöglicht das motorisierte Öffnen und

Schließen der Klappen sowie die Ansteuerung über die

Gebäudeleittechnik. Die LEDs und Thermofühler sowie

die kompakte Konstruktionsweise der stabilen Antriebe

und der freie Querschnitt der Klappen vereinfachen

die regelmäßige Wartung und reduzieren die Kosten

von Installation und Revision.

Durch die Sonderform ohne mittige Klappe ermöglichen

die Geba-Modelle den leisen Betrieb sowie die

Reduktion des Druckverlustes, wodurch Energie gespart

und kleinere Rohrdurchmesser verwendet werden

können. Seit 2013 ist das neue System nun europaweit

zertifiziert.

BRANDSCHUTZKLAPPEN LÖSEN

THERMOELEKTRISCH AUS

In der Regel sperren Brandschutzklappen mit einem

Schmelzlot die Lüftungsrohre ab: „Steigt die Temperatur

im Inneren der Brandschutzklappe durch heiße

Brandgase über eine Temperatur von 72 ˚C, löst bei diesen

Modellen das Schmelzlot unmittelbar aus und

schließt die Klappe“, erklärt Gert Bartholomäus, Geschäftsführer

der Geba Bartholomäus.

Bei der GBK-K 90 EU mit Federrücklaufantrieb von

Gruner hingegen erfolgt das Schließen der Klappe

durch die thermoelektrische Auslöseeinrichtung: „Erreicht

die Temperatur in der Luftleitung oder am Antrieb

der Klappe den Wert von 72 ˚C oder fällt die Versorgungsspannung

aus, wird die antriebsinterne Feder

freigegeben, die dann die Tür im Lüftungskanal zudrückt“,

so Bartholomäus. Der BLDC-Motor fungiert in

dieser Situation als Bremse, um die Klappe und den

Stellantrieb vor einem abrupten Zufallen zu schützen.

GLEICHBLEIBENDE FUNKTIONALITÄT AUCH BEI 90 ˚C

Die Klappen, die im Ernstfall die Lüftungskanäle verschließen,

um Flammen und belastete Luft zurückzuhalten,

müssen ihre Aufgabe unter extremen Belastungen

verlässlich erfüllen. Dieser Einsatz stellt hohe Ansprüche

an die Widerstandsfähigkeit und Leistung der elektrischen

Stellantriebe. Sie müssen beispielsweise eine manuelle

Schaltung ermöglichen, um die Lüftung präventiv

zu blockieren, bevor das Feuer sie erreicht.

„Wir fertigen alle wichtigen Bauteile aus Stahl, damit

trotz Hitzeeinwirkung das Drehmoment des Motors erhalten

bleibt“, erklärt Robert Frank, Key Account Manager

bei der Gruner. „Temperaturen von bis zu 90 ˚C sind

so über längere Zeit kein Problem.“ Die Feder ist ebenfalls

hitzebeständig und übersteht mehr als 60 000 Revisionszyklen

ohne Spannungsnachlass. „Im Rahmen

der Brandprüfungen wurde die Klappe über den Gruner-Stellmotor

10 000-mal geöffnet und geschlossen,

ohne dass es zu einer Beeinträchtigung der Motorleistung

kam“, bestätigt Bartholomäus.

Gleichzeitig achteten die Entwickler der jüngsten

Stellantrieb-Generation auf eine kompakte Bauweise.

Indem weniger mechanische und elektromechanische

Komponenten verbaut wurden, ließ sich der Verschleiß

verringern und Standzeit sowie Zuverlässigkeit des Geräts

erhöhen. Unter anderem sparte die Bremswirkung

des Motors die mechanische Bremse. Die Gruner-Stellantriebe

besitzen außerdem eine hohe Drehmomentdichte.

Je nach Klappengröße reichen die verfügbaren

Motordrehmomente von 3 bis 20 Nm bei einem Drehwinkel

von 95 ˚.

Zudem wurde der Abstand der Klappenachse zur

Brandwand verkleinert. „Dadurch wird das gesamte System

kompakter“, so Frank. Der Stellantrieb sitzt direkt

auf dem Verschlusssystem ohne teure und fehleranfällige

Übertragungsmechaniken. „Bei der Entscheidung

für Gruner war für uns sehr wichtig, dass der Motor

flexibel so angepasst werden konnte, wie er für unsere

Brandschutzklappe ideal war“, erklärt Bartholomäus.

Dabei wurde auf kleine Details Wert gelegt: Die Wellenadaption

beispielsweise wurde so abgewandelt, dass

der Antrieb spielfrei angebracht werden konnte.

ZUSTÄNDE ODER DEFEKTE LEICHT

VON AUSSEN SICHTBAR

Gegenüber den einfachen Systemen mit Schmelzlot bildet

vor allem die Funktionsanzeige der Gruner-Antriebe

einen deutlichen Vorteil. Der Thermoschalter zeigt mit

seinen LEDs den Zustand der Klappe an, was die Sicherheit

und Fehlerdiagnose erheblich erleichtert. Ist der

Antrieb bereit und die Brandschutzklappe geöffnet,

leuchtet eine grüne Diode. Rotes Licht weist darauf hin,

dass der Verschluss-Taster gedrückt wurde und die

Klappe geschlossen ist. Sind beide LEDs dunkel, ist das

Schmelzlot geschmolzen oder es liegt aufgrund eines

Defekts keine Betriebsspannung an. Durch diese sichtbare

Unterscheidung lassen sich Störungen schnell und

direkt am Antrieb aufdecken. Auch die Inbetriebnahme

wird dank der klaren Funktionssignale vereinfacht.

„Besonders interessant war für uns die Prüfplakette

auf der thermischen Auslösung, die sich verfärbt, sobald

ein Defekt vorliegt“, so Bartholomäus. „Der Temperaturmesspunkt

wechselt die Farbe, sobald er auf über 72 ˚C

erhitzt wird. Ohne eine derartige Anzeige ist von außen

nicht ersichtlich, ob die Temperatursicherung möglicherweise

defekt ist“, erläutert Frank. „Der Messpunkt

dagegen verhindert, dass die Sicherung unbemerkt

durchschmelzen kann.“ Zudem lässt sich der Temperaturfühler

anschließend separat austauschen. Dadurch

muss nicht der ganze Antrieb ausgewechselt werden.

18

atp edition

5 / 2014


DIE STELLANTRIEBE ermöglichen das motorisierte

Öffnen und Schließen der Klappen sowie

die Ansteuerung über die Gebäudeleittechnik.

Bild: Geba Bartholomäus

ZWEI LEDS in Rot und Grün zeigen

den Zustand von Antrieb und Klappe

an. Grün heißt „geöffnet und betriebsbereit“,

Rot bedeutet „per Knopfdruck

geschlossen“. Leuchtet keine Diode,

fehlt die Betriebsspannung, etwa weil

das Schmelzlot durch gebrannt ist.

Bild: Gruner

DAMIT IN BRENNENDEN GEBÄUDEN

die Verbreitung von giftigen Gasen, Rauch

und Flammen über die Lüftungskanäle

verhindert wird, müssen die

Brandschutzklappen funktionieren.

Bild: Paul-Georg Meister/pixelio.de

SIND DIE KLAPPEN mit Stellantrieben

versehen, lässt sich die

Revision per Knopfdruck erledigen,

was Zeit spart und die bislang

benötigten Revisionsöffnungen

überflüssig macht. Bild: Gruner

REVISION WENIGER ZEIT- UND ARBEITSINTENSIV

Auch bei der regelmäßigen Wartung und Prüfung der Anlagen

hat der Stellantrieb klare Vorteile gegenüber einem

einfachen System mit Schmelzlot. Bei herkömmlichen Modellen

wird die Klappe zu diesem Zweck zwar per Knopfdruck

geschlossen, kann aber nur von Hand wieder geöffnet

werden. Eine zeit- und kostenintensive Arbeit, die an jedem

einzelnen Brandschutzabschnitt durchgeführt werden

muss. „Sind die Klappen mit Stellantrieben versehen,

lässt sich auch die Revision per Knopfdruck erledigen,

was Zeit spart und die bislang benötigten Revisionsöffnungen

überflüssig macht“, erklärt Frank.

Zukünftig kann das ganze System außerdem über ein

intelligentes Bus-System (Modbus) gekoppelt werden.

„Bisher wurde über die Steuerung nur die Stromversorgung

der Klappe beziehungsweise des Stellmotors sichergestellt

und einmal im Monat eine Revision durchgeführt.

Über Modbus kann jetzt eine Kommunikation

zur Klappe hergestellt werden, und zwar zentral vom

Steuerpult oder Schaltschrank aus“, erläutert Frank.

So wird beispielsweise die Winkelstellung der Klappe

im System angezeigt und der Bediener erhält eine

Rückmeldung über Öffnungs- und Schließvorgänge des

Klappenblattes. „Damit können dann auch Testsequenzen

für den Motor erstellt werden, die anschließend

eigenständig ablaufen. Eine Revision vor Ort ist

nicht mehr notwendig.“

FAZIT

Nicht nur der Antrieb, sondern auch die Sonderform

der Klappe trägt dazu bei, Wartungsaufwand und Kosten

zu minimieren. „Brandschutzklappen verfügen in

der Regel über eine Schmetterlingsklappe, die sich mitten

im Luftstrom befindet und damit Widerstände und

Geräusche aufbaut“, erklärt Bartholomäus. „GBK-K 90

wurde jedoch so konstruiert, dass sie ohne diese

Klappe auskommt.“

Der freie Querschnitt sorgt für eine turbulenzarme

Luftströmung und damit für ein ruhigeres Wohnklima.

Auch die Druckverluste fallen geringer aus, wodurch

Energie eingespart und kleinere Rohrdimensionen verwendet

werden können. „Darüber hinaus gibt es kaum

Staubanhaftungen, was eine hohe Sicherheit und lange

Reinigungsintervalle garantiert. Auch der Revisionsaufwand

wird vereinfacht“, so Bartholomäus weiter.

Das Schutzsystem aus Klappe und Antrieb wurde

2010 entwickelt und erhielt 2013 nach abgeschlossener

Brandprüfung die europäische Zulassung.

AUTORIN

IRIS GEHARD ist Fachjournalistin in

München mit Spezialisierung im Bereich

Gebäudetechnik.

Gruner AG,

Buerglestr. 15-17, D-78564 Wehingen,

Tel. +49 (0) 7426 94 80, E-Mail: info@gruner.de,

Internet: www.gruner.de

atp edition

5 / 2014

19


PRAXIS

Dank Abwärmenutzung bei Gussteil-Herstellung

vermindert Automobilzuliefer CO 2 -Emmissionen

Lösungspaket von Endress+Hauser hilft dabei, Vorgaben der Monitoring-Verordnung einzuhalten

EIN TECHNIKER kalibriert die Messstellenkomponenten

des Thermoölkreislaufes.

Danach führt er eine Gesamt-

Messunsicherheitsberechnung durch.

Bild: Endress+Hauser

IN SCHMELZÖFEN entstehen extreme Temperaturen.

Die Abwärmenutzung bei der GF Automotive reduziert

die CO 2-Emission enorm. Bild: Georg Fischer

Kohlendioxid (CO 2 ) verstärkt den Treibhauseffekt

und trägt zur globalen Erderwärmung bei. Es gilt,

Emissionen zu vermindern. Mit Unterzeichnung des

Kyoto-Protokolls hat sich die EU verpflichtet, aktiv

dazu beizutragen – angestrebt ist eine Reduktion um

20 Prozent bis 2020, verglichen mit 1990. Der Emissionshandel

fordert von den Unternehmen die kontinuierliche

Überwachung und Ermittlung des CO 2

-

Ausstoßes. Ein weiterer Baustein ist die jährliche

Emissionsberichterstattung: Betreiber emissionshandelspflichtiger

Anlagen müssen ihren Ausstoß seit

Januar 2013 entsprechend der Monitoring-Verordnung

(MVO) der EU-Kommission und Anhang 2 des

Treibhausgas-Emissionshandelsgesetzes (TEHG) ermitteln

und im anlagenspezifischen Überwachungsplan

beschreiben.

VERSCHÄRFTE ANFORDERUNGEN

Mit Inkrafttreten der MVO haben sich die Anforderungen

an die Messgenauigkeit verschärft. Durch regelmäßige

Überprüfungen müssen Anlagenbetreiber

nachweisen, dass die Gesamtunsicherheiten die

Grenzwerte der geforderten Ebene einhalten. In der

Praxis hat das unmittelbare Auswirkungen auf die

Qualität der Messungen und deren bestimmungsgemäßen

Einsatz, die kontinuierliche Überprüfung der

eingesetzten Überwachungsmethoden, einhergehend

mit der Qualitätssicherung für die verwendeten Messgeräte

(Kalibrierung, Justierung, Prüfung). Ein Leitfaden

der Deutschen Emissionshandelsstelle (DEHSt)

unterstützt bei der Erstellung der Überwachungspläne.

Ein Augenmerk richtet sich auf die Auswahl geeigneter

Messinstrumente für die emissionsrelevanten

Stoffmengen die Unsicherheitsbewertung von

kalibrierten Messgeräten sowie zu treffende Maßnahmen

bei Abweichungen von den MVO-Vorgaben.

DAS LÖSUNGSPAKET

Bei der Erfüllung der Vorgaben unterstützt das MVO-

Lösungspaket von Endress+Hauser. Das Paket besteht

20

atp edition

5 / 2014


aus der Kombination praxisbewährter Messtechnik,

akkreditierter Kalibrierdienstleistungen sowie Leistungen

für eine Messunsicherheitsbetrachtung.

Für die Volumenstrommessung flüssiger oder gasförmiger

Brennstoffe, die direkte Messung von Abgasströmen

sowie die Bestimmung von Durchflussmengen

in Energiekreisläufen, steht eine Vielzahl praxisbewährter

Messverfahren zur Verfügung. So ist die

Vortexmessung nach dem Wirbelablöseprinzip als

äußerst robustes und bewährtes System mit hoher

Langzeitstabilität prädestiniert für die zuverlässige

Messung in Dampfanwendungen. Für sehr große

Nennweiten sind Blenden und Staudrucksonden mit

Differenzdruckmessungen gängig. Kommt es auf

höchste Genauigkeiten, direkte Massemessung und

Eichfähigkeit an, bieten Coriolis-Durchflussmessungen

die ideale Lösung.

Muss der Nachweis der Messunsicherheit durch regelmäßige

Kalibrierung erbracht werden, kann

Endress+Hauser alle Prozessmessgrößen sowohl vor

Ort als auch im Werk gemäß ISO/IEC 17025 kalibrieren

und per Zertifikat dokumentieren – unabhängig vom

Hersteller für sämtliche Gerätetypen und Fabrikate,

rückführbar und zertifiziert. Die Leistungen erstrecken

sich von der Kalibrierung einzelner Messstellen

bis zur Implementierung einer kompletten Kalibrier-

Managementlösung.

Bei zusammengesetzten Messstellen, etwa einer

Staudrucksonde mit Differenzdruckmessung und Temperaturkompensation

sowie nachgeschaltetem Energierechner,

stellt sich die Frage nach der Gesamtunsicherheit

der Messung unter Prozessbedingungen. Eine

Gesamtgenauigkeitsberechnung, vereinfacht oder individuell,

berücksichtigt alle prozessrelevanten Einflussfaktoren.

Der Betreiber erhält ein Berechnungszertifikat

und kann so die Qualität seiner Messstellen

lückenlos, nach gängigen Standards dokumentieren

und nachweisen.

BEI GF AUTOMOTIVE

Die Division GF Automotive, die Gussteile für die Automobilindustrie

entwickelt und produziert, hat in ihrem

Nachhaltigkeitsbericht 2011 ein Ziel veröffentlicht:

Die CO 2 -Emissionen aus der Produktion sollen um mindestens

20 Prozent reduziert werden. 11 000 Tonnen

CO 2 können durch Abwärmenutzung aus Schmelzöfen

pro Jahr vermieden werden. Die Abwärme wird mittels

Thermoölkreislauf durch ein angrenzendes Lebensmittelwerk

genutzt, rund zwei Drittel des kompletten Energiebedarfs

werden so abgedeckt. Da der Standort

Singen erstmalig am Emissionshandel teilnimmt, müssen

Abwärmemengen dokumentiert werden. Der Kalibrierservice

von Endress+Hauser führte bei den betroffenen

Messstellen eine Bewertung hinsichtlich geeigneter

Kalibrierverfahren durch. Nach Abstimmung mit

GF Automotive erfolgte die Kalibrierung der Kompo-

nenten sowie eine Vergleichsmessung mittels Ultraschall-Messverfahren.

Zusätzlich zu den Kalibrierzertifikaten

erhielt Georg Fischer eine Gesamtgenauigkeitsberechnung.

Die Kalibrierungen und Berechnungen

sollen nun in regelmäßigen Abständen erfolgen.

So ist GF Automotive gerüstet, um alle Tätigkeitsdaten

rückführbar dokumentieren zu können.

AUTOR

THOMAS KAUFMANN ist

Marketingmanager

Life Cycle Management

bei Endress+Hauser

in Weil am Rhein.

Endress+Hauser Messtechnik GmbH + Co. KG,

Colmarer Straße 6, D-79576 Weil am Rhein,

Tel. +49 (0) 7621 97 59 07,

E-Mail: thomas.kaufmann@de.endress.com

An der Hochschule Merseburg ist im Fachbereich Informatik und Kommunikationssysteme

ab dem 01. April 2015 folgende Stelle zu besetzen:

Professur (W2)

Prozessautomation/Gebäudeautomation

Der/Die zukünftige Stelleninhaber/-in soll die Themengebiete Prozessautomation, Prozessleittechnik/Geräte

und Anlagen sowie Gebäudeautomation in Lehre und Forschung

des Fachbereiches vertreten. Wünschenswert wäre die Wahrnehmung der Lehrgebiete

Regelungstechnik sowie Modellbildung/Simulation.

Der/Die zukünftige Stelleninhaber/-in muss die Einstellungsvoraussetzungen gemäß § 35

HSG LSA erfüllen. Gesucht wird eine Persönlichkeit mit entsprechender Qualifikation und

einschlägiger Berufspraxis im Bereich der Prozessautomation und/oder der Gebäudeautomation.

Die Bereitschaft zum Einsatz in der Forschung, im berufsbegleitenden Studium,

in der Weiterbildung und für Bedarfe der anderen Fachbereiche ist notwendig. Wegen der

voranschreitenden Internationalisierung der Lehre sollten die Lehrveranstaltungen auch in

englischer Sprache durchgeführt werden können.

Die aktive Mitarbeit in den Gremien der Hochschulselbstverwaltung wird erwartet.

Die Höhe der Besoldung richtet sich nach den für Beamte und Beamtinnen des Landes

Sachsen-Anhalt geltenden Bestimmungen. Zusätzlich zur Grundbesoldung können bei

überdurchschnittlichen Leistungen Leistungsbezüge erlangt werden.

Die Hochschule Merseburg strebt eine Erhöhung des Anteils von Frauen im Wissenschaftsbereich

an und fordert Frauen nachdrücklich auf, sich zu bewerben. Bewerbungen

von Wissenschaftlerinnen und Wissenschaftlern aus dem Ausland sind willkommen.

Bewerbungen Schwerbehinderter werden bei gleicher Eignung und Befähigung bevorzugt

berücksichtigt.

Bewerbungen mit Lebenslauf, Darstellung des beruflichen und wissenschaftlichen

Werdegangs, Schriftenverzeichnis und Verzeichnis der

bisherigen Lehrtätigkeiten werden bis zum 05. Juni 2014 erbeten

an: Hochschule Merseburg, Dekanin des Fachbereiches

Informatik und Kommunikationssysteme Frau Prof. Dr.

Monika Trundt, Geusaer Straße, 06217 Merseburg

atp edition

5 / 2014

21


HAUPTBEITRAG

Industrie 4.0 ohne modellbasierte

Softwareentwicklung

Und warum es ohne Modelle nicht gehen wird...

Industrie 4.0 versucht die Handhabung von komplexen Produktionsanlagen zu verbessern

und eine flexible und adaptive Produktion umzusetzen. Aktuell liegt die

Hauptschwierigkeit dieser Szenarien bei der Automationssoftware, deren Erstellung

zeitaufwändig und fehleranfällig ist. Zur Lösung dieses Problems werden dabei zwei

Hauptansätze verfolgt: die modellbasierte Softwareentwicklung und die intelligente

Automation, das heißt die Verwendung wissensbasierter Lösungsansätze. Der

Beitrag vergleicht beide Ansätze anhand dreier Phasen: der Planungsphase, der

Betriebsphase und der Anlagenumbauphase.

SCHLAGWÖRTER Intelligente technische Systeme / Industrie 4.0 / Modellbasierte

Softwareentwicklung für die Automation

Industrie 4.0 without Model-Based Software Development –

And why Models will be Decisive

The efficient handling of complex production systems and the implementation of a

more flexible and adaptable production lies at the heart of Industry 4.0. Currently,

smart manufacturing scenarios face one main bottleneck – the creation and configuration

of the automation software is time-consuming and error-prone.

There are two main solutions for this problem: (i) model-based software development

and (ii) intelligent automation, i.e. the use of new knowledge-based solution

approaches. This article compares these solutions by applying them to three phases

of the life-cycle, the planning phase, the operation phase and the plant reconfiguration

phase.

KEYWORDS intelligent technical systems / cyber-physical systems /

model based software development for automation

22

atp edition

5 / 2014


OLIVER NIGGEMANN, Fraunhofer IOSB-INA

Auf den ersten Blick gibt es wenig Einigkeit

über den Inhalt von Industrie 4.0 und cyber-physischen

Systemen: Je nach persönlicher

Vergangenheit der Experten stehen

mal die Information im Mittelpunkt (Internet

der Dinge), mal die Methoden (wie Selbstdiagnose,

Selbstkonfiguration) oder die Systemfähigkeiten

(intelligente technische Systeme). Bewegen

wir uns weg von der technischen Ebene hin zu den

ursprünglichen Fragestellungen, so wird das Bild

homogener: Der zentrale Begriff ist die Komplexitätsreduktion

[3]. Offensichtlich nehmen immer mehr

Menschen den Umgang mit der heutigen Produktions-

und Automatisierungstechnik als zu komplex,

zu fehleranfällig und zu unflexibel war. Beispiele

sind der Automatisierer, der Anforderungen bezüglich

Inbetriebnahmezeiten, Energieeinsparungen

und Zuverlässigkeit nicht in angemessener Zeit vereinbaren

kann, der Werksleiter, der die Anforderungen

betreffend hoher Variabilität bei kleinen Stückzahlen

(Stichwort: Losgröße 1) nicht mehr erfüllt,

oder der Wartungsingenieur, der komplexe Fehler auf

Systemebene nicht mehr in angemessener Zeit repariert.

In jedem Fall besteht das Ziel in der Reduktion

der vom Menschen wahrgenommen Komplexität bei

Beibehaltung der Komplexität der Produktions- und

Automatisierungstechnik. Insofern steht, und dies

ist ein weiteres Merkmal von Industrie 4.0, immer der

Mensch im Mittelpunkt dieser Arbeiten.

Die klassische Antwort der Informatik, auch für die

Automation, auf diese Fragen besteht im Frontloading

und speziell in der modellbasierten Softwareentwicklung

[10,12-16]. Bei diesen Ansätzen erlauben Modellierungswerkzeuge

dem Experten, sein Wissen bezüglich

der zu entwickelnden Software auf einem für ihn

angenehmen Niveau zu formalisieren, das heißt zu

modellieren. Angenehm ist ein Niveau, wenn Modellierungsniveau

und das Niveau des mentalen Modells

des Menschen, also sein inneres Bild der Software,

nahe beieinander liegen. Der Begriff Frontloading beschreibt

dabei das dadurch erhoffte Tauschgeschäft:

So verlangt die Modellbildung initial mehr Zeit und

Aufwand, allerdings verringern sich später im Prozess

Aufwände und Probleme, vor allem durch die bessere

Spezifikation, durch die Möglichkeit der frühen virtuellen

Systemüberprüfung, zum Beispiel mittels Simulation

und durch die Möglichkeit der Codegenerierung

Aufwände und Probleme. In der Summe ergibt

sich für viele Anwendungsszenarien eine signifikante

Verbesserung des Entwicklungsprozesses [12-16].

Bild 1 zeigt einen typischen Ablauf der modellbasierten

Softwareentwicklung: Der Experte spezifiziert

auf möglichst abstrakte, für ihn angenehme Weise, die

Software. Auf Basis dieser Modelle werden die Automatisierungssoftware

und die entsprechende Konfiguration

der Automation generiert. Die modellbasierte

Softwareentwicklung zielt aber, im Gegensatz zur Modellentwicklung

im Allgemeinen, immer auf eine Beschreibung

der Software ab. Dies gilt auch, falls die

Softwaremodelle durch Ergänzung von Prozessteilen,

von Hardwaretopologie und von Basissoftware zu

Systemmodellen [33, 34] erweitert werden, im Allgemeinen

wird auch bei diesen Ansätzen die Software

manuell modelliert.

Je häufiger Anlagen und damit die Automation geändert

werden, desto häufiger muss dieser Engineering-Zyklus

durchlaufen werden. Des Weiteren verbleibt

alles Wissen bezüglich der korrekten Automation,

wie Systemwissen und Steuerungswissen, beim

Experten. Das heißt, eine Zunahme der Systemkomplexität

muss sich in einer Zunahme der Modellierungskomplexität

niederschlagen. Neue modellbasierte

Ansätze können diese Zunahme abschwächen aber

nicht grundsätzlich verhindern.

Eine Alternative zur modellbasierten Softwareentwicklung

ist die intelligente Automation: Hier beschreibt

der Experte nicht mehr den Ablauf der Automation,

sondern nur noch das Automationsziel. Das

Ziel des Engineerings ist nicht mehr die Definition des

Wie, sondern des Was. Klassische Produktionsziele sind

Produktmerkmale, Durchsatz oder der maximale Energieverbrauch.

Dieses Vorgehen entspricht dem Übergang

von der klassischen, prozeduralen Automation

hin zu einer zukünftigen deskriptiven Automation.

atp edition

5 / 2014

23


HAUPTBEITRAG

Da sich das Automationsziel, anders als der Automationsablauf,

auch bei Anlagenumbauten wie zum Beispiel

dem Austausch eines Anlagenmoduls, zumeist

nicht ändert, ist der Experte bei diesem Ansatz nicht

mehr ständig beteiligt. Darüber hinaus ist es einfacher,

das Automationsziel, zum Beispiel in Form einer Beschreibung

des finalen Produktes, festzulegen, als den

kompletten Automationsablauf zu beschreiben. Hierdurch

erfolgt eine Reduktion der vom Experten wahrgenommenen

Komplexität.

Bild 2 zeigt den Unterschied zwischen diesen beiden

Ansätzen im Fall eines Anlagenumbaus, also bezüglich

Anforderungen wie Adaptivität und Flexibilität. Während

im Fall der modellbasierten Softwareentwicklung

der Mensch bei jeder Änderung involviert ist, reagiert

die deskriptive Automation zumeist automatisch ohne

Mitwirkung des Experten auf Änderungen.

In den letzten Jahren sind immer mehr Entwicklungsprozesse

in den Vordergrund der Forschung gerückt,

die Prozess- und Produktmodelle in den Vordergrund

stellen, die folglich deskriptiv arbeiten. Hierzu

haben die Bemühungen zur Standardisierung solcher

Modelle beigetragen [26, 27]. In verschiedenen Arbeiten

wurden solche Modelle im Kontext von Industrie 4.0

zur Erhöhung der Adaptivität der Automation eingesetzt

[8, 28-30]. Ein verwandter Ansatz sind Agentensysteme

[23-25], bei denen allerdings nicht nur die

Beschreibung des Produktionszieles, sondern auch

algorithmische Aspekte der Selbstorganisation betrachtet

werden.

1. VERGLEICH PLANUNGS- UND INBETRIEB-

NAHMEPHASE

Im Folgenden werden die zuvor beschriebenen gegensätzlichen

Ansätze anhand mehrerer Forschungsprojekte

verglichen, und zwar für den Anwendungsfall der

Planungs- und Inbetriebnahme. Das vom Europäischen

Fonds für regionale Entwicklung (EFRE) geförderte

Projekt Initial [19] versucht mittels modellbasierter

Softwareentwicklungsmethoden und Simulation die

Inbetriebnahme zu verkürzen. Das vom Bundesministerium

für Forschung und Bildung (BMBF) unterstützte

Projekt Efa [20] geht anders vor: In diesem Ansatz

modelliert der Benutzer nur die Anforderungen an

die Automatisierungslösung, die Lösung selbst wird

automatisch generiert.

Das Initial-Projekt entwickelt einen modellbasierten

Ansatz zur Planung von Automatisierungssystemen.

BILD 2: Vergleich der

modell basierten Softwareentwicklung

und der

deskriptiven Automation

Frontloading und modellbasierte Softwareentwicklung

Engineeringtool

Deskriptive Automation

Engineeringtool

Zyklus des

Anlagenumbaus

Modellierung

durch

die Experten

Experten

modellieren

Engineeringtool

erstellt

Modell

...

vol = get_sensor(

press = get_sensor(

if (vol > 10.4 && press

warning(“Pressure

...

Code

Automatismus

durch die intelligente

Automation

Beschreibung

der Produktionsziele

Zyklus

des Anlagenumbaus

PLC

Plattform

PLC PLC

wird ausgeführt

...

vol = get_sensor(

press = get_sensor(

if (vol > 10.4 && press

warning(“Pressure

...

Code

generiert

Code generator

Produktionsanlage

Produktionsanlage

BILD 1: Ein typischer Ablauf der modellbasierten

Softwareentwicklung

24

atp edition

5 / 2014


Dieser beinhaltet ein Strukturmodell, das heißt ein Modell

der Struktur der Produktionsanlage (zum Beispiel

Module und deren Verschaltung) und der Automatisierungstechnik

(beispielsweise Steuerungen einschließlich

Software, Sensoren, Aktoren, Netzwerke). Bild 3

zeigt ein solches Initial-Strukturmodell. Dieses Strukturmodell

lässt sich als AutomationML-Datei [17] importieren

und abspeichern. Zusätzlich werden für Teile

des Strukturmodells Verhaltensmodelle hinterlegt. Für

die Anlagenmodule geschieht dies in der Modellierungssprache

Modelica, für die Steuerungsanteile wird

realer IEC 61131-Code benutzt.

Im Initial-Projekt werden diese Modelle für verschiedene

Aufgaben verwendet: Zum einen dienen die Modelle

als Methode der Absprache und der Kommunikation

zwischen den beteiligten Parteien. Zum anderen

können die Modelle auf einem PC simuliert und so

frühzeitig Automatisierungsfehler entdeckt werden. Es

ist auch möglich, in einer Hardware-in-the-Loop-Simulation

eine reale Steuerung an eine simulierte Anlage

anzuschließen und so die reale Steuerung vor Inbetriebnahme

zu überprüfen. Weitere Details zum Initial-

Projekt finden sich in [1, 2].

Einen völlig anderen Ansatz verfolgt das Efa-Projekt:

In diesem Fall spezifiziert der Experte nur die Anforderungen

an das zu entwerfende Automatisierungssystem,

wie in Bild 4 zu sehen. Auf der linken Seite

definiert der Experte die Anforderungen an den zu

automatisierenden Prozess, hier eine fliegende Säge.

Das System generiert daraus automatisch die Automationslösung

inklusive Hardwaretopologie und Softwareblöcken.

In Bild 5 werden die beiden Ansätze verglichen: Für

den Automatisierer, den Systemintegrator oder beim

Betreiber ist der Aufwand für den deskriptiven Ansatz

erheblich geringer, da nicht mehr die Lösung sondern

nur noch das Ziel beschrieben werden muss. Hieraus

folgt, dass der Automatisierer sich beim deskriptiven

Ansatz auf Prozesswissen fokussieren kann, während

er beim modellbasierten Ansatz erhebliches Wissen

über die IT, die Software und die Automatisierungstechnik

besitzen muss.

Auf der anderen Seite muss zuvor ein Werkzeugentwickler

das nötige Wissen über den Entwurfsprozess

formalisieren und in Form eines Werkzeugs dem Automatisierer

zur Verfügung stellen. Darüber hinaus ist

Wissen über Produktionsmodule und Automatisierungsgeräte

notwendig. Dieses Wissen muss vom Anlagen-

oder Gerätehersteller beziehungsweise vom

Werkzeughersteller modelliert werden. Der Aufwand

BILD 3: Der modell basierte Engineering-

Ansatz im Initial-Projekt

generieren

Prozessbeschreibung, hier fliegende Säge

Automationslösung für fliegende Säge

Plattform und

Inbetriebnahme

Aufwand

Modellbasierte

Software-Entwicklung

Automatisierer: hoch

Werkzeughersteller: wie bislang

Wissen über Prozess, Automation

Software und IT notwendig

Kommunikation über Lösungswege

Deskriptives

Vorgehen

Automatisierer: niedrig

Werkzeughersteller: hoch

Prozess- und Produktwissen im Fokus

BILD 4: Der

Konfigurationsansatz

im

Efa-Projekt

Ansprüche

an Auto matisierer

Kommunikation

und Absprachen

Simulation

und Test

Test der Steuerung als SIL und HIL

möglich

hohe Ansprüche an Anlagenmodell

Kommunikation über Ziele und Produkte

Test der Steuerung nicht möglich

Test sollte aufgrund der

SW-Synthese unnötig sein

BILD 5: Vergleich der

beiden Ansätze für

die Planung und die

Inbetriebnahme

atp edition

5 / 2014

25


HAUPTBEITRAG

für die deskriptive Automation fällt aber nur einmal an

und nicht bei jedem Anlagenentwurf und bei jeder Inbetriebnahme.

Ein erheblicher Unterschied ergibt sich für die Absicherung

der Programmierung: Beim modellbasierten

Ansatz läuft alles auf eine virtuelle Inbetriebnahme

hinaus; die Steuerung wird, real oder als Code, gegen

eine Simulation der Anlage getestet. Dies funktioniert

nur unter der Annahme, dass ein gutes, mit der Realität

abgeglichenes Anlagenmodell existiert. Genau an diesem

Punkt liegt aber das Problem: Im Allgemeinen haben

weder Systemintegrator noch Betreiber die Zeit und

die Ressourcen, um solche Modelle zu entwickeln. Eine

Alternative ist es, dass Maschinen- und Anlagenbauer

Modelle ihrer Anlagen mitliefern und diese später über

Austauschformate wie AutomationML zu einem Gesamtmodell

integrieren. Allerdings ergeben sich hierbei

diverse Probleme:

1 | Für verschiedene Zwecke wie SPS-Programmierung

oder Erstellung der Leitsysteme sind unterschiedliche

Modelle notwendig, das heißt, es

werden nicht nur ein Modell sondern diverse Modelle

benötigt.

2 | Eine Modellparametrisierung ist nur mit Wissen

über das Gesamtsystem möglich. Dies setzt aber

voraus, dass der Systemintegrator oder der Betreiber

über das notwendige Wissen verfügt und,

zwecks Abgleich zwischen Modell und Realität,

auch das Systemverhalten vermessen kann.

3 | Aktuell ist der Business Case für die Maschinenund

Anlagenbauer unklar.

Frontloading und modellbasierte

Softwareentwicklung

Engineeringtool

Deskriptive Automation

BILD 6: Vergleich der

beiden Ansätze für die

Anomalieerkennung und

Diagnose

Modellierung

durch

die Experten

Diagnoseregeln

Beschreibung

der

Diagnoseziele

Ausgabe der

Analyseergebnisse

0[51;0] 6[1;0]

Silo 1 (Min) an

(2767...2767)

Förderband aus

(237...237)

Automatismus

durch die intelligente

Automation

Vergleich

Silo 1 (Min) aus

3[42;0]

Förderband an

(1663...4401)

Förderband aus

(1344...3352)

4[42;0]

Sauger aus

(1530...4306)

Vorhersage

Messung

1[48;0,1] 2[42;0] 5[43;41]

Sauger an

Sauger an

(3393...17676)

(85979...85979)

Produktionsanlage

Modell

des Normalverhaltens

Lernen

Produktionsanlage

BILD 7: Ein gelernter Automat mit einem unerwarteten

Ereignis, zum Beispiel verursacht durch einen SW-Fehler

Betrieb

(Anomalieerkennung)

Modellbasierte Software-Entwicklung

Deskriptives Vorgehen

BILD 8:

Vergleich

für den

Betriebsfall

Aufwand

Ansprüche an

Automatisierer

Vollständigkeit

Automatisierer: hoch

Werkzeughersteller: wie bislang

Automatisierer braucht ein vollständiges

Verständnis aller Abhängigkeiten im System

Experte muss alle Anomalie

vorausdenken

nur solche Situationen werden erkannt, an

die der Benutzer gedacht hat

Automatisierer: niedrig,

Analyseziele müssen formalisiert werden

Werkzeughersteller: hoch

Qualitäts- und Analyseziele müssen bekannt

und formalisiert sein

vollständig, wenn Beobachtungen

vollständig

26

atp edition

5 / 2014


Im Fall der deskriptiven Automation existieren keine

simulationsfähigen Anlagenmodelle, das heißt, ein Modellerstellungs-

und Parametrisierungsproblem gibt es

in der Form nicht. Stattdessen muss einmalig das Wissen

über die automatische Erzeugung der Steuerungssoftware

aus der Beschreibung des Automationszieles

modelliert werden. Diese Synthese-Frage ist bislang

nicht vollständig erforscht und stellt die größte Herausforderung

bei der Umsetzung des deskriptiven Ansatzes

dar. Das Efa-Projekt setzt hierzu zum Beispiel

die Steuerungssoftware kompositionell aus fertigen

Bausteinen, also Software-Komponenten in Form von

IEC 61131-Funktionsblöcken, zusammen. Hierzu werden

Methoden des Constraint Solving zur Konsistenzsicherung

der Anforderungen und zur Berechnung von

unbekannten Systemgrößen verwendet. Regelsysteme

wählen dann die passende Automationstopologie aus

und bilden die Software auf der Hardware ab. Das Ergebnis

bilden mehrere Lösungsvarianten, welche nach

Zielkriterien wie Preis bewertet werden.

Sollte diese Software-Synthese gelöst werden, entfällt

der Bedarf an Tests durch eine Simulation, da nun

statt der Software die Software-Generierung abgesichert

werden kann. Dies ist analog zum Compilerbau,

bei welchem nicht das Kompilat, sondern der Compiler

getestet wird.

2. VERGLEICH FÜR DIE BETRIEBSPHASE

In der Betriebsphase stellen sich Fragen zur Erkennung

von Anomalien, von suboptimalen Energieverbräuchen

oder von Verschleiß [4-7]. Aktuell löst der Experte

diese Fragen zumeist durch das manuelle Kodieren

von festen Regeln im Automationscode, siehe linke

Seite von Bild 6. Diese Regeln schließen von Symptomen

auf Anomalien oder Optimierungsbedarf [9].

Hierzu müssen alle Anomalien vorausgedacht werden.

Im Kontext von Industrie 4.0 mit dem Anspruch auf

Unterstützung für häufige Anlagenumbauten bedeutet

dies, dass diese Regeln häufig manuell bearbeitet werden

müssen.

Ein anderer Nachteil von manuellen Diagnoseregeln

ergibt sich aus der Komplexität auf Systemebene: Während

es für einzelne Aggregate noch möglich ist die

Symptom Anomalie Regeln manuell aufzustellen, ist

dies aufgrund der Kombinatorik für Systeme mit vielen

Abhängigkeiten nicht mehr möglich. Im schlimmsten

Fall muss die Software zwischen allen Kombinationen

von Symptomen differenzieren.

Modellbasierte Ansätze, siehe rechte Seite von Bild

6, gehen daher anders vor [4-6]: Sie vergleichen die Vorhersagen

eines Verhaltensmodells mit den Beobachtungen

des Systems. Ergeben sich Diskrepanzen wie

ein schlechter Energieverbrauch, so wird der Benutzer

darüber informiert.

Allerdings stellt sich die Frage, woher das Verhaltensmodell

kommt. Eine manuelle Modellierung führt

zu allen im Abschnitt 1 behandelten Nachteilen. Aus

diesem Grund geht das BMBF-Projekt Ava [21] anders

vor: Die Modelle werden in Form von zeitbehafteten

hybriden Automaten automatisch anhand von Systembeobachtungen

gelernt. Bild 7 zeigt ein Beispiel: Ein

Verhaltensmodell für ein Modul der Lemgoer Modellfabrik,

siehe Foto in Bild 7, wurde automatisch anhand

von Systembeobachtungen erlernt. Solche Lernverfahren

für Automaten sind ein aktuelles Forschungsgebiet.

Interessant sind für die Automation dabei Verfahren,

die nur Positivbeispiele verwenden. Für große Systeme

existieren Verfahren, die die Anzahl der Zustände minimieren,

zum Beispiel ein Verfahren zum Lernen von

zeitbehafteten Automaten [32] und aus dem Ava-Projekt

ein Verfahren für hybride Automaten [8]. Andere Verfahren

arbeiten mit dem gegebenen Zustandsraum der

IO-Signale [31].

Das Anomalieerkennungssystem vergleicht nun gelerntes

Modell und Systemverhalten: Während der

Zustände 0 bis 4 in Bild 7 verhalten sich Modell und

System identisch, im Zustand 4 tritt aber ein unbekanntes

Signal auf. Dieses wird als Anomalie dem

Benutzer mitgeteilt. In diesem Beispiel liegt ein Programmierfehler

vor. Der Benutzer gibt also nur noch

deskriptiv vor, welche Art von Anomalie (beispielsweise

Zeit-, Energie- oder Sensoranomalie) ihn interessiert

und mit welcher Empfindlichkeit das System

reagieren soll.

Bild 8 zeigt den Vergleich: Da im Fall der deskriptiven

Automation der Automatisierer nur noch die Analyseziele

formuliert, schneidet die deskriptive Automation

klar besser ab. Ein Wermutstropfen bleibt aber: Das

Vorgehen fällt und steigt mit der Möglichkeit, Verhaltensmodelle

automatisch zu erlernen. Erste Ergebnisse

zeigen, dass dies für reale Anlagen möglich ist [8, 18,

31]. Das Thema bleibt aber ein Forschungsgegenstand,

und es ist noch ein weiter Weg hin zu einer kommerziellen

Umsetzung in Werkzeugen.

3. VERGLEICH FÜR DIE UMBAUPHASE

Die Umbauphase wurde eingangs schon kurz erwähnt.

In der modellbasierten Softwareentwicklung, siehe

linke Seite von Bild 2, läuft ein Anlagenumbau bislang

zumeist wie folgt ab: Nachdem der mechanische Anlagenumbau

abgeschlossen ist, werden neue Geräte

wie Sensoren, Aktoren und Steuerungen im Netzwerk

angeschlossen. Dies beinhaltet zumeist eine Umkonfiguration

des Netzwerkes. Nun müssen alle angeschlossenen

Steuerungen ebenfalls geändert werden,

um die neue Netzwerkkonfiguration zu berücksichtigen

und um neue Kommunikationsbeziehungen, zum

Beispiel zu neuen Anlagenmodulen, aufzubauen. Oft

werden Steuerungsalgorithmen angepasst und Parameter

geändert, wie Zykluszeiten in den Steuerungen.

Des Weiteren erfolgt eine Anpassung in höheren

Schichten, wie OPC-Servern, Leittechnik und MES-

atp edition

5 / 2014

27


HAUPTBEITRAG

Systemen. All diese Schritte sind mit einem hohen

Entwicklungs- und Testaufwand verbunden. Selbst

bei Verwendung höherwertiger Modelle [14, 16], aus

denen sich viele dieser Einstellungen generieren lassen,

verbleibt ein manueller Engineering-Aufwand in

jedem Umbauzyklus.

Die deskriptive Automation, rechte Seite Bild 2, geht

anders vor. Sie beschreibt nur das gewünschte Endprodukt.

Bei vielen Anlagenumbauten, wie dem Austausch

eines Produktionsmoduls, bleibt dieses Ziel konstant,

das heißt, eine manuelle Änderung der Automation ist

nicht notwendig. In anderen Fällen, wie der Variation

des Produkts muss nur die Produktbeschreibung angepasst

werden. In jedem Fall verringert sich der Aufwand

erheblich.

Solche Ansätze erforscht aktuell das vom BMBF geförderte

Spitzenclusterprojekt itsowl-IV [22]. Bild 9

zeigt das Vorgehen bei diesem Projekt: Der Experte modelliert

nicht mehr die Automationssoftware. Stattdessen

modelliert er das Endprodukt und den Prozess. Der

Prozess besteht dabei aus typisierten Prozessschritten,

wobei jeder Prozessschritt als Ein- und Ausgaben Zwischenprodukte

und Ressourcen aufweist. Aus dieser

Beschreibung wird die Automationssoftware automatisch

generiert, zum Beispiel in Form einer Verschaltung

und Parametrisierung von vorgegebenen Softwarekomponenten.

Bild 10 zeigt die beiden Ansätze für diesen Fall: Anstatt

die Softwareänderungen in allen Modellen, wie

zum Beispiel nach IEC 61131, einzupflegen, formalisiert

der Experte beim deskriptiven Ansatz nur das

Produkt und, wie im Fall des Projektes itsowl-IV, auch

den Prozess. Hierdurch entfällt der Testaufwand. Die

Vorteile des deskriptiven Ansatzes basieren auf der

abgesicherten und getesteten Generierung der Software

auf Basis der Produkt- und Prozessmodelle. Hierzu

müssen entsprechende Modelle entweder von den

Maschinen- und Anlagenbauern oder von den Werkzeugherstellern

kommen. Des Weiteren müssen die

Werkzeug- und Gerätehersteller die neuen Verfahren

umsetzen. Genau hier liegen die aktuellen Fragestellungen

der Forschung. Im Projekt itsowl-IV werden

BILD 9: Generierung von

Automatisierungssoftware

anhand einer Produkt- und

Prozessbeschreibung

BILD 10: Vergleich der

beiden Ansätze für den Fall

des Anlagenumbaus

Anlagenumbau Modellbasierte Software-Entwicklung Deskriptives Vorgehen

Aufwand

Ansprüche an

Automatisierer

Testaufwand

Automatisierer: hoch, da viele manuelle Aktionen in

den Engineeringwerkzeugen notwendig sind

Werkzeughersteller/Anlagenbauer/

Gerätehersteller: wie bislang

Experte muss über IT-, Netzwerk-, Software-,

Automations- und Prozesswissen verfügen

Automatisierer: alle betroffenen

Steuerungen müssen i. A. neu getestet werden

Werkzeughersteller: wie bislang

Automatisierer: niedrig

Werkzeughersteller/Anlagenbauer/

Gerätehersteller: hoch, da (i) Methoden aufwendig

und (ii) Prozess- und Produktmodelle nötig sind

Experte muss Produkt und

zum Teil den Prozess kennen

Automatisierer: gering, wenn Software-

Generierung abgesichert ist

Werkzeughersteller: hoch

28

atp edition

5 / 2014


derzeit als Lösung Planungsalgorithmen und fallbasierte

Ansätze untersucht.

FAZIT

Die modellbasierte Softwareentwicklung und die deskriptive

Automation sind zwei grundverschiedene

Ansätze zur Umsetzung von Industrie 4.0. Während der

erste Ansatz Methoden entwickelt, damit ein Experte

die Software möglichst bequem und sicher modellieren

kann, setzt der deskriptive Ansatz auf eine Beschreibung

des Produktziels. Die Software wird dabei aber

nicht modelliert sondern generiert.

Beim deskriptiven Ansatz spielen ebenfalls Modelle

eine zentrale Rolle. Sie beschreiben nun aber das

Produkt, zum Teil den Prozess, und sie spezifizieren

Optimierungsziele, wie Durchsatz und Energieverbrauch.

Da sie aber die Software nicht statisch modellieren,

kann der dadurch gewonnene Freiraum zur

Umsetzung von Adaptivität (Abschnitt 1 und 2), von

Qualitätsverbesserung (Abschnitt 2) und von Aufwandsoptimierung

beim Engineering (Abschnitt 1

und 3) genutzt werden. Denn genau in diesem Freiraum

zwischen deskriptiv beschriebenem Produktionsziel

Was und fixer Ablaufsteuerung in der Automation

Wie arbeiten wissensbasierte Methoden, wie

Selbstkonfiguration, Selbstdiagnose und Selbstoptimierung.

Die behandelten Beispiele verdeutlichen, dass die

modellbasierte Softwareentwicklung reifer und weiter

entwickelt ist. Zur Umsetzung der deskriptiven

Automation muss die Forschung noch diverse offene

Forschungsfragen lösen: 1. Die Formalismen für Produkte,

Prozesse und Optimierungsziele sind noch

Forschungsgegenstand und noch nicht standardisiert.

2. Es fehlen Methoden zum automatischen Modelllernen.

3. Auf Basis der deskriptiven Beschreibung muss

die Automationssoftware automatisch generiert werden.

Hier fehlen abgesicherte Methoden der Softwa-

REFERENZEN

[1] Faltinski, S., Niggemann, O., Moriz, N., Mankowski, A.:

AutomationML: From Data Exchange to System Planning and

Simulation. In: Tagungsband IEEE International Conference

on Industrial Technology (ICIT), S. 378-383. IEEE 2012

[2] Graeser, O., Kumar, B., Moriz, N., Maier, A., Niggemann, O.:

AutomationML as a Basis for Offline- and Realtime-Simulation.

In: Tagungsband 8th International Conference on

Informatics in Control, Automation and Robotics (ICINCO),

S. 359-368. IEEE 2011

[3] VDMA: Management summary 2012 - importance of information

and automation technology in the products of manufacturing

systems, engineering and plant engineering. VDMA 2012

[4] Isermann, R.: Model-based fault detection and diagnosis

- status and applications. In: Tagungsband 16th IFAC

Symposium on Automatic Control in Aerospace, S. 71-85.

IFAC 2004

[5] Struss, P., Ertl, B.: Diagnosis of bottling plants - first success

and challenges. In: Tagungsband The 20th International

Workshop on Principles of Diagnosis (DX). 2006

[6] Christiansen, L., Fay, A., Opgenoorth, B., Neidig, J.: Improved

Diagnosis by Combining Structural and Process Knowledge.

In: Tagungsband IEEE Conference on Emerging Technologies

& Factory Automation ETFA, S. 1-8. IEEE 2011

[7] Windmann, S., Jiao, S., Niggemann, O., Borcherding, H., A:

Stochastic Method for the Detection of Anomalous Energy

Consumption in Hybrid Industrial Systems. In Tagungsband

IEEE 11th International Conference on Industrial Informatics

- INDIN. IEEE 2013

[8] Niggemann, O., Stein, B., Vodencarevic, A., Maier, A.:

Learning behavior models for hybrid timed systems.

In: Tagungsband Twenty-Sixth Conference on Artificial Intelligence

(AAAI-12), S. 1083-1090. AAAI 2012

[8] Li, H., Yin, B., Li, N., Guo, J.: Research of fault diagnosis method of analog

circuit based on improved support vector machines. In: Tagungsband 12nd

International Conference on Industrial Mechatronics and Automation

(ICIMA), S. 494 –497. IEEE 2010

[10] Stahl, T., Völter, M., Efftinge, S.: Modellgetriebene Softwareentwicklung.

Techniken, Engineering, Management. DPunkt-Verlag 2007

[11] Cannata, A., Karnouskos, S., Taisch, M.: Energy efficiency driven process

analysis and optimization in discrete manufacturing. In: Tagungsband

35th Annual Conference of IEEE Industrial Electronics IECON ‚09,

S. 4449-4454. IEEE 2009

[12] Maurmaier, M.: Leveraging model-driven development for automation

systems development, Emerging Technologies and Factory Automation.

In: Tagungsband IEEE International Conference on Emerging Technologies

and Factory Automation (ETFA), S. 733-737. IEEE 2008

[13] Streitferdt, D., Wendt, G., Nenninger, P., Nyssen, A., Lichter, H.: Model

Driven Development Challenges in the Automation Domain, Computer

Software and Applications. In: Tagungsband 32nd Annual IEEE International

Computer Software and Applications Conference COMPSAC ‚08,

S. 1372-1375. IEEE 2008

[14] Papakonstantinou, N., Sierla, S., Koskinen, K.: Object oriented extensions

of IEC 61131–3 as an enabling technology of software product lines. In:

Tagungsband IEEE 16th Conference on Emerging Technologies & Factory

Automation (ETFA), S.1-8. IEEE 2011

[15] Thramboulidis, K., Frey, G.: An MDD process for IEC 61131-based

industrial automation systems. In: Tagungsband IEEE 16th Conference on

Emerging Technologies & Factory Automation (ETFA), S. 1-8. IEEE 2011

[16] Witsch, D., Vogel-Heuser, B.: Close integration between UML and IEC

61131-3: New possibilities through object-oriented extensions.

atp edition

5 / 2014

29


HAUPTBEITRAG

AUTOR

Prof. Dr. OLIVER NIGGEMANN (geb. 1971)

ist seit 2008 Professor der Informatik am

Institut Industrial IT (inIT) der Hochschule

OWL. Er studierte Informatik in

Paderborn, wo er 2001 auch promovierte.

Er ist auch stellvertretender Leiter des

Fraunhofer-Anwendungszentrums

Industrial Automation (IOSB-INA) in

Lemgo. Seine aktuellen Forschungsschwerpunkte

liegen im Einsatz von Methoden der künstlichen

Intelligenz und des maschinellen Lernens im Gebiet

der industriellen Automation.

regenerierung. Es ist unklar, wie eine Migration von

der klassischen Engineering-Kette hin zu einer Werkzeugkette

der deskriptiven Automation gelingen kann.

Dies liegt unter anderem daran, dass eine Verlagerung

von Aufwand weg vom Automatisierer und hin zu den

Maschinen- und Anlagenbauern, den Geräte- und den

Werkzeugherstellern geschehen muss. Diese Bestrebung

lohnt, da dadurch der Aufwand nur noch einmalig

an zentralen Stellen entsteht und nicht mehr

neu bei jedem Betreiber.

MANUSKRIPTEINGANG

05.12.2013

Im Peer-Review-Verfahren begutachtet

Fraunhofer-Anwendungszentrum Industrial Automation (IOSB-INA),

Langenbruch 6, D-32657 Lemgo,

Tel. +49 (0) 5261 702 59 90,

E-Mail: oliver.niggemann@iosb-ina.fraunhofer.de

REFERENZEN

In: Tagungsband IEEE Conference on Emerging Technologies & Factory

Automation ETFA, S. 1-6. IEEE 2009

[17] Drath, R., Weidemann, D., Lips, S., Hundt, L., Lüder, A., Schleipen, M.:

Datenaustausch in der Anlagenplanung mit AutomationML. Springer 2010

[18] Niggemann, O., VodenÐareviÐ, A., Maier, A., Windmann, S., Kleine Büning,

H.: A Learning Anomaly Detection Algorithm for Hybrid Manufacturing

Systems. In: Tagungsband The 24th International Workshop on Principles

of Diagnosis (DX). 2013

[19] Initialprojekt NRW Innovationszentrum Industrial IT − Höhere Produktivität

durch den modellbasierten Entwurf und Betrieb von komplexen

Automatisierungssystemen: http://www.hs-owl.de/init/research/

projects/b/filteroff/139/single.html

[20] EfA: Entwurfsmethoden für Automatisierungssysteme mit Modellintegration

und automatischer Variantenbewertung: http://www.hs-owl.de/init/

research/projects/b/filteroff/209/single.html

[21] AVA: Abstraktion von Verhaltensmodellen für Anlagen des Maschinenbaus

aus Messungen in verteilten Automatisierungssystemen:

http://www.hs-owl.de/init/research/projects/b/filteroff/231/single.html

[22] Spitzencluster it’s OWL Projekt itsowl-IV: Clusterquerschnittsprojekt

Intelligente Vernetzung: http://www.hs-owl.de/init/research/projects/b/

filteroff/213/single.html

[23] Pech, Stephan: Software Agents in Industrial Automation Systems.

IEEE Software vol. 30, S. 20-24. IEEE 2013

[24] Mubarak, H., Göhner, P.: Einsatz von Agenten für das Selbstmanagement von

Automatisierungssystemen. In: Tagungsband Multikonferenz Wirtschaftsinformatik

MKWI 2010, S. 167-168. Universitätsverlag Göttingen 2010

[25] Schraufstetter, M., Vogel-Heuser, B.: Konzept zur Erhöhung der Flexibilität von

Produktionsanlagen durch den Einsatz rekonfigurierbarer Anlagenkomponenten

und echtzeitfähiger Softwareagenten. In: Informatik aktuell: Echtzeit 2011

- Herausforderungen durch Echtzeitbetrieb, S. 121-130. Springer 2011

[26] Felleisen, M., Ulrich, A., Fay, A., Enste, U., Polke, B.: Formalisierte

Prozessbeschreibung in der praktischen Anwendung. 1. Teil:

Erstellen einer Prozessbeschreibung nach VDI/VDE-Richtlinie 3682.

Automatisierungstechnische Praxis Heft 9/2009, S. 46-51, 2009

[27] Döbrich, U., Heidel, R.: Modell zur Beschreibung cyber-physischer

Systeme - Modellierung mit Merkmalen unterstützt

Industrie 4.0. atp edition 12/2013, S. 38-45, 2013

[28] Pfrommer, J., Schleipen, M., Beyerer, J.: Fähigkeiten adaptiver

Produktionsanlagen. atp edition 11/2013, S. 42-49, 2013

[29] Angelsmark, O., Malec, J., Nilsson, K., Nowaczyk, S., Prosperi,

L.: Knowledge Representation for Reconfigurable Automation

Systems. In: Tagungsband International Conference on Robotics

and Automation (ICRA-07) Workshop on Semantic Information

in Robotics, S. 1-9. IEEE 2007

[30] Kainz, G., Keddis, N., Pensky, D., Buckl, C., Zoitl, A., Pittschellis,

R., Kärcher, B.: AutoPnP – Plug-and-produce in der Auto mation:

Wandelbare Fabrik als cyberphysisches System. atp edition

04/2013, S.42-49, 2013

[31] Schneider, S., Litz, L.: Automatische Fehlerdiagnose SPSgesteuerter

Anlagen - Von der Beobachtung zu den Fehlerkandidaten.

atp edition 07-08/2013, S.54-61, 2013

[32] Verwer, S.: Efficient Identification of Timed Automata: Theory

and Practice. Dissertation, Delft University of Technology 2010

[33] Kleiner, S., Kramer, C.: Model based Design with System

Engineering Based on RFLP V6. Smart Product Engineering,

S. 93-102. Springer Verlag 2013

[34] Niggemann, O., Stroop, J.: Models for Model‘s Sake. In:

Tagungsband 30th International Conference on Software

Engineering (ICSE) - Experience Track on Automotive Systems,

S. 561-570. IEEE 2008

30

atp edition

5 / 2014


Die Referenzklasse für die

Automatisierungstechnik

www.atp-edition.de

atp edition ist das Fachmagazin für die Automatisierungstechnik.

Die Qualität der wissenschaftlichen Hauptbeiträge

sichert ein strenges Peer-Review-Verfahren. Bezug

zur automatisierungstechnischen Praxis nehmen außerdem

die kurzen Journalbeiträge aus der Fertigungs- und

Prozessautomatisierung.

Sichern Sie sich jetzt diese erstklassige Lektüre! Als exklusiv

ausgestattetes Heft oder als praktisches ePaper – ideal für

unterwegs, auf mobilen Endgeräten oder zum Archivieren.

Wählen Sie einfach das Bezugsangebot, das Ihnen zusagt:

• Heft

• ePaper

• Heft + ePaper

25% ersten Bezugsjahr

Rabatt im

atp edition erscheint in der DIV Deutscher Industrieverlag GmbH, Arnulfstr. 124, 80636 München

WISSEN FÜR DIE

ZUKUNFT

Vorteilsanforderung per Fax: +49 Deutscher 931 Industrieverlag / 4170-494 GmbH | Arnulfstr. oder 124 abtrennen | 80636 München und im Fensterumschlag einsenden

Ja, ich möchte atp edition regelmäßig lesen und im ersten Bezugsjahr 25 % sparen.

Bitte schicken Sie mir die Fachpublikation für zunächst ein Jahr (10 Ausgaben)

als Heft für € 389,25 zzgl. Versand

(Deutschland: € 30,- / Ausland: € 35,-).

als ePaper (Einzellizenz) für € 389,25

als Heft + ePaper für € 536,03

inkl. Versand (Deutschland) / € 541,03 (Ausland).

Alle Preise sind Jahrespreise und verstehen sich inklusive Mehrwertsteuer. Nur wenn ich nicht bis 8 Wochen

vor Bezugsjahresende kündige, verlängert sich der Bezug zu regulären Konditionen um ein Jahr.

Firma/Institution

Vorname, Name des Empfängers

Straße / Postfach, Nr.

Land, PLZ, Ort

Antwort

Leserservice atp

Postfach 91 61

97091 Würzburg

Telefon

E-Mail

Branche / Wirtschaftszweig

Telefax

Widerrufsrecht: Sie können Ihre Vertragserklärung innerhalb von zwei Wochen ohne Angabe von Gründen in Textform (z.B.

Brief, Fax, E-Mail) oder durch Rücksendung der Sache widerrufen. Die Frist beginnt nach Erhalt dieser Belehrung in Textform. Zur

Wahrung der Widerrufsfrist genügt die rechtzeitige Absendung des Widerrufs oder der Sache an den Leserservice atp, Postfach

9161, 97091 Würzburg.


Ort, Datum, Unterschrift

PAATPE2014

Nutzung personenbezogener Daten: Für die Auftragsabwicklung und zur Pflege der laufenden Kommunikation werden personenbezogene Daten erfasst und gespeichert. Mit dieser Anforderung erkläre ich mich damit einverstanden,

dass ich vom DIV Deutscher Industrieverlag oder vom Vulkan-Verlag per Post, per Telefon, per Telefax, per E-Mail, nicht über interessante, fachspezifische Medien und Informationsangebote informiert und beworben werde.

Diese Erklärung kann ich mit Wirkung für die Zukunft jederzeit widerrufen.


HAUPTBEITRAG

Engineering-Effizienz

automatisch messen

Definition, Erfassung und Visualisierung

Engineering ist ein wesentlicher Kostenfaktor in der Automatisierung. Daher suchen

Industrie und Akademia gemeinsam nach Methoden, um die Engineering-Effizienz

zu erhöhen. Leider ist es nicht möglich, solche Methoden objektiv, systematisch,

reproduzierbar und vergleichbar zu bewerten, weil sich Engineering-Effizienz bisher

einer systematischen Messung entzieht. Dieser Beitrag schlägt erstmals einen Ansatz

zur automatischen Messung und Visualisierung der Effizienz von Engineering-Methoden

vor, der in Engineering-Werkzeuge eingebettet werden kann. Im Fokus steht

dabei die Bewertung der Engineering-Methode, nicht des Menschen. Das Konzept

ist auf beliebige Engineering-Werkzeuge übertragbar.

SCHLAGWÖRTER Engineering / Effizienz / Methoden / Konzepte / Effizienzmessung

Automatically Measuring Engineering Efficiency –

Definition, Registration and Visualisation

Engineering is a key cost driver in automation. Therefore, both manufacturers and

researchers are looking for ways to improve engineering efficiency. Unfortunately,

it is not possible to examine new methods in an objective, systematic, reproducible

or comparable way without being able to measure engineering efficiency. This contribution

describes a novel approach for the automatic measurement and visualization

of engineering efficiency which can be directly embedded in engineering tools.

The present concept focuses on the engineering method rather than the efficiency

of an individual engineer. It is applicable for any engineering tools.

KEYWORDS Engineering / efficiency / measurement

32

atp edition

5 / 2014


RAINER DRATH, CHRISTIAN MESSINGER, BEN SCHRÖTER, NUO LI,

GEORG GUTERMUTH, ABB-Forschungszentrum Ladenburg

Effizienz ist in vielen Bereichen des täglichen

Lebens als Indikator für Fortschritt nicht mehr

wegzudenken. Seien es der Wirkungsgrad von

Solarzellen, die Akkulaufzeit von Handys, die

Reichweite von Elektroautos, die Lichtausbeute

von LED, der Kraftstoffverbrauch von Motoren, die

Qualität von Meetings – selbst die Qualität des Schlafes

oder von Erziehungsmethoden für Kinder sind Ziel von

Effizienzverbesserungen. Das gilt ebenso für die Automatisierung.

Die Anlagenplanung und ihre Durchführung ist aufwendig

und mit über 50 Prozent der Kosten von Automatisierungsprojekten

sehr kostenintensiv [1]. In jeder

Planungsphase sind Ingenieure mit ihren jeweiligen

Software-Werkzeugen beteiligt und arbeiten verzahnt

mit Kollegen, Kunden, Subunternehmen und Lieferanten.

Der Prozess erfordert eine umfangreiche Orchestrierung

von Arbeitsabläufen, Mitarbeitern und Software-Werkzeugen.

Das Erreichen hoher Qualität unter

knappen zeitlichen und finanziellen Bedingungen birgt

immer das Risiko verspäteter Inbetriebnahmen und

geringer Margen. Allein um diesen Prozess zu beherrschen,

definieren viele Systemintegratoren standardisierte

Methoden, Werkzeuge und Workflows.

Im Mittelpunkt stehen daher Bemühungen, die Kosten

zu senken und die Wettbewerbsfähigkeit zu erhöhen.

Neue Konzepte oder Normen zur Verbesserung der Engineering-Effizienz

wie modellbasierte Ansätze [2,3], wissensbasierte

Unterstützung [3-5], Automatisierung von

Planungsaufgaben [6,7] oder zur Verbesserung der Interoperabilität

[8-12] könnten sich jedoch deutlich leichter

etablieren, wenn ihre Effizienzgewinne objektiv nachweisbar

wären. Wie soll aber der Vorteil von Engineering-

Methoden objektiv und systematisch mit existierenden

Werkzeugen und Workflows bewertet werden, wenn sich

die Effizienz einer systematischen Messung entzieht?

1. DIE SCHWIERIGKEIT EINER OBJEKTIVEN MESSUNG

Auf den ersten Blick ist Engineering-Effizienz leicht

verständlich: Höhere Effizienz bedeutet dieselbe Engineeringaufgabe

bei gleichem Ergebnis schneller und/

oder kostengünstiger als vorher zu bewerkstelligen.

Dies klingt überzeugend, ist aber bei näherer Betrachtung

keineswegs einfach. Weil Engineering eine Wertschöpfungskette

verwobener Aktivitäten darstellt, die

eine Vielzahl technischer Disziplinen und Werkzeuge

in Interaktion mit Personen unterschiedlicher Ausbildung

und Denkschulen einschließt, hat Engineering-

Effizienz viele Facetten und Hebel. Eine neue Methode

kann beim Engineering scheinbar Zeit einsparen, erhöht

jedoch unbemerkt den Zeitverbrauch oder das

Risiko einer anderen Aktivität. Wird höhere Effizienz

beim Programmieren, zum Beispiel durch sorgfältigere

Dokumentation oder gründlicheres Testen reinvestiert,

bleibt die höhere Effizienz verborgen.

Das Optimum der Engineering-Effizienz bildet das

gelegentlich geforderte Zero-Engineering. Die bestmögliche

Umsetzung wäre eine Anlage von der Stange. Aber

in der Realität sind Anlagen häufig Unikate und das

zugehörige Engineering erfordert kreatives Austüfteln

von Speziallösungen und Kompromissen statt Lösungen

von der Stange. Individuell durchdachtes Engineering

lohnt sich, denn jahrzehntelange Funktion und Profitabilität

einer Anlage gelingen nur mit gutem Engineering.

Insbesondere der Faktor Mensch, wie zum Beispiel das

Verhalten des Kunden, die Qualifikation der Ingenieure,

ihre Kommunikationskultur und individuelle Arbeitsweisen

und Lernkurven, beeinflussen erheblich die

Engineering-Effizienz. Viele dieser weichen Faktoren

sind nicht messbar. Aus diesen Gründen ist die Messung

der Engineering-Effizienz bis heute ungelöst und die

Wirksamkeit neuer Methoden ist schwer zu beziffern.

Dieser Beitrag schlägt einen Ansatz zur Messung vor.

2. ASPEKTE DES ENGINEERING

Aufgrund der Vielzahl von Arbeiten zur Verbesserung

der Engineering-Effizienz sind typische Einflussfaktoren

bereits bekannt. Der GMA FA 6.12 diskutiert im

Rahmen des VDI/VDE 3695 [13] wesentliche Hebel und

Aspekte mit hohem Einfluss auf Engineering-Effizienz.

atp edition

5 / 2014

33


HAUPTBEITRAG

Den dort vorgeschlagenen Kategorien folgend, werden

von den Autoren fünf Faktoren behandelt, die die Effizienz

beeinflussen.

2.1 Hebel der Engineering-Effizienz

a) Hebel Workflow

Der Engineering-Workflow beschreibt den Rahmen zur

Abwicklung des Engineering. Deren Effizienz wird beeinflusst

von den verwendeten Prozessmodellen, der

Komplexität des Workflows, der Anpassbarkeit an interne

Geschäftsprozesse, die Zahl der Workflow-Schritte, beteiligte

Personen und Werkzeuge sowie ihre Schnittstellen,

die Zahl der vorgesehenen Schleifen, die Nutzerführung

und das Wissen über die Abhängigkeiten zwischen

den Aktivitäten. Ein wichtiger Teilaspekt ist das Änderungsmanagement.

Viele Kunden ändern oder entwickeln

ihre Spezifikationen während des Projektes. Änderungen

in einer späten Phase können aufwändige Schleifen erzwingen,

gefolgt von einer Welle an Iterationen in der

gesamten Wertschöpfungskette. Der Hebel Workflow ist

daher oft verborgen, aber von besonderer Bedeutung.

b) Hebel Methoden

Der methodische Werkzeugkasten des Ingenieurs zielt

auf das wie des Engineering: Er umfasst zum Beispiel

Beschreibungssprachen oder Wiederverwendungskonzepte.

Quellen für Wiederverwendung können vergangene

Projekte, das Kopieren/Einfügen innerhalb

eines Projektes, Bibliotheken, wiederverwendbares

Fachwissen oder Erfahrungen sein. Effiziente Wiederverwendung

beinhaltet etliche Fragestellungen: Sind

kundenspezifische Bibliotheken verfügbar? Welche

Qualität haben die Artefakte? Welche Standards werden

eingesetzt? Wie oft werden Vorlagen verwendet und

in welchem Verhältnis steht deren Nutzung zur Entwicklung

und Wartung der Vorlagen?

c) Hebel Werkzeuge

Die Nutzung von Software-Werkzeugen im Engineering

ist Standard. Werkzeughersteller differenzieren ihre

Werkzeuge durch Funktionalität und adressieren hierbei

ganz wesentlich die Effizienz. Hierbei gibt es eine Vielfalt

von Aspekten: Zeit zum Lernen des Tools, Zeit zum

Erstellen und Suchen von Lösungen, Zeit zur Navigation,

Zeit zum Datenaustausch, Werkzeugperformance, Projektstrukturierung

bei zeitgleicher Bearbeitung durch

mehrere Bediener, Usability, den Grad der Selbsterklärung,

oder spezielle Effizienzfunktionen für Experten

wie Plausibilitätsprüfungen, Undo, Hilfesysteme, Änderungsmanagement,

Wizards und viele mehr.

d) Hebel Organisation und Mensch

Die Art, wie ein Projektteam strukturiert, räumlich

verteilt und mit Mitarbeitern versehen ist, beeinflusst

die Effizienz ebenfalls stark. Ein eingespieltes Team

kann ein Projekt viel routinierter abwickeln als ein

neues Team unerfahrener Kollegen. In der Praxis haben

viele Teams einen Lead-Ingenieur und ein heterogenes

Team unterschiedlicher Qualifikationsniveaus mit diffusen

Auswirkungen auf die Effizienz. Weitere Aspekte

der Erfahrung sind eine gute Balance von Wissen über

alle Engineeringphasen hinweg, die Arbeitsauslastung,

der Motivationsgrad oder die Kommunikationsfähigkeit.

Auf höherer Ebene gilt für organisatorische, räumliche

oder sprachliche Grenzen ähnliches.

e) Hebel Kunde und Vertrag

Die Profitabilität eines Projektes kann von diesem Aspekt

mehr abhängen als von jedem anderen Aspekt. In

der Praxis wird ein typischer Engineeringvertrag auf

Basis des Preises unterschiedlicher Anbieter geschlossen.

Aber viele Kunden ändern oder detaillieren ihre

Spezifikationen während des Projektverlaufes – mit den

oben beschriebenen Effekten. Die Engineering-Wertschöpfungskette

reagiert sehr empfindlich auf Änderungen

von Kundenanforderungen. Sinnvolle, vertragliche

Vereinbarungen zum Change- oder Claimmanagement

sind daher entscheidend.

Die Vielzahl der Hebel und Unteraspekte verdeutlicht,

dass Engineering-Effizienz von technischen und

ebenso von organisatorischen, rechtlichen, kulturellen,

wissensbedingten und kundenspezifischen Aspekten

abhängt. Hinweise zur Ermittlung der Effizienz einer

Organisation werden in [13] nur qualitativ anhand von

Merkmalen gegeben, eine automatisch ausführbare

Messmethode wird nicht verfolgt.

2.2. Industrielle Ansätze

In der Praxis wird die Engineering-Effizienz zunächst

über die gesamten Personalkosten eines Projektes ermittelt

[14]. Dieser Ansatz funktioniert bei ähnlichen Projekten,

bietet jedoch keine Vergleichbarkeit, weil er stark von der

Projektgröße abhängt. Zudem sind keine Aussagen über

die Effizienz einer bestimmten Methode ableitbar.

Damit Effizienz vergleichbar wird, muss sie auf einen

Bezugspunkt normalisiert werden. Ein in der Prozessautomatisierung

verbreiteter Ansatz ist Effizienz = Anzahl

der Signale (I/Os) pro Zeit, häufiger noch der Kehrwert:

Zeit pro I/O [14]. Dieser Ansatz ist unabhängig von

der Größe (gemessen in I/O) eines Projektes und umfasst

sämtliche harten und weichen Faktoren eines Projektes

im Methodenraum der Projektabwicklung. Methodisch

ließe sich dieses Konzept für jede andere Form von typischen

Engineering-Artefakten anwenden, beispielsweise

Loops pro Zeit oder Zeit pro Loop. Der Nachteil

ist dennoch fundamental: Die Komplexität eines I/O

oder Loops fällt unterschiedlich aus und ist nicht immer

vergleichbar. Beispielsweise benötigt ein Safety-Signal

deutlich mehr Engineering als ein normales binäres

Signal. Weiterhin ist entscheidend, ob die Liefergrenze

nur das Programmieren der Funktionslogik oder das

Gesamtsystem von Bedienoberfläche bis zur Installation

der Geräte umfasst. Auch eine FDA-gerechte Dokumentation

beeinflusst das Ergebnis erheblich.

34

atp edition

5 / 2014


Effizienz ist folglich nicht nur durch Engineering-

Methoden beeinflusst, die wir messen und verbessern

möchten, sondern durch eine Vielzahl von Einflüssen

im Umfeld eines von Menschen durchgeführten Prozesses.

Mit den genannten Ansätzen greift die Effizienzmessung

zu kurz. Sie sind gebunden an den Typ und die

Größe der Projekte und erfordern detaillierte Hintergrundinformation

zu ihrer Interpretation. Eine objektive

und automatische Messung sowie ein belastbarer

Vergleich unterschiedlicher Engineering-Methoden

sind damit nicht möglich.

2.3 Zielstellung der Arbeit

Der im Beitrag vorgestellte Ansatz versteht sich als Mittel

zur Bewertung und Förderung neuer Engineering-

Methoden. Ziel dieser Arbeit ist die Entwicklung eines

verallgemeinerbaren und automatisierbaren Ansatzes

zur Messung von Engineering-Effizienz innerhalb von

Software-Werkzeugen, mit dem sich die Vorteile unterschiedlicher

Engineering-Methoden, Workflows oder

anderer Hebel vergleichen lassen. Der Schwerpunkt

dieser Arbeit liegt deshalb in der Bewertung der Engineering-Methode,

nichtmessbare Einflüsse sollen bestmöglich

neutralisiert werden. Es geht nicht darum,

Engineering-Teams zu bewerten, sondern um eine Entscheidungshilfe

bei der Einführung neuer Methoden.

Die Beschränkung auf Software ist notwendig, denn

automatisches Messen erfordert computerauswertbaren

Zugriff auf Information, die es ermöglicht, den Engineeringfortschritt

über die Zeit zu verfolgen. Die Messung

soll reproduzierbare Ergebnisse liefern, auf andere

Werkzeuge übertragbar sein und die Bewertung einzelner

Aspekte erlauben. Die Anwendbarkeit der Methode

soll sich universell auf alle werkzeugunterstützten Phasen

des Engineering anwenden lassen, siehe Bild 1.

3.1 Laborbedingungen

Um die Abhängigkeit von der Projektgröße und der Art

von Engineering-Artefakten zu eliminieren, schlagen die

Autoren die Messung eines repräsentativen Benchmark-

Projektes unter Laborbedingungen vor, siehe auch [14],

das den kompletten Umfang einer Methode umfasst und

alle typischen Engineering-Aktivitäten enthält. Eine

wichtige These des Ansatzes besteht darin, unerwünschte

Einflüsse wie Erfahrung, Lernkurven, Unsicherheiten

im Umgang mit dem Werkzeug, Suchen oder Fehlermachen

zu eliminieren und die Messung auf das Messobjekt

zu fokussieren, indem die Durchführung des Benchmark-Projektes

von einer ausreichenden Zahl von Ingenieuren

solange wiederholt wird, bis ein hoher Routinegrad

erreicht ist – erst dann beginnt die Messung. (Durch

Erfassung der Projektwiederholungen lassen sich sogar

Aussagen über die Lernkurve machen, denn manche

Methoden sind besser lernbar als andere. Dieser Aspekt

wird in Teil 2 des Beitrags noch ausführlicher behandelt.)

Die Ergebnisse der so erfolgten Messung werden

durch den Rahmen des Benchmark-Projektes objektiv

und vergleichbar. In der Praxis lassen sich die Ergebnisse

nur auf Projekte ähnlichen Typs übertragen.

3.2 Messaufbau

Die Messung erfordert ein Engineering-Werkzeug (oder

mehrere), das im Rahmen des Benchmark-Projektes

benötigt wird, eine Auswertesoftware, die während

der Abarbeitung des Benchmarkprojektes Zugriff auf

3. MESSUNG DER ENGINEERING-EFFIZIENZ

Eine sinnvolle Messung von Effizienz erfordert das Fokussieren

auf ein Messobjekt und zugleich das Eliminieren

unerwünschter Einflüsse. Als Messobjekt wird

ein Ansatz zur Verbesserung der Engineering-Effizienz

verstanden, zum Beispiel eine neue Engineering-Methode,

ein neuer Workflow, verbesserte Usability, ein

neues Werkzeug oder eine neue Technologie. Anschließend

sind alle unerwünschten Freiheitsgrade zu beschränken

beziehungsweise zu normieren: die Projektgröße,

die Art der Engineering-Artefakte, die Fertigkeit

und Lernkurve des planenden Ingenieurs und der Einfluss

von Fremdaktivitäten außerhalb des Messobjektes.

Im Ergebnis wird reproduzierbar die bestmögliche

Engineering-Effizienz, also der Grenzwert der Verbesserungspotenziale

einer Methode ermittelt. Diese Messwerte

sind in der Praxis nur im Bestfall erreichbar,

erlauben aber einen zuverlässigen Vergleich.

BILD 1: Phasen des Engineering nach [1]

atp edition

5 / 2014

35


HAUPTBEITRAG

die Engineering-Daten besitzt, eine Gruppe von Ingenieuren,

die die Bearbeitung des Projektes durchführen

sowie das Messobjekt (zum Beispiel eine Engineering-Methode),

dessen Effizienz gemessen werden soll.

Durch mehrfaches Üben des Benchmark-Projektes

muss vor der Messung ein höchstmöglicher Routinegrad

bezüglich des Werkzeuges, des Benchmark-Projektes

und des Messobjekts sichergestellt werden.

3.3 Erfassung der Projektkomplexität

In einem Engineering-Werkzeug werden manuell oder automatisch

Engineering-Artefakte erzeugt, beispielsweise

Funktionsbausteine, grafische Elemente, Schrittketten,

Hardwaremodule, globale Signalvariablen. Die Art der Artefakte

hängt vom Werkzeug und vom Projekt ab. Da die

Artefakte untereinander Abhängigkeiten besitzen, bedeuten

mehr Artefakte in Näherung mehr Komplexität. Die Komplexität

eines Projektes kann durch Zählen dieser Artefakte

abgeschätzt werden und gilt für den Zeitpunkt der Messung.

Diese Zahlen lassen sich als Vektor darstellen und

vergleichen. Dieses Maß ist universell, weil es die werkzeugspezifische

Vielfalt von Artefakten abbildet. Mehrere

Messungen erfassen den Projektfortschritt über die Zeit.

3.4 Absolute und relative Effizienz

Betrachten wir einen Experten, der ein Funktionsblockdiagramm

mit 20 Blöcken routiniert aber händisch innerhalb

von fünf Minuten erzeugt und konfiguriert. Sein

Kollege nutzt eine andere Methode: Er instanziiert binnen

einer Minute eine Vorlage mit 25 Funktionsblöcken

und löscht händisch fünf davon. Im Ergebnis kommen

beide Experten zum selben Ergebnis, aber der zweite

Kollege hat 5x weniger Zeit benötigt. Wer ist effizienter?

Absolut betrachtet, ist der zweite Experte 5x effizienter.

Relativ hingegen, innerhalb seiner Methode, hat der erste

Experte geradlinig ohne jede Änderung gearbeitet, hocheffizient,

ohne Verbesserungspotenziale. Der zweite Experte

hingegen musste die Vorlage modifizieren, um sein

Ziel zu erreichen. Innerhalb seines Methodenraumes

war der erste Experte optimal effizient, wohingegen der

zweite noch Verbesserungspotenziale besitzt.

Die Autoren unterscheiden deshalb zwei grundsätzliche

Arten der Effizienz: (a) die absolute Effizienz über

unterschiedliche Methoden hinweg und (b) die relative

Effizienz innerhalb eines Methodenraumes, die ein

Maß für Verbesserungspotenziale darstellt.

Auf den ersten Blick scheint die absolute Effizienz

wichtiger, weil ihre Ergebnisaussagen global gültig

sind. So haben manche Engineering-Methoden die Effizienz

so verbessert, dass die Optimierung der alten

Methode müßig wäre. Beispielsweise ist die massenhafte

Generierung von Steuerungslogik mit Hilfe von

Vorlagen bekanntermaßen viel effizienter als das händische

Programmieren von Grund auf. Bei näherer Betrachtung

ist jedoch die relative Effizienz von erhellender

Bedeutung: Die Zahl bahnbrechender neuer

Engineering-Methoden ist begrenzt und viele bedeutsame

Methoden sind längst in Engineeringwerkzeugen

verfügbar. Die Differenzierung erfordert die effiziente

Ausführung der Engineering-Methoden, denn sie lassen

sich effizient oder ineffizient umsetzen. Hier kommt

die Methodenqualität und die Usability der beteiligten

Werkzeuge zum Tragen. Der im Beitrag vorgeschlagene

Ansatz verfolgt daher ausdrücklich beide Ansätze.

3.5 Messung der absoluten Effizienz

Absolute Effizienz wird gemessen, indem die Anzahl

aller wesentlichen Engineeringartefakte (nicht nur I/O

oder Loop, sondern auch Geräte, Funktionsbausteine,

Diagramme) und die zugehörige Engineering-Zeit ermittelt

werden. Da das Engineering von Artefakten in

vielfältiger Hinsicht Zeit verbraucht, ist sicherzustellen,

nur diejenige Zeit zu betrachten, die tatsächlich

für die Erzeugung der zu messenden Engineering-Ergebnisse

benötigt wird. Die Messung darf nur über die

relevante Zeit pro Artefakt oder Aktivität erfolgen. Alle

übrige Zeit ist zu detektieren und vorerst außer Acht zu

lassen. Daraus lässt sich für jedes Artefakt die absolute

Größe Zeit-pro-Artefakt ermitteln. Der vorgestellte Ansatz

definiert die absolute Effizienz als Vektor all dieser

Größen. Dieser lässt sich zeilenweise zwischen Engineering-Methoden

vergleichen. Die absolute Effizienz

ist somit methodenunabhängig. Alle hierfür benötigte

Information ist automatisch im Werkzeug messbar.

3.6 Messung der relativen Effizienz

Relative Effizienz ist innerhalb eines Methodenraumes

interessant. Sie gibt Auskunft darüber, wie effizient eine

Methode bei routinemäßiger Ausführung ist. Methodenbedingte

Ungeradlinigkeiten werden dadurch aufgedeckt.

Ein geradliniges Vorwärtsengineering und Voranschreiten

beim Erzeugen neuer Daten ist ein Indikator für eine

effiziente Ausführung einer Engineeringmethodik, wohingegen

das Ändern bereits zuvor geplanter Daten Ineffizienz

bedeutet. Engineeringschleifen führen beispielsweise

konzeptionell zu Zeitverlust. Das lässt sich messen.

Die Obergrenze der relativen Effizienz wird in dem

vorgestellten Ansatz dann erreicht, wenn eine Engineering-Aufgabe

nach einer initialen Konfiguration ohne

jede nachträgliche Modifikation gelöst wird. Die bestmögliche

relative Effizienz ist folglich ein Geradeaus-

Engineering ohne Zweitmodifikationen.

Die Autoren schlagen vor, relative Effizienz zu messen,

indem die Anzahl von Nachfolge-Modifikationen in Engineering-Artefakten

ermittelt wird, die zuvor bereits geplant

wurden. Sie ist nur vergleichbar innerhalb desselben

Methodenraumes, kann aber beispielsweise für unterschiedliche

Werkzeuge untersucht werden. Für den Vergleich

von Messungen ist zu beachten, dass bei unterschiedlichen

Methoden nur die absolute Effizienz ver-

36

atp edition

5 / 2014


gleichbar ist. Bei gleicher Methodik ist zusätzlich die relative

Effizienz vergleichbar, gerade über Werkzeuge

hinweg. So lässt sich die Auswirkung von Usability verschiedener

Softwarewerkzeuge endlich objektiv bewerten.

4. VORSCHLAG ZUR VISUALISIERUNG

Eine Schlüsselfrage lautet: Wie lässt sich Effizienz grafisch

abbilden und wie könnte ein Effizienzcockpit

aussehen? Hierfür ist den Autoren aus der Literatur und

Praxis keine Darstellung bekannt. Im Folgenden schlagen

wir eine Reihe von Diagrammen vor, die Effizienz

visuell greifbar darstellen und insbesondere Verbesserungen

verständlich herausheben können.

4.1 Darstellung der Projektkomplexität

Projektkomplexität ist ein Vektor, der zeilenweise die

absolute Anzahl der erzeugten Engineering-Artefakte

zu einem Zeitpunkt enthält. Die Projektkomplexität ist

selbst noch kein Maß für die Effizienz, aber sie ist die

Basis für weitere Betrachtungen. Da im Projektverlauf

neue Artefakte hinzukommen, ändert sich die Projektkomplexität

mit der Zeit.

Als geeignete grafische Darstellung wird ein Spinnendiagramm

gemäß Bild 2 (Chart I) vorgeschlagen. Dieses Beispiel

zeigt alle Artefakte: Steuerungen, Aktoren, Sensoren,

grafische Elemente, Signale, Funktionsblöcke, Funktionsblockdiagramme

und Schrittketten. Chart II zeigt die Komplexität

desselben Projektes zu einem späteren Zeitpunkt.

Zur Veranschaulichung von Veränderungen schlagen die

Autoren eine Quotientenbildung aus Chart I und Chart II

vor: Chart III demonstriert das Hervorspringen der Unterschiede.

Diese Form der grafischen Darstellung ist universell

und für jedes Werkzeug anwendbar: Die Auswahl der

Artefakte ist jedoch anwendungsspezifisch und erfolgt mit

der Entwicklung des Benchmark-Projektes.

BILD 2: Visualisierung von Projektkomplexität

4.2 Projektfortschritt über die Zeit

Projektfortschritt ist die Änderung der Projektkomplexität

über die Zeit, verursacht durch Hinzufügen oder

Löschen von Artefakten. Zur Messung wird dazu in regelmäßigen

Abständen der Vektor der aktuellen Projektkomplexität

ermittelt. Bild 3 zeigt den Projektfortschritt

in einem Diagramm: Jedem Artefakt sowie der Summe

aller Artefakte ist jeweils eine Kurve zugeordnet. Phasen

hoher Effizienz führen zu starkem Wachstum der Kurven,

während geringe Effizienzphasen durch ein Innehalten

oder gar Rückgang der Kurven erkennbar sind.

Eine Interpretation dieser Kurven muss sorgfältig erfolgen.

Fortschritt und Stillstand können zusammengehören,

wenn beispielsweise ein Bulk-Import erfolgte und

die erzeugten Artefakte noch verschaltet werden müssen.

Eine Plateauphase oder ein moderater Rückschritt

sind dann keine unproduktiven Zeiten, sondern gehören

BILD 3: Fortschrittsdiagramm (absolute Zahlen)

atp edition

5 / 2014

37


HAUPTBEITRAG

BILD 4: Visualisierung

der absoluten Effizienz

BILD 5: Modifikationsdiagramm

BILD 6: Aktivitäten-Diagramm

zwingend zur Engineering-Methode. Dennoch gilt:

Rückschritte weisen auf Verbesserungspotenziale hin.

4.3 Absolute Effizienz

Die absolute Effizienz basiert auf der Projektkomplexität,

betrachtet jedoch nicht die Anzahl, sondern den durchschnittlichen

Zeitverbrauch pro Artefakt. Dieser Vektor

lässt sich ebenso in einem Spinnendiagramm visualisieren.

Dieses Diagramm ist für die Ermittlung individueller

Lernkurven anwendbar, aber nur für ein Benchmark-Projekt

unter routinierten Messbedingungen reproduzierbar.

Bild 4 zeigt dies für ein Benchmark-Projekt unter Verwendung

verschiedener Methoden in zwei Spinnendiagrammen

Chart I und Chart II. Die ermittelte Zeit ist die indi-

viduell zu den Artefakten zugeordnete Zeit. Das dritte

Spinnendiagramm beinhaltet wiederum den Quotienten

beider Diagramme und visualisiert die Effizienzverbesserungen

durch die neue Methode. Das Ergebnis ist überraschend:

Das Diagramm kann den Einfluss der neuen Methode

auf das gesamte Projekt abbilden. Für einige Artefakte

sind Verbesserungen sichtbar, während sich für

andereArtefakttypen Verschlechterungen ergeben.

4.4 Relative Effizienz

Modifikationen von bereits geplanten Artefakten werden

als grundsätzlich destruktiv angenommen, beispielsweise

das Löschen eines Funktionsblocks oder

eines Sensors oder die Neujustierung von Parametern.

38

atp edition

5 / 2014


Konfiguration (HMI), I/O Kommunikationskonfiguration

(FDI), Systemadministration (Setup), Idle, None,

External, Navigation zwischen Tools oder Ansichten,

Check-Out (Testing) und Debugging. Das Diagramm ist

eine wertvolle Quelle zur Evaluierung von Effizienz.

Es zeigt Potenziale in der Erfahrung des Ingenieurs, mit

der Usability, mit der Werkzeugperformance oder mit

der Fragmentierung der Aktivitäten auf. In realen Projekten

ist die Interpretation von Pausezeiten schwierig

– es ist nicht entscheidbar, ob es unproduktive Zeiten

sind, ob derzeit am Whiteboard gearbeitet wurde oder

ob eine Unterbrechung durch einen Kollegen stattfand.

In einem Benchmarkprojekt sind unter Laborbedingungen

Pausezeiten als Produktivzeiten anzusehen.

4.6 Wiederverwendung

BILD 7: Wiederverwendungsdiagramm

Dieser Indikator zeigt die Anzahl von Wiederverwendungen

über die Zeit (Bild 7). Er erhöht sich, sobald ein

Bibliothekselement instanziiert oder über Copy-and-paste

innerhalb eines oder zwischen zwei Projekten, dupliziert

wird. Dieser Indikator hilft, die Wiederverwendungsrate

von Artefakten oder Bibliothekselementen zu analysieren.

Dies erleichtert beispielsweise die Verwendungsraten einzelner

Artefakte einzustufen oder geeignete Kandidaten

für Bibliothekselemente zu identifizieren.

4.7 Häufigkeit von Kommandoaufrufen

BILD 8: Kommandodiagramm

Während der Benutzung eines Engineering-Werkzeuges

wählt der Bediener Menüeinträge (Kommandos) aus,

um verschiedene Aktivitäten zu starten. Dieser Indikator

(Bild 8) stellt die Benutzungsanzahl solcher Kommandos

grafisch dar. So lassen sich wichtige Funktionen

identifizieren und das hilft, den Zugriff und die

Usability populärer Funktionen zu verbessern.

ZUSAMMENFASSUNG

Wird die Modifikationsrate über die Zeit abgetragen,

entsteht ein Diagramm nach Bild 5, das die Anzahl

modifizierter oder gelöschter Artefakte im Vergleich

zum letzten Messpunkt zeigt. Dies ist ein Maß für die

relative Effizienz. Gut sichtbar sind Perioden hoher Änderungsaktivitäten

– ein Indikator für Verbesserungspotenziale.

Die ideale Modifikationskurve liegt konstant

bei Null, sie zeigt maximale relative Effizienz.

4.5 Zeitlicher Verlauf von Aktivitäten

Der Zeitverbrauch lässt sich darüber hinaus pro Aktivität

ermitteln und gemäß Bild 6 darstellen. Im abgebildeten

Beispiel werden folgende Aktivitäten unterschieden:

Steuerungslogikengineering (Logic), HMI-

Dieser Beitrag versteht sich als Konzept zur Bewertung

und Förderung neuer Engineering-Methoden und stellt

einen systematischen Ansatz vor, deren Effizienz und

Kundennutzen innerhalb eines Werkzeuges oder einer

Werkzeugkette objektiv und vergleichbar messen und

visualisieren zu können. Dies soll den Transfer von

Ideen aus der Wissenschaft in die Praxis unterstützen.

Die Messung erfolgt unter Laborbedingungen und

nicht im laufenden Projekt – dadurch werden unerwünschte

Fremdeinflüsse auf die Effizienz sowie Überwachungsbedenken

eliminiert. Die Einführung eines

Benchmark-Projektes und das routinierte Ausführen des

Engineering reduzieren den Einfluss des Menschen und

führen zu tatsächlich vergleichbaren Ergebnissen. Die

ermittelten Effizienzaussagen sind unter diesen Randbedingungen

reproduzierbar, vergleichbar und entsprechen

einem Engineering unter Optimalbedingungen.

atp edition

5 / 2014

39


HAUPTBEITRAG

AUTOREN

Dr.-Ing. RAINER DRATH (geb. 1970) ist Program Manager

im ABB Forschungszentrum Deutschland in Ladenburg.

Er beschäftigt sich mit der Entwicklung neuer Konzepte

und Methoden zur Verbesserung des Engineering von

Automatisierungssystemen.

ABB Forschungszentrum Ladenburg,

Wallstadter Str. 59, D-68526 Ladenburg,

E-Mail: rainer.drath@de.abb.com

Dipl. Phys. GEORG GUTERMUTH (geb. 1969) ist Gruppenleiter

im ABB Forschungszentrum Deutschland in Ladenburg.

Er beschäftigt sich mit der Verbesserung von

Workflows, Werkzeugen und Methoden des Engineering

von Automatisierungs- sowie elektrischen Systemen.

ABB Forschungszentrum Ladenburg,

Wallstadter Str. 59, D-68526 Ladenburg,

E-Mail: georg.gutermuth@de.abb.com

Dipl. Inf. CHRISTIAN MESSINGER (geb. 1983) ist Scientist

im ABB Forschungszentrum Deutschland in der Abteilung

„Industrial Software and Applications“ und beschäftigt

sich vor allem mit der Entwicklung und Verbesserung von

Automation-Engineering Software.

ABB Forschungszentrum Ladenburg,

Wallstadter. Str. 59, D-68526 Ladenburg,

E-Mail: christian.messinger@de.abb.com

Dr. NUO LI (geb. 1981) ist wissenschaftliche Mitarbeiterin

im ABB Forschungszentrum Deutschland in Ladenburg.

Ihre Themenschwerpunkte liegen in der Anwendung von

Software Engineering Technologien zur Verbesserung des

Engineering Prozesses.

ABB Forschungszentrum Ladenburg,

Wallstadter Str. 59, D-68526 Ladenburg,

E-Mail: nuo.li@de.abb.com

Dr.-Ing. BEN SCHRÖTER (geb. 1977) ist Mitarbeiter der

Entwicklung von speicherprogrammierbaren Steuerungen

innerhalb der ABB Automation Products GmbH. Sein

Arbeits schwerpunkt ist die Weiterentwicklung von

PC-basierten Engineering-Werkzeugen im Umfeld der

Fabrikautomatisierung.

ABB Automation Products GmbH,

Eppelheimer Straße 82, D-69123 Heidelberg,

E-Mail: ben.schroeter@de.abb.com

Doch ein Einsatz unter realen Bedingungen ist ebenso

sinnvoll. Werden die dort ermittelten Messergebnisse

mit Messungen aus dem Labor verglichen, ist die Differenz

ein Wegweiser für Verbesserungspotenziale.

Die kontinuierliche statistische Projektauswertung

unter optimalen Laborbedingungen und die automatische

Erzeugung der vorgeschlagenen Diagramme verspricht

einen erhellenden, detaillierten und konkreten

Einblick in den Engineering-Prozess.

Bezüglich des Hebels Workflow aus Abschnitt 2.1 a

hilft dieser Ansatz bei der Identifizierung von Modifikationszeiten

nach einer Änderungsanforderung. Basierend

auf den gemessenen Zeiten lassen sich beispielsweise

Aussagen über die finanziellen und zeitlichen

Auswirkungen von Änderungswünschen des

Kunden treffen.

Auch den Hebel Methoden aus Abschnitt 2.1 b deckt

dieser Ansatz ab. Die Qualität und Kompatibilität von

Artefakten wird im Modifikationsdiagramm gut sichtbar,

die Anzahl der Wiederverwendungen wird direkt

gemessen, das Verhältnis zwischen Wartung und Wiederverwendung

von Artefakten ist ableitbar.

Den Hebel Werkzeuge aus Abschnitt 2.1 c deckt dieser

Ansatz ebenfalls gut ab. Alle Effizienzfunktionen eines

Werkzeuges werden im Rahmen des Benchmarkprojektes

erfasst, die Anwendung derselben Engineering-

REFERENZEN

[1] G. Gutermuth: Engineering, In Hollender, M. (Hrsg): Colla -

borative Process Automation Systems, S. 156-182. ISA 2010

[2] E. Estévez, M. Marcos: Automatic Model-driven approach

for designing industrial control systems. Lecture Notes in

Computer Science. 0302-9743 (Print) 1611-3349 (Online).

Vol. 4758/2007, 2007, pp: 284-287. Springer

[3] Li, F.; Gilz, T.; Steinhauer, M.; Vogel-Heuser, B.; Eigner, M.;

Shea, K.: Supporting the multi-domain plant engineering

process using engineering knowledge from formalized

model-based libraries. In: International Conference on

Production Research (ICPR), Stuttgart, 2011

[4] S. Runde, A. Fay: Software Support for Building Automation

Requirements Engineering - An Application of Semantic

Web Technologies in Automation. IEEE Transactions on

Industrial Informatics, 2011. DOI: 10.1109/TII.2011.2166784

[5] Wiesner A et.al.: Wissensbasierte Integration und

Konsolidierung von heterogenen Anlagenplanungsdaten.

atp edition, 2010, 52(4), 48-58

[6] M. Mertens and U. Epple. Plant Asset Management Functions

driven by Property Models. IEEE Int. Conf. on Emerging

Technologies and Factory Automation (ETFA), 2009

[7] W. Schäfer, H. Wehrheim: The Challenges of Building

Advanced Mechatronic Systems, In: Proc. “2007 Future of

Software Engineering – Int. Conf. on Software Engineering”,

Washington, DC, 2007, pp. 72-84

40

atp edition

5 / 2014


www.atp-edition.de

Jetzt bestellen!

Methode in einem anderen Werkzeug würde die

toolabhängigen Effizienzunterschiede aufdecken.

Bezüglich des Hebels Organisation und Mensch

aus Abschnitt 2.1 d definiert diese Metrik Regeln,

wie die Lernkurve aus der Messung eliminiert wird,

oder wie die Lernkurve experimentell explizit erfasst

werden kann.

Der Hebel Kunde und Vertrag aus Abschnitt 2.1 e

hingegen wird kaum berücksichtigt, weil die Messung

nur die Effizienz im Rahmen eines Werkzeuges

oder einer Werkzeugkette messen kann. Da ein signifikanter

Anteil der gesamten Automatisierungsplanung

von der Angebotsphase bis zur Inbetriebnahme

keinen Werkzeugbezug hat, kann er nicht in

die Messung eingeschlossen werden. Probleme in

diesem Bereich werden aber mit Sicherheit zu einer

hohen Modifikationsrate führen.

Der Ansatz deckt eine Vielzahl von werkzeugbezogenen

Effizienzaspekten ab und stellt sie in Diagrammen

vorteilhaft dar. Der Ansatz ist leicht auf

andere Engineering-Werkzeuge portierbar und gibt

eine solide Grundlage für die Definition und Berechnung

spezifischer Engineering-Effizienz-KPI.

Die Referenzklasse für die

Automatisierungstechnik

atp edition ist das Fachmagazin für die Automatisierungstechnik.

Die Qualität der wissenschaftlichen Hauptbeiträge

sichert ein strenges Peer-Review-Verfahren. Bezug zur

automatisierungstechnischen Praxis nehmen außerdem

die kurzen Journalbeiträge aus der Fertigungs- und Prozessautomatisierung.

Sichern Sie sich jetzt diese erstklassige Lektüre! Als

exklusiv ausgestattetes Heft oder als praktisches ePaper

– ideal für unterwegs, auf mobilen Endgeräten oder zum

Archivieren.

Wählen Sie einfach das Bezugsangebot, das Ihnen zusagt:

als Heft, ePaper oder Heft + ePaper!

MANUSKRIPTEINGANG

14.01.2014

Im Peer-Review-Verfahren begutachtet

[8] Drath R., Fay A., Barth M.: Interoperabilität von

Engineering-Werkzeugen. In: at - Automatisierungstechnik

9/2011, S. 598–607, Oldenbourg-Verlag, 2011

[9] Drath R., Schröter B., Hoernicke M.: Datenkonsistenz im

Umfeld heterogener Engineering-Werkzeuge. In:

Automation 2011, VDI-Berichte 2143, S. S. 29–32,

Langfassung auf Tagungs-CD (13 Seiten), VDI-Verlag, 2011

[10] IEC 62714-1 CD norm draft AutomationML Architecture,

www.iec.ch, 2011

[11] T. Moser, S. Biffl: Semantic Tool Interoperability for

Engineering Manufacturing Systems, In: Proceedings of

the “IEEE Conference on Emerging Technologies and

Factory Automation (ETFA)”, 2010, pp. 1-8

[12] ISO 15926. Industrial automation systems and integration

- Integration of life-cycle data for process plants

including oil and gas production facilities

[13] VDI-GMA 6.12: Engineering of industrial plants – Evaluation

and optimization. VDI/VDE Richtlinie 3695, Parts 1-5,

Berlin, Germany, 2010-2013

[14] Gutermuth G.: Engineering Effizienz – eine wissenschaftliche

Betrachtung. Präsentation im GMA-Arbeitskreis

“durchgängiges Engineering”, VDI-Bezirksverein Bayern

Nordost e.V., Germany, https://www.researchgate.net/

publication/260417184_Engineering_bei_ ABB_eine_

wissenschaftliche_Betrachtung, 11.7.2012

atp edition erscheint in der DIV Deutscher Industrieverlag GmbH, Arnulfstr. 124, 80636 München


HAUPTBEITRAG

Redundanz für

verfügbare Systeme

Design und Analyse

Verfügbarkeit ist in der Automation ein nicht zu vernachlässigender Aspekt bei Design

und Betrieb von Systemen. Ausfälle können zu unvorhergesehenen Problemen führen

und verursachen meist hohe Kosten. Daher werden Redundanzkonzepte häufig in

industriellen Applikationen und Systemen angewandt. Um derartige Konzepte entwerfen

sowie effizient und effektiv umsetzen zu können, geben die Autoren im Beitrag

auf Basis hierarchisch strukturierter Designelemente Leitlinien zur Definition von

Anforderungen sowie zu Auswahl und Design eines passenden Redundanzmusters.

Am Beispiel von Software-basierter Standby-Redundanz werden außerdem existierende

Implementierungsalternativen aufgezeigt und analytisch ausgewertet. Auch

hierbei ergeben sich Leitlinien zur Auswahl einer geeigneten Alternative.

SCHLAGWÖRTER Redundanz / Verfügbarkeit / Modellierung / Designleitlinien

Redundancy for Highly Available Systems –

Design and Analysis

Availability is a key aspect during the design and operation of industrial automation

systems. Failures not only result in unanticipated problems but also often cause

high costs. Therefore redundancy is often applied in industrial applications and

systems. Drawing on hierarchically structured design elements, this article provides

guidelines for requirement elicitation as well as for decision support and design of

a suitable redundancy pattern. This allows for a well-directed and informed redundancy

design as well as efficient and effective redundancy implementation according

to system specific requirements. Furthermore, an overview is presented of implementation

alternatives for software-based standby redundancy, with an analytical

evaluation and comparison of these techniques. Guidelines are derived for selecting

an appropriate alternative.

KEYWORDS redundancy / availability / modeling / design guidelines

42

atp edition

5 / 2014


THOMAS GAMER, STEFAN STATTELMANN, ABB Corporate Research, Research Area Software

Ausfallzeiten in industriellen Produktionsanlagen

verursachen meist sehr hohe Kosten.

Vision Solutions [1] unterscheidet dabei zwischen

geplanten und ungeplanten Ausfallszeiten

mit Kosten von 1,6 Millionen Dollar pro

Stunde im Bereich Produktion und bis zu 2,8 Millionen

Dollar pro Stunde in der Energiebranche. Hierbei wurden

direkte und indirekte Kosten sowie geplante und

ungeplante Ausfallszeiten erfasst. Derartig hohe Kosten

für Ausfälle – unabhängig davon, ob diese geplant oder

nicht geplant sind – sowie sinkende Kosten für moderne

Hardware, zum Beispiel eingebettete Systeme oder Multicore-Prozessoren,

führen dazu, dass eine erhöhte Verfügbarkeit

immer häufiger als gegeben vorausgesetzt

wird. Verfügbarkeit beschreibt dabei die Fähigkeit eines

Systems, den Betrieb auch bei Auftreten von Ausfällen

einzelner Systembestandteile fortzusetzen. Gemessen

wird die Verfügbarkeit als Prozentwert der Zeit, die ein

System betriebsbereit ist und seine Funktion ausführt.

Maschinensicherheit (Safety) gemäß IEC 61508 [2] wird

in diesem Beitrag nicht betrachtet. Verfügbarkeit wird

während des Betriebs meist durch das Vorhandensein

von Redundanz und Fehlertoleranz erreicht. Alternativ

kann Fehlerursachenvermeidung zur Design-Zeit eines

Systems die Verfügbarkeit ebenfalls erhöhen. Im Beitrag

liegt der Fokus auf Verfügbarkeit im Fehlerfall während

des Betriebs, das heißt auf Fehlertoleranz, da sich Ausfälle

nie gänzlich ausschließen lassen.

In der Literatur und in der praktischen Anwendung

existiert eine Vielzahl von Redundanzmustern, um die

Verfügbarkeit von Systemen zu erhöhen. Diese Redundanzmuster

unterscheiden sich in ihren Eigenschaften

und sind daher in unterschiedlichen Situationen und

Gegebenheiten jeweils passend oder unpassend. Bei der

Auswahl des anzuwendenden Redundanzmusters

muss daher eine Wahl auf Basis der Anforderungen und

Randbedingungen getroffen werden. Um dies optimal

zu unterstützen, beschreiben wir Designelemente Software-basierter

Redundanz. Diese sollen den Entscheidern

als Leitlinien dienen und dabei helfen, eine klare

Vorstellung zu bekommen, welche Anforderungen sie

tatsächlich an eine Verfügbarkeitslösung haben, beziehungsweise

über welche Schlüsselanforderungen sie

sich Gedanken machen müssen. Anhand dieser Leitlinien

kann schließlich ein für die jeweiligen Schutzziele

– im Sinne der benötigten Verfügbarkeit – geeignetes

Redundanzmuster gewählt werden.

Im zweiten Teil des Artikels wird aufgezeigt wie, aufbauend

auf der Entscheidung für ein bestimmtes Redundanzmuster,

eine geeignete Implementierungsalternative

(Optimierung) gewählt werden kann. Hierzu

werden die Optimierungen anhand verschiedener Kriterien

ausgewertet, zum Beispiel Last oder Vorhersagbarkeit.

Daraus ergeben sich wiederum Leitlinien zur

Auswahl eines zu den Schutzzielen, Anforderungen

und Systemgegebenheiten passenden Verfahrens. Als

Beispiel wird die Analyse für Optimierungen der Zustandssynchronisierung

auf Basis des Redundanzmusters

Warm Standby durchgeführt.

1. LEITLINIEN AUF BASIS VON DESIGNELEMENTEN

Im Beitrag werden vorrangig Software-basierte Redundanzmuster

betrachtet, da diese gängige Anforderungen

erfüllen, zum Beispiel eine günstige Verfügbarkeitslösung

ohne spezielle Hardwarebausteine, hohe

Flexibilität, gute Erweiterbarkeit und Verwendung in

dynamischen sowie verteilten Umgebungen – erfüllen.

Zudem konzentrieren sich die Ausführungen auf die

Verfügbarkeit von Controllern in der Automatisierung,

da hier die bekannten Redundanzmuster Anwendung

finden. Dennoch sollten für ein hoch verfügbares System

sämtliche Systembestandteile und die Gesamtsicht

zusätzlich analysiert werden. Viele der präsentierten

Leitlinien sind dabei auch auf Systemebene anwendbar.

Außerdem sind die Designelemente durch ihre hierarchische

Struktur einfach auf weitere Systembestandteile,

zum Beispiel die Kommunikationspfade zwischen

Feldgeräten und Controllern, erweiterbar.

Software-basierte Redundanz ist dadurch definiert, dass

das gesamte Redundanzmanagement, beispielsweise die

Synchronisierung des internen Zustands oder das Umschalten

im Fehlerfall, in Software auf der Anwendungs-

atp edition

5 / 2014

43


HAUPTBEITRAG

ebene implementiert ist und auf Standard-Hardware (commercial

off-the-shelf, COTS) aufsetzt. Spezielle Hardware-

Komponenten, beispielsweise Memory Snooping oder

Watchdogs, werden nicht vorausgesetzt. Software-basierte

Redundanz kann folglich dennoch auf redundante Hardware,

das heißt auf redundanten Controllern, aufbauen.

Basierend auf empirischen Beobachtungen in der Automatisierungsbranche

wird im Folgenden als Fehlermodell

angenommen, dass Ausfälle primär auf das

Versagen der Stromversorgung und der Netzwerkkommunikation

zurückzuführen sind. Zudem können,

wenn auch deutlich seltener, Hardwarefehler von Controllern

zu Ausfällen führen. Letzteres muss vor allem

bedacht werden, wenn zukünftig verstärkt Standard-

Hardwarekomponenten genutzt werden sollen, da diese

die Fehlerwahrscheinlichkeit erhöhen [3]. Hierbei

wird immer angenommen, dass ein Controller im Gesamten

ausfällt; teilweise Hardwarefehler sind kein

gängiges Szenario, da deren Auswirkungen auf die restliche

Hardware und die Ausführung der Kontrollapplikationen

nur sehr schwer vorhersagbar sind. Zudem

werden Fehler als permanent angenommen. Insgesamt

stellt die Fokussierung auf Controller-Redundanz im

Kontext des vorgestellten Fehlermodells keine Einschränkung

dar, da sämtliche Ausfälle dazu führen,

dass ein redundanter Controller benötigt wird.

1.1 Redundanzmuster und ihre Eigenschaften

In der Literatur sowie in industriellen Lösungen sind

zahlreiche Redundanzmuster zu finden, die eingesetzt

werden, um die Verfügbarkeit eines Systems mittels Fehlertoleranz

zu erreichen. Beispiele sind Triple-Triple-

Redundanz in einer Boing 777 [4], Triple Modular Redundancy

(TMR) mit Voting [5], eine Kombination aus verteiltem

Voting und Designdiversität [6] oder Standby-

Redundanz basierend auf einem Master/Slave-Ansatz [7].

Die am meisten verbreiteten Redundanzmuster sind dabei

N-Modular-Redundanz, zu deren Familie die bereits

genannte Ausprägung TMR gehört, sowie Standby-Redundanz

in den Ausprägungen Cold, Warm und Hot

Standby. Letztere Varianten beziehen sich auf die Ausführung

des Standby-Controllers, welcher erst im Fehlerfall

gestartet wird (Cold), gestartet ist und synchronisiert

wird ohne die eigentliche Applikation auszuführen

(Warm) beziehungsweise die Applikation parallel zur

aktiven Instanz auf Basis derselben Inputs ausführt (Hot).

In BILD 1 werden beispielhaft die Redundanzmuster

Standby-Redundanz, heterogene Standby-Redundanz

sowie N-Modular-Redundanz gegenübergestellt. Bei

Standby-Redundanz führen beide Controller dieselbe

Applikation mittels identischer Implementierungen aus.

Controller 1 übernimmt dabei die Rolle des aktiven Controllers,

der andere die des Standby-Controllers. Zudem

erfolgt eine periodische Synchronisierung der beiden

Applikationen, ausgehend vom aktiven Controller. Die

Synchronisierung bezieht sich, je nach Variante des

Redundanzmusters, auf den Zustand einer Applikation

(Warm Standby) oder die Ausführung der Applikation

(Hot Standby). Die heterogene Standby-Redundanz

führt, im Gegensatz zur Standby-Redundanz, dieselbe

Applikation mittels unterschiedlicher Implementierungen

aus. Die Implementierungen werden dabei meist

durch verschiedene Entwicklerteams auf Basis derselben

Spezifikation erstellt. Aufgrund der unterschied-

BILD 1: Gegenüberstellung beispielhafter Redundanzmuster

44

atp edition

5 / 2014


lichen Versionen können mit diesem Redundanzmuster

auch Softwarefehler toleriert werden. Dabei hängt der

Grad der Toleranz von Softwarefehlern vom Grad der

Heterogenität der Softwareversionen sowie der Implementierung

der Fehlererkennung ab. Abschließend ist

in Bild 1 noch die N Modular-Redundanz dargestellt,

welche auf mehreren Controllern dieselbe Applikation

mittels identischer Implementierung ausführt. Alle Applikationsinstanzen

kommunizieren ihre Outputs dann

an eine zusätzliche Voting-Komponente, welche durch

einen Vergleich der Ergebnisse ein korrektes Ergebnis

definiert und dieses ausgibt. Die Fehlererkennung und

-toleranz ist hierbei, im Gegensatz zu den bisherigen

Mustern, implizit durch den Voter gewährleistet.

Wie bereits erwähnt, lassen sich die unterschiedlichen

Redundanzmuster über ihre Eigenschaften beschreiben.

Beispielhaft wurde dies für die genannten Muster in

BILD 1 durchgeführt. Standby-Redundanz zeichnet sich

durch geringe Hardwarekosten und die Synchronisierung

von Zustand zwischen aktiver und passiver Instanz

aus. Hierbei können bei Software-basierter Redundanz

akzeptable Umschaltzeiten im Bereich weniger Millisekunden

erreicht werden; allerdings wird eine zusätzliche

Fehlererkennung benötigt, um ein Umschalten

auszulösen. Die heterogene Standby-Redundanz bietet

zusätzliche Verfügbarkeit im Falle von Softwarefehlern,

verursacht allerdings hohe Entwicklungskosten und

eine höhere Komplexität, zum Beispiel bei der Zustandssynchronisierung.

Im Gegensatz zu diesen beiden Verfahren

existiert bei der N-Modular-Redundanz kein

explizites Umschalten; ein Fehler wird also derart maskiert,

dass der Prozess keine Auswirkungen bemerkt.

Dies wird durch die zusätzliche Voter-Komponente erreicht.

Bei diesem Verfahren werden jedoch mehr Hardwareinstanzen

benötigt, um Fehler eindeutig zu erkennen

und zu maskieren. Eine solche Beschreibung existierender

Redundanzmuster, beispielsweise basierend

auf [8], ermöglicht eine informierte Auswahl des passenden

Musters bei gegebenen Anforderungen.

1.2 Beschreibung des Lösungsraums durch

Designelemente

Die im Folgenden beschriebenen Designelemente dienen

dazu, den Lösungsraum für ein verfügbares beziehungsweise

fehlertolerantes System mit redundanten Controllern

darzustellen. Die Designelemente umfassen dabei

funktionale (zum Beispiel Zykluszeit) und nicht-funktionale

Anforderungen (wie Transparenz) sowie das

zugrunde liegende Fehlermodell, Eigenschaften der

Infrastruktur und Redundanz-bezogene Eigenschaften.

Dabei dienen die hierarchisch strukturierten Designelemente

als Basis für Leitlinien für das detaillierte Design

der eigenen Redundanzlösung sowie für die strukturierte

Ableitung von Anforderungen. Wird beispielsweise

als Resultat der Anwendung unserer Designelemente

und Leitlinien festgestellt, dass eine verfügbare

Applikation (1) eine hohe Anzahl Zustandsvariablen

und I/O-Kanäle (> 200 k) besitzt, die jeweils komplett zu

synchronisieren sind, (2) die Kommunikationsverbindung

nicht zur ausschließlichen Nutzung für die Synchronisierung

zur Verfügung steht, aber (3) sehr schnelle

Umschaltzeiten (< 10 ms) benötigt werden, ist die

Wahl des Redundanzmusters Warm Standby keine geeignete

Entscheidung (stark vereinfachtes Beispiel unter

BILD 2: Oberste

Ebene der Designelemente

für ein

Software-basiertes

Redundanzmuster

atp edition

5 / 2014

45


HAUPTBEITRAG

Anwendung weniger abgeleiteter Anforderungen.). In

diesem Fall passen die in Abschnitt 1.1 beschriebenen

Eigenschaften, siehe Bild 1, beispielsweise die benötigte

Zustandssynchronisierung, nicht zu mittels Designelementen

abgeleiteten Anforderungen und Schutzzielen.

Die oberste Hierarchieebene der Designelemente einer

Software-basierten Redundanzlösung für ein verfügbares

System, siehe Bild 2, enthält die Eigenschaften

Fehlermodell, Eigenschaften der Kontrollapplikation,

Synchronisierung des Zustands einer Applikation, Umschaltung

im Fehlerfall, Setup, Infrastruktur, Überwachung

und Performanzmetriken. Diese Hauptelemente

werden im Folgenden auf weiteren Hierarchieebenen

verfeinert. Die Existenz einer weiteren Hierarchieebene

wird dabei durch das Symbol ∞ dargestellt.

Insgesamt gilt zu beachten, dass die in diesem Artikel

dargestellten Designelemente nicht den Anspruch auf

Vollständigkeit erheben, durch die Entstehung aus vielen

fachlichen Diskussionen sowie der Anwendung in

einem realen Projekt aber sicherlich einen sehr hohen

Deckungsgrad aufweisen.

Eine wichtige, zu definierende Eigenschaft beim Design

einer Redundanzlösung ist das zugrunde liegende

Fehlermodell. Dieses dient bei der Umsetzung der Verfügbarkeit

als Grundannahme für die zu tolerierenden

Fehler. Ein Beispiel für die Definition eines Fehlermodells

wurde bereits zu Beginn von Abschnitt 1 gegeben. Ein

Fehlermodell umfasst dabei im Allgemeinen Eigenschaften

wie mögliche fehlerhafte Entitäten, Fehlerverhalten

der Entitäten (zum Beispiel fail-stop oder fail-silent) oder

die Anzahl zu tolerierender Fehler. Sollen beispielsweise

permanente und zeitweilige Fehler toleriert werden, würde

das Standby-Redundanzmuster im Extremfall zu ständigem

Umschalten führen. N-Modular-Redundanz hingegen

würde derartige Fehler transparent maskieren. Die

Applikationseigenschaften beinhalten beispielsweise die

Anzahl der internen Variablen und I/O-Kanäle, die Zykluszeit

und Echtzeiteigenschaften.

In BILD 3 wird die erste Verfeinerungsebene des Designelements

Zustandssynchronisierung dargestellt.

Zustandssynchronisierung ist eine redundanzbezogene

Eigenschaft und vor allem für das Redundanzmuster

Standby-Redundanz relevant. Unabhängig vom konkreten

Redundanzmuster ist es jedoch in jedem Fall

sinnvoll, sich über die hier genannten Eigenschaften

der Zustandssynchronisierung Gedanken zu machen,

um eine gezielte Entscheidung für ein bestimmtes Redundanzmuster

treffen zu können. Außerdem lassen

sich so die für die Verfügbarkeit relevanten Anforderungen

der Applikation identifizieren, beispielsweise

welche Zustandsvariablen oder I/O-Kanäle zwingend

verfügbar sein müssen, oder in welchem zeitlichen Abstand

die Verfügbarkeit sichergestellt werden muss.

Dieses Designelement ist folglich sehr eng mit dem Element

Eigenschaften der Applikation verknüpft.

Eigenschaften auf dieser Hierarchieebene, welche

noch weiter verfeinert werden, sind die Definition des

Zustands der Applikation, Auslöser für eine Synchronisierung,

die Häufigkeit der Synchronisierung sowie deren

Ausführungsmodus. Weitere Eigenschaften sind die

Vergabe einer Priorität für den Synchronisierungsprozess

im Vergleich zu anderen laufenden Prozessen, wie

zum Beispiel die Ausführung der Applikation, Kommunikationstreiber,

Scheduling oder Überwachung. Zudem

sollte die Ausführungsreihenfolge der Synchronisierung

skizziert werden – beispielsweise wann ein Synchronisationspunkt

spätestens angelegt werden oder wann

dessen Verarbeitung und Senden erfolgen muss. Schließlich

sollte eine Lastvorhersage vorgesehen sein, welche

in Abhängigkeit von anderen Designelementen der Zustandssynchronisierung

als Eingabe für die entsprechende

Performanzmetrik verwendet wird.

BILD 4 zeigt die unterste Hierarchieebene der Zustandssynchronisierung,

welche die Eigenschaft Zustand

weiter verfeinert, das heißt, hier sind die zu definierenden

Eigenschaften für die Zustandssynchronisierung

zu finden. Der relevante Zustand definiert sich über

die Abdeckung, das heißt, welche Teile der Applikation

für die Redundanz relevant sind. Dies können beispielsweise

lediglich die Input-Kanäle der Applikation, die

internen Variablen der Applikation selbst oder der gesamte,

genutzte Speicherbereich sein. Der Zustand der

Applikation lässt sich dabei weiter unterteilen in sämtliche

Zustandsvariablen der Applikation, die Variablen

eines bestimmten Teils der Applikation (Task) oder ausgewählte,

wichtige Variablen. Hierbei muss entschieden

werden, wie der zu synchronisierende Zustand bestimmt

wird, das heißt, kann dieser automatisiert ausgewählt

werden – zum Beispiel alle Zustandsvariablen oder gesamter

Speicherbereich – oder muss die Definition manuell

beziehungsweise auf Basis von Heuristiken erfolgen,

zum Beispiel wenn nur wichtige Variablen synchronisiert

werden sollen. Weitere Eigenschaften dieser Hierarchieebene

der Designelemente sind die Größe des zu

synchronisierenden Zustands, die auch von der Entscheidung

abhängt, ob in jedem Durchlauf der gesamte

Zustand oder nur die Veränderungen (differential state

sync) synchronisiert werden. Zudem ist eine zu definierende

Eigenschaft, ob spezielle Speicherbereiche, beispielsweise

zur Vorverarbeitung eines Synchronisationspunktes,

verwendet werden sollen.

Abhängig von der gewählten Abdeckung und der Definition

der Performanzmetriken müssen Design und

Implementierung entsprechend gewählt werden. Leitlinien

für eine solche Auswahl werden in Abschnitt 2

am Beispiel von Warm Standby-Redundanz und existierenden

Implementierungsalternativen aufgezeigt.

Die Verfeinerung der weiteren in BILD 3 dargestellten

Designelemente Auslöser, Häufigkeit und Modus ist

in BILD 5 zusammengefasst. Auslöser für die Synchronisierung

können weiter in intern und extern unterschieden

werden, ebenso wird die Häufigkeit in synchron

und asynchron unterschieden. Externe Events

können beispielsweise eine asynchrone Synchronisierung

auslösen; häufiger kann jedoch ein interner, synchroner

und periodischer Auslöser erwartet werden.

Der Ausführungsmodus der Synchronisierung kann

blockierend, nicht blockierend, oder in einem hybriden

Modus erfolgen. Beim blockierenden Modus können

beispielsweise Bestätigungsnachrichten verwendet

werden, um die Ausführung der Applikation auf dem

aktiven Controller so lange zu verzögern bis sicherge-

46

atp edition

5 / 2014


BILD 3:

Haupteigenschaften

der Zustandssynchronisierung

in der ersten

Hierarchieebene

BILD 4:

Zweite Hierarchieebene

der Zustandssynchronisierung

mit

beschreibenden Eigenschaften

für Zustand

stellt ist, dass der Zustand auf dem redundanten Controller

empfangen und korrekt verarbeitet wurde. Ein

solcher Modus lässt sich beispielsweise verwenden,

wenn sichergestellt werden soll, dass im Fehlerfall mit

Sicherheit der letzte, konsistente Zustand auf dem

Standby-Controller verfügbar ist.

Aufgrund der besonderen Bedeutung als Leitlinien

zur Ableitung von Anforderungen wird hier noch auf

die Performanzmetriken eingegangen:

Last: Die durch die Redundanzlösung verursachte,

zusätzliche Prozessorlast ist eine der wichtigsten

Metriken, da diese den Einfluss auf die eigentliche

Ausführung der Applikation beinhaltet. Last und

zusätzlicher Ressourcenbedarf wird bei der Betrachtung

von Optimierungen in Abschnitt 2 ausführlicher

behandelt.

Vorhersagbarkeit / Beherrschbarkeit: Diese Metrik

ist besonders wichtig bei der Beurteilung der Erfolgswahrscheinlichkeit

der Umsetzung und

wird stark durch die Komplexität einer Lösung

b e e i n fl u s s t .

Stoßfreiheit: Diese Metrik kann direkt auf die Anforderung

abgebildet werden, ob eine Applikation

eine ungewollte Veränderung der Outputs während

des Umschaltens tolerieren kann oder nicht. Dementsprechend

muss ein geeignetes Redundanzmuster

ohne Umschaltzeit gewählt oder besonderes

Augenmerk auf Design und Implementierung des

Umschaltvorgangs gelegt werden.

atp edition

5 / 2014

47


HAUPTBEITRAG

Transparenz: Diese Metrik bezieht sich darauf, ob

der Application Engineer beziehungsweise Operator

Redundanz explizit konfigurieren muss oder ob

die Verfügbarkeit ohne dessen Zutun erreicht werden

kann. Eine vollständig transparente Lösung

muss beispielsweise in der Lage sein, den Zustand

autonom zu erkennen, zu verarbeiten und zu synchronisieren.

Typischerweise existiert ein direkter

Zusammenhang zwischen hoher Transparenz und

reduzierter Beherrschbarkeit der Lösung.

Umschaltzeit: Diese Metrik gibt an, wie lange das

Umschalten im Fehlerfall maximal dauern darf,

das heißt nach welcher Zeitdauer der redundante

Controller den Prozess übernommen haben muss.

Bei sehr geringen Umschaltzeiten sind meist Redundanzmuster

mit Voting zu empfehlen, da einer

Software-basierten Synchronisierung bestimmte

Grenzen gesetzt sind.

Bandbreite, Durchsatz und Latenz: Diese sind relevante

Performanzmetriken im Zusammenhang

mit Kommunikation. Sie stehen in enger Beziehung

zur Synchronisierung von Zustand und sind daher

sehr hilfreich bei der Entscheidung für ein konkretes

Redundanzmuster.

Skalierbarkeit: hier im Sinne von Anwendbarkeit

einer Redundanzlösung auf unterschiedlichen

Hardwareplattformen und -geräten mit den jeweiligen

Randbedingungen, zum Beispiel Speicheroder

CPU-Kapazität.

In einer beispielhaften Anwendung der vorgestellten

Leitlinien in einem realen Projekt wurden anhand der

Designelemente die Eigenschaften und Anforderungen

der Kontrollapplikation diskutiert, wobei die Designelemente

eine klare Struktur für die Diskussion und

Spezifikation der einzelnen Elemente vorgaben. Basierend

auf der daraus resultierenden Spezifikation der

Designelemente sowie der Performanzmetriken wurden

konkrete Anforderungen abgeleitet. Dies ermöglichte

die Auswahl eines geeigneten Redundanzmusters

durch Abgleich der Spezifikation und Anforderungen

mit den Eigenschaften existierender Redundanzmuster

siehe Bild 1. Zudem liefert die Spezifikation der Designelemente

bereits ein erstes Design der Redundanzlösung.

Im Projekt wurde die Entscheidung für das Redundanzmuster

Warm Standby getroffen.

2. ANALYSE VON IMPLEMENTIERUNGSALTERNATIVEN

Das Redundanzmuster Warm Standby zeichnet sich dadurch

aus, dass zum Erreichen der Fehlertoleranz zwar

zwei Controller verwendet werden, jedoch nur einer der

Controller, der Primär-Controller, die Applikation aktiv

ausführt. Der redundante Standby-Controller synchronisiert

den Zustand des Primär-Controllers mit einer

gewissen Verzögerung. Hierzu muss der Primär-Controller

in regelmäßigen Abständen den Standby-Controller

mittels Synchronisationspunkten über Änderungen sei-

BILD 5: Zweite Hierarchieebene

der Zustandssynchronisierung

mit

beschreibenden Eigenschaften

für Auslöser,

Häufigkeit und Modus

BILD 6: Optimierung der

Synchronisierung

mittels Speicherkopie

48

atp edition

5 / 2014


ner internen Daten informieren. Wird zum Beispiel anhand

eines ausbleibenden Heartbeat-Signals erkannt,

dass der Primär-Controller ausgefallen ist, kann der

Standby-Controller anhand des synchronisierten Zustands

der Applikation dessen Rolle übernehmen. Mögliche

Implementierungsalternativen werden im Folgenden

vorgestellt und mit Hilfe der Performanzmetriken

aus dem vorherigen Abschnitt bewertet.

2.1 Optimierungen für Warm Standby

Für die häufig eingesetzte Standby-Redundanz, vor allem

in der Ausprägung Warm Standby, hat die periodische

Zustandssynchronisierung des internen Zustands den

größten Einfluss auf die Performanzmetriken. Da dieser

Beitrag vorrangig Software-basierte Redundanz betrachtet,

steht die Nutzung von spezieller Hardwareunterstützung

wie Memory Snooping oder der virtuellen Speicherverwaltung

der CPU (MMU) nicht im Vordergrund. Jeweils

verfügbare Hardwareeigenschaften lassen sich aber

im Nachgang für eine optimierte Implementierung der

Zustandssynchronisierung verwenden.

Die nicht-optimierte Implementierung der Zustandssynchronisierung

ist die vollständige Synchronisierung

in jedem Kontrollzyklus. Dabei würde in jedem Zyklus

der vollständige Speicher des Controllers beziehungsweise

der synchronisierten Applikation an den Standby-Controller

übertragen. Für komplexe Applikationen

mit niedrigen Zykluszeiten und räumlich entfernt installierte

Controller wird hierbei jedoch schnell die

Grenze der Übertragungskapazität typischer Feldbusse

erreicht. Selbst aktuelle Mehrkernprozessoren stoßen

für Synchronisationsdaten von einigen Megabyte und

Zykluszeiten im Bereich von Millisekunden schnell an

die Grenzen dessen, was physikalisch an Daten übertragen

werden kann. Da der für die Synchronisierung

verwendete Kommunikationskanal auf Standard-Hardwarekomponenten

(COTS) basieren soll und eventuell

kein dezidierter Kommunikationskanal verwendet

wird, ist die Optimierung der Synchronisierung ein

wichtiges Designziel. Um dies zu erreichen, finden sich

in der Literatur verschiedene Lösungsmöglichkeiten.

Ein Verfahren erkennt mittels einer Speicherkopie und

eines Bitvektors Zustandsänderungen. Dabei wird eine

Kopie des erfolgreich synchronisierten Zustands neben

dem eigentlichen Zustand vorgehalten. So können Änderungen

durch einfachen Vergleich der Speicherzellen

erkannt werden, wie in BILD 6 dargestellt. Die Position

der geänderten Speicherzellen lässt sich in einem Bitvektor

kompakt widergeben. Zur Synchronisierung des

geänderten Zustands müssen lediglich der Bitvektor und

die durch den Vergleich erkannten geänderten Speicherzellen

übertragen werden [9]. Sofern für jedes Speicherwort

ein eigenes Bit verwendet wird, ist hierdurch eine

feingranulare Erkennung von Änderungen möglich.

Um den zum Vorhalten der Zustandskopie nötigen Speicherverbrauch

zu reduzieren, können statt einer vollständigen

Speicherkopie auch Hash-Werte verwendet

werden. Hierzu wird der Speicher in einzelne Bereiche

unterteilt, für die jeweils ein Hash-Wert gespeichert wird

[10]. Die sich daraus ergebende Verringerung des benötigten

Speichers wird jedoch dadurch erkauft, dass anstelle

eines einfachen Vergleichs komplexe Hash-Funktionen

über den jeweiligen Speicherbereich berechnet

werden müssen. Da die Hash-Werte sinnvollerweise für

eine längere Folge zusammenhängender Speicherzellen

berechnet werden, reduziert sich außerdem die Granularität,

in der Änderungen erkannt werden können. Daraus

wiederum ergibt sich eine Erhöhung der Datenmenge,

die zur Synchronisierung übertragen werden muss.

Techniken der statischen Codeanalyse bieten eine weitere

Möglichkeit, Änderungen des Zustands einer Applikation

automatisch zu erkennen [11]. Hierzu sind jedoch signifikante

Änderungen an den Entwicklungswerkzeugen erforderlich.

Als Alternative zur statischen Codeanalyse lassen

sich Änderungen im Programmspeicher auch durch Techniken

erkennen, die weniger tiefgreifende Anpassungen

innerhalb der Entwicklungswerkzeuge erfordern. Wenn es

zum Beispiel möglich ist, die durch einen Funktionsblock

potenziell modifizierten Speicherzellen bei deren Aufruf zu

identifizieren, so kann die Laufzeitumgebung, siehe Bild 7,

diese, für die Applikation und den Applikationsentwickler

transparent, als modifiziert markieren. Dies kann ebenfalls

durch einen Bitvektor erfolgen, der aber automatisch aktuell

gehalten wird und nicht mittels einer Speicherkopie

berechnet werden muss. Für Applikationen, deren Code

nicht in Binärform, sondern interpretiert auf dem Controller

ausgeführt wird, ist die Umsetzung dieses Ansatzes

besonders einfach. Um die Synchronisierung durchzuführen,

müssen lediglich der Bitvektor und die geänderten

Speicherzellen übertragen werden.

Für nativ ausgeführte Applikationen gestaltet sich die

Erkennung von Änderungen in der Praxis schwieriger,

da im kompilierten Maschinencode an beliebigen Stellen

auf den Speicher zugegriffen werden kann. Eine Möglichkeit,

um dennoch jede Maschinenoperation, die auf

den Speicher zugreift, beobachten zu können ist es, die

Techniken der Codeinstrumentierung zu nutzen. Hierbei

wird, entweder als Teil der Kompilierung oder als zusätzlicher

Schritt nach der Generierung des Maschinencodes,

für jeden Speicherzugriff zusätzlicher Code eingefügt.

Dadurch kann für jeden Schreibzugriff auf den

Speicher garantiert werden, dass dieser als geändert

erkannt wird. Dies ermöglicht es, die Synchronisierung

durch die automatische Pufferung aller Schreibzugriffe

weiter zu optimieren. Anstatt eine Speicherzelle nur als

modifiziert zu markieren, kann der Zugriff in einem speziellen

Speicherbereich vollständig dupliziert und gepuffert

werden. Wie in BILD 8 dargestellt, kann die Synchronisierung

des Zustands dann durch Übertragung

dieses Puffers erfolgen, was den nötigen Aufwand zur

Synchronisierung potenziell weiter reduziert.

2.2 Gegenüberstellung der Optimierungen

Die beschriebenen Alternativen zur Implementierung

der Zustandssynchronisierung wurden auf Basis der in

Abschnitt 1.2 behandelten Performanzmetriken relativ

zueinander bewertet. Das Ergebnis dieser Bewertung

ist in TABELLE 1 dargestellt. Die durch das jeweilige

atp edition

5 / 2014

49


HAUPTBEITRAG

Verfahren erzeugte Last wird anhand des zur Synchronisierung

nötigen Speicherverbrauchs und des Rechenaufwands

charakterisiert. Die kommunikationsbezogenen

Eigenschaften werden mit Hilfe der für die Synchronisationspunkte

erforderlichen Datenmengen

verglichen. Für alle Betrachtungen wird der Mehraufwand

anhand einer abstrakten Kostenfunktion analysiert,

die die Größe des zu synchronisierenden Zustands

n, den tatsächlich geänderten Teil des Speichers

c und teilweise verfahrensspezifische Parameter enthält.

Die Betrachtung hinsichtlich Transparenz und

Vorhersagbarkeit wurde zusammengefasst und erfolgt

lediglich mittels der Attribute positiv, negativ und neutral.

Die Skalierbarkeit der Verfahren wurde in gleicher

Weise bewertet. Auf die Bewertung der Attribute Stoßfreiheit

und Umschaltzeit wurde verzichtet, da diese

nicht in direktem Zusammenhang mit der Optimierung

der Synchronisierung stehen.

Die zugrundeliegende Charakterisierung nimmt beispielsweise

für das Verfahren zur Synchronisierung

mittels Speicherkopie & Bitvektor an, dass einerseits

eine Speicherkopie der Größe des Applikationszustands

n und andererseits der Bitvektor gespeichert

werden muss. Die Größe des Bitvektors hängt von n

und der Größe eines Speicherbereichs b ab, dessen

Änderung mit einem Bit kodiert wird. Unter der Annahme,

dass n und b in Bytes (1 Byte = 8 Bit) angegeben

sind, ergibt sich für die Größe des Bitvektors die

Formel

s = (1)

In Summe folgert daraus für den zusätzlichen Speicherverbrauch

also die Gesamtformel

m = (2)

BILD 7: Optimierung der Synchronisierung

durch automatisch erzeugten Bitvektor

BILD 8: Synchronisierung mittels Pufferung

von Schreibzugriffen

Verfahren

Vollständige

Synchronisierung

Speicherkopie

& Bitvektor

Skalierbarkeit

Speicherverbrauch

Datenmenge

(schlechtester

Fall)

Last Bandbreite, Durchsatz, Latenz Transparenz

Rechenaufwand

(Bestfall)

Datenmenge

Vorhersagbarkeit

0 n n n + –

2 * n c n + –

Hashwerte n * f c c * b – 0

Statische

Codeanalyse

Automatisch erzeugter

Bitvektor

Pufferung von

Schreibzugriffen

c n – +

c + n c n 0 +

c 2 * c c c 0 +

TABELLE 1: Vergleich der

Implementierungsalternativen

Symbol

n

c

b

f

Bedeutung

Größe des Applikationszustandes (Bytes)

Größe des pro Ausführungszyklus geänderten Speichers (Bytes)

Granularität in der Änderungen verfolgt werden (Bytes)

Berechnungsaufwand der verwendeten Hashfunktion

50

atp edition

5 / 2014


Der zusätzliche Rechenaufwand entsteht dadurch,

dass der komplette Zustand traversiert und auf Änderungen

getestet werden und die Speicherkopie nach

erfolgreicher Synchronisierung aktualisiert werden

muss. Im Bestfall erkennt das Verfahren exakt den geänderten

Speicherbereich. Da der konkrete Wert – und

insbesondere die Relation zum Applikationszustand

– applikationsspezifisch ist, wird die Größe des geänderten

Speicherbereichs mit der Variable c (als Prozentsatz

von n) dargestellt. Im schlechtesten Fall ist die

Granularität, in der Änderungen erkannt werden, so

ungenau, dass der vollständige Zustand übertragen

werden muss. Die Formeln der anderen Verfahren lassen

sich analog herleiten.

Die Bewertung der Transparenz und Vorhersagbarkeit

der Verfahren erfolgte anhand der algorithmischen

Komplexität, insbesondere hinsichtlich der

zur Implementierung notwendigen Datenstrukturen.

Das Verfahren auf Basis von Hash-Werten erfordert

beispielsweise dynamische Datenstrukturen, um Änderungen

im Speicher zu verfolgen. Dies verursacht,

dass der Algorithmus zur Erkennung von Zustandsänderungen

einen internen Zustand besitzt, der insbesondere

die zu übertragende Datenmenge beeinflusst.

Dadurch hängt der tatsächliche Aufwand der

Synchronisierung von den vorherigen Ausführungszyklen

ab, was die Vorhersagbarkeit negativ beeinflusst.

Zur Bewertung der Skalierbarkeit wurde betrachtet,

ob sich die Verfahren gleichermaßen für

Applikationen unterschiedlicher Komplexität sowie

für Controller mit unterschiedlicher Rechenleistung

eignen. Positiv hervorzuheben sind hier die Verfahren

automatisch erzeugter Bitvektor und Pufferung von

Schreibzugriffen. Beide Verfahren eignen sich für Controller

mit geringerer Rechenleistung, da der durch

die Verfahren erzeugte Rechenaufwand über den kompletten

Ausführungszyklus verteilt wird. Da die Verfahren

nur die tatsächlichen Änderungen übertragen,

sind sie sehr gut verwendbar für Applikationen mit

einer hohen Anzahl interner Variablen.

Um die theoretischen Betrachtungen zu validieren,

wurden die Optimierungen vollständige Synchronisierung,

Speicherkopie & Bitvektor, automatisch erzeugter

Bitvektor sowie Pufferung von Schreibzugriffen prototypisch

implementiert und mit synthetischen Daten

getestet. Diese mit einem Desktop-PC gemachten Experimente

bestätigten die zuvor durchgeführte Bewertung

dieser Verfahren.

Um nun für einen konkreten Controller ein geeignetes

Verfahren auszuwählen, müssen die Designelemente

mit den Anforderungen in Einklang gebracht

werden. Sofern die Anwendbarkeit der Verfahren im

Rahmen der Anforderungen möglich ist, wird die Verfügbarkeit

durch alle Verfahren gleichermaßen gewährleistet.

Eine relative Bewertung der einzelnen

Verfahren mit Hinblick auf die Erfüllung der Verfügbarkeitsanforderungen

ist nur mit zusätzlicher Information

über die Randbedingungen des Systems möglich.

Hierunter fallen beispielsweise der Ausführungszyklus

der Anwendung, die im Zyklus für Redundanz

verfügbare Rechenzeit oder die in diesem Zeitfenster

zwischen den redundanten Controllern übertragbare

Datenmenge. Auf eine solche, relative Bewertung wurde

verzichtet, da das Ziel der dargestellten Analyse die

Maximierung der Verfügbarkeit unter den gegebenen

Anforderungen war. Die unvollständige Erfüllbarkeit

der Voraussetzungen für ein Verfahren dient deshalb

als Ausschlusskriterium.

Für ein konkretes System, in dem sowohl die zwischen

den Controllern übertragbare Datenmenge als

auch die auf dem Primär-Controller verfügbare Rechenleistung

die Übertragung des von der Applikation

verwendeten Speichers in jedem Fall ermöglichen,

andererseits sehr hohe Anforderungen an Transparenz

und Vorhersagbarkeit der Synchronisierung gestellt

werden, sind vollständige Synchronisierung oder Speicherkopie

& Bitvektor geeignete Verfahren. Anhand

TABELLE 1 lässt sich eine solche Bewertung sehr einfach

durchführen, indem die Verfahren mit Hilfe der

wichtigsten Anforderung(en) sortiert werden, zum

Beispiel Transparenz und Vorhersagbarkeit. Für die

besten Verfahren kann anschließend bewertet werden,

inwiefern die weiteren Eigenschaften zu den konkreten

Anforderungen und Rahmenbedingungen passen.

Für das Beispiel bedeutet dies, dass die Verfahren

mit der höchsten Transparenz und Vorhersagbarkeit

priorisiert werden und anschließend ein Verfahren

gewhält wird, welches mit der in einem Ausführungszyklus

konkret verfügbaren Rechenleistung und Kommunikationskapazität

bestmöglich übereinstimmt. Die

Tabelle dient folglich auch dazu, zwischen Verfahren

abzuwägen, die anhand ihrer Anforderungen anwendbar

wären. Ein mögliches Kriterium für die Entscheidung

zwischen vollständiger Synchronisierung und

dem Vorhalten einer Speicherkopie und eines Bitvektors

wäre, ob die durch letzteres Verfahren ermöglichte

Reduzierung der übertragenen Datenmenge im konkreten

System einen messbaren Vorteil bringt. Für

Applikationen mit nur wenigen internen Variablen ist

dies beispielsweise nicht der Fall.

Die in der Tabelle nicht dargestellten Voraussetzungen

zur Anwendung der Verfahren, wie die Nachverfolgbarkeit

aller schreibenden Speicherzugriffe innerhalb einer

Applikation, können ebenfalls dazu dienen, gewisse

Verfahren auszuschließen. Wie im Fall des Verfahrens

mittels statischer Codeanalyse kann es auch vorkommen,

dass eine vollständige Bewertung der Eigenschaften

eines Verfahrens nicht möglich ist. Trotzdem kann

die vorgestellte systematische Betrachtung dazu dienen,

gewisse Designalternativen direkt auszuschließen.

Insgesamt ist zu sehen, dass die Bewertung und Gegenüberstellung

der Optimierungen in Verbindung mit

den im vorigen Abschnitt abgeleiteten Anforderungen

und Performanzmetriken eine sehr gute Grundlage für

die Auswahl eines geeigneten Verfahrens bildet.

FAZIT

Im Beitrag wurden Leitlinien für den Entwurf eines

verfügbaren Systems aufgezeigt. Die hierarchisch

strukturierten Designelemente geben Hilfestellung bei

atp edition

5 / 2014

51


HAUPTBEITRAG

der Erstellung von Anforderungen sowie bei Entwurf

und Implementierung einer Software-basierten Redundanzlösung.

Die Gegenüberstellung von Optimierungen

am Beispiel von Warm Standby-Redundanz zeigt, wie

sich mit Hilfe der Anforderungen ein gewähltes Redundanzmuster

gezielt optimieren lässt. Insgesamt wird

dadurch ein durchgängiger Prozess zur Unterstützung

bei Design und Implementierung eines Redundanzmusters

zum Erreichen des Schutzziels Verfügbarkeit aufgezeigt,

der eine strukturierte Vorgehensweise sowie

eine informierte Entscheidung ermöglicht. Die Anwendbarkeit

und die Vorteile wurden im Rahmen eines

realen Designprojektes validiert.

In künftigen Arbeiten könnten beispielsweise die

Designelemente um Eigenschaften und Ebenen erweitert

werden, welche für andere Systembestandteile

beziehungsweise das Gesamtsystem zusätzlich relevant

sind. Zudem ließe sich untersuchen, inwieweit

der aufgezeigte strukturierte Designansatz auch im

Kontext der Maschinensicherheit (Safety) hilfreich ist.

DANKSAGUNG

MANUSKRIPTEINGANG

06.02.2014

Im Peer-Review-Verfahren begutachtet

Die Autoren danken Dr. Carlos Bilich und Dr. Stephan

Sehestedt sehr herzlich für ihre Mitarbeit und wertvollen

Beiträge zu unseren Arbeiten. Ein Dank geht

außerdem an all unsere Kollegen, die diese Arbeit mit

Rat und Tat hervorragend unterstützt haben.

REFERENZEN

AUTOREN

[1] Vision Solutions, “Assessing the Financial Impact of

Downtime.” Aug-2010

[2] International Electrotechnical Commission (IEC),

“IEC/EN 61508: Funktionale Sicherheit sicherheitsbezogener

elektrischer/elektronischer/programmierbar

elektronischer Systeme, Edition 2.0.”

Apr-2010

[3] C. R. K. Iyer, A. Avizienis, P. A. Avizienis, D. Barron,

D. Powell, H. Levendel, and J. Samson, “COTS

Hardware and Software in High-Availability

Systems,” p. 120, Jun. 1999

[4] Y. C. Yeh, “Triple-triple redundant 777 primary flight

computer,” in IEEE, 1996, vol. 1, pp. 293–307

[5] I. Thomm, M. Stilkerich, R. Kapitza, W. Schröder-

Preikschat, and D. Lohmann, “Automated application

of fault tolerance mechanisms in a component-based

system,” Proc. 9th Int. Work. Java Technol.

Real-Time Embed. Syst., pp. 87 – 95, Sep. 2011

[6] J. H. Lala and L. S. Alger, “Hardware and software

fault tolerance: a unified architectural approach,”

in Fault-Tolerant Computing, 1988, pp. 240 – 245

[7] R. Guerraoui and A. Schiper, “Software-based

replication for fault tolerance,” Computer (Long.

Beach. Calif)., vol. 30, no. 4, pp. 68–74, Apr. 1997

[8] A. Armoush, “Design Patterns for Safety-Critical

Embedded Systems,” RWTH Aachen University, 2010

[9] M. Steiger, “Fault-Tolerant Turbine Controller,”

ETH Zurich, 2008

[10] S. Agarwal, R. Garg, M. Gupta, and J. Moreira,

“Adaptive incremental checkpointing for massively

parallel systems,” Proc. 18th Annu. Int. Conf.

Supercomput., pp. 277–286, 2004

[11] G. Bronevetsky and D. Marques, “Compilerenhanced

incremental checkpointing,” in Languages

and Compilers for Parallel Computing, Springer,

2008, pp. 1–15

Dr. THOMAS GAMER

(geb. 1979) ist Senior

Scientist am ABB Forschungszentrum

in

Ladenburg. Der Schwerpunkt

seiner Arbeit liegt

auf Softwarearchitekturen

und Softwareengineering

für zukünftige Automatisierungssysteme.

Themenschwerpunkte liegen

dabei auf fehlertoleranten Systemen, Gebäudeautomation

und Remote Service-Lösungen.

ABB AG Corporate Research Center Germany,

Research Area Software,

Wallstadter Str. 59, D-68526 Ladenburg,

Tel. +49 (0) 6203 71 60 24,

E-Mail: thomas.gamer@de.abb.com

Dr. STEFAN STATTELMANN

(geb. 1984) ist Scientist am

ABB Forschungszentrum in

Ladenburg. Der Schwerpunkt

seiner Arbeit liegt auf

Softwarearchitekturen und

Softwareengineering für

zukünftige Automatisierungssysteme,

Fehlertoleranz,

Echtzeitsystemen und formalen Methoden.

ABB AG Corporate Research Center Germany,

Research Area Software,

Wallstadter Str. 59, D-68526 Ladenburg,

Tel. +49 (0) 6203 71 62 83,

E-Mail: stefan.stattelmann@de.abb.com

52

atp edition

5 / 2014


atp Kompaktwissen

Band 1 –

Erfolgreiches Engineering

Hrsg. F. Schiller, 1. Auflage 2010, 138 Seiten, Broschur

Buch + CD-ROM für € 79,–

ISBN 978-3-8356-3210-3

Band 3 –

Praktische Messtechnik

Hrsg. F. Schiller, 1. Auflage 2010, 70 Seiten, Broschur

Buch + CD-ROM für € 59,–

ISBN 978-3-8356-3213-4

Band 5 –

Industrielle Informationssicherheit

Hrsg. L. Urbas, 1. Auflage 2014, 88 Seiten, Broschur

Buch für € 59,–

ISBN 978-3-8356-7113-3

atp kompakt Kollektion (Bände 1-6)

€ 299,80

ISBN 978-3-8356-7146-1

Band 2 –

Effiziente Kommunikation

Hrsg. F. Schiller, 1. Auflage 2010, 70 Seiten, Broschur

Buch + CD-ROM für € 59,–

ISBN 978-3-8356-3212-7

Band 4 –

Automation in der Wasserbranche

Hrsg. F. Schiller, 1. Auflage 2010, 146 Seiten, Broschur

Buch + CD-ROM für € 59,–

ISBN 978-3-8356-3226-4

Band 6 –

Safety in der Praxis

Hrsg. L. Urbas, 1. Auflage 2014, 112 Seiten, Broschur

Buch für € 59,–

ISBN 978-3-8356-7115-7

DIV Deutscher Industrieverlag GmbH, Arnulfstr. 124, 80636 München

www.di-verlag.de

Jetzt bestellen!

Bestellung per Fax: +49 (0) 201 Deutscher / 82002-34 Industrieverlag GmbH oder | Arnulfstr. abtrennen 124 und | 80636 im München Fensterumschlag einsenden

Ja, ich bestelle gegen Rechnung 3 Wochen zur Ansicht

___ Ex. atp kompakt Kollektion (Bände 1-6)

ISBN: 978-3-8356-7146-1 für € 299,80 (zzgl. Versand)

Firma/Institution

___ Ex.

___ Ex.

___ Ex.

___ Ex.

___ Ex.

___ Ex.

atp kompakt

Band 1 – ISBN: 978-3-8356-3210-3 für € 79,– (zzgl. Versand)

Band 2 – ISBN: 978-3-8356-3212-7 für € 59,– (zzgl. Versand)

Band 3 – ISBN: 978-3-8356-3213-4 für € 59,– (zzgl. Versand)

Band 4 – ISBN: 978-3-8356-3226-4 für € 59,– (zzgl. Versand)

Band 5 – ISBN: 978-3-8356-7113-3 für € 59,– (zzgl. Versand)

Band 6 – ISBN: 978-3-8356-7115-7 für € 59,– (zzgl. Versand)

Vorname, Name des Empfängers

Straße / Postfach, Nr.

Land, PLZ, Ort

Antwort

Vulkan-Verlag GmbH

Versandbuchhandlung

Postfach 10 39 62

45039 Essen

Telefon

E-Mail

Telefax

Branche / Wirtschaftszweig

Widerrufsrecht: Sie können Ihre Vertragserklärung innerhalb von zwei Wochen ohne Angabe von Gründen in Textform (z.B.

Brief, Fax, E-Mail) oder durch Rücksendung der Sache widerrufen. Die Frist beginnt nach Erhalt dieser Belehrung in Textform.

Zur Wahrung der Widerrufsfrist genügt die rechtzeitige Absendung des Widerrufs oder der Sache an die Vulkan-Verlag GmbH,

Versandbuchhandlung, Huyssenallee 52-56, 45128 Essen.

Ort, Datum, Unterschrift

Nutzung personenbezogener Daten: Für die Auftragsabwicklung und zur Pflege der laufenden Kommunikation werden personenbezogene Daten erfasst und gespeichert. Mit dieser Anforderung erkläre ich mich damit einverstanden,

dass ich vom DIV Deutscher Industrieverlag oder vom Vulkan-Verlag per Post, per Telefon, per Telefax, per E-Mail, nicht über interessante, fachspezifische Medien und Informationsangebote informiert und beworben werde.

Diese Erklärung kann ich mit Wirkung für die Zukunft jederzeit widerrufen.

PAATPK2014


HAUPTBEITRAG

Schutzzielorientiertes Design

der Sicherheitsleittechnik

Top-down-Entwurf: Defence-in-Depth-Prinzip in KKW

Um die höchsten Anforderungen an die Sicherheitsleittechnik in Kernkraftwerken

(KKW) zu erfüllen, muss diese systematisch konzipiert und überprüfbar projektiert

werden. Der Beitrag stellt einen schutzzielorientierten Designprozess vor, wobei

gleichzeitig die Philosopie der gestaffelten Verteidigung (defence in depth) angewendet

wird. Der Ansatz eignet sich für Neubauten wie den Europäischen Druckwasserreaktor

(EPR) und für umfassende Nachrüstungen in Altanlagen. Dieser Designprozess

wurde in nationalen wie internationalen leittechnischen Projekten erfolgreich

eingesetzt.

SCHLAGWÖRTER Schutzziele / Sicherheitsleittechnik / Gestaffelte Verteidigung /

Kernkraftwerk / EPR

Safety Objective Oriented Design of Digital Safety I&C –

Defence in Depth in Nuclear Power Plants

Safety instrumentation and control in nuclear power plants has to be systematically

designed and revisable in order to meet the highest safety requirements. A safety

objective oriented design process is presented in combination with the defence in

depth philosophy. The approach is applicable for the construction of new plants like

the European Pressurized Reactor (EPR) and for the comprehensive refurbishment

of existing plants. Its success has been demonstrated in several domestic and international

I&C projects.

KEYWORDS safety objective / safety I&C / defence in depth / nuclear power plant / EPR

54

atp edition

5 / 2014


YONGJIAN DING, Hochschule Magdeburg-Stendal

Zum sicheren Betrieb einer kerntechnischen

Anlage sind umfangreiche Schutz- und Sicherheitsmaßnahmen

nötig. Diese lassen sich nach

Art und Weise der Wirkung in passive und aktive

Maßnahmen einteilen. Passive Maßnahmen

sind mechanische und bautechnische Einrichtungen,

die ihre Schutzfunktionen ohne Stelleinrichtungen

erfüllen. Die aktiven Sicherheitsmaßnahmen

ergänzen die passiven, indem wichtige Prozessgrößen

durch die Leittechnik überwacht und gegebenenfalls

automatisch beeinflusst werden. Die Maßnahmen arbeiten

im Normalbetrieb, im Fall von Betriebsstörungen

und beim Auftreten von Störfällen.

In einem Kernkraftwerk der Leistungsklasse größer

als 1000 MWe werden von der Leittechnik mehr als

10 000 binäre und analoge Prozessvariablen verarbeitet,

mehrere tausend Antriebe gesteuert. Der Designprozess

zur Spezifikation der zugehörigen leittechnischen

Funktionen und insbesondere der sicherheitstechnisch

wichtigen Funktionen muss daher klar strukturiert und

überprüfbar gestaltet werden. Zusätzlich muss Vorsorge

getroffen werden, dass beim postulierten Versagen

einzelner Sicherheitsfunktionen die Schutzziele der

Anlage gewahr bleiben.

1. LEITTECHNISCHE GESAMTSTRUKTUR

IM KERNKRAFTWERK

Um die gesamte leittechnische Funktionalität in

einem Kernkraftwerk zu realisieren und einerseits die

extrem hohe Zuverlässigkeit der Sicherheitsfunktionen,

andererseits die möglichst hohe Verfügbarkeit

der Anlagen für die Stromproduktion zu gewährleisten,

sind für die Realisierung der Gesamtleittechnik

mindestens zwei unterschiedliche Geräteplattformen

erforderlich. Bild 1 zeigt eine leittechnische Struktur

eines Kernkraftwerks basierend auf der Teleperm XS

Plattform (TXS, Areva Deutschland) für die Sicherheitsleitechnik

(links im Bild) sowie der SPPA T2000

Plattform (SPPA T2000, Siemens) für die betriebliche

Leittechnik (rechts im Bild).

Die betriebliche Leittechnik (Operational I&C) dient

der Führung der Prozessvariablen im Normalbetrieb.

Sie umfasst im Wesentlichen Automatisierungsgeräte

(AS) zur Erfassung der Prozessvariablen, zur Berechnung

der Stellanforderungen sowie zur Steuerung der

Antriebe; ferner einen Anlagenbus zum Austausch von

Information zwischen den einzelnen Automatisierungsgeräten

sowie zwischen Automatisierungsgeräten

und den Bedien- und Beobachtungseinrichtungen

(OM + Backup Panel) in der Hauptwarte eines Kernkraftwerkes.

Die Sicherheitsleittechnik (Safety I&C) ist von der

betrieblichen Leittechnik unabhängig und überwacht

die wesentlichen Sicherheitsvariablen. Im Falle unzulässiger

Abweichungen schaltet sie das KKW ab und

hält es in einem sicheren Zustand. Die Sicherheitsleittechnik

umfasst auch unabhängige Bedien- und Beobachtungseinrichtungen

(Safety Control Panel) in der

Hauptwarte, mit denen das Kernkraftwerk bei Versagen

der betrieblichen Leittechnik in einen sicheren Zustand

überführt und dort gehalten werden kann.

Da eine Vielzahl von Antrieben über die betriebliche

Leittechnik und über die Sicherheitsleittechnik angesteuert

werden muss, bedarf es einer speziellen Logik,

welche sicherstellt, dass Befehle der Sicherheitsleittechnik

stets Vorrang vor den Befehlen der betrieblichen

Leittechnik haben. Diese Logik wird durch eine

eigene Gerätetechnik realisiert, welche in Bild 1 mit

Priority Logic (Vorrangsteuerung) bezeichnet ist.

Die Geräteplattform zur Realisierung der Sicherheitsleittechnik

zeichnet sich durch die strenge anlagenunabhängige

Typprüfung der Hardware- und Softwarekomponenten

und wichtige built-in Sicherheitseigenschaften

aus [2, 3]. Dadurch wird das anlagenspezifische

Genehmigungsrisiko, aber ebenso der

Genehmigungsaufwand deutlich verringert. Letzterer

kann sich auf die Überprüfung der leittechnischen

Funktionen und deren korrekte Implementierung (Redundanz-

und Diversitätsgrad der Teilsysteme zur Sicherstellung

der Fehlererkennung und Fehlertoleranz)

einschließlich der zugehörigen Maßnahmen der Qualitätssicherung

und Nachweisführung beschränken.

atp edition

5 / 2014

55


HAUPTBEITRAG

Da der Beitrag die Sicherheitsfunktionen im Fokus hat,

behandeln die weiteren Betrachtungen den Designprozess

zur Realisierung der Sicherheitsleittechnik.

2. DER TOP-DOWN-DESIGNPROZESS

Für einen Designprozess, bei dem die Spezifikation der

leittechnischen Funktionen und deren Implementierung

in einem Top-down Prozess aus den Schutzzielen

eines KKW abgeleitet wird, ist es sinnvoll, in folgenden

Schritten vorzugehen:

1 | Festlegung der Schutzziele,

2 | Identifizierung der zu beherrschenden Ereignisse,

3 | Spezifizierung der erforderlichen verfahrenstechnischen

und leittechnischen Funktionen,

4 | Festlegung des Barrierenkonzeptes,

5 | Festlegung der leittechnischen Architektur,

6 | Validierung der Auslegung.

Dieser systematische Designansatz wurde in großem

Umfang erstmals beim Neubau eines KKW in Ostchina

praktiziert [4, 5] und im Laufe der Zeit in zahlreichen

Projekten von Areva kontinuierlich weiter entwickelt.

Im Folgenden werden die Teilschritte beschrieben und

anhand einer beispielhaften Neubauanlage vom Typ Europäischer

Druckwasserreaktor (EPR) veranschaulicht.

2.1 Festlegung der Schutzziele

Die Schutzziele eines KKW leiten sich unmittelbar aus

den Vorgaben der einschlägigen nationalen oder intenationalen

Gesetzgebung (zum Beispiel des Atomgesetzes

in Deutschland) ab, wonach Leben, Gesundheit

und Umwelt/Sachgüter vor den Gefahren der Kernenergie

und der schädlichen Wirkung ionisierender Strahlen

zuverlässig zu schützen sind. Draus resultieren

diese Schutzziele:

a | Reaktivitätskontrolle: Unabhängig vom Betriebszustand

eines KKW (Leistungsbetrieb oder

Revisionsbetrieb; Normalbetrieb oder unter Störfallbedingungen)

muss immer gewährleistet sein,

dass die Kettenreaktion im Kern des Reaktors

jederzeit unterbrochen und der Reaktor sicher abgeschaltet

und im sicheren Zustand gehalten werden

kann.

b | Brennelementekühlung und Wärmeabfuhr: Sowohl

im Leistungsbetrieb als auch im abgeschalteten

Betrieb muss die Wärme aus dem Reaktorkern

und aus dem Brennelementekühlbecken sicher

und dauerhaft abgeführt werden.

c | Sicherer Einschluß der Radioaktivität: Zur Sicherstellung,

dass weder das Betriebspersonal noch

die Kraftwerksumgebung der schädlichen Wirkung

ionisierender Strahlen ausgesetzt werden,

muss eine unerlaubte Freisetzung von Radioaktivität

sicher verhindert werden. Dies gilt sowohl

für den Normalbetrieb als auch im Falle des Auftretens

der Auslegungsstörfälle.

2.2 Identifizierung der zu beherrschenden Ereignisse

Eine der wesentlichen Auslegungsgrundlagen von

Kernkraftwerken sind postulierte Ereignisse und Bedingungen,

für welche die Wirksamkeit der Schutzmaßnahmen

nachgewiesen werden muss. Dies betrifft

Ereignisse, die ihre Ursache innerhalb der Anlage haben

(zum Beispiel das Versagen mechanischer Systeme,

Feuer oder Kurzschlüsse) in gleichem Maße wie Ereignisse,

die ihre Ursache außerhalb der Anlage haben

(wie Naturkatastrophen, Absturz eines Flugzeuges). Da

diese Ereignisse grundsätzlich das Potenzial haben, die

oben genannten Schutzziele zu gefährden, bilden sie

die Grundlage zur Auslegung der Sicherheitssysteme.

Es ist Praxis, diese Ereignisse entsprechend der erwarteten

Häufigkeit des Auftretens in Gruppen zusammenzufassen.

In der EPR-Entwicklung werden

diese Gruppen als Design Basis Conditions (DBC) bezeichnet

wobei die Auslegung vier Gruppen unterscheidet:

DBC 1: Normalbetrieb;

DBC 2: Betriebliche Transienten/Störungen

(Häufigkeit > 10 -2 /Reaktorjahr);

DBC 3: Störfälle der Kategorie 1 (10 -3 / Reaktorjahr

< Häufigkeit < 10 -2 /Reaktorjahr) und

DBC 4: Seltene Störfälle der Kategorie 2 (Häufigkeit

< 10 -3 /Reaktorjahr)

Da mit der Eintrittshäufigkeit eines Ereignisses – bei

gleichbleibendem Schadensausmaß beziehungsweise

der Sicherheitsbedeutung des Ereignisses – auch dessen

Risikobeitrag proportional ansteigt, fassen die so gebildeten

Gruppen in erster Näherung Ereignisse mit vergleichbarem

Risikobeitrag zusammen. Da in einer ausgewogenen

Auslegung alle relevanten Ereignisse einen

ähnlichen Beitrag zum Risiko liefern sollten, sind diese

Gruppen der Ausgangspunkt für das Konzept der

gestaffelten Verteidigung, Defence-in-Depth-Konzept.

Neben diesen einzelnen Ereignissen werden bei

Neubauprojekten von Reaktoren der Generation III

beziehungsweise III+, wozu der EPR gehört, extrem

seltene Kombinationen von Ereignissen in der Auslegung

berücksichtigt. In der EPR-Entwicklung werden

solche Ereigniskombinationen als Design Extension

Conditions (DEC) bezeichnet, wobei folgende Gruppen

unterschieden werden:

DEC A und DEC B: Mehrfache Fehler beziehungsweise

Szenarien mit extrem niedrigen Wahrscheinlichkeiten

(Häufigkeit < 10 -4 / Reaktorjahr); die

Unterscheidung des Typs A vom Typ B besteht darin,

dass bei Ereignissen vom Typ DEC A noch zusätzlich

ein Einzelfehler im betroffenen Sicherheitssystem

unterstellt wird, beim Typ DEC B dagegen

nicht;

56

atp edition

5 / 2014


Schwere Störfälle: mit nennenswerten Kernschäden

(Häufigkeit < 10 -6 /Reaktorjahr).

Bei schweren Störfallen kommt es vor allem auf die

Begrenzung des Schadensausmaßes an, indem die

Freisetzung großer Mengen an Radioaktivität verhindert

wird.

Die DBC bilden in der EPR-Auslegung die Grundlagen

für die deterministischen Akzeptanzkriterien und für

die probabilistischen Nachweisziele bezüglich der

Kernschmelzhäufigkeit beziehungsweise der Wahrscheinlichkeit,

dass große Mengen an Radioaktivität

freigesetzt werden.

2.3 Spezifizierung der erforderlichen verfahrenstechnischen

und leittechnischen Funktionen

Die Einhaltung der unter 2.1 genannten Schutzziele

erfordert für einen spezifischen Typ von Kernkraftwerken

mehrere globale Sicherheitsfunktionen. So umfasst

die Einhaltung des Schutzzieles Brennelementkühlung

für einen Druckwasserreaktor unter anderem,

dass der Reaktorkern stets mit Kühlmittel

bedeckt ist,

dass die an das Kühlmittel abgegebene Wärme

zur Sekundärseite übertragen wird und

dass die an die Sekundärseite abgegebene

Energie an die finale Wärmesenke (zum Beispiel

Turbine) übertragen wird.

Die Einhaltung dieser globalen Sicherheitsfunktionen

setzt voraus, dass die Integrität des Primärkreises und

des Sekundärkreises gewährleistet ist. Das heißt, das

Schutzziel Brennelementkühlung erfordert im Betrieb

eines Druckwasserreaktors unter anderem die Einhaltung

der globalen Sicherheitsfunktionen

Kernbedeckung,

Primärseitige Wärmeabfuhr,

Sekundärdseitige Wärmeabfuhr,

Überdruckabsicherung Primärseite,

Überdruckabsicherung Sekundärseite.

Die Einhaltung dieser globalen Sicherheitsfunktionen

verlangt unterschiedliche verfahrenstechnische Systeme,

die in den Betriebszuständen des Kernkraftwerks

wirksam werden. So schließt beispielsweise die sekundärseitige

Wärmeabfuhr die Bespeisung des Dampferzeugers

ein, was je nach Betriebszustand des KKW durch

die Hauptspeisepumpen,

die Notspeisepumpen oder

die An- und Abfahrpumpen

erfolgen kann. Die Beiträge dieser verfahrenstechnischen

Systeme zur Einhaltung globaler Sicherheitsfunktionen,

wie etwa die Bespeisung der Dampferzeuger

über die Hauptspeisepumpen um die sekundärseitige

Wärmeabfuhr zu gewährleisten, werden im

Folgenden als verfahrenstechnische Funktionen bezeichnet.

Leittechnische Funktionen leisten einen Beitrag,

um die verfahrenstechnischen Funktionen zu erfüllen,

indem sie beispielsweise Antriebe so steuern,

dass die wesentlichen Prozessvariablen in erlaubten

Bereichen geführt werden. So erfordert die verfahrenstechnische

Funktion Bespeisung des Dampferzeugers

über die Hauptspeisepumpen unter anderem

leittechnische Funktionen zur Regelung des Füllstands

im Dampferzeuger, da die verfahrenstechnische

Funktion nur dann sichergestellt wird, wenn

sich der Füllstand im Dampferzeuger in einem spezifizierten

Bereich befindet.

Entsprechend dieser Systematik lässt sich die Spezifikation

leittechnischer Funktionen in einem Prozess

Safety I&C

Operational I&C

Safety

Control

Panel

Engineering

System

SPACE

Engineering

System

ES 680

Process Control

and Information

System

OM 690

Backup

Panel

Reactor

Protection

System

~

Gateway

Priority

Logic

~

Plant bus

Automation

System

AS 620

~

BILD 1:

Leittechnische

Struktur eines

Kernkraftwerks [1]

M

Field

M

M

atp edition

5 / 2014

57


HAUPTBEITRAG

der sukzessiven Verfeinerung aus den globalen Schutzzielen

eines Kernkraftwerkes ableiten, Bild 2. Dazu

werden zunächst alle globalen Sicherheitsfunktionen

(safety functions) für den betroffenen Kraftwerkstyp

identifiziert, die für die Erfüllung der Schutzziele erforderlich

sind. Das ist die erste Stufe der Verfeinerung

(Level 1), die von den Experten für die Anlagensicherheit

durchgeführt wird.

In der zweiten Stufe der Verfeinerung (Level 2) werden

alle verfahrenstechnischen Funktionen (process

functions) identifiziert, die in den unterschiedlichen

Betriebszuständen der Anlage nötig sind, um die globalen

Sicherheitsfunktionen zu gewährleisten. Diese

zweite Stufe der Verfeinerung erfordert dabei bereits,

die unter Punkt 2.2 identifizierten zu beherrschenden

Ereignisse zu berücksichtigen, da abhängig vom jeweiligen

Ereignisablauf zur Gewährleistung einer globalen

Sicherheitsfunktion unterschiedliche verfahrestechnische

Funktionen benötigt werden. Diese zweite Stufe

der Verfeinerung wird von Experten der Verfahrenstechnik

durchgeführt. Sie erlaubt bereits eine vorläufige

Einstufung der sicherheitstechnischen Bedeutung der

verfahrenstechnischen Funktion.

In einer dritten Stufe der Verfeinerung (Level 3)

werden alle leittechnischen Funktionen (I&C functions)

identifiziert und spezifiziert, die zur Sicherstellung

der verfahrenstechnischen Funktionen verlangt

werden. Das Ergebnis dieses Verfeinerungsschrittes

ist eine konkrete verfahrenstechnische Aufgabenstellung

an die Leittechnik, die vereinfachend als leittechnische

Funktion bezeichnet wird, siehe Bild 3.

Sie spezifiziert unter anderem, welche Prozessvariablen

in welcher Qualität zu erfassen und durch welche

Algorithmen daraus Stellbefehle zu erzeugen

sind, unter welchen Bedingungen die Funktion erbracht

werden muss (zum Beispiel nach Erdbeben

oder Feuer) sowie die Anforderungen an das Zeitverhalten,

an das Fehlerverhalten oder an die Unabhängigkeit

von anderen Funktionen. Auch diese dritte

Stufe der Verfeinerung wird von den Experten der

Verfahrenstechnik durchgeführt, wobei in der Regel

Leittechniker daran beteiligt sind.

Im letzten Schritt der Verfeinerung (Level 4) wird die

leittechnische Funktion um die implementierungsrelevanten

Details ergänzt. Hierbei wird beispielsweise

spezifiziert, wie sich die geforderte Funktionalität auf

die Hardware verteilt. In diesem Schritt wird ebenso

Funktionalität ergänzt, die ausschließlich für leittechnische

Zwecke benötigt wird. Das ist beispielsweise

zusätzliche Funktionalität, um Ausfälle in der Leittechnik

zu erkennen und zu melden, um Reparaturund

Wartungsmaßnahmen zu vereinfachen oder um

wiederkehrende Prüfungen zu automatisieren.

Dieser letzte Schritt wird von Experten der Leittechnik

durchgeführt. Er ist aber erst dann möglich, wenn

die Rolle der leittechnischen Funktionen im Konzept

der gestaffelten Verteidigung bekannt und damit die

leittechnische Architektur festlegt ist. Er ist somit ein

wesentlicher Bestandteil der leittechnischen Systemauslegung.

Vollständigkeitshalber werden noch Aspekte erwähnt,

die beim leittechnischen Design berücksichtigt

und dokumentiert werden müssen, ohne einzeln darauf

einzugehen:

Interfacedesign einschließlich der Mensch-Maschinen-Schnittstellen

(HMI),

das Konzept für Signalerfassung und Verteilung,

das Alarmkonzept,

das Vorrangkonzept (Sicherstellung, dass Befehle

aus der Sicherheitsleittechnik stets Vorrang haben

gegenüber denen aus der betrieblichen Leittechnik),

das Stromversorgungskonzept,

das EMV- und Erdungskonzept,

das Konzept zur räumlichen und elektrischen Entkopplung

der Redundanzen sowie Überspannungsschutz,

das IT-Security-Konzept,

das Service- und Wartungskonzept inklusive des

Konfigurations- und Versionsmanagements,

das Konzept zur wiederkehrenden Prüfung.

2.4 Festlegung des Barrierenkonzeptes

Die Grobstruktur des Barrierenkonzeptes wird durch

das kerntechnische Regelwerk vorgegeben, indem unabhängige

Funktionen für den Normalbetrieb, für die

Störfallbeherrschung und für die Minimierung des

Restrisikos gefordert werden. Aus der Rolle der verfahrenstechnischen

Funktionen in den entsprechenden

Zuständen der Anlage ergibt sich eine erste Zuordnung

der leittechnischen Funktionen zu diesen Barrieren.

Diese erste Zuordnung wird dann im Rahmen der Störfallanalysen

verifiziert und gegebenenfalls modifiziert,

indem Funktionen in eine andere Barriere verschoben

oder mehrfach implementiert werden. Im Rahmen der

Störfallanalyse wird für alle postulierten Ereignisse

ermittelt, welche Funktionen zum Einhalten der globalen

Sicherheitsfunktionen beitragen und in welchem

Umfang dies geschieht.

Ein Ergebnis dieser Analyse ist das Back-up-Konzept,

bei dem für alle Ereignisabläufe ermittelt wird, welche

Back-up-Funktionen kreditiert werden können, wenn

primäre verfahrenstechnische oder leittechnische

Funktionen versagen sollten, und in welcher Folge dies

möglich ist.

Damit alle postulierten Ereignisse einen vergleichbar

geringen Beitrag zum Restrisiko beitragen, erfordern

Ereignisse mit einer höheren Eintrittshäufigkeit gegebenenfalls

auch mehrere Back-up-Funktionen.

Bild 4 veranschaulicht ein derartiges Konzept der gestaffelten

Verteidigung bestehend aus vier Barrieren in

Anlehung an die Auslegung des EPR. Das Konzept ist

in Form eines Diagrammes veranschaulicht, bei denen

die Abszisse die Betriebszustände und die auslegungsrelevanten

Ereignisse der Anlage – gruppiert nach deren

Eintrittshäufigkeit – repräsentiert, während die Ordinate

deren mögliche Auswirkungen auf die Anlage gestaffelt

nach der Schwere aufzeigt. Die waagerechten

58

atp edition

5 / 2014


Objectives

Reactivity

Cooling

Release

Safety

Level 1

Safety objectives

Safety functions

Process

Level 2

Related process functions

Level 3

Specification of I&C functions

I&C

Level 4

Implementation of I&C functions

BILD 2: Detaillierungsebenen der Funktionsspezifikation

BILD 3:

Beispielhafte Darstellung

einer leittechnischen

Funktion auf Ebene 3

Balken in diesem Diagram stellen die unterschiedlichen

Barrieren in Form einer Gruppe verfahrenstechnischer

und leittechnischer Funktionen dar, durch die unzulässige

Auswirkungen dieser Betriebszustände und Ereignisse

auf die Anlage verhindert werden sollen. Die

Länge der Balken repräsentiert dabei die Zuverlässigkeit

der entsprechenden Funktionen.

Barriere Normalbetrieb und vorbeugende Verteidigung

(preventive line): Die Barriere Normalbetrieb

und vorbeugende Verteidigung umfasst alle verfahrenstechnischen

und leittechnischen Funktionen,

die im Normalbetrieb (DBC 1 Ereignisse) und beim

Auftreten von Betriebstransienten (DBC 2 Ereignissen)

den störungsfreien Betrieb der Anlage und die

Einhaltung der globalen Sicherheitsfunktionen

gewährleisten.

Hauptbarriere (main line): Die Hauptbarriere umfasst

zum einen alle verfahrenstechnischen und

leittechnischen Funktionen zur Einhaltung der

globalen Sicherheitsfunktionen beim Auftreten

von Störfällen (DBC 3/4 Ereignisse). Zum anderen

bezieht sie alle verfahrenstechnischen und

leittechnischen Funktionen zur Einhaltung der

globalen Sicherheitsfunktionen mit ein, bei

einem unterstellten Versagen der vorgelagerten

Barriere in Überlagerung mit einem entsprechenden

Ereignis. Das heißt, die Hauptbarriere

beinhaltet Back-up-Funktionen, mit denen sich

alle Ereignisse der vorgelagerten Barriere beherrschen

lassen.

Barriere Risikominimierung (risk reduction line):

Die Barriere Risikominimierung umfasst verfahrenstechnische

und leittechnische Funktionen zur

Vermeidung schwerer Störfälle bei sehr seltenen

Einwirkungen von außen und bei Auslegungsstörfällen

in Überlagerung mit dem postulierten Versagen

der Funktionen der Hauptbarriere, wobei

allerdings ein höheres Schadenspotenzial toleriert

wird. Dies wird im Diagram in Bild 4 dadurch ersichtlich,

dass der entsprechende Balken auf der

Ordinate höher angeordnet ist als der Balken der

Hauptbarriere. Das besagt, die Barriere Risikominimierung

beinhaltet alle für die Vermeidung

schwerer Störfälle erforderlichen Back-up-Funktionen

zur Hauptbarriere.

Barriere Schwere Störfälle (severe accidents): Die

Barriere Schwere Störfälle umfasst nur sehr wenige

leittechnische Funktionen, im Wesentlichen zur

Überwachung der Bedingungen im Containment.

atp edition

5 / 2014

59


HAUPTBEITRAG

2.5 Festlegung der leittechnischen Architektur

Da Barrieren auch leittechnische Backup-Funktionen

zu den Funktionen der unterlagerten Barriere enthalten,

ist die Wirksamkeit des Konzeptes in Bezug auf das

Versagen der Leittechnik nur dann sichergestellt, wenn

jede Barriere in einem unabhängigen leittechnischen

System implementiert wird. In diesem Sinne legt das

Barrierekonzept die minimale Anzahl unabhängiger

Systeme in der leittechnischen Architektur fest. Bild 5

zeigt, wie sich das erläuterte Barrierenkonzept in der

leittechnischen Architektur des EPR abbildet. Die Zuordnung

der Teilsysteme der Leittechnik zu den Verteidigungslinien

sieht so aus:

Die Barriere Normalbetrieb und vorbeugende Verteidigung

wird durch das Prozessautomatisierungssystem

(PAS) sowie das Reaktorleistungsregel-

und Begrenzungssystem (RCSL) realisiert,

die Hauptbarriere wird durch das Reaktorschutzsystem

(PS) sowie die Sicherheitsautomation (SAS)

verwirklicht,

die Barriere Risikominimierung wird durch die

diversitäre Sicherheitsautomation (DAS) umgesetzt,

und

die Barriere Schwere Störfälle wird durch das

Überwachungssytem (SA-I&C) erreicht.

Dabei ist zu beachten, dass leittechnische Funktionen

verschiedener Barrieren unabhängig voneinander arbeiten

müssen und zur Beherrschung des Versagens

wegen Fehler gemeinsamer Ursache (Common Cause

Failure, CCF) die Leittechnik der Risikoreduktionslinie

diversitär zur Technik in der Hauptverteidigungslinie

ausgeführt wird.

2.6 Designvalidierung

Die fertig projektierten leittechnischen Funktionen

müsssen überprüft werden, ob sie im Fall der zu beherschenden

Ereignisse wirken. Grundlagen dafür sind

Ergebnisse der Transientenanalyse unter Berücksichtigung

der hydraulischen beziehungsweise mecha-

Overall safety target

Acceptance criteria

Severe accidents

Risk reduction line

Preventive line

Design basis categories

Main line

Reliability claim

DBC 1/2 DBC 3/4 DEC A/B Severe

accidents

BILD 4:

Konzept der

gestaffelten

Verteidigung mit

vier Barrieren

Design basis events

Simplified I&C A

BILD 5:

Verteidigungslinien

aus leittechnischer

Sicht

Level 0 Level 1 Level 2

GW

Process information and

control system (PICS)

GW

PAS

RCSL SAS PS DAS SA-I&C

Digital

PAC

Digital

Digital

Digital

GW

PAC

Hardwired

PAC

GW

Digital

Integrated

primary HMI

Dedicated

secondary HMI

PA

C = Priority actuator control

GW = Gateway

Hardwired interface

Network interface

Preventive line

Main line

Risk

reduction

line

Severe

accidents

60

atp edition

5 / 2014


nischen Einflüsse. Die deterministische CCF-Analyse

soll die Robustheit der Leittechnik gegen potentenzielles

systematisches Versagen aufzeigen. Eine Analyse

des Diversitätsgrades, in [6] Dissimilaritätsgrade

genannt, bestimmter leittechnischer Einrichtungen,

insbesondere zwischen der Hauptverteidigungslinie

und der Risikoreduktionslinie, ist zu empfehlen. Weiterhin

muss die probabilistische Analyse die Ausgeglichenheit

des leittechnischen Designs in Übereinstimmung

mit den verfahrenstechnischen Zielwertevorgaben

belegen [7].

ZUSAMMENFASSUNG

Das schutzzielorientierte Design der digitalen Sicherheitsleittechnik

in modernen Kernkraftwerken wurde

vorgestellt. Anhand des Beispiels eines EPR-Neubauprojekts

wird der Top-down-Entwurfsprozess mit den

Verfeinerungsschritten detailliert beschrieben. Die risikobasierte

Ereignisgruppierung führt zu einer leittechnischen

Struktur mit unabhängigen, gestaffelten

Verteidigungslinien/Barrieren und sichert die Sicherheitsvorsorge

auf dem Stand der Wissenschaft und

Technik, um solche kerntechnischen Anlagen verantwortungsvoll

bauen und betreiben zu können. Darüber

hinaus könnte der systematische Ansatz auch auf andere

Industrieanwendungen mit Sicherheitsrelevanz

adaptiert werden.

DANKSAGUNG

Der Autor möchte sich ganz herzlich bei Herrn

Dr. Arnold Graf von Areva Deutschland für seine

wertvollen Verbesserungsvorschläge zum

Beitragstext sowie die Überlassung einiger

Werksbilder bedanken.

MANUSKRIPTEINGANG

10.01.2014

Im Peer-Review-Verfahren begutachtet

REFERENZEN

AUTOR

[1] Areva NP GmbH: TELEPERM XS - The Digital I&C

System for Functions Important to Safety in Nuclear

Power Plants. Areva, 2009

[2] Bastl, W., Bock, H.-W.: German qualification and

assessment of digital I&C systems important to

safety. Reliability Engineering & System Safety 59(2),

S. 163-170, 1998

[3] Bock, H.-W., Graf, A.: Type-testing – The German

approach to qualifying safety critical software.

Nuclear Engineering International 1996

[4] Ding, Y.: Automation of an entire nuclear power plant,

taking Tianwan, China, as an Example. In: Tagungsband

WANO-Workshop Computer based I&Csystems:

necessity for continuous improvement,

S. 48-60.WANO, 2001.

[5] Xu, X., Li, Y., Ding, Y.: Design Optimization and

Operational Experiences of Digital Safety I&C In

Tianwan NPP / China. In: Tagungs-CD 2. Symposium

Digital Safety I&C, S. 14-18. TÜV Nord Akademie,

2010

[6] Bühler, C.: Sicherheitsanalytik für den Einsatz neuer

digitaler Sicherheitsleittechnik-systeme.

atw – Internationale Zeitschrift für Kernenergie

57 (5), S. 331-336, 2012

[7] Ding, Y., Gu, C., Hauptmanns, U.: Zuverlässigkeitsuntersuchung

und -berechnung rechnerbasierter

Sicherheitsleittechnik in Kernkraftwerken, In:

Tagungsband Entwurf komplexer Automatisierungssysteme

2012, S. 217-226, ifak 2012

Prof. Dr.-Ing. YONGJIAN

DING (geb. 1959) ist

Professor für Steuerungstechnik

und Automatisierungssysteme

und Direktor

des Instituts für Elektrotechnik

der Hochschule

Magdeburg-Stendal. Er

studierte Elektrotechnik an

der Technischen Universität München und

promovierte an der Fakultät für Elektrotechnik

und Informationstechnik. Er war 17 Jahre in

der Industrie tätig, unter anderem bei der

Gesellschaft für Anlagen- und Reaktorsicherheit

(GRS) mbH und deren Tochtergesellschaft

Institut für Sicherheitstechnologie (ISTec)

GmbH in Garching, bei Siemens KWU-N in

Erlangen (heute Areva) und bei der E.On

Kernkraft GmbH in Hannover. Er ist seit 2011

Mitglied des Ausschusses für elektrische

Einrichtungen der Reaktorsicherheitskommission

der Bundesregierung (RSK-EE). Hauptarbeitsgebiete:

Sicherheitsautomation und

Zuverlässigkeitsanalyse.

Hochschule Magdeburg-Stendal,

Breitscheidstr. 2, D-39114 Magdeburg,

Tel. +49 (0) 391 886 48 06,

E-Mail: yongjian.ding@hs-magdeburg.de

atp edition

5 / 2014

61


IMPRESSUM / VORSCHAU

IMPRESSUM

VORSCHAU

Verlag:

DIV Deutscher Industrieverlag GmbH

Arnulfstraße 124, D-80636 München

Telefon + 49 (0) 89 203 53 66 0

Telefax + 49 (0) 89 203 53 66 99

www.di-verlag.de

Geschäftsführer:

Carsten Augsburger, Jürgen Franke

Verlagsleiterin:

Kirstin Sommer

Spartenleiterin:

Anne Purschwitz geb. Hütter

Herausgeber:

Dr.rer.nat. Thomas Albers

Dr. Gunther Kegel

Dipl.-Ing. Hans-Georg Kumpfmüller

Dr.-Ing. Wilhelm Otten

Beirat:

Dr.-Ing. Kurt Dirk Bettenhausen

Prof. Dr.-Ing. Christian Diedrich

Prof. Dr.-Ing. Ulrich Epple

Prof. Dr.-Ing. Alexander Fay

Prof. Dr.-Ing. Michael Felleisen

Prof. Dr.-Ing. Georg Frey

Dipl.-Ing. Thomas Grein

Prof. Dr.-Ing. Hartmut Haehnel

Dipl.-Ing. Tim-Peter Henrichs

Dr.-Ing. Jörg Kiesbauer

Dipl.-Ing. Gerald Mayr

Dr.-Ing. Josef Papenfort

Igor Stolz

Dr. Andreas Wernsdörfer

Dipl.-Ing. Dieter Westerkamp

Prof. Dr.-Ing. Michael Weyrich

Dr.rer.nat. Christian Zeidler

Organschaft:

Organ der GMA

(VDI/VDE-Gesell schaft Messund

Automatisierungs technik)

und der NAMUR (Interessengemeinschaft

Automatisierungstechnik

der Prozessindustrie).

Redaktion:

Anne Purschwitz geb. Hütter (ahü)

(verantwortlich)

Telefon + 49 (0) 89 203 53 66 58

E-Mail: purschwitz@di-verlag.de

Aljona Hartstock (aha)

Telefon + 49 (0) 89 203 53 66 78

E-Mail: hartstock@di-verlag.de

Einreichung von Hauptbeiträgen:

Prof. Dr.-Ing. Leon Urbas

(Chefredakteur, verantwortlich

für die Hauptbeiträge)

Technische Universität Dresden

Fakultät Elektrotechnik

und Informationstechnik

Professur für Prozessleittechnik

D-01062 Dresden

Telefon +49 (0) 351 46 33 96 14

E-Mail: urbas@di-verlag.de

Fachredaktion:

Dr.-Ing. Michael Blum

Dipl.-Ing. Heinrich Engelhard

Prof. Dr.-Ing. Jürgen Jasperneite

Dr.-Ing. Bernhard Kausler

Dr.-Ing. Niels Kiupel

Prof. Dr.-Ing. Gerrit Meixner

Dr.-Ing. Jörg Neidig

Dipl.-Ing. Ingo Rolle

Dr.-Ing. Stefan Runde

Prof. Dr.-Ing. Frank Schiller

Bezugsbedingungen:

atp edition – Automatisierungs technische

Praxis“ erscheint monatlich mit Doppelausgaben

im Januar/Februar und Juli/August.

Bezugspreise:

Abonnement jährlich: € 519,– + € 30,–/ € 35,–

Versand (Deutschland/Ausland);

Heft-Abonnement + Online-Archiv: € 704,70;

ePaper (PDF): € 519,–; ePaper + Online-Archiv:

€ 674,70; Einzelheft: € 59,– + Versand;

Die Preise enthalten bei Lieferung in EU-

Staaten die Mehrwertsteuer, für alle übrigen

Länder sind es Nettopreise. Mitglieder der

GMA: 30% Ermäßigung auf den Heftbezugspreis.

Bestellungen sind jederzeit über den Leserservice

oder jede Buchhandlung möglich.

Die Kündigungsfrist für Abonnement aufträge

beträgt 8 Wochen zum Bezugsjahresende.

Abonnement-/Einzelheftbestellung:

DataM-Services GmbH, Leserservice atp

Herr Marcus Zepmeisel

Franz-Horn-Str. 2, 97082 Würzburg

Telefon + 49 (0) 931 417 04 59

Telefax + 49 (0) 931 417 04 94

leserservice@di-verlag.de

Verantwortlich für den Anzeigenteil:

Inge Spoerel

Telefon + 49 (0) 89 203 53 66 22

E-Mail: spoerel@di-verlag.de

Kirstin Sommer (Key Account)

Telefon + 49 (0) 89 203 53 66 36

E-Mail: sommer@di-verlag.de

Angelika Weingarten (Key Account)

Telefon + 49 (0) 89 203 53 13

E-Mail: weingarten@di-verlag.de

Es gelten die Preise der Mediadaten 2014

Anzeigenverwaltung:

Brigitte Krawczyk

Telefon + 49 (0) 89 203 53 66 12

E-Mail: krawczyk@di-verlag.de

Art Direction / Layout:

deivis aronaitis design | dad |

Druck:

Druckerei Chmielorz GmbH,

Ostring 13,

D-65205 Wiesbaden-Nordenstadt

Gedruckt auf chlor- und

säurefreiem Papier.

Die atp wurde 1959 als „Regelungstechnische

Praxis – rtp“ gegründet.

DIV Deutscher Industrieverlag

GmbH München

Die Zeitschrift und alle in ihr enthaltenen

Beiträge und Abbildungen sind urheberrechtlich

geschützt. Mit Ausnahme der gesetzlich

zugelassenen Fälle ist eine Verwertung ohne

Ein willigung des Verlages strafbar.

Gemäß unserer Verpflichtung nach § 8

Abs. 3 PresseG i. V. m. Art. 2 Abs. 1c DVO

zum BayPresseG geben wir die Inhaber

und Beteiligungsverhältnisse am Verlag

wie folgt an:

DIV Deutscher Industrieverlag GmbH,

Arnulfstraße 124, D-80636 München.

Alleiniger Gesellschafter des Verlages

ist die ACM-Unternehmensgruppe,

Ostring 13,

D-65205 Wiesbaden-Nordenstadt.

ISSN 2190-4111

DIE AUSGABE 6 / 2014 DER

ERSCHEINT AM 28.05.2014

MIT DEM SCHWERPUNKT

„LEBENSZYKLUSKOSTEN UND SERVICES

IN DER AUTOMATION“

Virtuelle Inbetriebnahme

in der Prozessindustrie

OPC UA für

Industrie 4.0

Ein Ansatz zur

Messung von

Engineering-Effizienz

– Teil 2

Aus aktuellem Anlass können sich die Themen

kurzfristig verändern.

LESERSERVICE

E-MAIL:

leserservice@di-verlag.de

TELEFON:

+ 49 (0) 931 417 04 59

62

atp edition

5 / 2014


Erreichen Sie die Top-Entscheider

der Automatisierungstechnik.

Sprechen Sie uns an wegen Anzeigenbuchungen

und Fragen zu Ihrer Planung.

Inge Spoerel: Telefon +49 (0) 89 203 53 66-22

E-Mail: spoerel@di-verlag.de


Der Klassiker für die

Prozessautomation geht

ins 21. Jahrhundert

Das Handbuch der Prozessautomation ist ein Standardwerk für die Planung

verfahrenstechnischer Anlagen. In der 5., überarbeiteten Version geht es auf

die Herausforderung bei der Digitalisierung der Anlage ein. Das Handbuch

wurde von fast 50 Experten mit umfassenden Praxiskenntnissen gestaltet

und deckt das gesamte Feld der Prozessautomatisierung ab.

Hrsg.: K. F. Früh, U. Maier, D. Schaudel

5. Auflage 2014

740 Seiten, 170 x 240mm, Hardcover

Erhältlich in 2 Varianten

www.di-verlag.de

DIV Deutscher Industrieverlag GmbH, Arnulfstr. 124, 80636 München

Jetzt vorbestellen!

Bestellung per Fax: +49 (0) 201 Deutscher / 82002-34 Industrieverlag GmbH oder | Arnulfstr. abtrennen 124 und | 80636 im München Fensterumschlag einsenden

Ja, ich bestelle gegen Rechnung 3 Wochen zur Ansicht

___ Ex.

Handbuch der Prozessautomatisierung

5. Auflage – ISBN: 978-3-8356-3372-8

für € 199,90 (zzgl. Versand)

Firma/Institution

Vorname, Name des Empfängers

___ Ex.

Handbuch der Prozessautomatisierung

mit interaktivem eBook (Online-Lesezugriff im MediaCenter)

5. Auflage – ISBN: 978-3-8356-7119-5

für € 259,90 (zzgl. Versand)

Straße / Postfach, Nr.

Land, PLZ, Ort

Antwort

Vulkan-Verlag GmbH

Versandbuchhandlung

Postfach 10 39 62

45039 Essen

Telefon

E-Mail

Telefax

Branche / Wirtschaftszweig

Widerrufsrecht: Sie können Ihre Vertragserklärung innerhalb von zwei Wochen ohne Angabe von Gründen in Textform (z.B.

Brief, Fax, E-Mail) oder durch Rücksendung der Sache widerrufen. Die Frist beginnt nach Erhalt dieser Belehrung in Textform.

Zur Wahrung der Widerrufsfrist genügt die rechtzeitige Absendung des Widerrufs oder der Sache an die Vulkan-Verlag GmbH,

Versandbuchhandlung, Huyssenallee 52-56, 45128 Essen.

Ort, Datum, Unterschrift

PAHBPA2014

Nutzung personenbezogener Daten: Für die Auftragsabwicklung und zur Pflege der laufenden Kommunikation werden personenbezogene Daten erfasst und gespeichert. Mit dieser Anforderung erkläre ich mich damit einverstanden,

dass ich vom DIV Deutscher Industrieverlag oder vom Vulkan-Verlag per Post, per Telefon, per Telefax, per E-Mail, nicht über interessante, fachspezifische Medien und Informationsangebote informiert und beworben werde.

Diese Erklärung kann ich mit Wirkung für die Zukunft jederzeit widerrufen.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!