22.01.2013 Aufrufe

klar im Cockpit - GIT Verlag

klar im Cockpit - GIT Verlag

klar im Cockpit - GIT Verlag

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

D 30 122 F<br />

7. JAHRGANG<br />

NOVEMBER 2006<br />

4<br />

Airbag-Customizing <strong>im</strong> Autositz<br />

Quotientenbild-Stereo-Verfahren<br />

Europäischer Exportschlager Bildverarbeitung<br />

� � � � � V I S I O N � A U T O M A T I O N � C O N T R O L � � � � �<br />

Verborgene Gehe<strong>im</strong>nisse durch High Speed entdecken<br />

www.gitverlag.com


&<br />

E d i t o r i a l<br />

Tradition<br />

Fortschritt<br />

Anfang der 90er Jahre haben sich die Pioniere<br />

der Bildverarbeitung in Deutschland<br />

erstmals zu einem Branchenverband<br />

zusammen geschlossen – dem<br />

Vision Club. Der Name war fast schon<br />

Programm: Zwei Dutzend Firmen, alle –<br />

give or take – der gleichen Größe, vertreten<br />

zumeist durch ihre Gründer, man<br />

kannte sich untereinander. Aufbruchst<strong>im</strong>mung<br />

einer neuen Branche, Begeisterung<br />

und Engagement der Branchenvertreter,<br />

die ihre Macherqualitäten als<br />

erfolgreiche Unternehmer auch in die<br />

ehrenamtliche Vereinsarbeit hinein getragen<br />

haben. Der Vision Club hat die Interessen<br />

der jungen Branche erstmals<br />

konsolidiert und in den Bereichen Messepolitik,<br />

Marketing und Forschungsprojekte<br />

viel bewegt.<br />

Der nächste große Schritt war die<br />

Überführung des „Clubs“ in die Verbandskultur<br />

des VDMA (Verband Deutscher<br />

Maschinen­ und Anlagenbau).<br />

Klare Strukturen und etwas weniger<br />

Hemdsärmeligkeit, Risiko und Chance<br />

für die junge Branche mit ihren jungen<br />

Entrepreneurs. Anfangs war dieser Kulturwechsel<br />

gar nicht jedem Recht, kritische<br />

St<strong>im</strong>men sprachen gar von Tankern<br />

und Schnellbooten – und hingen<br />

letzteren wehmütig nach. Jedoch, der<br />

Bildverarbeitungsbranche in Deutschland<br />

hat das Dienstleistungsangebot, das<br />

professionelle Management und der politische<br />

Einfluss des großen Verbandes genützt.<br />

Der Paradigmenwechsel hat sich<br />

ausgezahlt.<br />

Heute steht die Bildverarbeitungsbranche<br />

– nicht nur in Deutschland – erneut<br />

vor der Herausforderung, sich eine<br />

unabwendbare Veränderung zunutze zu<br />

machen. Nicht mehr nur die Gründer von<br />

damals, die mit Kreativität, Fleiß und<br />

Fortune ihre Firma nach vorne gebracht<br />

haben, gestalten heute die Branche.<br />

Hinzu kommen neu die großen Optosensorik­Hersteller,<br />

für die die Bildverarbeitung<br />

eine natürliche – und lohnenswerte<br />

– Erweiterung ihres angestammten Spektrums<br />

ist. Unternehmen mit dreistelligen<br />

Millionen­Umsätzen, mit vierstelligen<br />

Mitarbeiterzahlen, mit Dutzenden internationalen<br />

Standorten, Flächen­ und<br />

Strukturvertrieb halten Einzug in einen<br />

Markt mit einer durchschnittlichen Firmengröße<br />

von 45 Mitarbeitern und<br />

einem durchschnittlichen Umsatz bei<br />

etwa 5 Mio. Beunruhigend?<br />

Ein Club gewinnt dadurch, dass alle<br />

die gleiche Sprache sprechen und durch<br />

gemeinsame Interessen miteinander verbunden<br />

sind. Das schafft eine angenehme<br />

und durchaus auch beflügelnde Atmosphäre.<br />

Dabei bleibt es aber <strong>im</strong>mer ein<br />

Club. Ein Verband ist stark, wenn er die<br />

Ziele und Interessen möglichst vieler heterogener<br />

Mitglieder bündeln kann und<br />

daraus Stärke sowohl für die politische<br />

Arbeit als auch für den Erfolg seiner Mitglieder<br />

<strong>im</strong> internationalen Wettbewerb<br />

schafft. Die Chancen in der Zusammenarbeit<br />

aller Branchenvertreter der Bildverarbeitung,<br />

sei die individuelle Herkunft<br />

nun aus dem Komponentenbereich,<br />

dem Systemgeschäft, der Integration<br />

oder der Sensorik, werden allemal größer<br />

sein als die Risiken. Und sei es <strong>im</strong><br />

schlechtesten Fall auch nur, um seinen<br />

neuen Wettbewerber besser kennen zu<br />

lernen.<br />

Ich wünsche Ihnen viel Vergnügen bei der<br />

Lektüre Ihrer aktuellen Inspect.<br />

Gabriele Jansen<br />

Chefredakteurin Inspect


I n h a l t<br />

2 Inspect 4/2006<br />

AKTUELL<br />

Editorial: Tradition und Fortschritt 1<br />

G. Jansen<br />

News 4<br />

Vision 2006, Stuttgart 10<br />

MTQ 2006, Dortmund 10<br />

So schön ist Finnland! 12<br />

EMVA Conference in Tampere bricht alle Rekorde<br />

PRO-4-PRO Charts 76<br />

Index & Impressum 80<br />

TITELSTORY<br />

Airbag-Customizing <strong>im</strong> Autositz 6<br />

Laserdistanzsensoren <strong>im</strong> Einsatz für mehr Sicherheit<br />

C. Beede, E.-C. Reiff<br />

Airbags haben in der Vergangenheit nicht nur als Lebensretter Schlagzeilen gemacht; in<br />

Einzelfällen kam es durch Fehlfunktionen auch zu Verletzungen oder sogar Todesfällen,<br />

z. B. wenn sich bei einem Unfall Kinder in falscher Position auf dem Beifahrersitz<br />

befanden. Solche tragischen Vorfälle lassen sich jedoch vermeiden, wenn die Airbag-<br />

Aktivierung auf Körpergröße und Körpergewicht des Beifahrers abgest<strong>im</strong>mt ist. Ausgeklügelte<br />

Test- und Kalibrieranlagen mit modernster Sensorik tragen hier heute zur<br />

max<strong>im</strong>alen Sicherheit bei. Mehr dazu in unserer Titelstory ab S. 6.<br />

VISION 13<br />

„Mr. Spock, schneller Scan der Oberfläche“ 14<br />

Neues Verfahren für schnelle und robuste 3D-Abtastung von Oberflächen<br />

Die Abenteuer des Raumschiffs Enterprise sind uns allen unvergessen. Wenn neue<br />

unbekannte Planeten auf dem Bildschirm auftauchten, konnten in Sekundenschnelle<br />

jede Menge Daten generiert werden dank der Sensorenphalanx an Bord des Schiffes.<br />

So auch Daten über Beschaffenheit und Aufbau der Oberfläche. – Und selbst, wenn es<br />

vielleicht noch nicht wirklich solch utopische Technologien gibt wie auf der Enterprise –<br />

just wurde in einer innovativen Bildverarbeitungsschmiede ein Verfahren entwickelt,<br />

das die Struktur von Oberflächen wesentlich schneller und zuverlässiger erfassen kann<br />

als bisher.<br />

Grundlagen der Bildverarbeitung 16<br />

Morphologische Filter<br />

Prof. Dr. C. Heckenkamp<br />

Noch lange kein altes Eisen 20<br />

Mit Power-over-CameraLink übertrumpft der digitale<br />

den analogen Framegrabber<br />

M. S<strong>im</strong>nacher<br />

Luchsaugen für die Bildverarbeitung 22<br />

Mehrd<strong>im</strong>ensionale Objektvermessung<br />

Dipl.-Ing. (FH) B. Hagebeuker<br />

Wie wär’s mit unserer Suite? 24<br />

Erweiterte Softwaresuite für die Bildverarbeitung<br />

Interface Race 26<br />

Gigabit-Ethernet für Machine Vision<br />

R. K<strong>im</strong>melmann<br />

Best of Both Worlds 28<br />

Value Added Distributoren als Mittler zwischen Technologie und Praxis<br />

S. Sol<strong>im</strong>an<br />

Tischlein-deck-Dich 30<br />

Küchentisch der Zukunft mit USB 2.0-Industriekameras<br />

T. Schmidgall<br />

Die Weisheit liegt nicht <strong>im</strong> Wein allein 32<br />

Intelligente „Open Source“ Kamera bietet höchste Flexibilität<br />

M. Kissel<br />

Euro<br />

Erge<br />

P. Sch<br />

Prod<br />

Alle<br />

Bildv<br />

Dipl.-<br />

Das C<br />

st<strong>im</strong>m<br />

nehm<br />

Cockp<br />

Her<br />

Auto<br />

J. Raa<br />

Nul<br />

Wie<br />

A. Sc<br />

Hap<br />

Blind<br />

Dipl.-<br />

Pfan<br />

Intel<br />

Dipl.-<br />

Mak<br />

Surf<br />

Dr. S.<br />

Sau<br />

Visio<br />

Prod<br />

Verb<br />

Hoch<br />

K. Vo<br />

Manc<br />

schon<br />

erste<br />

Mutt<br />

wech<br />

helfe<br />

Olym<br />

Wo<br />

Berü<br />

Mag.<br />

Fire<br />

Ther<br />

3D-<br />

Schn<br />

Dr. S.<br />

Stol<br />

Ergo<br />

Dem<br />

Bildv<br />

Dipl.-<br />

Haa<br />

Kam<br />

Prod


I n h a l t<br />

päischer Europäischer Exportschlager: Exportschlager: Bildverarbeitung Bildverarbeitung 34 34<br />

bnisse der Ergebnisse Marktdatenerhebung der Marktdatenerhebung Vision Technology Vision 2006 Technology 2006<br />

warzkopf P. Schwarzkopf<br />

ukte Produkte 38 38<br />

AUTOMATION 41<br />

s <strong>klar</strong> <strong>im</strong> Alles <strong>Cockpit</strong> <strong>klar</strong> <strong>im</strong> <strong>Cockpit</strong> 42 42<br />

erarbeitung Bildverarbeitung und Robotik sorgen und Robotik für 100 sorgen % Qualität für 100 bei % <strong>Cockpit</strong>s Qualität bei <strong>Cockpit</strong>s<br />

Ing. A. Tarnoki Dipl.-Ing. A. Tarnoki<br />

ockpit ist der Das Kommandostand <strong>Cockpit</strong> ist der für Kommandostand Fahrvergnügen für und Fahrvergnügen Fahrsicherheit. und Hier Fahrsicherheit. muss alles Hier muss alles<br />

en, funktional st<strong>im</strong>men, und ästhetisch. funktional Johnson und ästhetisch. Controls, eines Johnson der Controls, weltweit eines führenden der weltweit Unter- führenden Unteren<br />

<strong>im</strong> Bereich nehmen der automobilen <strong>im</strong> Bereich Innenausstattung der automobilen und Innenausstattung Elektronik, prüft und seine Elektronik, Auto- prüft seine Autoits<br />

mit acht Kameras <strong>Cockpit</strong>s auf mit bis acht zu Kameras 70 Merkmale auf bis in zu zwei 70 Varianten Merkmale nach in zwei vier Varianten Kriterien. nach vier Kriterien.<br />

ausforderungen Herausforderungen annehmen annehmen<br />

matische optische Automatische Prüfung optische geschliffener Prüfung Oberflächen geschliffener Oberflächen<br />

45 45<br />

sch J. Raasch<br />

l-Fehler-Qualität Null-Fehler-Qualität für die Automobilindustrie für die Automobilindustrie<br />

mit Bildverarbeitung Wie mit Bildverarbeitung Mikrochips getestet Mikrochips werden getestet werden<br />

48 48<br />

harbert A. Scharbert<br />

tik optisch Haptik geprüft optisch geprüft<br />

enschriftinspektion Blindenschriftinspektion durch Shape-from-Shading durch Shape-from-Shading<br />

Inf. S. Söll, Dr. Dipl.-Inf. H. Moritz, S. Söll, Prof. Dr. H. H. Moritz, Ernst Prof. Dr. H. Ernst<br />

50 50<br />

d, wem Pfand, Pfand gebührt wem Pfand gebührt 54 54<br />

ligente Kamera Intelligente validiert Kamera Einweggetränkeverpackungen<br />

validiert Einweggetränkeverpackungen<br />

Inf. (FH) U. Lansche Dipl.-Inf. (FH) U. Lansche<br />

ellose Außenhaut Makellose Außenhaut<br />

ace Quality Surface Yield Management Quality Yield in Management der Feuerverzinkung in der Feuerverzinkung<br />

Burkhardt, E. Dr. Jannasch S. Burkhardt, E. Jannasch<br />

56 56<br />

berer Schnitt Sauberer Schnitt<br />

n-Sensor für Vision-Sensor die Automatisierung für die Automatisierung <strong>im</strong> Weinberg <strong>im</strong> Weinberg<br />

58 58<br />

ukte Produkte 59 59<br />

CONTROL 61<br />

orgene Gehe<strong>im</strong>nisse Verborgene Gehe<strong>im</strong>nisse 62 62<br />

geschwindigkeits-Kamerasystem Hochgeschwindigkeits-Kamerasystem lässt nichts unentdeckt lässt nichts unentdeckt<br />

lkmer K. Volkmer<br />

hmal muss man Manchmal Verborgenes muss man sichtbar Verborgenes machen – sichtbar vor diesem machen Dilemma – vor standen diesem Dilemma standen<br />

Sherlock Holmes schon oder Sherlock Marie Holmes Curie, oder aber Marie auch der Curie, Arzt, aber der auch eine der Diagnose Arzt, der eine Diagnose<br />

llen muss, der erstellen Kr<strong>im</strong>inalbeamte, muss, der der Kr<strong>im</strong>inalbeamte, ein Verbrechen der aufzuklären ein Verbrechen hat, oder aufzuklären die hat, oder die<br />

er, die herauszufinden Mutter, die versucht, herauszufinden warum ihr versucht, Kind weint warum (oftmals ihr Kind hilft weint ein Windel- (oftmals hilft ein Windelsel…).<br />

Es gibt wechsel…). viele Dinge, Es die gibt für viele unser Dinge, Auge die nicht für fassbar unser Auge sind. nicht Und fassbar genau hier sind. Und genau hier<br />

n Hochgeschwindigkeits-Kamerasysteme helfen Hochgeschwindigkeits-Kamerasysteme weiter, von denen weiter, eins aus von dem denen Hause eins aus dem Hause<br />

pus nun einen Olympus turboschnellen nun einen Nachfolger turboschnellen vorstellt. Nachfolger vorstellt.<br />

gehobelt Wo wird, gehobelt da fallen wird, Späne… da fallen Späne… 64 64<br />

hrungslose Berührungslose Oberflächenanalyse Oberflächenanalyse von Wendeschneidplatten von Wendeschneidplatten<br />

A. Krenn Mag. A. Krenn<br />

fighter <strong>im</strong> Firefighter Bunker <strong>im</strong> Bunker 66 66<br />

mographiesystem Thermographiesystem für die Müllbunker-Brandfrüherkennung<br />

für die Müllbunker-Brandfrüherkennung<br />

Messtechnik 3D-Messtechnik für die Produktion für die Produktion<br />

ell, berührungslos Schnell, berührungslos und hochpräzise und hochpräzise<br />

69 69<br />

Schiffer Dr. S. Schiffer<br />

z auf Made Stolz in auf Germany Made in Germany<br />

nomisches Ergonomisches Video-Messmikroskop Video-Messmikroskop<br />

70 70<br />

Täter auf Dem der Täter Spur auf der Spur<br />

erarbeitung Bildverarbeitung für Polizei und für Sicherheitsdienst<br />

Polizei und Sicherheitsdienst<br />

Inf. R. Knöfel, Dipl.-Inf. R. Christan Knöfel, Dipl.-Inf. Feist Christan Feist<br />

72 72<br />

rscharf erkannt Haarscharf erkannt<br />

erageführte Kamerageführte automatische Verbindung automatische von Verbindung Glasfasernvon<br />

Glasfasern<br />

73 73<br />

ukte Produkte 77 77<br />

Inspect 4/2006<br />

3


A k t u e l l<br />

20 Jahre Matrix Vision<br />

Was als kleine Steuerungs- und<br />

Auswertesoftwareschmiede für<br />

chemische Analysegeräte begann,<br />

hat sich zu einem weltweit<br />

agierenden Unternehmen<br />

in der industriellen Bildverarbeitung<br />

entwickelt. 1986 gründeten<br />

Gerhard Thullner und<br />

Werner Armingeon die Matrix<br />

Datensysteme. Die Firma entwickelte<br />

Software für chemische Analysegeräte und arbeitete damals mit Atari-<br />

Rechnern. Für diese Rechner wurde die weltweit erste Grafikkarte für 19-Zoll-Bildschirme<br />

entwickelt. Das Produkt war auf der CeBIT 1988 ein Schlager und stellte<br />

den Einstieg in die Grafik- und Videotechnik dar. Heute hat das Unternehmen 45<br />

Mitarbeiter, ist über Distributoren weltweit aktiv und vertreibt seine Produkte direkt<br />

in Deutschland, Frankreich, Italien, Österreich und der Schweiz. Das Produktportfolio<br />

ist für den weiterhin wachstumsreichen, wechselhaften Markt der industriellen<br />

Bildverarbeitung gut gerüstet.<br />

www.matrix-vision.de<br />

news<br />

ews<br />

news<br />

Global Technology<br />

Award 2006<br />

In der Kategorie bestes „Inspection/X-ray<br />

system“ wurde Phoenix<br />

X-ray für sein neues Computertomographiesystem<br />

nanotom <strong>im</strong><br />

Rahmen der Assembly Technology<br />

Expo 2006 in Rosemont (Chicago)<br />

mit dem Global Technology Award<br />

ausgezeichnet. Vergeben wurde<br />

dieser Preis von der Fachzeitschrift<br />

Global SMT & Packaging. Die internationale<br />

Jury, die sich aus unabhängigen<br />

Industrieexperten und<br />

Wissenschaftlern zusammensetzte,<br />

lobte unter anderem den technischen<br />

Innovationsgrad sowie die<br />

damit verbundenen Vorteile für die<br />

Anwender.<br />

www.phoenix-xray.com<br />

IDS baut die Produktions- und Logistikkapazitäten weiter aus<br />

Be<strong>im</strong> schwäbischen Kamera-Spezialisten IDS Imaging Development Systems stehen<br />

die Zeichen weiter auf Wachstum. Das Unternehmen hat seine Produktions- und Logistikflächen<br />

deutlich ausgebaut und seine personellen Ressourcen auf nunmehr<br />

knapp 60 Mitarbeiter erhöht.<br />

Mit dem jetzt fertiggestellten<br />

neubau hat der schwäbische<br />

Kamera-Spezialist seine Produktionskapazitäten<br />

am Standort in<br />

Obersulm bei Heilbronn verdreifacht<br />

und die Gesamtnutz- und<br />

Logistikflächen annähernd verdoppelt.<br />

Seit der Gründung<br />

1997 hat man sich ganz der industriellen<br />

Bildverarbeitung verschrieben. Mit dem Know-how der beiden Gründer<br />

und Geschäftsführer Jürgen Hartmann und Armin Vogt ist aus kleinsten Anfängen<br />

ein wichtigster Hersteller und Anbieter von Komponenten und Lösungen für die industrielle<br />

Bildverarbeitung geworden.<br />

www.ids-<strong>im</strong>aging.de<br />

Inspect 4/2006<br />

Neues Produktionszentrum<br />

von Linos<br />

Linos hat am 15. September 2006 ihren<br />

neubau am Standort Regen offiziell<br />

eingeweiht. Im Rahmen der Feier, an<br />

der rund 400 Gäste teilnahmen, hob<br />

die Parlamentarische Staatssekretärin<br />

be<strong>im</strong> Bundesminister für Wirtschaft und<br />

Technologie, Dagmar Wöhrl, in ihrer<br />

Ansprache die Bedeutung der optischen<br />

Technologien für den Wirtschaftsstandort<br />

Deutschland hervor. Das Unternehmen<br />

hat in das neue Produktionszentrum<br />

rund 5,3 Mio. € investiert. Die<br />

Regierung von niederbayern unterstützte<br />

das Projekt mit Fördermitteln.<br />

Allein <strong>im</strong> laufenden Geschäftsjahr wendet<br />

Linos in Regen 1,2 Mio. € für eine<br />

neue Fertigungslinie auf, mit der ab Anfang<br />

2007 hoch komplexe optische<br />

Systeme gebaut werden sollen. Der<br />

neubau verfügt über eine Produktionsfläche<br />

von 7.200 m². Der Vorstand verspricht<br />

sich von dem Umzug eine erhebliche<br />

Verbesserung der Infrastruktur<br />

und damit effizientere Arbeitsabläufe.<br />

www.linos.de<br />

VDMA Industrielle Bildverarbeitung<br />

mit neuem Vorstand<br />

Auf der Mitgliederversammlung der<br />

VDMA Fachabteilung Industrielle Bildverarbeitung,<br />

die am 6. Oktober 2006<br />

in Dresden stattfand, wurde turnusgemäß<br />

ein neuer Vorstand gewählt. Als<br />

Vorstandsvorsitzender wurde Dr. Dietmar<br />

Ley, Vorsitzender des Vorstandes<br />

von Basler, bestätigt. Ley hatte den<br />

Vorsitz der Fachabteilung Industrielle<br />

Bildverarbeitung bereits <strong>im</strong> Juni 2005<br />

von Volker Pape, Vorstand von Viscom,<br />

übernommen und wird sein Amt für<br />

drei weitere Jahre ausüben. Dem<br />

neuen Vorstand der VDMA Fachabteilung<br />

Industrielle Bildverarbeitung gehören<br />

außerdem an: Enis Ersü, Vorsitzender<br />

des Vorstands Isra Vision, Dr.<br />

Horst G. Heinol-Heikkinen, Geschäftsführer<br />

Asentics, Charlotte Helzle, Gesellschafter-Geschäftsführerin<br />

hema<br />

electronic, Dr. Olaf Munkelt, Geschäftsführer<br />

MVTec Software und Wilhelm<br />

Stemmer, Geschäftsführer Stemmer<br />

Imaging.<br />

www.vdma.org/vision<br />

<strong>GIT</strong> – 50 Jahre führend <strong>im</strong> Labor<br />

Im Oktober feierten wir <strong>im</strong> <strong>GIT</strong> VERLAG das 50-jährige Bestehen der <strong>GIT</strong> Labor-<br />

Fachzeitschrift. 1956 gründete Ernst H. W. Giebeler die Fachzeitschrift Glas-Instrumenten-Technik<br />

für die Praktiker <strong>im</strong> Labor. Die Publikation vermittelte von Anfang<br />

an aktuelle Trends, neuste Techniken und spannende Hintergrund-Informationen<br />

zum breiten Spektrum der Labortechnik. So unterstützt<br />

das Magazin seither alle Beteiligten – von<br />

der Bench bis zum Entscheider – bei den Herausforderungen<br />

des Laboralltags.<br />

Die <strong>GIT</strong> Labor-Fachzeitschrift bildete 1969 den<br />

Grundstein für die Gründung des <strong>GIT</strong> VERLAGs in<br />

Darmstadt, der heute mit 100 Mitarbeitern über<br />

40 Titel für die Branchen Biotechnologie, Chemie,<br />

Pharma, Medizintechnik, Automatisierungstechnik<br />

und Prozesstechnik herausbringt. Hierzu gehören<br />

u.a. die Titel CHEManager, Management<br />

& Krankenhaus, <strong>GIT</strong> SICHERHEIT + MAnAGE-<br />

MEnT, BIOforum und MessTec & Automation.<br />

Das redaktionelle Konzept der <strong>GIT</strong> Labor-Fachzeitschrift<br />

zeichnet sich durch drei Komponenten<br />

aus: qualitativ hochwertige Beiträge von den<br />

führenden Meinungsbildnern, nachrichten zu den aktuellsten Trends und Entwicklungen<br />

der jeweiligen Branche und anwendungs-orientierte Hintergrundinformationen.<br />

Damit bietet jede Publikation eine eigene Plattform für Forscher und Anwender,<br />

für Zulieferer und Verbraucher. Ergänzt werden die Print-Titel durch das<br />

Branchenportal www.pro-4-pro.com sowie Direct Mail, Reprint und E-Magazine-<br />

Lösungen.<br />

Einzigartig in der Berichterstattung und Vorstellung neuer Technologien ist der Praxisbezug<br />

der <strong>GIT</strong> Labor-Fachzeitschrift. Ziel war und ist es, dem Leser praxisnahe<br />

Informationen über das breite Spektrum der Analytik und Labortechnik interdisziplinär<br />

zu bieten und die Arbeit <strong>im</strong> Labor durch entsprechende Lösungsvorschläge<br />

zu unterstützen. Ob in der Hochleistungsforschung oder in der Routine, die <strong>GIT</strong><br />

zeigt, wie man die täglichen Laborprobleme löst und Prozesse opt<strong>im</strong>iert. Dadurch<br />

spart der Leser letztlich Zeit und Geld – und das ist es, was heute zählt, in Industrie<br />

und Wissenschaft gleichermaßen.<br />

www.gitverlag.com


T i T e l s T o r y<br />

Airbag-Customizing <strong>im</strong> Autositz<br />

Airbags haben in der<br />

Vergangenheit nicht<br />

nur als Lebensretter<br />

Schlagzeilen gemacht;<br />

in Einzelfällen kam es<br />

durch Fehlfunktionen<br />

auch zu Verletzungen<br />

oder sogar Todesfäl-<br />

len, z. B. wenn sich bei<br />

einem Unfall Kinder in<br />

falscher Position auf<br />

dem Beifahrersitz<br />

befanden. Solche<br />

tragischen Vorfälle<br />

lassen sich jedoch<br />

vermeiden, wenn die<br />

Airbag-Aktivierung<br />

auf Körpergröße und<br />

Körpergewicht des<br />

Beifahrers abgest<strong>im</strong>mt<br />

ist. Ausgeklügelte<br />

Test- und Kalibrieran-<br />

lagen mit modernster<br />

Sensorik tragen hier<br />

heute zur max<strong>im</strong>alen<br />

Sicherheit bei.<br />

Inspect 4/2006<br />

Laserdistanzsensoren <strong>im</strong> Einsatz für mehr Sicherheit<br />

Abb. 1: Test- und Kalibrieranlage für die in aktuellen<br />

Autositzen integrierten Klassifizierungssysteme.<br />

Die Airbag-Aktivierung lässt sich so auf<br />

Körpergröße und Gewicht der Passagiere abst<strong>im</strong>men.<br />

(Foto: Stankowitz)<br />

Um die für die entsprechende Airbag-<br />

Anpassung notwendigen Daten zu erhalten,<br />

werden in Beifahrer-Autositzen<br />

verschiedene Personen-Klassifizierungssysteme,<br />

bspw. drucksensitive Belegungsmatten<br />

oder Gewichtssensoren, inte-<br />

griert. Aufgrund der erfassten Messwerte<br />

lässt sich die erforderliche Auslösung des<br />

Airbags an den jeweiligen Passagier anpassen.<br />

Sichere Beifahrer-Klassifizierungsmöglichkeiten<br />

Ein Spezialist auf diesem Gebiet ist die in<br />

Diepholz (Deutschland) ansässige Firma<br />

Stankowitz Test Equipment. Seit mehr<br />

als dreißig Jahren entwickelt und fertigt<br />

das auf dem Weltmarkt etablierte Familienunternehmen<br />

Test- und Opt<strong>im</strong>ierungssysteme;<br />

nicht nur für den Automobilbereich,<br />

sondern auch für Luftfahrt,<br />

Chemie und Lebensmitteltechnologie.<br />

Die Test- und Kalibrieranlagen für die in<br />

aktuellen und zukünftigen Autositzen integrierten<br />

Klassifizierungssysteme sind<br />

heute bei allen Automobilsitzherstellern<br />

<strong>im</strong> Einsatz.<br />

Automatische Positionskontrolle mit<br />

höchster Präzision<br />

Meist sind die Prüf- und Kalibriersysteme<br />

direkt in die Automatisierungs-


Abb. 2: Intelligente Laserdistanzsensoren: Der<br />

kleinformatige Verstärker bietet viele anwenderfreundliche<br />

Funktionen. Unterschiedliche Sensorköpfe<br />

mit Auflösungen bis in den Mikrometerbereich<br />

decken verschiedenste Anwendungsbereiche<br />

ab. (Foto: Omron electronics)<br />

linie eingebunden. Sie können die verschiedenen<br />

Sitztypen flexibel in<br />

beliebiger Reihenfolge „bearbeiten“.<br />

Die Produktions-Werkstückträger sind<br />

mit einer vollautomatischen Klemmeinrichtung<br />

zur exakten Positionierung<br />

des Sitzes ausgestattet und werden bis<br />

zu einem mechanischen Anschlag in<br />

die Testanlage transportiert. Laserdistanzsensoren<br />

sorgen dann dafür,<br />

dass die zu erreichenden Positionen<br />

des Sitzes für Sitzneigung, Lehnen- und<br />

Höheneinstellung sichergestellt werden.<br />

Die Distanzsensoren messen dazu<br />

an mehreren genau festgelegten Stellen<br />

den Abstand zu den Oberflächen<br />

der Sitze. Die für den jeweiligen Sitztyp<br />

geltenden Werte sind <strong>im</strong> Anlagenrechner<br />

mit einer entsprechenden Legende<br />

hinterlegt.<br />

Zeigen die Messwerte der Sensoren<br />

an, dass die richtigen Positionen erreicht<br />

sind, startet der Test bzw. die Kalibrierung.<br />

An den Sitzen werden nacheinander<br />

verschiedene Krafteinleitungen<br />

durchgeführt. Auch während dieses Prozesses<br />

sind die Laserdistanzsensoren aktiv.<br />

Um die Richtigkeit der Kalibrierung<br />

und der Testergebnisse zu gewährleisten,<br />

kontrollieren sie ständig die Sitzposition.<br />

Dabei müssen die Sensoren Beachtliches<br />

leisten.<br />

Hohe Anforderungen an die eingesetzte<br />

Sensorik<br />

„Wir haben sehr hohe Anforderungen an<br />

die Reproduzierbarkeit,“ erläutert Reinhard<br />

Stankowitz, Geschäftsführer der<br />

Stankowitz Test Equipment GmbH. „Der<br />

Sitz muss sehr präzise positioniert sein,<br />

damit die Funktion getestet bzw. kalib-<br />

T i T e l s T o r y<br />

riert und anschließend verifiziert werden<br />

kann. Schließlich geht es hier um die<br />

Sicherheit von Menschen.“ Außerdem<br />

dürfen unterschiedliche Reflexionseigenschaften<br />

der Sitzoberflächen die Funktion<br />

nicht beeinträchtigen. „Wir erwarten zuverlässige<br />

Messergebnisse sowohl bei<br />

Stoff- als auch bei Leder- oder Kunstleder-Bezügen.<br />

Helle oder dunkle Farben,<br />

gemusterte oder einfarbige Bezugsstoffe,<br />

stumpfe oder seidenmatte<br />

Oberflächen: All das darf keine Auswirkungen<br />

auf die Qualität der Messergebnisse<br />

haben“, ergänzt Stankowitz. Gleichzeitig<br />

müssen die Sensoren unempfindlich<br />

gegenüber Fremdlichteinflüssen sein und<br />

mit möglichst kurzen Ansprechzeiten arbeiten.<br />

„Die passenden Geräte, die diese<br />

Anforderungen erfüllen und gleichzeitig<br />

auch noch ein günstiges Preis-/Leistungsverhältnis<br />

bieten, haben wir <strong>im</strong> Sensorikprogramm<br />

des Automatisierungsspezialisten<br />

Omron electronics gefunden“,<br />

fasst Reinhard Stankowitz zusammen.<br />

An den Test- und Kalibrieranlagen für<br />

die Beifahrer-Klassifizierungssysteme<br />

sind je nach Ausführung bis zu vier<br />

Laserdistanzsensoren der Serie ZX-<br />

LD300L <strong>im</strong> Einsatz. Die Sensoren eignen<br />

sich für Distanzen bis 300 mm, wobei die<br />

Auflösung bei 300 µm liegt (gemittelter<br />

Wert über 4.096 Messzyklen). Die Ent-


T i T e l s T o r y<br />

Abb. 3: Klein und kompakt. Auch an den Test-<br />

und Kalibrieranlagen für aktuelle und zukünftige<br />

Autositze lassen sich die Laserdistanzsensoren<br />

gut montieren. (Foto: Stankowitz)<br />

fernungsmessung basiert auf dem Triangulationsprinzip.<br />

Der Laserstrahl trifft<br />

also auf das Objekt und wird auf ein PSD-<br />

Element (Position Sensitive Device) reflektiert.<br />

Eine speziell entwickelte Auswerteelektronik<br />

berechnet aus der<br />

Verteilung des reflektierten Lichts auf<br />

diesem Empfängerelement die Distanz<br />

zum Objekt. Störende Reflexionen unterdrückt<br />

die Auswerteelektronik, so dass<br />

die Distanzmessung auch bei kritischen<br />

Objekten – wie den unterschiedlich bezogenen<br />

Autositzen – zuverlässige Messergebnisse<br />

liefert. Die Werte werden in<br />

entfernungsproportionale Ausgangssignale<br />

umgesetzt und an die übergeordnete<br />

Steuerung weitergeleitet. Fremdlichteinflüsse<br />

bis 3000 lx (eine typische<br />

Bürobeleuchtung liegt bei einer Beleuchtungsstärke<br />

von etwa 500 lx) beeinträchtigen<br />

die Funktion nicht.<br />

Kompakt, einbaufreundlich und<br />

zuverlässig<br />

Aber auch darüber hinaus haben die Laserdistanzsensoren<br />

einiges zu bieten. Die<br />

Sensorköpfe sind sehr kompakt; ihre Abmessungen<br />

entsprechen mit 39 mm<br />

Höhe, 17 mm Breite und 33 mm Tiefe denen<br />

konventioneller Lichtschranken.<br />

Platzprobleme be<strong>im</strong> Einbau sind also<br />

nicht zu befürchten und auch an den<br />

Test- und Kalibieranlagen lassen sich die<br />

Laserdistanzsensoren gut montieren.<br />

Gleiches gilt für die kleinformatigen Verstärker.<br />

Sie sind lediglich 31 mm breit,<br />

8 Inspect 4/2006<br />

Abb. 4: Der neue Laserdistanzsensor ZS-HLD „blickt“ bis zu 2.000 mm weit. Die Konstruktion der<br />

Testsysteme vereinfacht sich dadurch wesentlich. (Foto: Stankowitz)<br />

30 mm hoch und 64 mm lang. Dennoch<br />

bieten sie eine Vielzahl intelligenter und<br />

anwenderfreundlicher Funktionen, z. B.<br />

Skalierung, drehbare Anzeige, Empfindlichkeitsauswahl,<br />

verschiedene Parametriermöglichkeiten,<br />

Teach-in etc. Die Testspezialisten<br />

aus Diepholz sind mit ihrer<br />

Sensorwahl zufrieden. „Neben der hohen<br />

Zuverlässigkeit hat uns auch die Langlebigkeit<br />

der Laserdistanzsensoren überzeugt“,<br />

so Stankowitz weiter. Schließlich<br />

würden unerwartete Sensorausfälle das<br />

komplette Testsystem vorübergehend<br />

lahm legen. „An unseren Testsystemen<br />

setzen wir deshalb als einer der ersten<br />

Anwender heute auch einen ganz neuen<br />

Sensorkopf aus dem Hause Omron ein.“<br />

Dank der großen Tastweite von 2.000<br />

mm lässt sich der Sensor ZS-HLD fest <strong>im</strong><br />

Kopf rahmen der Prüfanlage installieren.<br />

Dadurch spart man die Mechanik für die<br />

Verfahreinheit, gewinnt Platz und beschleunigt<br />

obendrein auch noch den<br />

Prüf- bzw. den Kalibriervorgang.<br />

Auch ein weiterer optischer Sensor<br />

konnte mittlerweile in den Test- und<br />

Kalibrieranlagen seine Zuverlässigkeit<br />

beweisen. Ein Vision-Sensor der Serie<br />

F150 überprüft Federn und Bolzen an<br />

der Unterseite der Autositze auf Vorhandensein<br />

und Positionierung. Gleichzeitig<br />

kontrolliert er, ob die Prüfstecker am Sitz<br />

gesteckt sind, denn erst dann kann das<br />

Testsystem seine Arbeit aufnehmen. Das<br />

kleine Bildverarbeitungssystem mit integrierter<br />

Beleuchtung ist einfach zu<br />

programmieren und lässt sich mit unterschiedlichen<br />

Kamera-Einheiten kombinieren.<br />

Sind zwei Kameras angeschlossen,<br />

können die Bilder wahlweise<br />

nacheinander verarbeitet oder miteinander<br />

kombiniert werden. Optische Sensorik<br />

in unterschiedlichen Ausführungen<br />

trägt damit wesentlich dazu bei, <strong>im</strong><br />

Kraftfahrzeug die Sicherheit für die Passagiere<br />

deutlich zu verbessern.<br />

� Autoren<br />

Christian Beede, Omron electronics<br />

Ellen-Christine Reiff, Redaktionsbüro<br />

Stutensee<br />

� Kontakt<br />

Bernd Markowski<br />

omron electronics GmbH, langenfeld<br />

Tel.: 02173/6800-436<br />

Fax: 02173/6800-400<br />

bernd.markowski@eu.omron.com<br />

www.omron.de


A K T U E L L<br />

Vision 2006<br />

Dieses Jahr erwarten die Besucher der Vision besonders viele Kamera-Neuentwicklungen<br />

Hochgeschwindigkeitskameras, RFID<br />

und Videosensoren – das sind die Produkte,<br />

die sich die Besucher der Vision,<br />

der internationalen Fachmesse für industrielle<br />

Bilderverarbeitung und Identifikationsverfahren,<br />

genauer ansehen<br />

möchten. Die Messe findet dieses Jahr<br />

vom 7.–9. November auf dem Stuttgarter<br />

Killesberg statt, die Veranstalter rechnen<br />

mit rund 200 Ausstellern und über 5.000<br />

Besuchern. Dort werden dieses Jahr, wie<br />

eine Pressemitteilung des Veranstalters<br />

Quick Info<br />

Messetermin 7.–9. November 2006<br />

Öffnungszeiten täglich 9–17 Uhr<br />

Eintrittspreise Tageskarte 19,00 €<br />

Veranstaltungsort Messe Stuttgart<br />

Veranstalter Stuttgarter MesseundKongressgesellschaft<br />

mbH<br />

MTQ 2006<br />

verriet, besonders viele Neuentwicklungen<br />

vorgestellt: So soll allein Basler Vision<br />

Technologies gleich mit 38 neuen<br />

Scout- und Pioneer-Kameramodellen <strong>im</strong><br />

Rahmen einer Europapremiere vorstellen.<br />

Auch die Leutron Vision AG, eigentlich<br />

ein Framegrabber-Hersteller, ist<br />

kürzlich in den Kameramarkt eingestiegen<br />

und präsentiert 28 parallel entwickelte<br />

Kameras. Sie alle werden erstmalig<br />

auf der Vision 2006 vorgestellt.<br />

Ebenfalls ein großes Thema auf der<br />

diesjährigen Vision werden Kameras mit<br />

bildvorverarbeitender Intelligenz und die<br />

Übertragung über Gigabit-Ethernet sein.<br />

Denn mit dem GigE-Interface, das seit<br />

Mai dieses Jahres als Standard verabschiedet<br />

ist, lassen sich Anwendungen<br />

mit langen Kabellängen und hohen Datenraten<br />

deutlich einfacher und wirtschaftlicher<br />

umsetzen, als es mit bishe-<br />

Fachmesse für Materialprüfung, Messtechnik & Qualitätsmanagement<br />

Welche neuen Methoden der Materialprüfung<br />

gibt es? Welche Messgeräte haben<br />

die Ingenieure weiterentwickelt? Wie<br />

kann ich mein Qualitätsmanagement verbessern?<br />

Wer Antworten auf diese Fragen<br />

sucht, wird auf der MTQ, der Fachmesse<br />

für Materialprüfung, Messtechnik<br />

und Qualitätsmanagement, fündig. Sie<br />

findet vom 14.–17. November bereits zum<br />

11. Mal in den Westfalenhallen Dortmund<br />

statt. Auf der Messe präsentiert sich das<br />

aktuelle Angebot an Produkten, Systemen<br />

und Komplett-Lösungen für die industrielle<br />

Qualitätssicherung. Die Hersteller<br />

von Koordinaten- Messmaschinen werden<br />

laut einem Pressebericht der Messe<br />

Dortmund auf der MTQ massiv Flagge<br />

zeigen, aber auch bedeutende Unternehmen<br />

aus anderen Bereichen wie Babtec,<br />

Böhme & Weihs, Studenroth werden<br />

10 Inspect 4/2006<br />

Quick Info<br />

durch Stände vertreten sein. Ingesamt<br />

haben swich 150 ausstellende Unternehmen<br />

angekündigt, die auf einer Bruttofläche<br />

von ca. 8.300 m² Neuentwicklungen<br />

und Produkte vorstellen.<br />

Die Messe Dortmund als Austragungsort<br />

der MTQ ist dabei günstig gewählt,<br />

denn die MTQ hat sich für Nordrhein-<br />

Westfalen zur bedeutenden Messe <strong>im</strong> Bereich<br />

der Messtechnik und Qualitätssicherung<br />

entwickelt. Das belegen auch<br />

die Zahlen, die bei einer Besucher- und<br />

Aussteller-Befragungen vor zwei Jahren<br />

nachgewiesen wurden. Damals kamen<br />

83,41 % der Fachbesucher direkt aus<br />

Nordrhein-Westfalen und stellten damit<br />

den mit Abstand größten Kreis. Sie<br />

stammten zum großen Teil, nämlich zu<br />

67 %, aus Industriebetrieben aller Größenordnungen,<br />

22,8 % kamen aus<br />

rigen Interfacetechnologien möglich war.<br />

Deswegen werden viele Kamera-Hersteller<br />

Modelle mit GigE-Schnittstelle auf der<br />

Messe vorstellen und Software präsentieren,<br />

die die schnelle Übertragung voll<br />

nutzt. Kameras mit bildvorverarbeitender<br />

Intelligenz, sog. Smart-Kameras,<br />

werden ebenfalls <strong>im</strong> Rampenlicht der<br />

Messe stehen. So wird bspw. die Vision<br />

Components GmbH mit einer ganzen<br />

Reihe neu entwickelter intelligenter Kamerasysteme<br />

auf der Vision vertreten<br />

sein.<br />

� Kontakt<br />

Stuttgarter Messe- und Kongressgesellschaft<br />

mbH, Stuttgart<br />

Tel.: 0711/2589-0<br />

Fax: 0711/2589-440<br />

info@messe-stuttgart.de<br />

www.messe-stuttgart.de<br />

Messetermin 14.–17. November 2006<br />

Öffnungszeiten Dienstag–Donnerstag 9–16 Uhr<br />

Eintrittspreise Tageskarte Erwachsene 18,00 €<br />

Tageskarte Ermäßigte (Schüler, Studenten und sonstige Berechtigte mit Ausweis) 12,00 €<br />

Veranstaltungsort Westfalenhallen Dortmund<br />

Veranstalter P.E. Schall GmbH<br />

kleineren Zuliefer- und Handwerksbetrieben.<br />

An erster Stelle für die Motivation,<br />

die MTQ in Dortmund zu besuchen,<br />

stand die Information über Weiter- und<br />

Neu-Entwicklungen (34,35 %), an zweiter<br />

der Wunsch, durch die Marktübersicht<br />

besser vergleichen und Investitions-<br />

Entscheidungen absichern zu können,<br />

und an dritter Stelle stehen konkrete<br />

Kaufabsichten. Damit fühlt sich die<br />

Messe bestätigt, dass die MTQ der ideale<br />

Ort für Geschäftsabschlüsse ist – und<br />

auch dieses Jahr wieder sein wird.<br />

� Kontakt<br />

P.E. Schall GmbH, Frickenhausen-Linsenhofen<br />

Tel.: 07261/689-0<br />

Fax: 07261/689-220<br />

info@schall-messen.de<br />

www.schall-messen.de


A K T U E L L<br />

St<strong>im</strong>men der Konferenzteilnehmer<br />

„Die EMVA Conference ist eine ausgezeichnete<br />

Kombination aus Business,<br />

Technologie und Networking. Schwer vorstellbar,<br />

dass jemand aus unserer Branche<br />

nicht davon profitieren könnte.“<br />

Jens Michael Carstensen, CTO, Videometer<br />

A/S, Dänemark<br />

„Northwire möchte die Präsenz <strong>im</strong> europäischen<br />

Markt ausbauen und wir hatten<br />

eine hohe Erwartungshaltung an die Konferenz<br />

in Tampere. Wir sind sehr zufrieden<br />

mit den Ergebnissen: Das Rahmenprogramm<br />

war gut organisiert, die Vorträge<br />

waren interessant, informativ und manchmal<br />

auch provokativ und die Networking<br />

Events waren gut geplant. Wir freuen uns<br />

auf die nächste Konferenz 2007 in Lyon.“<br />

Bud Brown, Director of New Business Development,<br />

Northwire Inc., U.S.A.<br />

„Die EMVA Conference 2006 bestätigte<br />

einmal mehr ihre Rolle als Networking<br />

Event Nr. 1 für unsere Branche in Europa.<br />

Die vorgestellten Business- und Technologiethemen<br />

waren äußerst wertvoll und<br />

lösten sehr lebendige Diskussionen aus.<br />

Bereichernd und absolut nützlich.“<br />

Dr. Dietmar Ley, CEO, Basler AG, Ahrensburg,<br />

Deutschland.<br />

„Ich war wirklich überrascht zu sehen,<br />

wie dynamisch die EMVA ist und wie<br />

schnell sie wächst. Der Zuwachs an Konferenzteilnehmern<br />

zeigt dies deutlich. Die<br />

Konferenz war sehr lebendig und gut organisiert.<br />

Sie war eine ausgezeichnete<br />

Möglichkeit für uns, mit anderen Experten<br />

aus diesem Bereich zu sprechen und zu<br />

verstehen, was die wichtigen Themen sind<br />

und wie unser Business in Zukunft aussehen<br />

wird. Was mich sehr beeindruckt<br />

hat, war, dass viele Mitglieder ein so<br />

großes Interesse am asiatischen Markt<br />

haben und an intensive Zusammenarbeit<br />

mit Verbänden in Asien denken. Das zeigte<br />

mir, dass das Thema Globalisierung eine<br />

zentrale Bedeutung für unsere Branche<br />

hat. Jedes Mal, wenn ich diese Konferenz<br />

besuche, fahre ich mit neuen Ideen und<br />

Denkanstössen nach Hause.“<br />

Hiroshi Takaoka, President & CEO, Toshiba<br />

Teli Corporation, Japan<br />

12 Inspect 4/2006<br />

So schön ist Finnland!<br />

EMVA Conference in Tampere bricht alle Rekorde<br />

In nur kurzer Zeit hat sich die jährliche<br />

Business-Conference des europäischen<br />

Bildverarbeitungsverbandes EMVA (Euro-<br />

pean Machine Vision Association) weltweit<br />

einen Namen gemacht. In der Branche<br />

genießt sie den Ruf eines „Events, das man<br />

nicht verpasst“. Nach Barcelona (2003),<br />

Budapest (2004) und Palermo (2005) fand<br />

die Konferenz dieses Jahr in Finnland statt:<br />

Am 30. Juni und 1. Juli trafen sich 150<br />

Entscheidungsträger und Experten der BV-<br />

Branche aus 17 Ländern in Tampere, einem<br />

der High-tech-Standorte Finnlands. Damit<br />

stieg die Anzahl der Teilnehmer um 50 % <strong>im</strong><br />

Vergleich zum Vorjahr. Auch sonst stehen<br />

die Weichen bei der noch jungen EMVA auf<br />

Wachstum: Im letzten Jahr wuchs die Mitgliederzahl<br />

um 25 % auf nun 79. Die Branche<br />

arbeitet international und braucht ein<br />

europäisches und internationales Networking-Event<br />

hoher Qualität. Das zeigt sich<br />

deutlich am Erfolg der EMVA und ihrer<br />

Business Conference.<br />

Die EMVA Conference 2006 fokussierte<br />

sich auf vier Themenbereiche: Bildverarbeitung<br />

in Finnland (Kernkompetenzen<br />

der Anbieter in Finnland), neue<br />

Technologien (z. B. neue 3D-Verfahren),<br />

Business-Trends (z. B. Patente als strategische<br />

Instrumente) und Märkte (Marktanalysen<br />

aus Japan und Nordamerika).<br />

Neben den Vorträgen ging es in Tampere<br />

aber <strong>im</strong>mer auch um das Knüpfen neuer<br />

Kontakte. Das Networking wird groß<br />

geschrieben und Pausen, Rahmenpro-<br />

gramm und Abendevents boten viele<br />

Möglichkeiten, miteinander ins Gespräch<br />

zu kommen: Auf einer Bootsfahrt nach<br />

Rosendahl, in der Mitternachtssonne auf<br />

der Hotelterrasse oder bei einer Erkundungstour<br />

durch Tampere und Umgebung.<br />

In der Mitgliederversammlung am<br />

zweiten Konferenztag wurden die Arbeitsschwerpunkte<br />

der EMVA vorgestellt<br />

und diskutiert, so bspw. die ersten Ergebnisse<br />

der neuen europäischen Marktbefragung<br />

Industrielle Bildverarbeitung,<br />

die Normungsarbeit der EMVA (GenICam<br />

und 1288 Standard) sowie Marketingangebote<br />

oder neue Aktivitäten <strong>im</strong> Bereich<br />

der europäischen Forschungsförderung.<br />

Die Mitglieder wählten turnusgemäß<br />

auch den Vorstand für die kommenden<br />

drei Jahre. Der Vorstand wurde einst<strong>im</strong>mig<br />

wieder gewählt und setzt sich weiterhin<br />

zusammen aus:<br />

�<br />

�<br />

�<br />

�<br />

�<br />

EMVA Präsidentin Gabriele Jansen<br />

EMVA Vizepräsident Mats Gökstorp<br />

(Sick IVP, Schweden)<br />

EMVA Schatzmeister Toni Ventura-<br />

Traveset (Datapixel, Spanien)<br />

Don Braggins (UKIVA, Großbritannien)<br />

Martin Wäny (AWAIBA, Portugal)<br />

Schließlich befanden die Mitglieder noch<br />

über den Veranstaltungsort für die<br />

nächste EMVA Conference: 2007 wird<br />

man sich in Lyon wieder sehen.<br />

� Kontakt<br />

EMVA European Machine Vision Association,<br />

Frankfurt<br />

Tel.: 069/6603-1466<br />

Fax: 069/6603-2466<br />

info@emva.org<br />

www.emva.org


Blicke streifen Form<br />

Quotienten-Bild Stereo: Streifenprojektion zur Formerfassung<br />

Was die Natur sich zur Tarnung des Zebras vor Tsetse-<br />

Fliegen ausgedacht hat, macht sich die Technik zur<br />

dreid<strong>im</strong>ensionalen Formerfassung zu Nutze<br />

Mehr ab Seite 14<br />

Vision<br />

Komponenten und technologien<br />

M A C H I N E V I S I O N • S U R F A C E I N S P E C T I O N • M I C R O S C O P Y<br />

Problemlöser mit leib<br />

und seele.<br />

VisionTools ist kein Unternehmen wie jedes andere<br />

– das würde kaum zur Persönlichkeit ihres<br />

Gründers passen. Denn Geschäftsführer Dr. Tropf<br />

setzt andere Maßstäbe als nur den rein kommerziellen<br />

Erfolg. Er versteht sein Unternehmen als<br />

eine Art technisch-gesellschaftlichen Organismus,<br />

der in ständiger Verantwortung steht – zu seinen<br />

Mitarbeitern, zum technischen Fortschritt, zur<br />

Industrie und zur gesamtgesellschaftlichen Entwicklung.<br />

Ein kooperatives Modell, von dessen<br />

Stärken die Mitarbeiter ebenso profitieren wie<br />

die Kunden. Dazu gehört auch, so Dr. Tropf, „dass<br />

bei uns kein Platz für Eigentümer ist, die die Firma<br />

ausschließlich als Mittel zur Geldgewinnung<br />

betrachten.“ Vielleicht ist dies der Grund dafür,<br />

dass dieses erfolgreiche Unternehmen nie eine<br />

Aktiengesellschaft wurde, nie die Berg- und Talfahrten<br />

des IT-Business mitmachen musste und<br />

nie seine unternehmerische Unabhängigkeit eingebüßt<br />

hat...<br />

Ganz gewiss aber liegt hierin die tiefere Ursache<br />

dafür, dass bei VisionTools noch <strong>im</strong>mer uneingeschränkt<br />

die einfache Max<strong>im</strong>e gelten darf: „An<br />

erster Stelle steht <strong>im</strong>mer die Problemlösung – das<br />

Geschäft entwickelt sich dann von selbst.“<br />

Und das Geschäft hat sich gut entwickelt seit<br />

der Gründung 1987. Heute sorgt ein hochmotiviertes<br />

Team von über 40 Mitarbeitern dafür,<br />

dass die weit über 1000 installierten Systeme<br />

opt<strong>im</strong>al funktionieren und die Kunden aus fast<br />

allen Branchen der produzierenden Industrie zufrieden<br />

sind.<br />

k o n t a k t<br />

VisionTools<br />

Bildanalyse Systeme GmbH<br />

Goethestr. 63<br />

68753 Waghäusel<br />

Tel.: 07254/9351-0<br />

Fax: 07254/9351-20<br />

info@vision-tools.com<br />

www.vision-tools.com<br />

Inspect 4/2006<br />

13


V i s i o n<br />

„Mr. Spock, schneller Scan der Oberfläche“<br />

Wenn die U.S.S. Enterprise Planeten­<br />

oberflächen scannt, dauert es keine<br />

Sekunde, schon taucht auf dem Schirm des<br />

Wissenschaftsoffiziers eine dreid<strong>im</strong>ensio­<br />

nale Karte des Planeten auf. Es sieht <strong>im</strong>mer<br />

so einfach aus: Das Raumschiff schwebt<br />

heran, Laserstrahlen tasten die unbekannte<br />

Oberfläche ab und schon zeigt ein Schirm<br />

ein dreid<strong>im</strong>ensionales Bild des Bodens mit<br />

jedem noch so kleinen Detail. Heutige<br />

Bildverarbeitungssysteme sind unspek­<br />

takulärer, langsamer und ungenauer. Doch<br />

zumindest <strong>im</strong> Kleinen tastet man sich an<br />

die utopische Geschwindigkeit und Zu­<br />

verlässigkeit des Sternenschiffs heran: Das<br />

Quotientenbild­Stereo­Verfahren kann die<br />

Struktur von Oberflächen schneller und<br />

zuverlässiger erfassen als bisher. Wir<br />

stellen es vor.<br />

Abb. 1 + Abb. 2: Versetzen wir uns in die Lage eines Objektpunktes, der bei der ersten Bildaufnahme<br />

auf einem dunklen Streifen und bei der zweiten auf einem hellen Streifen liegt: Er „sieht“ jedes Mal<br />

die selbe Lichtquelle, also die selbe Verteilung in demselben Raumwinkel.<br />

Bei nach rechts geneigtem Objekt gelangt mehr reflektiertes Licht in die rechte Kamera als in die<br />

linke; dennoch ist für beide Kameras am Objektpunkt der Quotient der beiden Grauwerte exakt gleich.<br />

Dies gilt auch unabhängig von den Oberflächeneigenschaften.<br />

14 Inspect 4/2006<br />

Eindeutig besser<br />

Die Methode, die Dr. Hermann Tropf entwickelt<br />

hat, nennt er Quotientenbild-<br />

Stereo. Dabei handelt es sich um eine<br />

Weiterentwicklung der bisher eingesetzten<br />

Verfahren.<br />

Das Verfahren ist gegenüber bisher<br />

bekannter Technologie wesentlich unempfindlicher<br />

gegen verschiedene Oberflächeneigenschaften<br />

wie lokale Neigung,<br />

Rauheit, Bedruckung, Verschmutzung,<br />

Bearbeitungsspuren usw. Flächen unterschiedlicher<br />

Reflexionskeule werden mit<br />

dem neuen Sensor zuverlässig und<br />

schnell als Höhenbild erfasst.<br />

Quotientenbilder<br />

Das Verfahren arbeitet mit Stereokameras<br />

und einer Streifenlichtprojektion mit<br />

einem ganz speziellen Muster, das mit<br />

einem unkalibrierten Beamer projiziert<br />

wird. Es werden je Kamera genau zwei<br />

unterschiedlich beleuchtete Bilder aufgenommen,<br />

anschließend wird eine pixelweise<br />

Quotientenbildung beider Bilder<br />

vorgenommen. Das resultierende<br />

Quotientenbild ist per se völlig unabhängig<br />

von den Oberflächeneigenschaften<br />

des Objekts sowie der Richtung der<br />

Oberflächen-Normalen: Die Best<strong>im</strong>mung<br />

der korrespondierenden


Punkte (das Hauptproblem bei Stereoauswertung)<br />

wird dadurch ganz wesentlich<br />

erleichtert.<br />

Das spezielle Streifenmuster ist der<br />

Schlüssel der neuen Technik; dadurch<br />

wird eine zuverlässige Stereoauswertung<br />

mit nur zwei Bildaufnahmen realisiert;<br />

Bildserien, wie bei codiertem Licht erforderlich,<br />

entfallen. Durch die Quotientenbildung<br />

erreicht das System seine vergleichsweise<br />

bessere Unempfindlichkeit<br />

gegenüber verschiedenen Oberflächeneigenschaften<br />

wie lokale Neigung, Rauheit,<br />

Bedruckung etc. Es ist keinerlei mechanische<br />

Bewegung des Messsystems notwendig.<br />

Die Auflösung des Beamers ist<br />

unkritisch: „Er muss nicht so hoch auflösen<br />

wie die Kameras“, so Tropf.<br />

Abschattungsprobleme, wie sie bei<br />

Stereokameras grundsätzlich auftreten,<br />

können durch Verwendung von mehr als<br />

zwei Kameras unterbunden oder zumindest<br />

verringert werden. Natürlich können<br />

die vorhandenen Kameras auch zusätzlich<br />

zu diesen Verfahren für<br />

konventionelle Grauwert- oder Farbauswertung<br />

eingesetzt werden.<br />

Verformungen erkennen<br />

Zuverlässige Abstandsbilder,<br />

wie sie mit dem neuen<br />

Neues Verfahren für schnelle und robuste 3D­Abtastung von Oberflächen<br />

Abb. 3 + 4: Objekt ohne und mit aufprojiziertem Streifenmuster Abb. 5: 3D­Darstellung des Verarbeitungsergebnisses<br />

Verfahren gewonnen werden, sind<br />

grundsätzlich einfacher auszuwerten als<br />

Grauwertbilder – und für den Benutzer<br />

auch verständlicher in der Parametrierung:<br />

Die mitunter komplexen Zusammenhänge<br />

zwischen Beleuchtungsgeometrie,<br />

Abbildungsgeometrie und<br />

Reflexionseigenschaften brauchen mit<br />

dem neuen System vom Anwender nicht<br />

bedacht zu werden.<br />

Das Verfahren ist nicht nur für die<br />

klassischen Einsatzgebiete der Firma<br />

VisionTools geeignet, wie der Metall-<br />

oder Elektrogeräteindustrie; es bietet<br />

sich auch für eine Vielzahl alternativer<br />

Anwendungsfelder an wie Archäologie,<br />

Textilindustrie, Biometrie, Medizin oder<br />

Reverse Engineering. In der Textilindustrie<br />

kann bspw. unabhängig von<br />

Farbmustern ein Faltenschlag zuverlässig<br />

erkannt und bewertet werden.<br />

Jetzt müsste Dr. Tropf nur noch effektheischend<br />

einen roten Laser einbauen –<br />

und so wäre man vom Raumschiff nicht<br />

mehr weit entfernt.<br />

Andreas Grösslein<br />

� Kontakt<br />

VisionTools Bildanalyse systeme GmbH<br />

Tel.: 07254/9351-0<br />

Fax: 07254/9351-20<br />

info@vision-tools.com<br />

www.vision-tools.com<br />

V i s i o n<br />

Inspect 4/2006<br />

15


V i s i o n<br />

Grundlagen der Bildverarbeitung<br />

Morphologische Filter beeinflussen die<br />

Gestalt von Objekten in einem Bild. Sie<br />

können Strukturen herausarbeiten oder<br />

Störungen el<strong>im</strong>inieren. Oft wird die Form<br />

der Filtermaske gezielt auf die Problem-<br />

stellung abgest<strong>im</strong>mt. Am Beispiel von<br />

Rangordnungsfiltern erläutert dieser<br />

Artikel einige der grundsätzlichen Ideen<br />

der morphologischen Filterung und<br />

beschreibt die häufig verwendeten<br />

Operationen „Medianfilter“, „Erosion“,<br />

„Dilatation“, „Opening“ und „Closing“.<br />

Filter<br />

Morphologische Filter<br />

Filter sind Operatoren, die jedem Bildpunkt<br />

einen neuen Grauwert zuordnen.<br />

Aus dem Quellbild entsteht durch die Anwendung<br />

eines Filters („Filterung“) ein<br />

neues, gleich großes Bild. Filter berücksichtigen<br />

nicht nur den Grauwert des<br />

betreffenden Pixels, sondern auch die<br />

Grauwerte aus dessen Umgebung zur<br />

Berechnung des neuen Grauwerts. Filter<br />

können daher als „Nachbarschaftsoperationen“<br />

(<strong>im</strong> Gegensatz zu „Punktoperationen“)<br />

aufgefasst werden. Die relevante<br />

Umgebung wird durch eine Maske spezi­<br />

fiziert, die mit ihrem Zentrum über den<br />

aktuell betrachteten Bildpunkt gelegt<br />

wird. Ein Filter wird daher durch zwei<br />

Definitionen best<strong>im</strong>mt: durch die Festlegung<br />

der Filtermaske und durch die<br />

Vorschrift, mit der aus den Grauwerten<br />

innerhalb der Maske der neue Grauwert<br />

des aktuell betrachteten Pixels berechnet<br />

wird. Die Masken werden oft auch<br />

als Strukturelemente bezeichnet.<br />

Als Beispiel zeigt Abbildung 1 die Filteroperation<br />

„Die Mehrheit gewinnt“.<br />

Stellen Sie sich als Quellbild ein Binärbild<br />

vor. Die Filtermaske soll ein Quadrat<br />

mit drei Pixeln Kantenlänge und dem ak­<br />

� Abb. 1: Vier mögliche Umgebungskonfigurationen für das 3x3-Filter „Die Mehrheit gewinnt“. Das<br />

Zentralpixel ist mit einem Kreuz gekennzeichnet, rechts jeweils der neue Grauwert an dieser Stelle.<br />

16 Inspect 4/2006<br />

tuell betrachteten Pixel <strong>im</strong> Zentrum sein.<br />

Dies ist eine sog. „3x3­Maske“. Die Maske<br />

wird jetzt so über das Bild gelegt, dass<br />

das Pixel, dessen neuer Grauwert berechnet<br />

werden soll, <strong>im</strong> Zentrum der<br />

Maske liegt. Der neue Grauwert wird best<strong>im</strong>mt,<br />

indem die Grauwerte der Pixel<br />

betrachtet werden, die innerhalb der<br />

Maske liegen. In diesem Beispiel soll der<br />

neue Grauwert derjenige Grauwert sein,<br />

der innerhalb der Maske am häufigsten<br />

vorkommt. Wenn also innerhalb der<br />

Maske nur ein einziges Pixel schwarz ist,<br />

wird <strong>im</strong> Ergebnisbild das Pixel <strong>im</strong> Zentrum<br />

der Maske auf Weiß gesetzt. Wenn<br />

nur ein einziges Pixel weiß ist, wird das<br />

Pixel <strong>im</strong> Zentrum der Maske auf Schwarz<br />

gesetzt. Wenn vier Pixel innerhalb der<br />

Maske weiß und fünf Pixel schwarz sind,<br />

wird das Ergebnispixel schwarz – und so<br />

weiter. Abbildung 1 zeigt einige der möglichen<br />

Konfigurationen.<br />

Bei der Anwendung der Filteroperation<br />

auf das ganze Bild werden nacheinander<br />

alle Pixel aus dem Quellbild von<br />

links nach rechts und von oben nach unten<br />

abgetastet. Man greift sich also ein<br />

Pixel aus dem Quellbild heraus, legt die<br />

Filtermaske so auf das Quellbild, dass<br />

das aktuell betrachtete Pixel <strong>im</strong> Zentrum<br />

der Maske liegt, berechnet den neuen<br />

Grauwert aus den Grauwerten der Pixel,<br />

die innerhalb der Maske liegen, und ord­


net diesen Grauwert dem aktuell<br />

betrachteten Pixel zu –<br />

aber <strong>im</strong> Ergebnisbild! Be<strong>im</strong><br />

nächsten Schritt wird die Filtermaske<br />

über das nächste<br />

Pixel zentriert, das be<strong>im</strong> Abtasten<br />

des Quellbildes an der<br />

Reihe ist. Das vorher behandelte<br />

Pixel wird dann meist<br />

noch innerhalb der Filtermaske<br />

liegen und die Berechnung<br />

des neuen Grauwerts<br />

beeinflussen. Bei den meisten<br />

Filtern darf man daher nicht<br />

mit den bereits modifizierten<br />

Grauwerten rechnen, sondern<br />

muss die Grauwerte aus<br />

dem ursprünglichen Bild benutzen.<br />

Es ist deshalb sinnvoll,<br />

mit zwei völlig unabhängigen,<br />

gleich großen Bildern<br />

zu arbeiten, dem Quellbild<br />

und dem Zielbild. Das Ergebnis<br />

der Filteroperation wird<br />

dann <strong>im</strong> Zielbild abgelegt, das<br />

Quellbild bleibt völlig unangetastet.<br />

Die oben als Beispiel eingeführte<br />

Filteroperation „Die<br />

Mehrheit gewinnt“, angewandt<br />

auf ein Binärbild, el<strong>im</strong>iniert<br />

das sog. „Binärrauschen“, das<br />

sind kleine isolierte Gruppen<br />

von schwarzen Pixeln auf<br />

weißem Untergrund (oder umgekehrt).<br />

Das Binärrauschen<br />

wird oft auch als „Salz­ und<br />

Pfeffer­Rauschen“ bezeichnet.<br />

Übrigens verwendet man mit<br />

Vorliebe symmetrische Masken<br />

mit einer ungeraden Zahl<br />

von Pixeln. Dann ist unmittelbar<br />

<strong>klar</strong>, welches das zentrale<br />

Pixel ist, dem der neue Grauwert<br />

zugeordnet wird. Masken<br />

können jedoch grundsätzlich<br />

beliebige Größen und beliebige<br />

Formen haben. Bei asymmetrischen<br />

Masken muss aber<br />

explizit verabredet werden,<br />

welchem Pixel der neue Grauwert<br />

zugeordnet werden soll.<br />

Rangordnung<br />

Rangordnungsfilter selektieren<br />

Pixel. Die Pixel innerhalb<br />

der Filtermaske werden in<br />

eine Rangfolge gebracht, also<br />

geordnet, z. B. in eine aufsteigende<br />

Folge von Grauwerten.<br />

Nach einer definierten Vorschrift<br />

wird dann dem Zentralpixel<br />

der Maske <strong>im</strong> Ergebnisbild<br />

ein best<strong>im</strong>mter Grauwert<br />

aus der Rangfolge zugeordnet.<br />

Wir betrachten hier zunächst<br />

nur Binärbilder. Bei Binärbildern<br />

bestehen die Grauwerte<br />

nur aus „weiß“ und „schwarz“.<br />

Zur Vereinfachung wird hier<br />

„schwarz“ mit 0 und „weiß“<br />

mit 1 (statt mit 255) codiert.<br />

Ein Beispiel für ein Rangordnungsfilter<br />

ist das Medianfilter.<br />

Der Median einer Verteilung<br />

ist der Wert, für den<br />

genauso viele Elemente oberhalb<br />

wie unterhalb dieses<br />

Wertes liegen. Bei einem Medianfilter<br />

mit einer 3x3­Filtermaske<br />

besteht die Grauwert­<br />

Rangliste aus neun Elementen.<br />

Der Median ist dann der Grauwert<br />

des „mittleren“ Elements,<br />

hier also des fünften<br />

Elements in der Rangliste.<br />

Dieser Wert wird <strong>im</strong> Ergebnisbild<br />

dem zentralen Pixel<br />

unter der Filtermaske als Resultat<br />

der Filteroperation zugeordnet.<br />

In Abbildung 2 sind<br />

als Beispiele zwei mögliche<br />

Bildausschnitte für eine 3x3­<br />

Filtermaske dargestellt. Im<br />

oberen Teilbild ist die aufsteigend<br />

nach Grauwerten geordnete<br />

Rangliste 001111111.<br />

Der Median dieser Verteilung<br />

ist hier der fünfte Wert, also<br />

V i s i o n<br />

1. Oberhalb dieses Wertes liegen<br />

vier Elemente, unterhalb<br />

ebenfalls vier. Im Ergebnisbild<br />

wird für das zentrale Pixel der<br />

Wert 1 abgespeichert. Im unteren<br />

Teilbild ist die Rangliste<br />

000 000111. Der Median ist<br />

der Wert 0.<br />

Bei genauerer Überlegung<br />

stellt man fest, dass das Medianfilter<br />

<strong>im</strong> Binärbild mit dem<br />

oben eingeführten Filter „Die<br />

Mehrheit gewinnt“ identisch<br />

ist. Der Median repräsentiert<br />

<strong>im</strong> Binärbild nämlich gerade<br />

den Grauwert, der in der<br />

Maske am häufigsten vertreten


V i s i o n<br />

� Abb. 2: Zwei mögliche Umgebungskonfigurationen<br />

für das 3x3-Filter-Medianfilter <strong>im</strong><br />

Binärbild. Für das obere Teilbild ist die aufsteigend<br />

geordnete Rangliste 001111111 mit<br />

Median 1, für das obere Teilbild 000000111<br />

mit Median 0.<br />

ist. Ein Medianfilter el<strong>im</strong>iniert Salz­ und<br />

Pfeffer­Rauschen, ohne die Umgebung wesentlich<br />

zu stören. Praktischerweise wirkt<br />

er sich bei einer quadratischen Filtermaske<br />

mit einer ungeraden Zahl von Elementen<br />

auf eine lang gestreckte binäre<br />

Kante überhaupt nicht aus. Generell lässt<br />

ein Medianfilter unter diesen Bedingungen<br />

die Position einer Kante unverändert. Die<br />

Ecken eines binären Objekts werden allerdings<br />

modifiziert.<br />

Min<strong>im</strong>um- und Max<strong>im</strong>umfilter<br />

Wenn die Rangliste einmal vorliegt, bieten<br />

sich auch andere Elemente als der<br />

Median als Ergebnis der Filteroperation<br />

an. Nahe liegend sind der erste und der<br />

letzte Vertreter der aufsteigend geordneten<br />

Grauwert­Rangliste. Die zugehörigen<br />

Filter sind das Min<strong>im</strong>umfilter und<br />

das Max<strong>im</strong>umfilter, die jeweils den kleinsten<br />

und größten Grauwert innerhalb der<br />

Maske als Ergebnis liefern. Andere Selektionsvorschriften<br />

sind denkbar und werden<br />

auch verwendet. Letztlich handelt es<br />

sich dabei <strong>im</strong>mer um die Auswertung<br />

eines lokalen Histogramms, denn die<br />

Rangfolge der Grauwerte innerhalb der<br />

Filtermaske kann man auch als Histogramm<br />

eines Bildausschnitts um das aktuelle<br />

betrachtete Pixel herum auffassen.<br />

Auch wenn die Rangordnungsfilter<br />

hier nur <strong>im</strong> Zusammenhang mit Binärbildern<br />

vorgestellt wurden, lässt sich das<br />

Konzept zwanglos auf Grauwertbilder<br />

übertragen. Auch dort gibt es innerhalb<br />

der Maske einen Median, einen größten<br />

und einen kleinsten Wert. Für den Vergleich<br />

„Die Mehrheit gewinnt“ gibt es <strong>im</strong><br />

Grauwertbild jedoch keine vernünftige<br />

Entsprechung: „Mehrheit“ ist ein binäres<br />

Konzept.<br />

18 Inspect 4/2006<br />

� Abb. 3: Bild eines Objekts, das in der Bewegung mit einer Interlaced-Kamera aufgenommen wurde.<br />

Das Bild wird zunächst binarisiert und anschließend zwe<strong>im</strong>al mit einer 3x3-Erosion bearbeitet<br />

(zweite Bildspalte). Die nachfolgende zwe<strong>im</strong>alige Dilatation mit demselben Strukturelement baut<br />

an der Umrandung wieder Fläche auf (dritte Bildspalte).<br />

Rangordnungsfilter sind übrigens mit<br />

erheblichem Rechenaufwand verbunden,<br />

weil ein Sortierverfahren erforderlich ist.<br />

Filter sind von vornherein bereits aufwändige<br />

Operationen, weil die lokale Umgebung<br />

für jedes Pixel neu berechnet und<br />

aus dem Bildspeicher ausgelesen werden<br />

muss. Anders als Grauwerttransformationen<br />

kann man Filteroperationen normalerweise<br />

nicht mit Look­up­tables realisieren,<br />

sondern man muss jedes Pixel<br />

<strong>im</strong> Bild „besuchen“ und seine Umgebung<br />

anschauen. Man sollte daher sehr genau<br />

überlegen, bevor man ein 3x3­Medianfilter<br />

durch ein 9x9­Medianfilter ersetzt.<br />

Erosion und Dilatation<br />

Auch mit quadratischen Masken sind<br />

morphologische Filter sinnvoll. Die bekanntesten<br />

Beispiele sind die morphologischen<br />

Grundoperationen Dilatation<br />

und Erosion. Zur Erläuterung betrachten<br />

wir zunächst wieder ein Binärbild,<br />

diesmal mit weißen Objektpixeln auf<br />

schwarzem Untergrund.<br />

Das Max<strong>im</strong>um­Filter, angewandt auf<br />

ein weißes Objekt <strong>im</strong> Binärbild, führt<br />

dazu, dass sich das Objekt an den Rändern<br />

ausdehnt, denn sobald schwarze Pixel<br />

innerhalb der Filtermaske liegen,<br />

wird das zentrale Pixel auf weiß gesetzt,<br />

solange auch nur ein einziges weißes Pixel<br />

vorhanden ist. Helle Bereiche dehnen<br />

sich also auf Kosten dunkler Bereiche<br />

aus. Das Max<strong>im</strong>um­Filter wird deshalb<br />

in diesem Zusammenhang auch als Dilatationsfilter,<br />

die Filterwirkung als Dilatation<br />

(Dehnung) bezeichnet. Entsprechend<br />

sorgt das Min<strong>im</strong>um­Filter <strong>im</strong> Binärbild<br />

dafür, dass weiße Bereiche an den Rändern<br />

abgetragen werden, die weißen Bereiche<br />

also zu Gunsten der schwarzen<br />

Bereiche schrumpfen. Für das Min<strong>im</strong>um­<br />

Filter ist daher auch die Bezeichnung<br />

Erosionsfilter üblich, die Filterwirkung<br />

nennt man Erosion (Abtragung).<br />

Anstatt über Abtragung bzw. Dehnung<br />

des Objekts kann man Dilatation und Erosion<br />

auch unter dem Gesichtspunkt der<br />

Überdeckung von Objekt und Filtermaske<br />

betrachten. Die Dilatation setzt ein Pixel<br />

auf den Objektpixelwert, sobald irgendein<br />

Objektpixel innerhalb der Maske liegt.<br />

Das Objekt dehnt sich aus, aber außerdem<br />

werden kleine Lücken und Risse geschlossen.<br />

Auch ein einzelnes Objektpixel<br />

wächst auf die Größe der Maske an. Die<br />

Erosion setzt ein Pixel nur dann auf den<br />

Objektpixelwert, wenn die gesamte<br />

Maske <strong>im</strong> Objekt liegt. Das Objekt<br />

schrumpft, einzelne herausragende Pixel<br />

und „Haare“ werden abgeschliffen, vorhandene<br />

Löcher <strong>im</strong> Objekt wachsen, und<br />

dünne Verbindungen werden aufgebrochen.<br />

Objekte, die kleiner sind als die<br />

Maske, verschwinden vollständig.<br />

Umgekehrt wirkt bei schwarzen Objekten<br />

auf weißem Untergrund das Min<strong>im</strong>umfilter<br />

als Dilatation der schwarzen<br />

Objekte und das Max<strong>im</strong>umfilter als Erosionsfilter<br />

für die schwarzen Objekte. Bei<br />

einigen Bildverarbeitungsprogrammen<br />

kann man wählen, ob die schwarzen oder<br />

die weißen Bereiche als Objekt verstanden<br />

werden sollen. Vor Anwendung der<br />

Erosion oder Dilatation in einem fremden<br />

Programm sollte man deshalb prüfen,<br />

welche Konventionen dort für diese Filteroperationen<br />

verwendet werden.<br />

Opening und Closing<br />

Bei der Dilatation wächst das Objekt, bei<br />

der Erosion schrumpft es. Häufig ist die<br />

Fläche eines Objekts in der Bildverarbei­


tung jedoch ein wichtiges Merkmal, und<br />

es ist sinnvoll, die Fläche durch eine Filteroperation<br />

möglichst wenig zu verändern.<br />

Deshalb liegt der Gedanke nahe,<br />

nach einer Dilatation eine Erosion mit<br />

dem gleichen Strukturelement durchzuführen.<br />

Dann wird das Objekt zunächst<br />

gedehnt, anschließend wieder geschrumpft,<br />

und man darf hoffen, dass<br />

sich am Ende die Fläche nur geringfügig<br />

geändert hat. Ein Beispiel zeigt Abbildung<br />

3.<br />

Ein solches Vorgehen ist durchaus<br />

sinnvoll. Wenn bspw. in einem hellen Objekt<br />

auf dunklem Grund einige Löcher<br />

vorhanden sind, die vor einer Blob­Analyse<br />

geschlossen werden sollen, kann zunächst<br />

eine Dilatation mit einer quadratischen<br />

Maske durchgeführt werden. Die<br />

Dilatation schließt alle Löcher, die kleiner<br />

sind als die Maske. Eine nachfolgende<br />

Erosion wird diese Löcher nicht<br />

wieder öffnen können, denn auf eine homogene<br />

weiße Fläche hat die Erosion<br />

keine Wirkung. Die Erosion wird lediglich<br />

dafür sorgen, dass <strong>im</strong> Randbereich<br />

der größte Teil der vorherigen Ausdehnung<br />

wieder abgetragen wird. Die Fläche<br />

des Objekts wird anschließend annähernd<br />

so groß sein wie vor der Filterung,<br />

die Löcher sind aber geschlossen. Die<br />

aufeinander folgende Ausführung von<br />

Dilatation und Erosion heißt daher auch<br />

Closing. Es ist allerdings keineswegs<br />

gleichgültig, ob man zuerst die Dilatation<br />

und dann die Erosion ausführt oder umgekehrt.<br />

Diese beiden Filter sind nämlich<br />

(genauso wie viele andere Filter) nicht<br />

kommutativ. Wenn man zuerst die Erosion<br />

ausführt, werden kleine Löcher weiter<br />

geöffnet, dünne Stege zwischen größeren<br />

dunklen Bereichen werden<br />

aufgebrochen, Haare werden abrasiert.<br />

Die entstehenden Löcher können dabei<br />

so groß werden, dass die Maske der<br />

nachfolgenden Dilatation sie nicht mehr<br />

vollständig überdeckt. Die Löcher und<br />

die Trennungen bleiben dann erhalten.<br />

Die Hintereinanderausführung von Erosion<br />

und Dilatation wird deshalb auch als<br />

Opening bezeichnet.<br />

Einfluss der Strukturelemente<br />

Die oben eingeführten einfachen morphologischen<br />

Operationen kann man<br />

auch mehrfach hintereinander, mit verschieden<br />

großen und mit komplex geformten<br />

Filtermasken durchführen. Es<br />

gibt eine Fülle morphologischer Methoden<br />

mit zum Teil überraschenden Wirkungen.<br />

Beispielsweise kann man auf<br />

dasselbe Bild eine 3x3­Dilatation und<br />

eine 5x5­Dilatataion anwenden und anschließend<br />

die beiden Bilder voneinander<br />

subtrahieren. Auf diese Weise wer­<br />

V i s i o n<br />

� Abb. 4: Ein Strichcode, zunächst binarisiert<br />

(Teilbild 2), dann mit einer 3x15-Maske dilatiert<br />

und anschließend mit demselben Strukturelement<br />

erodiert. Die Maske ist an die<br />

Form der Balken angepasst, so dass die<br />

Filteroperationen deren Struktur herausarbeiten<br />

und Störungen unterdrücken.<br />

den die Kanten der Objekte <strong>im</strong> Bild<br />

herausgehoben. In einem Bild, in dem<br />

man die länglichen Striche eines Strichcodes<br />

herausarbeiten möchte, bietet sich<br />

eine Filterung mit einer Maske an, die<br />

dieselben Abmessungen hat wie die gesuchten<br />

Striche. Ein Beispiel zeigt Abbildung<br />

4. Anstelle von quadratischen Masken<br />

werden für Dilatation und Erosion<br />

oft Kreisscheiben als Strukturelemente<br />

eingesetzt, weil damit eine bessere Annäherung<br />

an die häufig gewünschte Isotropie<br />

der Filterung erreicht wird. Durch<br />

fortgesetzt angewandte Erosion kann ein<br />

Objekt bis auf eine zusammenhängende<br />

Kette mit einem Pixel Breite abgetragen,<br />

also skeletonisiert werden. Bei Aufnahmen<br />

mit inhomogener Beleuchtung kann<br />

man ein Hintergrundbild für die Shading­<br />

Korrektur gewinnen, indem das Bild mit<br />

einer Maske erodiert wird, die an die Objekte<br />

<strong>im</strong> Vordergrund angepasst ist und<br />

diese zum Verschwinden bringt. Morphologische<br />

Bildverarbeitung ist ein interessantes<br />

Spezialgebiet der Bildverarbeitung,<br />

das in letzter Zeit stark an<br />

Bedeutung zugenommen hat. Eine Reihe<br />

von morphologischen Verfahren sind<br />

mittlerweile aufgrund der zur Zeit stetig<br />

und rapide zunehmenden Rechnerleistungen<br />

auch für industrielle Anwendungen<br />

handhabbar geworden.<br />

� Kontakt<br />

Prof. Dr. Christoph Heckenkamp<br />

Hochschule Darmstadt –<br />

University of Applied sciences<br />

studiengang optotechnik und Bildverarbeitung<br />

Tel.: 06151/16-8651<br />

Fax: 06151/16-8975<br />

heckenkamp@h-da.de<br />

www.fbmn.h-da.de<br />

Inspect 4/2006<br />

19


V i s i o n<br />

Noch lange kein altes Eisen<br />

Der technologische Wandel bei industriellen<br />

Bildaufnahmekomponenten setzt Framegrab-<br />

ber-Hersteller zunehmend unter Druck. Denn<br />

wirtschaftliche Gigabit-Ethernet-Kamerasys-<br />

teme sollen aufwändige Lösungen mit Frame-<br />

grabber-Karte ablösen. Doch keine Panik, die<br />

altbewährte Bildeinzugskarte wird auch wei-<br />

terhin ihre Nischen finden: Vor allem in High-<br />

end-Applikationen.<br />

Seit Mai diesen Jahres funkelt ein neuer<br />

Stern am H<strong>im</strong>mel der industriellen<br />

Bildverarbeitungswelt: Gigabit-Ethernet-<br />

Vision (GigE), ein neuer Schnittstellenstandard<br />

zur Bilddatenübertragung<br />

zwischen Kamera und Host. Die Protagonisten<br />

prognostizieren: Mit ihm lassen<br />

sich Anwendungen der industriellen Bildverarbeitung<br />

(IBV) wesentlich einfacher<br />

und wirtschaftlicher realisieren, als es<br />

bisherige Interfacetechnologien ermöglicht<br />

haben. Das hat einschneidende Konsequenzen<br />

für so manche Lösungsvariante,<br />

bei der bisher noch die altbewährte<br />

Bildeinzugskarte zum Einsatz kommt.<br />

Landet der Framegrabber dann endgültig<br />

<strong>im</strong> Abseits? Schließlich hat auch die aktuelle<br />

VDMA-Marktumfrage ergeben, dass<br />

der Anteil des Komponentenumsatzes bei<br />

Framegrabbern vom Jahr 2004 auf 2005<br />

von 15 auf 13 % zurückgegangen ist.<br />

Nischen in Highend-Applikationen<br />

„Der Framegrabber gehört keinesfalls<br />

zum alten Eisen“, konstatiert Meinrad<br />

S<strong>im</strong>nacher, Geschäftsführer der Leutron<br />

Vision, „denn Maschinen mit kurzen Zykluszeiten<br />

und hohen Echtzeitanforderungen<br />

benötigen die Zuverlässigkeit<br />

und die definierten Latenzzeiten, die nur<br />

der Framegrabber bieten kann.“<br />

CameraLink-Verbindungen erreichen<br />

<strong>im</strong>mer noch die höchsten Datenübertragungsraten.<br />

Für besonders hoch auflösende<br />

und schnelle Kameras sind die<br />

typischen Werte von 25–70 MB pro Sekunde<br />

der bitseriellen Standards wie USB<br />

20 Inspect 4/2006<br />

Mit Power-over-CameraLink übertrumpft der digitale den analogen Framegrabber<br />

2.0, FireWire, GigE nicht ausreichend.<br />

Be<strong>im</strong> Aussuchen einer opt<strong>im</strong>alen Lösungsvariante<br />

müssen zudem Kriterien<br />

wie Sicherheit, Verfügbarkeit, Robustheit,<br />

Flexibilität und schließlich der Preis<br />

unbedingt berücksichtigt werden. Während<br />

USB, Firewire und GigE Ableger aus<br />

der Konsumwelt darstellen, wurde die<br />

klassische Bilderfassungskarte speziell<br />

für die IBV gebaut und ist mit deren Bedürfnissen<br />

gewachsen. Sie ist jahrzehntelang<br />

erprobt und gilt bisher <strong>im</strong>mer noch<br />

als die sicherste Technologie für den Bildeinzug.<br />

Deshalb spiegelt die Bildverarbeitungspraxis,<br />

trotz des „digitalen Hypes“,<br />

noch ein ganz anderes Bild wider: „Den<br />

größeren Teil unseres Framegrabber-<br />

Umsatzes erzielen wir nach wie vor mit<br />

analogen Bilderfassungskarten, bei denen<br />

es aber kaum mehr Neuentwicklungen<br />

gibt. Die digitalen CL-Framegrabber<br />

haben wir allerdings in den letzten Jahren<br />

sukzessive technologisch weiterentwickelt“,<br />

erklärt S<strong>im</strong>nacher. Abgesehen<br />

von den Buswechseln PCI-, PCI-Express,<br />

PCI-X, kam vor allem die Anforderung<br />

dazu, Speicher und echtzeitfähige Synchronisationssequenzer<br />

einzubauen.<br />

„Das war notwendig“, begründet Mathias<br />

Leumann, CEO der Leutron Vision, „um<br />

die ständig steigende Eigendynamik von<br />

Intels Chipsätzen und die <strong>im</strong>mer weniger<br />

echtzeitfähigen Betriebssysteme abzukoppeln.“<br />

Das habe zur Folge gehabt,<br />

dass die Softwareseite stetig abgest<strong>im</strong>mt<br />

werden musste. Zur Entlastung des Hosts<br />

wurden einige bild-vorverarbeitende<br />

Funktionen wie Bayerdecoder, Shadow-<br />

Correction etc. in FPGAs <strong>im</strong>plementiert.<br />

„Letztlich hat auch die Unterstützung von<br />

komplexen, zeitkritischen Zeilenkamera-<br />

Anwendungen noch ein paar Gates <strong>im</strong><br />

FPGA verschlungen“, sagt Leumann.<br />

Digital übertrumpft analog<br />

Analoge Bildverarbeitungslösungen<br />

konnten sich bisher vor allem so eisern<br />

behaupten, weil sie Preisvorteile offerierten.<br />

„Inzwischen können wir aber<br />

auch eine digitale Lösung mit Framegrabber,<br />

PicSight-Kamera und Kabel<br />

zum gleichen Preis wie die analoge Variante<br />

anbieten, und zwar kostengünstiger<br />

als viele unserer Mitbewerber“, betont<br />

S<strong>im</strong>nacher. Das Zauberwort heißt<br />

hier Power-over-CameraLink (PoCL).<br />

Hier wird die Spannungsversorgung für


Power-over-CameraLink mit der Framegrabber<br />

Kamera-Kombination PicPort-Express/PicSight<br />

von Leutron Vision<br />

die Kamera vom Framegrabber über das<br />

CL-Kabel bereitgestellt. Man spart die<br />

Kosten für ein separates Netzteil oder<br />

ein zusätzliches Kabel. „Wir konnten uns<br />

zwar schon gut mit CL-Framegrabbern<br />

<strong>im</strong> Markt etablieren“, fährt S<strong>im</strong>nacher<br />

fort, „doch aufgrund eines Distributionsabkommens<br />

mit dem amerikanischen<br />

Kabelhersteller Components Express<br />

sind wir jetzt in der Lage, uns auch <strong>im</strong><br />

Preis besser zu positionieren. Deshalb<br />

rechnen wir damit, dass sich unsere Umsatzverteilung<br />

bereits in naher Zukunft<br />

zugunsten der digitalen Grabber verschieben<br />

wird.“ Leutron Vision ist einer<br />

der ersten Hersteller, der PoCL am Markt<br />

anbietet. Auf der Fachmesse Vision 2006<br />

<strong>im</strong> November werden erste Framegrabber-Produkte<br />

mit PoCL vorgestellt werden.<br />

Große Erfolge kann der CL-Grabber<br />

z. B. in Anwendungen mit Zeilenkameras<br />

vorweisen, weil Leutron Vision hier besondere<br />

technische Eigenschaften wie<br />

etwa den direkten Anschluss von Drehgebern<br />

mit Vorwärts-/Rückwertserkennung<br />

realisiert hat.<br />

Die Zukunft kann kommen!<br />

„Ich bin sicher“, schlussfolgert Leumann,<br />

„dass bei einem Großteil der IBV-<br />

Lösungen in Zukunft GigE-Kameras eingesetzt<br />

werden, der Framegrabber aber<br />

gleichzeitig in Highend-Applikationen<br />

mit hohen Datenraten wie in Diebondern<br />

und anderen Maschinen für die Halbleiterindustrie<br />

oder in der Medizintechnik<br />

seine Nischen finden wird.“ Damit ist<br />

die Stückzahl der Framegrabber jedoch<br />

auf dem Rückzug. Das bedeutet, dass ein<br />

Framegrabber-Hersteller heute und zukünftig<br />

nicht mehr vom klassischen Framegrabber-Geschäft<br />

allein leben kann.<br />

Das Schweizer Unternehmen Leutron<br />

mit 27 Jahren Erfahrung <strong>im</strong> Grabber-Geschäft<br />

hat sich rechtzeitig für die Zukunft<br />

gerüstet. „Um potentielle Umsatzverluste<br />

aufzufangen, haben wir bereits 1999 in<br />

einem ersten Schritt unsere Framegrabber-Technologie<br />

mit leistungsfähigen<br />

Intel-Pentium-Prozessoren zu kleinen,<br />

hochleistungsfähigen Visionsystemen<br />

V i s i o n<br />

Maschinen mit kurzen Zykluszeiten und hohen<br />

Echtzeitanforderungen benötigen die Zuverlässigkeit<br />

und die definierten Latenzzeiten, die nur<br />

der Framegrabber bieten kann.<br />

verschmolzen. Das war sozusagen eine<br />

Technologieerweiterung auf einer der<br />

beiden Interface-Seiten des Framegrabbers.<br />

Damit haben wir wertvolles<br />

Know-how über Embedded-Processing-<br />

Technologie gewonnen. Nun haben wir<br />

uns seit Ende 2005 auch noch der anderen<br />

Seite des Framegrabbers, der Kameraseite,<br />

zugewandt“, erzählt Leumann.<br />

So ist der eingefleischte Framegrabber-<br />

Hersteller mit einem beeindruckenden<br />

Portfolio von 28 unterschiedlichen Kameras<br />

auf den Markt geprescht. „Um heute<br />

gute Kameras für die IBV anbieten zu<br />

können, benötigt man wesentlich mehr<br />

Framegrabber- und Applikationswissen<br />

als Sensor-Know-how“, erklärt Leumann,<br />

denn die klassische Bildeinzugskarte sei<br />

vom PC in die Kamera gewandert.<br />

„Außerdem waren in der Vergangenheit<br />

<strong>im</strong>mer wir als Framegrabber-Hersteller<br />

der Ansprechpartner für den OEM- und<br />

Endanwender, wenn es technische Probleme<br />

mit den Kameras gab. Das hat dazu<br />

geführt, dass wir ein enormes Wissen<br />

über die Kameratechnik ansammeln<br />

konnten. Das ließen wir dann direkt in die<br />

Entwicklung unserer ersten Kameraserie<br />

PicSight einfließen. Ich finde, das ist uns<br />

auch sehr gut gelungen“, so Leumann abschließend.<br />

Bereits <strong>im</strong> letzten Jahr konnte<br />

das Unternehmen speziell mit Gigabit-<br />

Ethernet-Kameras technisch sehr anspruchsvolle<br />

Projekte mit Echtzeitanforderungen<br />

und teilweise 10 bis 20 Kameras<br />

in einem Netzwerk umsetzen.<br />

� Kontakt<br />

Dipl. Inf. Meinrad S<strong>im</strong>nacher<br />

Leutron Vision GmbH, Konstanz<br />

Tel.: 07531/5942-0<br />

Fax: 07531/5942-99<br />

ms<strong>im</strong>nacher@leutron.com<br />

www.leutron.com<br />

Inspect 4/2006<br />

21


V i s i o n<br />

Luchsaugen für die Bildverarbeitung<br />

Mehrd<strong>im</strong>ensionale Objektvermessung mit PMD-Sensorik<br />

„Zum Sehen geboren, zum Schauen bestellt….“ beginnt das Lied des<br />

Lynkeus von Johann Wolfgang von Goethe. Lynkeus, der Luchsäugige<br />

(von griech. lynx = „Luchs“), war in der griechischen Mythologie der<br />

Lotse der Argonauten. Er hatte so scharfe Augen, dass er durch Mau-<br />

ern blicken und ins Erdinnere schauen konnte. Die Luchsaugen für die<br />

Bildverarbeitung durchdringen feste Materie noch nicht, aber erfas-<br />

sen doch <strong>im</strong>merhin bereits <strong>im</strong> Pixel ihre räumliche D<strong>im</strong>ension. Dies<br />

wird ermöglicht durch Photomischdetektoren, kurz PMD genannt.<br />

Sie basieren auf dem “T<strong>im</strong>e-of-Flight” Prinzip und erstellen<br />

in Echtzeit ein vollständiges, räumliches Abbild ihrer Umgebung.<br />

Dabei werden Helligkeitswerte und Entfernung ohne<br />

komplexen oder rechenintensiven Aufwand direkt<br />

in jedem Pixel ermittelt.<br />

Abb. 1: Grauwert Helligkeitsabbildung mit 160 *<br />

120 Pixeln<br />

Klassische optisch empfindliche Sensoren<br />

detektieren Helligkeitsinformationen und<br />

liefern damit nur ein projiziertes Abbild<br />

der Umgebung, d. h. die räumliche Information<br />

geht verloren. PMD-Sensoren dagegen<br />

registrieren bzw. messen zusätzlich<br />

zum konventionellen Helligkeitsbild<br />

auch die räumliche Tiefe der betrachteten<br />

Szene. Ähnlich einem Laserradar best<strong>im</strong>mt<br />

ein PMD-Pixel die Entfernung<br />

über die Echolaufzeit eines ausgesendeten<br />

Lichtsignals zur Objektoberfläche<br />

(engl.: t<strong>im</strong>e-of-flight). Mehrere in einer<br />

Zeile oder Matrix angeordnete PMD-Pixel<br />

erlauben die parallele Messung mehrerer<br />

Bildpunkte und dadurch die Vermessung<br />

einer komplexen Szene.<br />

Dabei handelt es sich um ein aktives<br />

System, in welchem eine Beleuchtungs-<br />

22 Inspect 4/2006<br />

Abb. 2: Entfernungswerte werden farbcodiert<br />

dargestellt.<br />

einheit die zu vermessende Szene mit<br />

moduliertem Licht ausleuchtet. Das ausgesandte<br />

Licht wird von Objekten in der<br />

Szene reflektiert und gelangt mit einer<br />

entfernungsabhängigen Phasenverschiebung<br />

zurück zu einer Empfangseinheit<br />

mit PMD-Detektoren. Diese werden ebenfalls<br />

mit der Frequenz der Beleuchtungseinheit<br />

moduliert und in einem anschließenden<br />

Vergleichprozess zwischen dem<br />

Modulationssignal mit dem phasenverschobenen<br />

Lichtsignal aus der Szene erhält<br />

man pixelweise die Entfernung zu<br />

den zugehörigen Objektpunkten in der<br />

Szene.<br />

Diese „Smart-Pixel“ Sensoren eröffnen<br />

neue Wege und Möglichkeiten in den<br />

verschiedensten Industriezweigen. Zu<br />

Evaluierungs- und Forschungszwecken<br />

sind bereits seit einigen Jahren Kameras<br />

mit verschiedenen Auflösungen bei der<br />

PMDTec verfügbar. Ein erstes Produkt<br />

für den Bereich der Automatisierungstechnik,<br />

ein 1D Abstandsmesssystem basierend<br />

auf der PMD-Technologie, wurde<br />

bereits <strong>im</strong> vergangenen Jahr vorgestellt<br />

und wird von der ifm electronic gmbh<br />

erfolgreich vertrieben. Dieser Laserdistanzsensor<br />

dient zur mill<strong>im</strong>etergenauen<br />

Abstandsmessung bei Reichweiten<br />

von bis zu 10 m.<br />

Lynkeus Forschungsprojekt<br />

Auch wenn für viele Applikationen die<br />

laterale Auflösung heutiger PMD-<br />

Kameras völlig ausreichend ist, ergibt<br />

sich <strong>im</strong>mer wieder auch die Frage nach<br />

höher auflösenden PMD-Matrizen und<br />

der Fremdlichtstabilität der Systeme.<br />

Diese Entwicklungen hin zu hochauflösenden<br />

PMD-Kameras werden u. a. durch<br />

Förderprojekte unterstützt. In dem Projektvorhaben<br />

Lynkeus, das durch das<br />

Bundesministerium für Bildung und Forschung<br />

(BMBF) gefördert wird, sollen intelligente<br />

3D-Kamerasysteme für den<br />

Bereich der autonomen und mobilen Robotik<br />

entwickelt werden. Das Projekt umfasst<br />

ein Gesamtvolumen in Höhe von<br />

12 Mio. €, wobei etwa 60 % von den<br />

beteiligten Industriepartnern finanziert<br />

werden. Das Projekt hat eine Laufzeit<br />

von drei Jahren und die Zielsetzung, die


PMD-Technologie auf eine breitere industrielle<br />

Basis zu stellen und damit den<br />

Einzug in neue Anwendungsbereiche<br />

voranzutreiben. Geplant ist die Entwicklung<br />

von mikrointegrierten intelligenten<br />

PMD-Kamerasystemen für Robotersysteme,<br />

für autonome Fahrzeuge und für<br />

die Mensch-Maschine Interaktion. Über<br />

eine Erweiterung des spektralen Funktionsbereiches<br />

der PMD Technologie in<br />

den Terahertz (THz) Frequenzbereich<br />

sollen zusätzlich die Anwendungsgebiete<br />

Sicherheitstechnik und Qualitätskontrolle<br />

anvisiert werden. Vielfältige Aktivitäten<br />

sind hierzu notwendig, von der Weiterentwicklung<br />

der<br />

PMD-<br />

Kameratechnologie<br />

an sich, über die Entwicklung von<br />

3D-Bildverarbeitungssoftware zur automatischen<br />

Erkennung von Objekten und<br />

zur autonomen Navigation, bis hin zur<br />

Modularisierung, Normung und Sicherheitszertifizierung.<br />

Insgesamt 15 Projektpartner<br />

aus Forschung und Industrie<br />

begleiten dieses Vorhaben. Die Breite der<br />

notwendigen Aktivitäten erklärt die<br />

große Zahl an Partnern <strong>im</strong> Projekt, um<br />

alle Kompetenzen zu bündeln, die notwendig<br />

sind, um diese Entwicklung effektiv<br />

umzusetzen.<br />

Griff-in-die-Kiste und Mensch-Roboter-<br />

Kooperation<br />

Die Aufgaben Griff-in-die-Kiste, also die<br />

Aufnahme chaotisch gelagerter Teile<br />

durch einen Roboter, und sichere<br />

Mensch-Roboter-Kooperation sind Problemstellungen,<br />

die exemplarisch sind<br />

für Einsatzgebiete von PMD-Sensorsystemen<br />

innerhalb der Robotik. Die<br />

Handhabung von Teilen, bzw. die dazu<br />

notwendige Positions- und Lagebest<strong>im</strong>mung,<br />

kann durch den Einsatz der PMD-<br />

Technologie effizient und universell<br />

durchgeführt werden, wobei gerade die<br />

hohe Bildwiederholrate der Systeme den<br />

Anforderungen der Automatisierungsbranche<br />

entgegenkommt. Kostspielige<br />

Zuführeinrichtungen, die ohne den Einsatz<br />

von 3D-Technik notwendig sind,<br />

können somit entfallen.<br />

Zusätzliche Herausforderungen entstehen,<br />

wenn bewegte Teile verfolgt und<br />

gegriffen werden sollen, bspw. be<strong>im</strong><br />

Teiletransport durch Förderbänder mit<br />

variierender Geschwindigkeit. Hierbei<br />

liefert das PMD-System die notwendigen<br />

3D-Informationen, um die Robotertrajektorie<br />

in Echtzeit korrigieren zu können<br />

und so ein sicheres Handhaben der<br />

Teile zu gewährleisten.<br />

Die Automatisierung mit Robotern ist<br />

mittlerweile an einem Punkt angelangt,<br />

bei dem für viele Anwendungen die Kooperation<br />

von Mensch und Roboter in<br />

einem gemeinsamen Arbeitsraum wünschenswert<br />

ist. Dem steht aber<br />

die Gefahr von Verletzungen<br />

des Menschen durch den<br />

Roboter entgegen. Sichere<br />

Roboter in Zusammenarbeit<br />

mit PMD-Sensoren,<br />

welche Mensch<br />

und Werkstück zuverlässig und schnell<br />

erkennen, sind eine gute Basis für eine<br />

flexible Mensch-Roboter-Kooperation<br />

ohne trennende Schutzeinrichtungen.<br />

Dabei muss jedoch die Zuverlässigkeit <strong>im</strong><br />

Sinne eines personensicheren Betriebs<br />

wesentlich höheren Ansprüchen genügen<br />

als bei einer reinen Materialhandhabung.<br />

Autonome mobile Systeme<br />

Fahrerlose Transportfahrzeuge fahren<br />

überwiegend innerhalb von Gebäuden<br />

auf Routen, die durch Referenzmarken<br />

wie z. B. Leitdrähte oder Reflektoren festgelegt<br />

sind. Zunehmend wird allerdings<br />

das autonome Navigieren <strong>im</strong> Außenbereich<br />

für die Mobil- und Servicerobotik<br />

gefordert. Dabei sollen die Fahrzeuge<br />

möglichst mit natürlichen Landmarken<br />

auskommen und darüber hinaus auf Hindernisse<br />

reagieren können. Eine hohe<br />

Störfestigkeit gegenüber Sonnenlicht,<br />

Schnee und anderen Witterungseinflüssen<br />

ist hier ein absolutes Muss. Durch die<br />

direkte 3D-Erfassung, kombiniert mit<br />

einer hohen Hintergrundlichtunterdrückung,<br />

ist die PMD-Technologie eine<br />

sehr gute Wahl, um in Kombination mit<br />

anderen Sensoren zuverlässig zu navigieren.<br />

Mit der Fusion von 2D- und 3D-<br />

Datensätzen oder auch der Verwendung<br />

mehrerer mit Abstand zueinander angeordneter<br />

PMD-Sensoren zur „Hinterleuchtung“<br />

von Objekten kann die Quali-<br />

Abb. 3: Roboter mit PMD-Kamera; Quelle : IPR,<br />

Uni Karlsruhe<br />

tät der räumlichen Darstellung verbessert<br />

und damit die Zuverlässigkeit des Gesamtsystems<br />

erhöht werden.<br />

Die vielfältigen<br />

Anwendungsgebiete<br />

dieser neuen<br />

Technologie lassen<br />

erwarten, dass<br />

es den PMD-Sensoren<br />

nicht so ergehen wird wie Lynkeus. Der<br />

wurde <strong>im</strong> Kampf mit den Diaskuren getötet.<br />

Es ging um Frauen.<br />

� Kontakt<br />

Dipl.-Ing. (FH)<br />

Bianca Hagebeuker<br />

PMD Technologies GmbH, siegen<br />

Tel.: 0271/238538-818<br />

Fax: 0271/238538-809<br />

b.hagebeuker@PMDTec.com<br />

www.PMDTec.com<br />

V i s i o n<br />

Inspect 4/2006<br />

23


V i s i o n<br />

Wie wär´s mit unserer Suite?<br />

Sie möchten auch in Zukunft die Vorteile<br />

der berührungslosen, optischen Prüfung für<br />

sich nutzen, aber gleichzeitig keine eigenen<br />

Ressourcen für die langwierige Entwicklung<br />

und aufwändige Pflege der Algorithmen<br />

bereitstellen? Mit dem Vision Development<br />

Module von National Instruments erweitern<br />

Sie Ihre Entwicklungsumgebung um zahl-<br />

reiche Algorithmen für die Bildverarbeitung.<br />

Der Funktionsumfang erstreckt sich auf<br />

die Vorverarbeitung, Skalierung, Kalibrierung,<br />

Merkmalsextraktion, Segmentierung,<br />

Klassifizierung, Geometrie, das<br />

Lesen von 7­Segment­Anzeigen, Barcode,<br />

DataMatrix­Code und Klarschrift,<br />

die Datensicherung und Visualisierung.<br />

Daraus erschließen sich Anwendungs­<br />

24 Inspect 4/2006<br />

Erweiterte Softwaresuite für die Bildverarbeitung<br />

möglichkeiten bspw. in den Bereichen<br />

Identifikation, Verifikation, Sortierung,<br />

Vollständigkeitskontrolle, Oberflächeninspektion,<br />

Positionierung und Prüfen<br />

auf Maßhaltigkeit.<br />

Das NI Vision 8.2 Development Module<br />

umfasst drei Komponenten: Neben<br />

BV­Algorithmen für die Entwicklungsumgebung<br />

setzt es sich noch aus der<br />

Software NI Vision Acquisition und dem<br />

NI Vision Assistant zusammen. Mit der<br />

Vision­Acquisition­Software können Kamerabilder<br />

über den NI­Framegrabber<br />

oder von IEE­1394a­, IEE­1394b­ oder<br />

GigE­Kameras erfasst werden. Nach der<br />

Installation des Treibers für die Bilddatenerfassung<br />

stehen zahlreiche Beispiele<br />

und ein ausgereiftes API (Application<br />

Program Interface) in den gängigsten<br />

Programmiersprachen zur Verfügung.<br />

Der Vision Assistant ist besonders für<br />

Entwickler ein hilfreiches, konfigurierbares<br />

Prototyping­Tool, mit dem offline<br />

nach einer geeigneten Verfahrensstrate­<br />

gie für die Analyse gesucht werden kann.<br />

Dadurch muss nicht jeder Ideenansatz<br />

programmatisch umgesetzt werden –<br />

somit reduzieren sich die Entwicklungszeiten<br />

auf ein Min<strong>im</strong>um.<br />

Neue Features<br />

Neu <strong>im</strong> NI Vision 8.2 Development Module<br />

sind:<br />

� Die Algorithmen zum Lesen von Data­<br />

Matrix­Code wurden sowohl hinsicht­


Mit dem Algorithmus „Golden<br />

Template Comparison“ können Sie<br />

Etiketten und Symbole auf Defekte<br />

überprüfen.<br />

�<br />

�<br />

lich der Leistung als auch<br />

der Genauigkeit opt<strong>im</strong>iert.<br />

Des Weiteren eignen sie<br />

sich nicht nur für die Identifikation,<br />

sondern auch<br />

zur Verifikation nach ISO<br />

16022 (AIM). Die Software<br />

kann während des eigentlichen<br />

Lesevorgangs zudem<br />

gleichzeitig die Qualität<br />

des Barcodes überprüfen<br />

und klassifizieren.<br />

Dadurch erhält man bspw.<br />

Aufschluss darüber, wie<br />

groß der Verschleiß der<br />

Maschine ist, die den Aufdruck<br />

des 2D­Barcodes<br />

vorn<strong>im</strong>mt.<br />

Die geometrische Mustersuche<br />

wurde opt<strong>im</strong>iert und<br />

unterstützt nun die gleichzeitige<br />

Suche nach verschiedenen,<br />

<strong>im</strong> Vorfeld eingelernten<br />

Mustern mit<br />

einer einzelnen Suchfunktion<br />

(Multiple Template<br />

Matching). Zu den zahlreichenAusgangsparametern<br />

gehört auch der dem<br />

Prüflingstypen vom Entwickler<br />

zugewiesene<br />

Name. Damit ist der Prüfling<br />

bereits direkt nach der<br />

Erkennung klassifiziert<br />

und lässt sich <strong>im</strong> Anschluss<br />

ohne weiteren Aufwand<br />

sortieren.<br />

Das Golden Template Matching<br />

vergleicht die Pixel­<br />

Intensitäten des zu untersuchenden<br />

Bildes mit<br />

denen eines Referenzmusters.<br />

Lagetoleranzen<br />

bei der Zuführung, perspektivische<br />

Verzerrungen und<br />

Beleuchtungsschwankungen<br />

werden in der Auswertung<br />

berücksichtigt. Der<br />

Algorithmus eignet sich<br />

z. B. zur Prüfung von Etiketten<br />

oder Symbolen auf<br />

�<br />

�<br />

�<br />

�<br />

�<br />

V i s i o n<br />

Kratzer, Risse oder Fehldrucke.<br />

OCV (Optical Character Verification)<br />

ist der Verifikationsteil<br />

der Lesefunktion<br />

für Schriftsätze. Mit OCV<br />

erhält der Anwender eine<br />

Qualitätsinformation des<br />

aufgebrachten Schriftzeichens.<br />

Wird ein Schwellwert<br />

unterschritten,<br />

könnte dies ein Indiz für<br />

einen Mangel bei der Beschriftungseinheit<br />

sein und<br />

bspw. auf eine leere Druckerpatrone<br />

oder einen<br />

defekten Laser hinweisen.<br />

Der Funktionsumfang zum<br />

Speichern von Bildern<br />

wurde um den Datentyp<br />

JPEG 2000 erweitert.<br />

Mit dem Algorithmus<br />

„Detect Shapes“ werden<br />

die Positionen geometrischer<br />

Objekte lokalisiert.<br />

Die Funktion erkennt<br />

Linien, Rechtecke, Kreise<br />

oder Ellipsen, deren Eigenschaften<br />

sich innerhalb<br />

der gewünschten Toleranzen<br />

befinden.<br />

Local Adaptive Threshold<br />

binarisiert ein Bild in Abhängigkeit<br />

von der gewählten<br />

Methode. Das Besondere<br />

daran ist, dass der<br />

Algorithmus bei der Binarisierung<br />

nicht das ganze<br />

Bild mit demselben, sondern<br />

mit verschiedenen<br />

Schwellwerten bearbeitet.<br />

Der Algorithmus kann sehr<br />

nützlich sein, wenn Prüfling<br />

oder der Systemaufbau<br />

nicht für homogene<br />

Bilder garantieren können.<br />

Die Wasserscheidentransformation<br />

(Watershed<br />

Transform) wurde als<br />

weiterer Algorithmus für<br />

die Objektsegmentierung<br />

integriert.<br />

Eine kostenlose Evaluierungsversion<br />

des Vision 8.2 Development<br />

Module zum Herunterladen<br />

finden Sie auf www.<br />

ni.com/vision/vdm.htm.<br />

� Kontakt<br />

national instruments GmbH,<br />

München<br />

Tel.: 089/7413130<br />

Fax: 089/7146035<br />

info.germany@ni.com<br />

www.ni.com


V i s i o n<br />

Interface Race<br />

Wieder einmal treten eine neue Schnitt-<br />

stelle und ein neuer Standard an, um das<br />

Interfacing zwischen Kamera und Host-PC<br />

zu vereinfachen: Gigabit Ethernet für Ma-<br />

chine Vision, oder kurz GigE Vision. Wird<br />

dieser neue Standard das Rennen machen ?<br />

Entwicklung von Kamerainterfaces<br />

Für analoge Kameras und auch die digitalen<br />

Kameras mit klassischer paralleler<br />

Schnittstelle (RS-422, LVDS) <strong>im</strong>plementierte<br />

bislang jeder Hersteller sein eigenes<br />

Design – ein Wechsel eingesetzter<br />

Komponenten war nur mit hohem Aufwand<br />

möglich, da kein Gerät wirklich<br />

austauschbar war. Mit CameraLink hatten<br />

die Branchenvertreter der Bildverarbeitung<br />

erstmalig eine einheitliche Kameraschnittstelle<br />

definiert. Vieles wurde<br />

dadurch vereinfacht: CameraLink stellt<br />

sicher, dass CameraLink konforme Geräte<br />

(Kamera, Framegrabber) kompatibel<br />

sind. Nicht vereinheitlicht wurde allerdings<br />

(mit Ausnahme der seriellen<br />

Schnittstelle) das Softwareinterface. Da<br />

jede Kamera unterschiedliche Features<br />

aufweist und mit unterschiedlichen Kommandos<br />

zu parametrisieren ist, kann<br />

eine bestehende CameraLink Applikation<br />

nicht ohne Portierungsaufwand auf neue<br />

Hardware umgestellt werden.<br />

Einen Schritt weiter geht die DCAM<br />

Spezifikation für Firewire-Kameras.<br />

Neben der Hardwareschnittstelle ist hier<br />

auch die Kamerafunktionalität und die<br />

zugehörige Softwareschnittstelle mehr<br />

oder minder fest definiert. Allerdings hat<br />

beinahe jeder Hersteller das Interface<br />

leicht unterschiedlich <strong>im</strong>plementiert.<br />

Dies führt dazu, dass bis heute jeder<br />

Kamerahersteller sein eigenes SDK (Software<br />

Development Kit) zu den Kameras<br />

mitliefert. Generelle und kameraunabhängige<br />

SDKs gibt es nur wenige (z. B.<br />

Matrox Imaging Library).<br />

GigE Vision – der neue Herausforderer<br />

Das Ziel der internationalen GigE Vision<br />

Standardisierungsbestrebung ist es, ei-<br />

26 Inspect 4/2006<br />

nen herstellerunabhängigen Hard- und<br />

Softwarestandard zu schaffen, der die<br />

Gerätesteuerung und Datenübertragung<br />

zwischen Kamera und Host-PC definiert.<br />

Als Kommunikationsinterface basiert<br />

GigE Vision auf der Ethernet-Technologie.<br />

Obwohl der Name die Verwendung<br />

des Giga-Ethernets nahe legt, kann GigE<br />

Vision für jede Ausbaustufe von Ethernet<br />

(10 Mbit, 100 Mbit, 1Gbit und künftig<br />

sogar 10 Gbit) <strong>im</strong>plementiert werden.<br />

Mit einem Übertragungsvolumen von<br />

derzeit ca. 100 MB/s bietet GigE Vision<br />

ausreichend Bandbreite für viele Anwendungen.<br />

Darüber hinaus bietet die<br />

Ethernet-Technologie einige interessante<br />

Vorteile: Kabelstrecken bis 100 Meter<br />

ohne die Verwendung von Repeatern/<br />

Hubs, die Verwendung äußerst kostengünstiger<br />

Standard-Infrastruktur (z. B.<br />

CAT5e/CAT6/CAT7-Netzwerkleitungen),<br />

zahlreiche Möglichkeiten der Infrastruktur-Topologie<br />

und vielfältige Ethernet-<br />

Transportmedien (z. B. Ethernet-over-<br />

Fiber).<br />

GigE Vision definiert in vier Teilen<br />

vollständig die Kommunikation und Datenübertragung<br />

einer GigE Vision Kamera<br />

mit einer Netzwerkkarte. Nach der<br />

Geräte-Erkennung (GigE Device Discovery<br />

and Enumeration) kennt die steuernde<br />

Host-Applikation alle <strong>im</strong> Netzwerk<br />

angeschlossenen Kameras und ist bereit,<br />

jedem Gerät Steuer-Kommandos zu senden<br />

und Daten zu empfangen.<br />

Gigabit Ethernet für Machine Vision<br />

GVCP (GigE Vision Control Protocol)<br />

regelt, wie die Applikation das Netzwerkgerät<br />

steuert und sog. Stream-Channels<br />

zur Datenübertragung aufbaut. Darüber<br />

hinaus wird festgelegt, wie die Kamera<br />

Events an die Applikation zurück sendet,<br />

um best<strong>im</strong>mte Ereignisse zu signalisieren.<br />

Es ist zwar nur einer einzigen Applikation<br />

<strong>im</strong> Netzwerk erlaubt, die Kamera<br />

zu steuern, es ist aber möglich, dass<br />

mehrere Anwendungen gleichzeitig Daten<br />

von der Kamera empfangen.<br />

Abb. 1: Gigabit<br />

Ethernet für Machine<br />

Vision von Rauscher


Auch der Datentransfer basiert auf<br />

dem UDP Transport-Protokoll. GVSP, das<br />

GigE Vision Streaming Protocol, ist zuständig<br />

für den Empfang der Bilddaten,<br />

Bildinformationen und anderer Informationen<br />

von der Kamera an die Anwendung.<br />

Neben der reinen Datenübertragung<br />

regelt GigE Vision auch das<br />

Umsetzen der internen Kameraregister<br />

und -features in eine für alle Hersteller<br />

einheitliche Softwareschnittstelle verbindlich.<br />

Wesentlicher Bestandteil ist der<br />

von der EMVA (European Machine Vision<br />

Association) geführte Standard GenICam<br />

(Generic Interface for Cameras). Dieser<br />

regelt, wie alle Kamerafeatures über<br />

eine kameraspezifische XML-Datei einheitlich<br />

angesprochen werden, so dass<br />

volle Softwarekompatibilität untereinander<br />

gewährleistet ist.<br />

Komponenten für die Praxis<br />

Da GigE Vision erst Mitte dieses Jahres<br />

endgültig verabschiedet wurde, sollen<br />

die wichtigsten Hardware- und Softwarekomponenten<br />

kurz vorgestellt werden,<br />

die für eine stabile Bildverarbeitungs-<br />

Anwendung auf Basis von GigE Vision<br />

empfohlen werden.<br />

Hardware für GigE Vision<br />

Der Vollständigkeit halber sollen zunächst<br />

die schon länger verfügbaren<br />

CameraLink nach Gigabit Ethernet Umsetzer<br />

erwähnt werden. Zumeist ist in<br />

diesen Geräten die Technologie des Herstellers<br />

Pleora <strong>im</strong>plementiert (z. B. in<br />

DALSA Netlink). So wird beinahe jede<br />

beliebige CameraLink Kamera auf<br />

Gigabit Ethernet umgesetzt und kann die<br />

Vorteile der Ethernet Technologie nutzen.<br />

Zu beachten ist, dass die Datenübertragung<br />

nicht zu 100 % GigE Vision entspricht.<br />

Echte GigE Vision Flächenkameras<br />

werden zurzeit <strong>im</strong>mer besser verfügbar.<br />

So bietet Prosilica z. B. bereits heute ein<br />

großes Spektrum an CCD und CMOS<br />

Kameras. Alle gängigen Auflösungen von<br />

640 x 480 bis hin zu 2048 x 2048 Pixel in<br />

monochrom und Farbe und mit Bildwiederholraten<br />

von bis zu 200 fps sind lieferbar.<br />

GigE Vision ist allerdings nicht<br />

auf Area-Scan beschränkt, auch Zeilenkameras<br />

nutzen bereits heute die Vorteile<br />

dieses Interface. So stellt die neue<br />

DALSA Spyder3 GigE Zeilenkamera einen<br />

großen Technologiesprung dar: Ein<br />

vollständig neu entwickelter Zeilensensor<br />

mit zwei Pixelreihen verdreifacht die<br />

Empfindlichkeit der gängigen Sypder2<br />

Kameraserie. Mit 1024 bzw. 2048 Pixeln/<br />

Zeile Auflösung und max<strong>im</strong>alen Zeilenraten<br />

von bis zu 68 kHz wird das GigE<br />

Vision Interface voll ausgenutzt. Alle<br />

gängigen Trigger- und Exposuremodi<br />

(externe Zeilensynchronisation, Belichtungskontrolle,<br />

etc.) sind natürlich auch<br />

ohne Framegrabber auf dieser Kamera<br />

realisierbar.<br />

Für eine stabile Übertragungskette ist<br />

natürlich die Empfangsseite genauso<br />

wichtig. Da die Basistechnologie Ethernet<br />

stark vom Consumermarkt geprägt<br />

ist und damit kurze Produktzyklus-, Produkt-Lebenszeiten<br />

und oft auch ungewisse<br />

Produktverfügbarkeit einhergeht,<br />

sind nicht alle Netzwerkkarten für den<br />

industriellen Einsatz von GigE Vision<br />

tauglich. Bewährt und von vielen Herstellern<br />

empfohlen werden Netzwerkkarten<br />

auf Basis des Intel 82541PI Chipsatzes,<br />

die (aufgrund der Herkunft aus<br />

dem Servermarkt) die Host-CPU zum Dateneinzug<br />

nur min<strong>im</strong>al belasten.<br />

Obwohl mit GigE Vision der Trend von<br />

spezialisierter Hardware weggeht, wird<br />

auf der Vision in Stuttgart dieses Jahr ein<br />

hochinteressantes Spezialboard von Matrox<br />

für GigE Vision vorgestellt. Es ist<br />

weit mehr als eine Gigabit Ethernet Netzwerkkarte<br />

– aber dennoch kein Framegrabber.<br />

Es bietet genau die Intelligenz<br />

und Funktionen, die Framegrabber für<br />

Analog- und CameraLink Kameras haben,<br />

einer Netzwerkkarte jedoch vollständig<br />

fehlen – und ist damit das Beste<br />

aus beiden Welten: Framegrabber und<br />

GigE Vision.<br />

Software für GigE Vision<br />

Gerade weil der GigE Vision Standard<br />

noch sehr jung ist, liefert derzeit jeder<br />

Hersteller sein eigenes SDK zusammen<br />

mit der Kamera. Nur wenige Hersteller,<br />

wie z.B. Prosilica, bieten die Softwaretools<br />

für unterschiedliche Betriebssysteme<br />

wie Windows, Linux und sogar QNX<br />

an – damit wird GigE Vision auf unterschiedlichen<br />

Prozessorarchitekturen (Intel<br />

x86, PowerPC) nutzbar.<br />

Auch Matrox hat GigE Vision voll in<br />

die Softwarebibliothek MIL (Matrox Imaging<br />

Library) integriert und bereits erfolgreich<br />

mit einer großen Anzahl unterschiedlicher<br />

Kameras verschiedener<br />

Hersteller getestet. Als vollkommen<br />

schnittstellen-unabhängige Bibliothek<br />

unterstützt die MIL damit jetzt alle<br />

Kamerainterfaces: Analog, Digital, CameraLink,<br />

IEEE 1394 und GigE Vision.<br />

Der Vorteil dieser allgemeinen Bildverarbeitungsbibliothek,<br />

geschaffen von langjährigen<br />

Bildverarbeitungsexperten, liegt<br />

in den wesentlich mächtigeren, komfortableren<br />

und umfangreicheren Features<br />

und Funktionen <strong>im</strong> Vergleich zum<br />

„reinen“ Kameratreiber.<br />

Das perfekte Interface?<br />

Zweifellos bietet GigE Vision viele Vorteile<br />

für ein großes Spektrum an unterschiedlichen<br />

Anwendungen. Ist es damit<br />

das perfekte Interface für alle Anwendungen?<br />

Für den Low-End Bereich liegen<br />

derzeit aufgrund der kurzen Zeit, in<br />

der GigE Vision wirklich verfügbar ist,<br />

die Preise noch relativ hoch. Der High-<br />

End Bereich wird sicherlich noch eine<br />

lange Zeit von CameraLink besetzt sein,<br />

da hier der Datendurchsatz nicht auf<br />

100 MB/s l<strong>im</strong>itiert ist, sondern bis 1GB/s<br />

reicht. Gerade bei Bildverarbeitungsaufgaben<br />

mit Zeilenkameras oder Multi-Kamera-Anwendungen<br />

wird dies schnell<br />

erreicht. Ideal ist GigE Vision derzeit sicherlich<br />

für den Mid-Range Bereich, der<br />

keine allzu großen Anforderungen an<br />

das Datenvolumen stellt – hier kommen<br />

alle Vorteile voll zum Tragen.<br />

� Kontakt<br />

Raoul K<strong>im</strong>melmann<br />

Rauscher GmbH, olching<br />

Tel.: 08142/44841-0<br />

Fax: 08142/44841-90<br />

info@rauscher.de<br />

www.rauscher.de<br />

V i s i o n<br />

Inspect 4/2006<br />

27


V i s i o n<br />

Best of Both Worlds<br />

Die Anforderungen an IBV-Systeme sind so mannigfaltig wie die Zahl ihrer Anwender.<br />

Patentrezepte von der Stange gibt es nicht. Der Anwender sucht keine Technologie, son-<br />

dern die effiziente, zukunftssichere Lösung für seine speziellen Anforderungen. Value-<br />

Added-Distributoren geben Solution Providern die Mittel an die Hand, um ganzheitliche<br />

Lösungen für ihre Kunden <strong>im</strong>plementieren zu können. Dann sind auch Neuanwender auf<br />

der sicheren Seite. Sie können sich auf die Lösung ihrer applikationsspezifischen Bildverarbeitungsaufgabe<br />

konzentrieren, ohne sich um die Einzelheiten der Hardware, Software<br />

oder Schnittstellen kümmern zu müssen.<br />

Als Mittler zwischen den Welten der<br />

Technik und der Praxis sieht sich das<br />

Stuttgarter IBV-Distributionshaus Maxx-<br />

Vision. Sayed Sol<strong>im</strong>an, Geschäftsführer<br />

der MaxxVision GmbH: „Wir sehen uns<br />

als Problemlösungspartner. Als Allrounder<br />

bezüglich verschiedener Technologien,<br />

Schnittstellen und Produkte sowie<br />

als Partner von derzeit mehr als 700<br />

Kunden haben wir keinen Anlass, einzelne<br />

technische Schlagworte oder reine<br />

Innovationen in den Vordergrund zu stellen.<br />

Wir wollen Aufklärer sein.“<br />

Um die Entwicklung ganzheitlicher<br />

IBV-Lösungen zu unterstützen, hat Maxx-<br />

Vision sein Portfolio an Leistungen beständig<br />

ausgebaut. Die Basis des Produkt-Portfolios<br />

war von Anfang an auf<br />

Flexibilität und Breite angelegt. Wie etwa<br />

bei den viel diskutierten Schnittstellen,<br />

die für die Stuttgarter bei der Erstellung<br />

von Lösungen schon <strong>im</strong>mer eher zweitrangig<br />

waren. Denn was sich einmal<br />

durchsetzen wird, ist nach wie vor offen.<br />

MaxxVision bedient deshalb alle gängigen<br />

Interfaces, um den Systemintegratoren<br />

bei der Umsetzung anforderungsgerechter<br />

IBV-Lösungen uneingeschränkt<br />

alle Möglichkeiten offen zu lassen.<br />

Ganz ohne sich mit der Schnittstellenproblematik<br />

auseinanderzusetzen kommt<br />

aus, wer für seine Applikation eine sog.<br />

intelligente Kamera oder Smart Camera<br />

wählt. Solche Systeme sind vergleichsweise<br />

einfach <strong>im</strong> Handling. Sie stellen an<br />

ihrem Ausgang keine Bildsignale zur<br />

Verfügung, sondern liefern direkt die Ergebnisse<br />

der programmierten Bildauswertung.<br />

Die von Sony entwickelte Smart<br />

Camera aus dem MaxxVision-Portfolio ist<br />

ein Beispiel dafür. Bei der XCI-SX1 bilden<br />

Kamera und Rechner eine kompakte<br />

Einheit mit Abmessungen von 55x55x11<br />

mm. Entwickler haben die Wahl zwischen<br />

den Betriebssystemen Windows<br />

und Linux. Im Oktober präsentiert Maxx-<br />

28 Inspect 4/2006<br />

Value Added Distributoren als Mittler zwischen Technologie und Praxis<br />

Abb. 1: Die neue XCI-V3 liefert präzise monochrome<br />

VGA Bilder mit 640 x 480 Bildpunkten<br />

und ist aufgrund der VGA-Technik preisgünstiger<br />

als deren Vorgänger.<br />

Vision die XCI-V3, die mit VGA-Auflösung<br />

das Smart Camera Line-Up von Sony am<br />

unteren Ende ergänzt. Das intelligente<br />

IBV-Kamerasystem integriert wie auch<br />

schon sein Vorgänger die Schnittstellen<br />

10/100MBit Ethernet, USB 1.1 für Tastatur<br />

und Maus, RS232C sowie eine Schnittstelle<br />

für handelsübliche PC-Monitore.<br />

Der 1.3 Megapixel Sensor liefert präzise<br />

monochrome VGA-Bilder mit 640x480<br />

Bildpunkten und Bildfrequenzen von<br />

60 fps (VGA). Trotz erhöhter Framerate<br />

wird die XCI-V3 aufgrund der VGA-Technik<br />

zu einem günstigeren Preis erhältlich<br />

sein als ihr Vorgänger XCI-SX1.<br />

Ein weiteres Highlight, das Maxx-<br />

Vision auf der diesjährigen Vision präsentieren<br />

wird, ist die Einführung einer<br />

neuen analogen Progressive Scan (PS)<br />

Kamera, die trotz SXGA-Auflösung auf<br />

eine hohe Framerate von 30 fps kommt.<br />

Die mit Abmessungen von 29 x 29 x 66<br />

mm sehr kompakte Kamera XC-HR90 ist<br />

für Kommunikations und Steuerungszwecke<br />

mit einer RS232-Schnittstelle<br />

ausgestattet und lässt sich ohne großen<br />

Aufwand in beliebige industrielle Applikationen<br />

integrieren. Der 1/3-Zoll PS<br />

CCD-Sensor verfügt über 1296 x 966<br />

effektive Bildaufnahme-Elemente. Er<br />

Abb. 2: Die neue XC-HR90 bietet eine SXGA-<br />

Auflösung mit 1280 x 960 Pixeln bei 30 Frames<br />

per second.<br />

wurde von Sony eigens für Machine-<br />

Vision-Anwendungen entwickelt und<br />

wird zunächst ausschließlich in der XC-<br />

HR90 angeboten. Durch die Verwendung<br />

quadratischer Pixel ist eine geometrisch<br />

korrekte Abbildung gewährleistet, so<br />

dass präzise Messungen vorgenommen<br />

werden können. Innovative Partial-Scan-<br />

und Binning-Funktionen erlauben überdies<br />

unter RS-232-Steuerung die Erfassung<br />

sehr schneller Bewegungen mit<br />

Frameraten von bis zu 190 fps.<br />

Anfang dieses Jahres hatte Maxx-<br />

Vision bereits durch die Kooperation mit<br />

Cognex DVT eine grundlegende Erweiterung<br />

seines Produktportfolios vollzogen.<br />

Den Kunden der Stuttgarter steht mit<br />

ausgewählten Cognex DVT-Systemen<br />

jetzt erstmals auch eine Auswahl an Bildverarbeitungssensoren<br />

mit einem Software-Portfolio<br />

von umfangreichen Softwarebibliotheken<br />

bis hin zu fertiger<br />

Applikationssoftware zur Verfügung.<br />

Dazu zählen auch der Hochgeschwindigkeits-Kamerasensor<br />

„Checker“ sowie die<br />

Produktserien der Cognex DVT-Vision-<br />

Sensoren und Cognex DVT Intelligent<br />

Scanner.<br />

Die kostengünstige, vielseitige und bedienfreundliche<br />

Produktfamilie der Cog-


Abb. 3: Cognex-DVT Vision-Sensoren sind intelligente<br />

Kameras für unterschiedlichste Anwendungen<br />

in den Bereichen Inspektion, Qualitätskontrolle<br />

und Automation.<br />

nex DVT-Vision-Sensoren eignet sich zur<br />

Inspektion, Qualitätskontrolle und Automation<br />

und ist ideal, wenn eine <strong>klar</strong><br />

strukturierte, funktionale Vision-Anwendung<br />

und/oder Farb- oder Zeilenscan-<br />

Inspektion gefragt ist. Mit der Produktserie<br />

Cognex DVT Intelligent Scanner<br />

bietet MaxxVision eine IBV-Lösung mit<br />

einem attraktiven Preis/Leistungsverhältnis.<br />

Der Intelligent Scanner ist als industrieller<br />

Barcodeleser mit OCR/OCV-<br />

Fähigkeiten mit bis zu 200 Codes pro<br />

Sekunde führend in Sachen Geschwindigkeit<br />

und Zuverlässigkeit.<br />

Sayed Sol<strong>im</strong>an: „Zu den Stärken der<br />

zunehmend leistungsfähigeren Vision-<br />

Sensoren zählen die einfache Inbetriebnahme,<br />

Flexibilität und Investitionssicherheit.<br />

Dadurch werden auch große<br />

neue Kundenkreise erreicht, die den Einsatz<br />

von Machine-Vision-Lösungen aus<br />

technischen oder finanziellen Gründen<br />

bisher noch gar nicht in Betracht gezogen<br />

haben – angespornt sicherlich auch<br />

durch unsere inhouse entwickelten und<br />

für die Kunden kostenlosen Schulungspakete,<br />

die den Einstieg in die moderne<br />

industrielle Bildverarbeitung erleichtern<br />

und prinzipiell Anwender von ganzheitlichen<br />

Lösungen unterstützen.“<br />

V i s i o n<br />

Mit der Aufnahme der Produktlinie<br />

In-Sight erweiterte MaxxVision jüngst<br />

die Kooperation mit Cognex. Die flexiblen<br />

Vision-Sensoren können einzeln oder <strong>im</strong><br />

Netzwerk für die Inspektion von Produkten<br />

in allen Fertigungsphasen und<br />

nahezu jeder Produktionslinie eingesetzt<br />

werden. Ihr Anwendungsbereich reicht<br />

von Produktinspektion und Objektidentifikation<br />

über Fehlerprüfung und Vermessungsaufgaben<br />

bis zur Roboterführung.<br />

Der weitere Ausbau des Angebots ist<br />

Programm bei MaxxVision. Zur Vision<br />

2006 in Stuttgart wird das Unternehmen<br />

daher noch weitere Produktneuheiten<br />

vorstellen. Mit der von Strampe Systemelektronik<br />

entwickelten VisionBox Compact<br />

II wird ein embedded Rechner präsentiert,<br />

der durch erweiterte Flexibilität<br />

Abb. 4: Die Zielapplikationen für die neue Vision-<br />

Box Compact II betreffen nahezu alle Bildverarbeitungssektoren<br />

und sind nicht auf Machine<br />

Vision beschränkt.<br />

und Modularität opt<strong>im</strong>iert wurde. An den<br />

Rechner lassen sich bis zu vier analoge<br />

Farb- oder PAL-S/W-Standardkameras<br />

wie etwa die MaxxVision Motor-Zoom-<br />

Kameras anschließen und per seriellem<br />

Interface steuern. Ergänzend zu digitalen<br />

IOs und seriellem Interface steht<br />

ein 1 GBit/s schnelles Ethernet-Interface<br />

zur Verfügung, mit dem Daten per TCP/<br />

IP übertragen werden können.<br />

Desweiteren wird MaxxVision eine<br />

CameraLink–Schwarzweiß-Kamera mit<br />

5 Megapixel Auflösung, sowie NED Zeilenkameras,<br />

die ebenfalls besonders<br />

hohe Auflösungen <strong>im</strong> Megapixelbereich<br />

bieten, präsentieren.<br />

� Kontakt<br />

Sayed Sol<strong>im</strong>an<br />

MaxxVision GmbH, stuttgart<br />

Tel.: 0711/997996-3<br />

Fax: 0711/997996-50<br />

info@maxxvision.com<br />

www.maxxvision.com


V i s i o n<br />

Tischlein-deck-Dich<br />

Gehen Sie noch selbst in den Supermarkt?<br />

Oder ordert Ihr Kühlschrank schon selbst-<br />

ständig die fehlenden Lebensmittel <strong>im</strong><br />

Internet? Kennt Ihr Spiegel <strong>im</strong> Badez<strong>im</strong>mer<br />

die Börsenkurse und schaltet sich Ihre<br />

Kaffeemaschine per Handy wie von Geis-<br />

terhand ein? So oder so ähnlich stellen sich<br />

Forscher das vollautomatisierte Komfort-<br />

Zuhause der Zukunft vor. An den Visionen<br />

wird bereits kräftig geplant, geforscht und<br />

getestet. Auch das leidige Thema „Was<br />

koche ich denn heute?“ wird da nicht aus-<br />

geklammert. Der mitdenkende Küchentisch,<br />

der „Recipe Table“, löst das täglich wieder-<br />

kehrende Problem ein für alle Mal. Er nutzt<br />

dazu die Möglichkeiten der modernen<br />

industriellen Bildverarbeitung und die<br />

ultra-kompakte Bauweise einer USB 2.0-<br />

Kamera.<br />

Eine fast unüberschaubare Flut an Kochmagazinen<br />

füllt die Zeitschriftenregale,<br />

Fernsehköche bringen uns ihre Kunst ins<br />

Wohnz<strong>im</strong>mer und das Ausprobieren von<br />

neuen Rezepten ist ein beliebtes Gesprächsthema.<br />

Doch wie häufig wagen<br />

wir uns tatsächlich an ein neues Gericht<br />

heran? Meist scheitern wir schon an der<br />

Planung und be<strong>im</strong> Einkaufen von Zutaten,<br />

die nicht zum täglichen Repertoire<br />

gehören. Die Suche nach Rezepten, die<br />

ausschließlich bereits vorhandene Zutaten<br />

enthalten, endet <strong>im</strong> wüsten Blättern<br />

in Rezeptbüchern und für fehlende<br />

Zutaten werden Kompromisse geschlossen.<br />

Selbst das Internet liefert nur be-<br />

Abb. 1: Der interaktive<br />

Küchentisch „RecipeTable“<br />

erfasst mit Hilfe einer USB 2.0-Kamera die auf<br />

ihm stehenden Zutaten und gibt <strong>klar</strong>e Antworten<br />

auf die alte, aber stets aktuelle Frage „Was<br />

koche ich denn heute?“<br />

30 Inspect 4/2006<br />

Küchentisch der Zukunft mit USB 2.0-Industriekameras<br />

scheidene Resultate, um aus wenigen,<br />

bereits vorhandenen Zutaten fantasievolle,<br />

leckere Gerichte zu zaubern.<br />

Menüentscheidung mit dem Recipe<br />

Table<br />

Vor diesem Hintergrund entwickelte der<br />

Magisterstudiengang Interface Culture,<br />

ein künstlerisch-wissenschaftliches Studium<br />

für angehende Medien-Künstler-<br />

Innen und ForscherInnen an der Kunstuniversität<br />

Linz, den sog. „Recipe Table“.<br />

Der interaktive Arbeitsplatz reagiert,<br />

wenn Zutaten auf ihn gestellt werden. Er<br />

identifiziert die Lebensmittel und ermittelt<br />

deren Standort sowie deren Quantität<br />

mit Hilfe einer miniaturisierten Kamera.<br />

Anschließend sucht er in seiner Rezeptdatenbank<br />

nach Rezepten, die ausschließlich<br />

diese Nahrungsmittel plus Grundzutaten<br />

wie Wasser, Salz, Öl etc. enthalten.<br />

Dabei best<strong>im</strong>mt die Anordnung der Produkte<br />

auf dem Arbeitsplatz die Rezeptauswahl.<br />

Zutaten näher be<strong>im</strong> Anwender<br />

sind wichtiger, die weiter weg weniger<br />

relevant. Ein Salzstreuer dient als „Joystick“,<br />

mit dessen Hilfe sich der Anwender<br />

durch die Menüs navigieren kann.<br />

Hier ein Beispiel: Eier, Mehl und Tomaten<br />

liegen auf dem Arbeitsplatz und<br />

die Tomaten sind am nächsten zum Anwender,<br />

das Mehl liegt in der Mitte und<br />

die Eier sind am weitesten weg. Das vorgeschlagene<br />

Top-Rezept könnte also ein<br />

einfaches Tomatenbrot sein. Tauschen<br />

Tomaten und Eier die Position, dann reorganisiert<br />

sich die Rezeptliste. Auf dem<br />

Bildschirm erscheinen gekochte Eier gefüllt<br />

mit Tomatenpaste, natürlich gleich<br />

mit der Abbildung des fertigen Gerichtes.<br />

Und stehen alle Zutaten in der Mitte,<br />

schlägt die Datenbank hausgemachte<br />

Nudeln mit Tomatensauce vor. Die Auswahl<br />

setzt sich fort, bis sich Köchin oder<br />

Koch für ein Rezept aus der Liste entschieden<br />

haben. Produkte können zu jeder<br />

Zeit weggenommen und dazugestellt<br />

werden und ändern die Resultate auf der<br />

Projektionsarbeitsplatte.<br />

Der „Recipe Table“ wird in die Küchenarbeitsplatte<br />

integriert und enthält<br />

eine Rezeptdatenbank, die ständig über<br />

das Internet up-gedatet wird. Identifiziert<br />

werden die Produkte mit Hilfe einer<br />

schnellen und hochauflösenden Industriekamera.<br />

Zum Einsatz kommt<br />

dabei eine µEye von IDS Imaging Development<br />

Systems, einem schwäbischen<br />

Machine-Vision-Spezialisten. Er setzt als<br />

einer der ersten Hersteller auf die komfortable<br />

USB 2.0-Schnittstelle und bietet<br />

heute auf dieser Basis eine breite Palette<br />

von Industriekameras, Zubehör und Software-Tools<br />

für die unterschiedlichsten<br />

Anforderungen an.<br />

Kameratechnik <strong>im</strong> Küchenalltag<br />

Die Industriekameras der µEye-Serie<br />

sind nicht nur klein gebaut – gerade mal<br />

24 x 32 x 27,4 mm misst das robuste<br />

Gehäuse in der kleinsten Version bei nur<br />

60 g Gewicht – dank ihrer standardisierten<br />

Schnittstelle kommen sie ohne zusätzliche<br />

Hardware aus und können<br />

sofort an jeden modernen Laptop, Industrie-PC<br />

oder Embedded-Rechner angeschlossen<br />

werden. Selbst für den „rauhen“<br />

Küchenalltag gibt es die µEyes in<br />

den RE Varianten. Hier entspricht das<br />

Gehäuse den Schutzklassen IP65 und<br />

IP67, so dass es keine Probleme gibt,<br />

wenn es be<strong>im</strong> Kochen mal feucht fröhlich<br />

oder ziemlich staubig zugeht. Auch sämtliche<br />

anderen Leistungsmerkmale können<br />

sich durchaus sehen lassen: Die Kameras<br />

schaffen eine Auflösung bis zu 3,1<br />

Megapixel oder bis zu 86 Bilder pro Sekunde<br />

<strong>im</strong> Vollmodus. Weit höhere Bildraten<br />

sind <strong>im</strong> sog. Area-of-Interest-Modus<br />

(AOI) bzw. Partial-Scan-Modus möglich.<br />

Fortschrittliche Features wie Windowing,<br />

Binning, Sub Sampling und Bildspiegelung<br />

in x und y Richtung ergänzen den<br />

Funktionsumfang.<br />

Auf über 40 verschiedene Modelle ist<br />

die IDS-Produktpalette bis heute angewachsen<br />

– von der einfachen CMOS-<br />

Kamera über verschiedene Monochrom-<br />

oder Farbkameras (mit Bayer-Mosaik-Farb-


Abb. 2: Die Kameras der µEye-Serie von IDS sind<br />

ultra-kompakt, schnell und hochauflösend. Wie<br />

derzeit kaum eine andere Industriekamera-Reihe<br />

erfüllen sie perfekt die hohen Ansprüche der<br />

modernen industriellen Bildverarbeitung.<br />

umrechnung) mit Rolling- oder Global<br />

Shutter bis hin zu 2 Mpixel Progressive<br />

Scan CCD-Kameras mit Sony-Sensor. Je<br />

nach Typ reicht die Auflösung von 640 x<br />

480 Pixel bis zu 2048 x 1536 Pixel. Alle Modelle<br />

sind mit einem universellen, optoentkoppelten<br />

Triggereingang und einem ebenfalls<br />

optoentkoppelten Ausgang, z. B. für<br />

die Ansteuerung eines Blitzes, ausgestattet.<br />

Für ihre unterschiedlichen Einsatzmöglichkeiten<br />

bieten die Kameras verschiedene<br />

USB-Anschlüsse: Neben dem gängigen<br />

Abb. 3: Dank ihrer umfangreichen Softwareunterstützung<br />

lassen sich die µEye-Kameras<br />

schnell und kostengünstig in kundenspezifische<br />

Applikation integrieren.<br />

Mini-B USB-Anschluss, der gleichfalls bei<br />

handelsüblichen Digitalkameras Verwendung<br />

findet, gibt es auch einen verschraubbaren<br />

Micro-SubD-Anschluss. Dieser beherbergt<br />

neben den USB-Signalen auch<br />

das Trigger Signal und die Flash-/Strobe<br />

Ansteuerung. Die RE-Kameravarianten<br />

hingegen verzichten auf die Standardschnittstelle<br />

und setzen bis hin zum Stecker<br />

konsequent auf IP65/67-Tauglichkeit.<br />

Die Kameras lassen sich dank ihrer<br />

hervorragenden Softwareunterstützung,<br />

einem Software-Entwicklungspaket und<br />

universellen Treibern schnell und<br />

problemlos in alle gängigen Industrie-Applikationen<br />

integrieren. Da jede Kamera<br />

mit einer kostenlosen Softwaresammlung<br />

ausgeliefert wird, die ein Software-Development-Kit<br />

(SDK), Demoprogramme für<br />

die Bilderfassung und –analyse sowie den<br />

zugehörigen in C/C++ geschriebenen<br />

Source Code enthält, eignen sich die µEyes<br />

auch für exper<strong>im</strong>entelle Anwendungen in<br />

Mensch-Maschine-Interaktion, wie das<br />

Beispiel des „Recipe Table“ zeigt. Dieser<br />

Nutzung kommt zudem zugute, dass die<br />

µEye-Serie die aktuellen Windows-Betriebssysteme<br />

und Linux unterstützt.<br />

Praxistest mit Bravour<br />

V i s i o n<br />

Einen ersten Praxistest hat der Prototyp<br />

des „mitdenkenden Küchentischs“ schon<br />

mit Bravour bestanden. Kein Geringerer<br />

als der Linzer Haubenkoch Georg Essig<br />

testete den „Recipe Table“ <strong>im</strong> Rahmen einer<br />

Kochshow auf dem Computer-Kunst-<br />

Festival Ars Electronica <strong>im</strong> September vergangenen<br />

Jahres. Auf dieser Ausstellung<br />

präsentierten die Studenten des Interface<br />

Culture Studiengangs an der Kunstuniversität<br />

Linz ihre visionären Arbeiten. Wir<br />

dürfen gespannt sein, ob der „Recipe Table“<br />

eines Tages den Weg in unsere Küchen<br />

finden wird. Nur das Kochen – das<br />

wird auch er uns nicht abnehmen können.<br />

� Kontakt<br />

Thomas Schmidgall<br />

iDs <strong>im</strong>aging Development systems GmbH,<br />

obersulm<br />

Tel.: 07134/96196-0<br />

Fax: 07134/96196-99<br />

t.schmidgall@ids-<strong>im</strong>aging.de<br />

www.ids-<strong>im</strong>aging.de


V I S I O N<br />

Die Weisheit liegt nicht allein <strong>im</strong> Wein<br />

Der Eneo aus der Toskana: sattes Rubin-Violett,<br />

sehr dichte Nase, nach Gewürznelken, leicht mine-<br />

ralische Noten, nach Brombeere und Rauch; viel<br />

helle Cassisfrucht am Gaumen, saftig, zupackendes<br />

Tannin, <strong>im</strong> Finale etwas rau, hat sehr gutes Poten-<br />

zial, viel Fruchtsüße, Nachhall nach Kakao…<br />

Die Eneo aus Rödermark: offene Systemarchitektur,<br />

Linux, Flexibilität, Standard-Applikationssoftware,<br />

Bildverarbeitungs-API, offene FPGA-Schnittstelle,<br />

Visual Applets…<br />

Von der Toskana nach Hessen: Der<br />

Rödermarker Distributor Videor Technical<br />

verfügt über ein umfangreiches<br />

Kamera- und Objektivsort<strong>im</strong>ent für die<br />

industrielle Bildverarbeitung. Auf der<br />

Vision 2006 stellt das Unternehmen mit<br />

Eneo erstmals eine Serie intelligenter<br />

Kameras mit offener System-Architektur<br />

und programmierbarem FPGA (Field<br />

Programmable Gate Array) vor.<br />

Im Machine Vision-Bereich beschreitet<br />

die Eneo-Kameraserie neue Wege<br />

und bietet höchste Flexibilität: Die auf<br />

das Betriebssystem Linux opt<strong>im</strong>ierte<br />

Architektur der äußerst kompakten, intelligenten<br />

Digitalkameras erlaubt die<br />

Verwendung von Standard-Softwarepaketen<br />

der industriellen Bildverarbeitung.<br />

So bietet das Münchener Unternehmen<br />

MVTec Software von Beginn an die<br />

Machine Vision Standard-Bibliothek und<br />

Entwicklungsumgebung Halcon für die<br />

Eneo-Kameraserie an. Es können aber<br />

auch maßgeschneiderte Lösungen für die<br />

Kamera programmiert werden. Hierfür<br />

stehen eine mächtige Bildverarbeitungs-<br />

API und eine hoch opt<strong>im</strong>ierte Toolchain<br />

zur Verfügung.<br />

Zukunftsweisende offene FPGA-<br />

Schnittstelle<br />

Zukunftsweisend ist vor allen Dingen die<br />

Möglichkeit, <strong>im</strong> frei zugänglichen Xilinx<br />

Spartan-3 FPGA anwendungsspezifische<br />

Bildvorverarbeitungs-Algorithmen zu<br />

32 INSPECT 4/2006<br />

<strong>im</strong>plementieren,<br />

um die Prozessor-<br />

Rechenleistung<br />

für die eigentlichen<br />

Aufgaben<br />

frei zu halten. Das<br />

Mannhe<strong>im</strong>er Unternehmen<br />

Silicon Software<br />

hat hierfür eine<br />

eigene Version ihrer VisualApplets entwickelt<br />

– ein grafisches Tool zur einfachen<br />

Programmierung des FPGA.<br />

Die Farb- und Monochromkameras<br />

sind wahlweise mit C-Mount Anschluss<br />

oder – ein weiteres Highlight – mit<br />

integrierter Optik und Beleuchtung verfügbar<br />

und lassen sich somit nicht nur<br />

auf Applikationen in der automatisierten<br />

Fertigungskontrolle ausrichten. Das<br />

kompakte Design (45x45x84 mm), das<br />

geringe Gewicht (ca. 184 g) und die extrem<br />

niedrige Leistungsaufnahme von<br />

weniger als 2 W ermöglichen die Integration<br />

in bestehende Anwendungen.<br />

Abtastraten von 180 Bildern pro Sekunde<br />

<strong>im</strong> Vollbildmodus und bis zu 1000 Bildern<br />

pro Sekunde <strong>im</strong> ROI-Modus tragen<br />

den hohen Fertigungsgeschwindigkeiten<br />

in modernen Automatisierungsanlagen<br />

Rechnung. Über eine Ethernet-Schnittstelle<br />

können mehrere Kameras vernetzt<br />

und zeitlich synchronisiert werden. Eine<br />

direkte Datenübertragung zur SPS kann<br />

ebenfalls über Ethernet, über CAN-Bus<br />

oder über einfache Schaltkontakte realisiert<br />

werden.<br />

Intelligente „Open Source“-Kamera Eneo<br />

Abb. 1: Intelligente Open Source Kamera Eneo<br />

Breites Portfolio<br />

Über die moderne und sicher zukunftsweisende<br />

Eneo-Serie hinaus enthält das<br />

breite Portfolio von Videor Technical eine<br />

Vielzahl von Monochrom- und Farbkameras<br />

mit oder ohne Gehäuse, für zum<br />

Teil sehr spezielle Anwendungen. Abgerundet<br />

wird dies von hochauflösenden<br />

Spezialobjektiven der japanischen Spitzenhersteller<br />

Tamron und Fujinon für<br />

die Bereiche Bildverarbeitung, Fertigungsautomation<br />

und Messtechnik, sowie<br />

von telezentrischen Objektiven und<br />

Beleuchtungen.<br />

� Kontakt<br />

Markus Kissel<br />

Videor Technical, Rödermark<br />

Tel.: 06074/888-260<br />

Fax: 06074/888-257<br />

m.kissel@videortechnical.com<br />

www.videortechnical.com


V i s i o n<br />

Europäischer Exportschlager: Bildverarbeitung<br />

Ergebnisse der Marktdatenerhebung Vision Technology 2006<br />

Wie ist eigentlich das Verhältnis zwischen<br />

Inlandsumsatz und Export der Bildverarbei­<br />

tungsunternehmen in Deutschland? Wie<br />

viel Umsatz machen europäische Bildverar­<br />

beiter in Asien? Wird der Markt in Europa<br />

ebenso wie in den USA von Komponenten­<br />

umsätzen dominiert? Welche Abnehmer­<br />

branche ist europaweit die stärkste? Wel­<br />

ches Wachstum erwarten europäische<br />

Bildverarbeitungs­Unternehmen für 2006?<br />

Diese und mehr Fragen werden jährlich<br />

beantwortet durch die Ergebnisse der<br />

europäischen Vision Technology Market<br />

Statistics, einer Gemeinschaftsarbeit der<br />

Fachabteilung Bildverarbeitung <strong>im</strong> VDMA<br />

und der EMVA (European Machine Vision<br />

Association).<br />

Abb. 1: Umsatzentwicklung der industriellen Bildverarbeitung in Deutschland<br />

Abb. 2: Forecast für 2006: 14 % Wachstum<br />

34 Inspect 4/2006<br />

Bildverarbeitungstechnologie<br />

hat sich in allen Anwenderbranchen<br />

zum Synonym für<br />

die wettbewerbsfähige Produktion<br />

und innovative Fertigungsprozesse<br />

entwickelt. Als<br />

„Auge der Maschine“ steigert<br />

sie Produktivität und Qualität,<br />

senkt Herstellkosten und<br />

erhöht die Sicherheit. Aus<br />

dieser Rolle erklärt sich der<br />

Erfolg dieser Technologie, die<br />

seit vielen Jahren auf Wachstumskurs<br />

ist. Das zeigen auch<br />

die Ergebnisse der deutschen<br />

VDMA Marktbefragung Industrielle<br />

Bildverarbeitung<br />

und der europäischen Vision<br />

Technology Market Statistics<br />

der EMVA (European Machine<br />

Vision Association). Die<br />

wichtigsten Ergebnisse stellen<br />

wir <strong>im</strong> Folgenden vor.<br />

Entwicklung des Branchenumsatzes<br />

in Deutschland<br />

Die Bildverarbeitung schreibt<br />

ihre Erfolgsgeschichte fort<br />

und zeigt weiterhin dynamische<br />

und über dem Durchschnitt<br />

der Investitionsgüterindustrie<br />

liegende Zuwächse.<br />

Die aktuelle VDMA Marktbefragung<br />

bestätigte die <strong>im</strong> letzten<br />

Jahr abgegebene Prognose<br />

für den Branchenumsatz<br />

in Deutschland für 2005 exakt:<br />

Er stieg um +7 % und<br />

durchbrach wie vorhergesagt<br />

die 1­Millarde­Euro­Grenze.<br />

Für 2006 sehen die befragten<br />

Unternehmen eine weitere<br />

Belebung des Geschäftes und<br />

rechnen mit einem Plus von<br />

etwa 9 % be<strong>im</strong> Gesamtumsatz<br />

auf gut 1,1 Mrd. €.


Gesamtumsatz der Bildverarbeitungs­Anbieter<br />

in Europa<br />

Die Analyse der europäischen<br />

Marktbefragung der European<br />

Machine Vision Association<br />

(EMVA) zeigt auch für<br />

Europa eine sehr ausgeprägte<br />

Wachstumsdynamik der<br />

Branche: Der Gesamtumsatz<br />

der europäischen Anbieter<br />

lag in 2004 bei 2,4 Mrd. €.<br />

2005 stieg er um 9 % auf 2,6<br />

Mrd. € an. Wachstumstreiber<br />

war hierbei insbesondere<br />

Amerika mit einem Plus von<br />

43 %. Die in Europa abgesetzten<br />

Volumina erhöhten sich<br />

hingegen vergleichsweise moderat<br />

um 6 %. Der leichte<br />

Rückgang der Umsätze der<br />

europäischen Anbieter in<br />

Asien von 3 % ist mit hoher<br />

V i s i o n<br />

Abb. 3: 55 % der deutschen Bildverarbeitungsunternehmen haben<br />

bis zu 20 Mitarbeiter.<br />

Abb. 4: Deutschland: Schwerpunkt der Umsatzverteilung sind die<br />

Systeme mit 68 %.<br />

Wahrscheinlichkeit auf stark<br />

zyklische Kundenbranchen<br />

zurückzuführen. Basierend<br />

auf den Meldungen von 55<br />

europäischen Unternehmen,<br />

die eine Schätzung für 2006<br />

abgaben, wird der Gesamtumsatz<br />

der europäischen<br />

Bildverarbeitungsanbieter in<br />

diesem Jahr um insgesamt<br />

14 % zulegen und dann 3 Mrd.<br />

€ erreichen.<br />

Die Struktur der Unternehmen:<br />

Mitarbeiter<br />

Die Branche ist bekanntlich<br />

durch kleine und mittelständische<br />

Unternehmen geprägt.<br />

Insgesamt erkennen wir jedoch<br />

einen spürbaren Trend<br />

zu steigender Unternehmensgröße,<br />

was einerseits auf die<br />

Inspect 4/2006<br />

35


V i s i o n<br />

Abb. 5: Europa: Schwerpunkt der Umsatzverteilung sind auch hier die Systeme<br />

mit 70 %.<br />

Wachstumsdynamik der<br />

Branche insgesamt, andererseits<br />

auf Firmenzusammenschlüsse<br />

sowie die<br />

zunehmende Internationalisierung<br />

der Unternehmen<br />

zurückzuführen ist. Das typische<br />

Bildverarbeitungs­<br />

Unternehmen in Deutschland<br />

beschäftigt 2005 durchschnittlich<br />

45 Mitarbeiter, in<br />

Europa sind es durchschnittlich<br />

44 Mitarbeiter.<br />

36 Inspect 4/2006<br />

Die Aufteilung des Branchenumsatzes<br />

auf Systeme und<br />

Komponenten<br />

Dem Kunden eine passende<br />

und auf seinen spezifischen<br />

Bedarf zugeschnittene Lösung<br />

zu liefern, ist seit jeher eine<br />

ausgesprochene Stärke der<br />

europäischen Bildverarbeiter,<br />

die sich ein breites und fundiertes<br />

Applikationswissen erarbeitet<br />

haben. Das spiegelt<br />

Abb. 6: Europaweit stärkste Kundenbranche 2005 ist die Automobilindustrie.<br />

Abb. 7: 67 % des deutschen Systemumsatzes entfiel 2005 auf Inspektionssysteme.<br />

sich auch in der Verteilung des<br />

Umsatzes nach Produktarten<br />

wider. Gut zwei Drittel des<br />

Umsatzes entfielen <strong>im</strong> Jahr<br />

2005 auf Systeme – unterschieden<br />

in „anwendungsspezifische<br />

Systeme“ und „konfigurierbare<br />

Systeme“. Etwa ein<br />

Drittel des Branchenumsatzes<br />

der europäischen Anbieter<br />

entfiel auf Komponenten für<br />

die Industrielle Bildverarbeitung.<br />

Sowohl in Deutschland<br />

als auch in Europa gehen die<br />

Anteile der applikationsspezifischen<br />

Systeme leicht zurück,<br />

während die Anteile der konfigurierbaren<br />

Systeme sowie<br />

der Smart Cameras tendenziell<br />

steigen. Dies weist auf die<br />

gestiegene Leistungsfähigkeit<br />

der Standardsysteme hin, die<br />

teilweise Aufgaben übernehmen,<br />

die zuvor den applikationsspezifischen<br />

Systemen<br />

vorbehalten waren.<br />

Kundenbranchen der<br />

Systemhersteller<br />

Sowohl in Europa als auch in<br />

Deutschland liegt die Automobilindustrie<br />

(einschließlich Zu­<br />

lieferern) mit einem Anteil von<br />

30 % des Systemumsatzes <strong>klar</strong><br />

vorne – gefolgt von der<br />

Glasherstellung (13 % in<br />

Europa, 16 % in Deutschland).<br />

Die Druckindustrie liegt bei<br />

einem Anteil von 10 % in<br />

Europa auf Platz 3 (in Deutschland<br />

mit einem Anteil von 2 %<br />

auf Platz 9). Ebenfalls wichtige<br />

Abnehmerbranchen sind die<br />

Elektro­/Elektronikindustrie<br />

(9 % in Europa, 10 % in<br />

Deutschland) sowie die<br />

Gummi­ und Kunststoffherstellung<br />

(5 % in Europa, 6 % in<br />

Deutschland). Die Systemanbieter<br />

realisierten 2005 ein<br />

Fünftel ihres Umsatzes mit Applikationen<br />

außerhalb der industriellen<br />

Massenproduktion<br />

– also <strong>im</strong> Bereich der sog.<br />

nicht­industriellen Anwendungen.<br />

Diese umfassen Aufgabenstellungen<br />

wie z. B. das<br />

Unterscheiden von Leberfleck<br />

und Melanom, das automatische<br />

Erkennen von Gegenverkehr<br />

auf der Fahrbahn, das<br />

Lesen von Nummernschildern<br />

und Überweisungsträgern<br />

oder auch die Identifikation<br />

von Personen durch Iriserken­


Abb. 8: Applikationsbezogene Umsatzverteilung für Smart Cameras<br />

nung oder das Scannen von<br />

Fingerabdrücken. Bei den<br />

Komponentenanbietern waren<br />

die nichtindustriellen Anwender<br />

mit Abstand die wichtigste<br />

Kundengruppe: Insgesamt erzielten<br />

die europäischen Komponentenanbieter<br />

31 % ihres<br />

Umsatzes in diesem Bereich;<br />

in Deutschland sogar 35 %.<br />

Anwendungen<br />

Bei den Anwendungen dominiert<br />

sowohl bei den deutschen<br />

als auch bei den europäischen<br />

Anbietern die Inspektion von<br />

Teilen und von Endlosmaterialien.<br />

In Deutschland entfällt<br />

fast die Hälfte des Umsatzes<br />

der Systemanbieter auf die Inspektion<br />

von diskreten Teilen<br />

(46 %). Die Inspektion von Endlosmaterialien<br />

ist mit 21 % der<br />

zweitstärkste Bereich. Messtechnische<br />

Anwendungen (2D<br />

und 3D) machen zusammen<br />

13 % des Umsatzes aus. Weitere<br />

wichtige Anwendungen<br />

sind visuell geführte Maschinen<br />

(z. B. Robot Vision), das<br />

Erkennen von Teilen und<br />

Schriftzeichen sowie das Codelesen.<br />

Bei den europäischen Anbietern<br />

ist die Inspektion von<br />

Teilen mit einem Anteil von<br />

40 % etwas schwächer gewichtet,<br />

die Inspektion von<br />

Endlosmaterialien hingegen<br />

etwas stärker (26 %). Danach<br />

kommen wie bei den deutschen<br />

Anbietern die messtechnischen<br />

Anwendungen<br />

mit insgesamt 15 % (2D und<br />

3D zusammen gefasst).<br />

Export: Motor des Wachstums<br />

Die deutschen Anbieter von<br />

Bildverarbeitungstechnologie<br />

exportieren <strong>im</strong>mer größere<br />

Anteile ihrer Produktion: 2005<br />

erzielten sie erstmals <strong>im</strong> Ausland<br />

höhere Umsätze als <strong>im</strong><br />

Inland und erreichten einen<br />

Exportanteil von insgesamt<br />

55 %. Für Europa insgesamt<br />

lag der Umsatzanteil der Exporte<br />

in außereuropäische Regionen<br />

2005 bei 29 %. Hiervon<br />

entfielen 13 % auf Asien und<br />

15 % auf Amerika. Insgesamt<br />

gehen die stärksten Wachstums<strong>im</strong>pulse<br />

für die deutschen<br />

und europäischen Bildverarbeiter<br />

von den Exporten aus,<br />

so dass sich die Exportquote<br />

in den kommenden Jahren<br />

noch weiter erhöhen dürfte.<br />

� Kontakt<br />

Patrick schwarzkopf<br />

Tel.: 069/6603-1466<br />

Fax: 069/6603-2466<br />

V i s i o n<br />

VDMA – Verband Deutscher<br />

Maschinen- und Anlagenbau,<br />

Frankfurt<br />

patrick.schwarzkopf@vdma.org<br />

www.vdma.org/vision<br />

EMVA – European Machine Vision<br />

Association, Frankfurt<br />

info@emva.org<br />

www.emva.org


V i s i o n<br />

MVTec­Software mit Schnittstelle zu Lumenera­Kameras<br />

Die MVTec Software GmbH, München, bringt eine Schnittstelle auf den Markt,<br />

die den Betrieb der mächtigen Halcon Software-Bibliothek für die industrielle<br />

Bildverarbeitung mit der industrietauglichen USB-2.0-Kameraserie von Lumenera<br />

ermöglicht. Die USB-Kameraserie von Lumenera bietet ein breites Spektrum<br />

in Geschwindigkeit sowie Auflösungen von VGA bis 11 Megapixel an.<br />

Durch die Kombination mit der High-End-Software Halcon von MVTec kann ein<br />

weites Feld von industriellen Applikationen bedient werden wie z. B. OCR und<br />

OCV, Barcode-Erfassung, Qualitätsprüfung und viele mehr. Der USB-Standard<br />

stellt eine weit verbreitete Plug-and-Play-Technik dar, die zunehmend auch <strong>im</strong><br />

rauen industriellen Umfeld und in Machine-Vision-Systemen zu finden ist. MV-<br />

Tec ist stets darauf bedacht, Industrietrends aufzugreifen und entsprechende<br />

Schnittstellen bereitzustellen. Deshalb ist die Machine-Vision-Software Halcon<br />

auch in der Version 7.1 hardware- und plattformunabhängig.<br />

MVTec Software GmbH<br />

Tel.: 089/457695-0 • info@mvtec.com • www.mvtec.com<br />

Website überarbeitet<br />

Neues Erscheinungsbild, detaillierter<br />

Online-Katalog und umfangreiches<br />

Download- und Serviceangebot<br />

– der Bildverarbeitungsspezialist<br />

IDS Imaging<br />

Development Systems hat seinen<br />

Internetauftritt gründlich überarbeitet.<br />

Das Unternehmen – bekannt<br />

geworden mit der Entwicklung<br />

von Framegrabbern – setzte<br />

als einer der ersten Hersteller auf die schnelle USB 2.0-Schnittstelle für Machine-Vision-Applikationen.<br />

Auf dieser Basis bietet IDS heute eine breite Palette<br />

an Industriekameras, Zubehör und Software-Tools „Made in Germany“. Die Kamerafamilie<br />

uEye umfasst zur Zeit über 100 Modellvarianten. Unter www.ids<strong>im</strong>aging.de<br />

können sich Kunden und Interessenten über das breite Produktspektrum<br />

ausführlich informieren, einzelne Kameramodelle vergleichen, eine<br />

Angebotsanfrage tätigen oder die neueste Treiber-Version downloaden.<br />

IDS Imaging Development Systems GmbH • Tel.: 07134/96196–0<br />

sales@ids-<strong>im</strong>aging.de • www.ids-<strong>im</strong>aging.de<br />

Hochauflösende Objektive<br />

Mit der neuen Serie vicotar T201 erweitert<br />

Vision & Control sein breites Sort<strong>im</strong>ent an<br />

telezentrischen Objektiven. Die durchgehende<br />

Baureihe hochauflösender Objektive<br />

für C-Mount-Kameras mit max<strong>im</strong>al<br />

1“-Bildaufnehmer werden mit zwei unterschiedlichen<br />

Arbeitsabständen geliefert.<br />

Zur Serie T201 gehören acht objektseitig<br />

telezentrische Objektive mit C-Mount-<br />

Anschluss in identischer Bauform, mit<br />

gleichem max<strong>im</strong>alen Außendurchmesser<br />

(71 mm) und gleicher Baulänge (260 mm). Der auf die Machine Vision-Praxis<br />

abgest<strong>im</strong>mte Arbeitsabstand kann in zwei Stufen zwischen 140 mm und 280<br />

mm gewählt werden. Das erleichtert Maschinenbauern die Integration in Anlagen.<br />

Be<strong>im</strong> Optikdesign wurde der Trend zu <strong>im</strong>mer größeren Bildaufnehmern mit<br />

mehr Pixeln berücksichtigt.<br />

Vision & Control GmbH • Tel.: 03681/7974-0<br />

infopoint@vision-control.com • www.vision-control.com<br />

Kompakte analoge Progressive­Scan­Kamera<br />

Die Image Sensing Solutions Division<br />

von Sony Europe meldet die Einführung<br />

einer neuen analogen Progressive<br />

Scan Kamera, die trotz SXGA-Auflösung<br />

auf eine hohe Framerate von<br />

30 fps kommt. Die kompakte Kamera<br />

des Typs XC-HR90 empfiehlt sich<br />

durch ihre beispiellose Kombination<br />

aus Genauigkeit und Schnelligkeit für<br />

industrielle Inspektions-Anwendungen in Bereichen wie Elektronikfertigung,<br />

Robotertechnik sowie die Verpackungs, Automobil-, Nahrungsmittel- und Getränkeindustrie.<br />

Die mit Abmessungen von 29 x 29 x 66 mm sehr kompakte Kamera<br />

ist für Kommunikations- und Steuerungszwecke mit einer RS232-Schnittstelle<br />

ausgestattet und lässt sich ohne großen Aufwand in beliebige industrielle<br />

Applikationen integrieren. Der 1/3-Zoll PS CCD-Sensor verfügt über 1.296 x<br />

966 effektive Bildaufnahme-Elemente.<br />

Sony Deutschland GmbH • Tel.: 02217537-6581<br />

michael.pisch@eu.sony.com • www.sonybiz.net/vision


Licht nach Maß<br />

Polytec ist Komplettanbieter von Komponenten<br />

für die Bildverarbeitung. Neben<br />

Kameras, Objektiven und Bildauswertesoftware<br />

liegt ein Schwerpunkt <strong>im</strong><br />

Bereich der Beleuchtung. Obwohl hier<br />

mehrere tausend Komponenten zur Verfügung<br />

stehen, gibt es je nach Applikation<br />

Anwendungsgebiete, die nicht mit<br />

Standard-Beleuchtungen ausgerüstet<br />

werden können. In diesen Fällen entwickelt Polytec, sei es <strong>im</strong> faseroptischen<br />

Bereich oder bei der LED-Beleuchtung, kundenspezifische individuelle Beleuchtungen.<br />

Ein aktuelles Beispiel ist die Entwicklung einer 300 mm Dombeleuchtung<br />

mit integriertem Ringlicht und drei Kreisen mit „Satelliten“-LEDs.<br />

Alle LED-Gruppen sind einzeln ansteuerbar. Neben der diffusen Dombeleuchtung<br />

kann mit diesem Ringlicht ein gerichtetes Licht erzeugt und mit Hilfe der<br />

„Satelliten“-LEDs best<strong>im</strong>mte Flächen separat aufgehellt werden. So können<br />

mit einer Beleuchtungseinheit verschiedene Prüfaufgaben an einem Arbeitsplatz<br />

durchgeführt werden.<br />

Polytec GmbH<br />

Tel.: 07243/604-0 • f.fughe@polytec.de • www.polytec.de<br />

LED­Beleuchtungsspots<br />

Die IB/E LED-Beleuchtungsspots sind zur<br />

Beleuchtung kleiner Objektflächen konzipiert.<br />

Die Kombination hoch lichtstarker<br />

LEDs mit abgest<strong>im</strong>mter Beleuchtung nutzt<br />

die Lichtstärke der LED opt<strong>im</strong>al aus. Die<br />

Ausführung des LED-Spots ist für raue Industrieumgebung<br />

geeignet. Der LED-Spot<br />

kann auf Kundenwunsch hinsichtlich Bauform<br />

und Adaption abgest<strong>im</strong>mt werden.<br />

Für den Spot können beliebige Filter vorgesetzt werden. Ein Adapter für Lichtleiter ist<br />

verfügbar. Damit ist der LED-Spot als Ersatz für Kaltlichtquellen möglich. Ebenso sind<br />

Adaptionen für Sekundäroptiken möglich. Damit ergeben sich weitere Einsatzmöglichkeiten<br />

für den LED-Spot. IB/E bietet zusätzlich passende Treiber an.<br />

IB/E Optics • Tel.: 08505/3222 • ibe@ibe-optics.com • www.ibe-optics.com<br />

Asphären in bester Qualität<br />

Die Herstellung von Asphären stellt eine große Herausforderung<br />

an Optikproduzenten. Fisba Optik hat<br />

über die vergangenen Jahre eine Reihe von verschiedenen<br />

Fertigungsverfahren entwickelt, die erfolgreich<br />

in der Produktion von Asphären für spezifische Kundenprojekte<br />

angewendet worden sind. Fisba kann<br />

nun, aufgrund der gesammelten Erfahrungen, ihren<br />

Kunden eine breite Palette an kundenspezifischen<br />

Asphären zu einem günstigen Preis-/Leistungsverhältnis anbieten. Im Gegensatz zu<br />

Sphären haben Asphären keinen festen Radius. Dies führt zu wesentlich besseren<br />

optischen Abbildungseigenschaften und ermöglicht gleichzeitig die Verringerung der<br />

Linsenanzahl in optischen Systemen. Das Ergebnis ist eine verbesserte optische Güte<br />

bei gleichzeitiger Gewichtseinsparung und kompakterer Baugröße.<br />

Fisba Optik AG • Tel.: +41/71/2823131 • barbara.ras@fisba.ch • www.fisba.ch<br />

USB2.0 Kameras ohne externe Stromzufuhr<br />

Im Vergleich zur herkömmlichen LU-Serie<br />

enthält die LW-Serie von Lumenera<br />

einen deutlich größeren FPGA, wodurch<br />

mehrere Funktionen auf der Kamera <strong>im</strong>plementiert<br />

werden können. Die LW-Serie<br />

bietet neue Features sowie einen onboard<br />

32 MB RAM Speicher. Mit dem<br />

verbesserten Leistungsmanagement gelingt<br />

es, die Kamera ohne externe<br />

Stromzufuhr zu betreiben. Ein schnellerer Bilddurchsatz und eine insgesamt<br />

deutliche Performancesteigerung runden die hervorragenden Eigenschaften<br />

dieser neuen Kameraserie ab. Ein Beispiel ist die LW290/LW295.<br />

Diese 2/3“ CMOS Kamera erlaubt ein Auslesen von 20 Bildern/s bei voller<br />

2.1M Pixel Auflösung. Die Pixeldaten können in 8 oder 12 Bit bezogen<br />

werden. Die LW290/LW295 ist DirectShow kompatibel, enthält eine Vorschausoftware<br />

und kann mit einem Software Development Kit (SDK) geliefert<br />

werden. Dazu ist die USB2.0 Kamera in Farbe oder Monochrom lieferbar<br />

und kann extern getriggert werden.<br />

Framos GmbH<br />

Tel.: 089/710667 • info@framos.de • www.framos.de<br />

V i s i o n


V i s i o n<br />

Hochleistungskamera für komplexe Anwendungen<br />

Mit der VC4466 ist ab sofort das erste Modell der neuen VC44xx-Kameraserie<br />

lieferbar, die sich dank ihrer verbesserten Ausstattungsmerkmale selbst für<br />

höchst komplexe Anwendungen eignet. Die gesamte Baureihe ist mit der neuesten<br />

DSP-Generation von Texas Instruments (1 GHz, 8.000 MIPS) ausgestattet<br />

und verfügt über eine RS232- und eine<br />

Ethernetschnittstelle sowie einen externen<br />

Triggereingang, der selbst bei hoher Abfragefrequenz<br />

jitterfreie Bildaufnahmen<br />

ermöglicht. Zur Standardausrüstung gehört<br />

außerdem ein Hochgeschwindigkeitsencoderinterface.<br />

Die VC4466 hat einen<br />

1/3“-CCD-Sensor mit einer Auflösung<br />

von 1.024 x 768 Pixeln und erreicht eine Bildrate von 30 fps (60 fps mit Binning).<br />

In der Standardausführung dienen 4 MB Flash EPROM und 64 MB<br />

SDRAM zur Programm- und Bildspeicherung, optional kann die Speicherkapazität<br />

auf 128 MB erweitert werden.<br />

Vision Components GmbH • Tel.: 07243 / 2167-16<br />

najlaa.hussein@vision-comp.com • www.vision-components.com<br />

Komplettes Objektivset für die Bildverarbeitung<br />

Pentax hat aufgrund der großen Nachfrage das erfolgreiche Objektivset BVS-1 für<br />

die Bildverarbeitung noch einmal erweitert. Die bereits bekannte Zusammenstellung<br />

von Megapixel-Objektiven aus der hoch auflösenden<br />

M-Serie (Brennweiten: 12, 16, 25, 35, 50 und<br />

75 mm) kommt zusammen mit einem stabilen<br />

Werkzeugsatz. Dazu hat Pentax das Set um eine<br />

Auswahl des am meisten benötigten Bildverarbeitungszubehörs<br />

erweitert. Alle Objektive der M-Serie<br />

sind mit Kreuzschlitz- und Rändelschrauben zur<br />

Fixierung von Fokus und Blende ausgestattet. Sie<br />

eignen sich besonders für die hohen Anforderungen<br />

der modernen Megapixel-Kameras. In diesem<br />

Sort<strong>im</strong>ent ist das Makro-Fokus-Mount MUM-2M eine Besonderheit. Das Makro-Fokus-Mount<br />

ist ein spezieller Kamera-Anschluss (Mount) mit C-Mount Gewinde<br />

und einem um 2mm verlängerten Tubus.<br />

Pentax Europe GmbH<br />

Tel.: 040/56192-109 • cctv@pentax.de • www.pentax.de<br />

Ultrakompakte GigE Vision­Kameras<br />

Prosilica führt eine neue Reihe ultrakompakter Gigabit-Ethernet-Kameras für<br />

Bildverarbeitung und Anwendungen in der Industrie ein. Die Kameras der<br />

neuen GC-Serie von Prosilica sind die wohl kleinsten Gigabit-Ethernet Kameras<br />

der Welt. Bei Abmessungen<br />

von 4,3 x 4,6 x 3,3 cm wiegen<br />

diese mit GigE Vision kompatiblen<br />

Kameras nur 99 g. Die kleinen,<br />

leichten und energiesparenden<br />

Kameras eignen sich ideal<br />

für Anwendungen in den Bereichen<br />

Halbleiterinspektion, Luftfahrtelektronik<br />

und Robotertechnik. Sie verfügen über alle herausragenden<br />

Merkmale anderer Kameramodelle von Prosilica, darunter die Region of<br />

Interest-Funktion, Binning-Modi bis 8 x 8 Pixel, hohe Frameraten und verschiedene<br />

Farbausgabeformate einschließlich RGB. Außerdem umfassen die Kameras<br />

eine integrierte Farbinterpolation, ein robustes Design, ein exzellentes Software<br />

Development Kit und vieles mehr. (Vision 2006: Halle 4 – Stand 312)<br />

Rauscher GmbH<br />

Tel.: 08142/44841-0 • info@rauscher.de • www.rauscher.de<br />

Geschwindigkeit bei Kompaktsystemen gesteigert<br />

Panasonic Electric Works ist es gelungen, die<br />

hohe Prüfgeschwindigkeit seines Bildverarbeitungssystems<br />

„Imagechecker“ noch weiter zu<br />

steigern. Der PV310 erkennt Fehler bis zu 40x<br />

schneller als das Vorgängermodell. Damit sind<br />

viele Anwendungen in der Kompaktklasse<br />

möglich, die bisher PC-basierte Systeme erforderten,<br />

wie z. B. Oberflächen- und Kantenkontrollen.<br />

Hierfür verfügt der PV310 über<br />

neue Verfahren. Sie erkennen kleinste Fehler<br />

wie Risse, Kratzer, Anstanzungen oder<br />

Schw<strong>im</strong>mhäute auch bei schwankender Größe<br />

oder unterschiedlicher Helligkeit. Zur Dokumentation<br />

lassen sich Bilder in Echtzeit speichern<br />

und über Ethernet oder CF-Speicherkarte auf einen PC übertragen.<br />

Die kostenlos erhältliche Software zur Projektverwaltung unterstützt dies<br />

zusätzlich.<br />

Panasonic Electric Works Deutschland GmbH • Tel.: +49 8024 6480<br />

info-de@eu.pewg.panasonic.com • www.panasonic-electric-works.de<br />

Hochauflösende Farbzeilenkameras<br />

Zur Vision 2006 (Stand: 4.0–602) stellt Chromasens eine neue Serie hochauflösender<br />

Farbzeilenkameras vor. Highlight des „Modular Camera System“ ist<br />

die MCS-7300. Sie erreicht bei einer max<strong>im</strong>alen Zeilenfrequenz von 7,7 kHz<br />

und einer Datenrate von 180 MB pro Sekunde eine Auflösung von 7300 Pixel.<br />

Fünf weitere, baugleiche Modelle erlauben Auflösungen von 1–6 k Pixel bei<br />

Zeilenraten von bis zu 38,8 kHz. Durch ein modulares System von Objektivadaptern<br />

können die MCS-Kameras mit allen gängigen Standardobjektiven<br />

kombiniert werden. Chromasens verwendet für sämtliche Farbzeilenkameras<br />

der MCS-Familie die gleiche Basistechnologie und baugleiche Gehäuse. So ist<br />

gewährleistet, dass die Einzelkomponenten in jeder erdenklichen Produktvariante<br />

stabil miteinander arbeiten.<br />

Chromasens GmbH<br />

Tel.: 07531/87-4002 • info@chromasens.de • www.chromasens.de<br />

LED Multilight<br />

Optometron präsentiert mit der Produkterweiterung<br />

MultiLight Ringleuchte LR 45/90 POL eine<br />

LED Ringbeleuchtung mit integriertem Polarisationsfilter<br />

und drehbarem Analysator. Sie bietet<br />

eine nahezu reflexfreie Beleuchtung, opt<strong>im</strong>iert<br />

durch einfache Drehung der Stellung des Analysators.<br />

Speziell bei metallischen Oberflächen, an<br />

Lötstellen oder polierten Strukturen hoher Güte<br />

bringt die Polarisierung den entscheidenden Vorteil.<br />

Die Montage des Polfilters und Analysators<br />

direkt am LED Ringlicht verändert nicht die kompakte<br />

Bauform der LED Ringbeleuchtung mit den<br />

Abmessungen ID: 45 mm AD: 90 mm H: 25 mm. Sie ist daher passend für alle<br />

gängigen Mikroskope und Objektive für Machine Vision, in der Bildverarbeitung,<br />

der Stereo- und Videomikroskopie. Ergänzt mit Vorsätzen an Diffusoren<br />

oder Fresnellinsen werden neue Möglichkeiten eröffnet, schwer zu beleuchtende<br />

Proben ins rechte Licht zu setzten.<br />

Optometron GmbH<br />

Tel.: 089/906041 • info@optometron.de • www.optometron.de<br />

40 Inspect 4/2006 weitere Produkte unter www.PRo-4-PRo.com


Mehr ab Seite 42<br />

AutomAtion<br />

messen – Prüfen – identifizieren – steuern<br />

Alles <strong>klar</strong> <strong>im</strong> <strong>Cockpit</strong><br />

M A C H I N E V I S I O N • S U R F A C E I N S P E C T I O N • M I C R O S C O P Y<br />

Bildverarbeitung und Robotik sorgen für 100 % Qualität der <strong>Cockpit</strong>s von Johnson Controls<br />

Stemmer ImagIng In Kürze<br />

Mit einem Umsatz von 23,2 Mio. € <strong>im</strong> Geschäftsjahr<br />

2005/2006, das am 30. Juni 2006<br />

zu Ende ging, ist die Stemmer Imaging GmbH<br />

der größte deutsche und europäische Anbieter<br />

von Komponenten <strong>im</strong> Marktsegment Industrielle<br />

Bildverarbeitung. Gemeinsam mit den Tochterunternehmen<br />

und Partnern in den wichtigsten<br />

europäischen Staaten bietet Stemmer Imaging<br />

seinen Kunden die größtmögliche Liefersicherheit,<br />

einen opt<strong>im</strong>alen Support und leistungsfähige<br />

Produkte auf dem neuesten Stand der Technik.<br />

Wir stehen für kundennahe, lösungsorientierte<br />

und zuverlässige Kompetenz in der IBV.<br />

Produkte<br />

Die Produktpalette umfasst alle anwenderspezifischen<br />

Bestandteile der IBV:<br />

� Beleuchtungen für die bestmögliche Ausleuchtung<br />

des Prüfobjekts<br />

� Optiken für alle wichtigen Kameras und<br />

Aufgabenstellungen<br />

� Industrietaugliche Kameras, wie Flächen­,<br />

Zeilen­ und High­Speed­Kameras<br />

� Kabel und Steckverbindungen, auf Wunsch<br />

auch schleppkettentauglich<br />

� Bilderfassungskarten<br />

� Software für die Bildauswertung<br />

� Komplette Bildverarbeitungssysteme<br />

� Notwendiges Zubehör (Netzgeräte, Kamerastative,<br />

Schutzgehäuse, Filter usw.)<br />

Als Bindeglied dieser Komponenten dient die<br />

leistungsfähige, modulare Software­Plattform<br />

Common Vision Blox, die zusammen mit einer<br />

Werkzeugpalette, die inzwischen rund 30 Tools<br />

umfasst, nahezu alle denkbaren Aufgabenstellungen<br />

<strong>im</strong> Bereich der IBV auf einfache und<br />

flexible Weise lösbar macht.<br />

k o n t a k t<br />

Stemmer Imaging GmbH<br />

Gutenbergstraße 9–11<br />

82178 Puchhe<strong>im</strong><br />

Tel.: 089/80902-0<br />

Fax: 089/80902-116<br />

info@<strong>im</strong>aging.de<br />

www.stemmer-<strong>im</strong>aging.de<br />

Inspect 4/2006<br />

41


A u t o m A t i o n<br />

Alles <strong>klar</strong> <strong>im</strong> <strong>Cockpit</strong><br />

Bildverarbeitung und Robotik sorgen für 100 % Qualität der <strong>Cockpit</strong>s von Johnson Controls<br />

Das <strong>Cockpit</strong> ist der Kommandostand für<br />

Fahrvergnügen und Fahrsicherheit. Hier<br />

muss alles st<strong>im</strong>men, funktional und ästhe-<br />

tisch. Johnson Controls, eines der weltweit<br />

führenden Unternehmen <strong>im</strong> Bereich der<br />

automobilen Innenausstattung und Elektro-<br />

nik, prüft seine Auto-<strong>Cockpit</strong>s mit acht<br />

Kameras auf bis zu 70 Merkmale in zwei<br />

Varianten nach vier Kriterien. Die 100 %-<br />

Sicherheit gewährleistet ein VMT-Bild-<br />

verarbeitungssystem.<br />

Die meisten Automobilhersteller lassen<br />

ihre Interieurbauteile heute von Zulieferern<br />

produzieren, um die Qualität<br />

zu steigern und die Kosten zu senken.<br />

Am Standort Lüneburg der multinationalen<br />

Johnson Controls wird eine große<br />

Vielfalt an <strong>Cockpit</strong>s und Türinnenverkleidungen<br />

für verschiedene Automobilhersteller<br />

gefertigt und von dort direkt<br />

an das Produktionsband des<br />

jeweiligen Automobilherstellers geliefert.<br />

Das setzt natürlich voraus, dass<br />

die Bauteile das Werk in Lüneburg geprüft<br />

und absolut fehlerfrei verlassen.<br />

Johnson beliefert die führenden Automobilhersteller<br />

weltweit.<br />

Um den steigenden Erwartungen der<br />

Kunden stets einen Schritt voraus zu bleiben,<br />

setzt Johnson Controls auf stetige In-<br />

Abb. 1: Ein ABB-Roboter greift die <strong>Cockpit</strong>s und präsentiert sie in fünf<br />

Positionen vor der Prüfstation.<br />

42 Inspect 4/2006<br />

novation zur Verbesserung der Produktqualität<br />

sowie der Qualitätssicherung.<br />

Gerade <strong>im</strong> Bereich der <strong>Cockpit</strong>s werden<br />

die Anforderungen an Sicherheit und Qualität<br />

<strong>im</strong>mer komplexer, so dass in Folge<br />

eine sehr hohe Anzahl von qualitätsrelevanten<br />

und für die Weiterverarbeitung<br />

wichtigen Bauteilen vor der Auslieferung<br />

geprüft werden muss. Dabei handelt es<br />

sich um korrekt gesetzte Nieten speziell<br />

<strong>im</strong> Airbagbereich, Clipse, Federhalter,<br />

sonstige Anbauteile und Baugruppen sowie<br />

Verschraubungen allgemein.<br />

Die Anzahl der notwendigen Prüfungen<br />

beläuft sich derzeit auf 60–70 wechselnde<br />

Merkmale, wobei die Vielzahl durch die<br />

Varianten Rechts- und Linkslenker noch<br />

erhöht wird. Geprüft wird aber nicht nur,<br />

ob die Bauteile vorhanden oder korrekt<br />

angebracht sind, sondern auch, ob die<br />

richtigen Bauteile eingesetzt wurden und<br />

ob diese passgenau sitzen. Bisher wurde<br />

ein Großteil der Merkmale manuell durch<br />

Mitarbeiter von Johnson Controls <strong>im</strong> Dreischichtbetrieb<br />

überprüft.<br />

Die Aufgabenstellung schließt eine<br />

mechanische Lösung aus<br />

Um die Prüfung der <strong>Cockpit</strong>s zu automatisieren,<br />

musste ein flexibles und erweiterbares<br />

System geschaffen werden, das eine<br />

verlässliche und kontinuierliche 100 %-<br />

Prüfung der <strong>Cockpit</strong>s gewährleistet und<br />

das es ermöglicht, die hohe Anzahl der<br />

Prüfungen an allen <strong>Cockpit</strong>-Typen in sehr<br />

kurzer Zeit durchzuführen und zu dokumentieren.<br />

Abb. 2: Insgesamt acht Kameras und eine speziell angepasste Beleuchtung<br />

sorgen für eine opt<strong>im</strong>ale Bildaufnahme.


Eine weitere Herausforderung<br />

lag in den verschiedenen<br />

Farbkombinationen<br />

und Oberflächen, die durch<br />

das System verarbeitet werden<br />

müssen. Eine Vorgabe<br />

von Typ und Farbe konnte<br />

nicht gegeben werden. Zusätzlich<br />

muss das System die<br />

Möglichkeit bieten, die fehlerhaften<br />

<strong>Cockpit</strong>s in einer<br />

Nacharbeitsstation auszuschleusen<br />

und dem Mitarbeiter<br />

anzuzeigen, wo welcher<br />

Fehler vorliegt. Und zwar so,<br />

dass der Werker möglichst<br />

einfach und absolut sicher<br />

die als fehlerhaft erkannten<br />

Teile oder Baugruppen identifizieren<br />

und reparieren<br />

oder austauschen kann.<br />

Eine mechanische taktile<br />

Lösung kam wegen der hohen<br />

Anzahl der teilweise schwer<br />

erreichbaren Merkmale sowie<br />

aufgrund der Forderung nach<br />

einer hohen Flexibilität des<br />

Systems zur schnellen und unkomplizierten<br />

Erweiterung der<br />

Prüfungen nicht in Betracht.<br />

Gelöst wurde diese anspruchsvolle<br />

Aufgabe durch<br />

die VMT Bildverarbeitungssysteme<br />

GmbH mit Hauptsitz<br />

in Weinhe<strong>im</strong> in enger Zusammenarbeit<br />

mit der Dieffenbacher<br />

Automation GmbH<br />

aus Seevetal bei Hamburg.<br />

Für die VMT GmbH wurde<br />

das Projekt von den Technikern<br />

ihrer Niederlassung<br />

Nord in Garbsen betreut. Dabei<br />

hat sich die Nähe der beiden<br />

Firmen zum Endkunden<br />

bewährt und in kürzester<br />

Zeit zur erfolgreichen Umsetzung<br />

der Anlage geführt.<br />

Um den hohen Anforderungen<br />

gerecht zu werden,<br />

wurde auf eine Automatisierung<br />

mit dem bewährten<br />

Bildverarbeitungssystem<br />

VMT IS in Mehrkameraversion<br />

unter Einsatz von Bildverarbeitungs-Komponenten<br />

der Firma Stemmer Imaging<br />

GmbH in Kombination mit<br />

einem ABB Roboter gesetzt.<br />

Komplettiert wird die Zelle<br />

durch zwei Bänder, wobei<br />

das erste Band die fehlerfreien<br />

<strong>Cockpit</strong>s dem weiteren<br />

Produktionsprozess und das<br />

zweite Band fehlerhafte<br />

<strong>Cockpit</strong>s dem Nacharbeitsplatz<br />

zuführt.<br />

„Alle Bildverarbeitungs-<br />

Komponenten wie die Kameras,<br />

Objektive und Bilderfassungs-Karten<br />

beziehen wir von<br />

Stemmer Imaging. Besonders<br />

hilfreich war neben den bewährten<br />

Software-Tools unseres<br />

Unternehmens der Einsatz<br />

der Basis-Software<br />

Common Vision Blox”, erläutert<br />

VMT-Geschäftsführer Harald<br />

Mikeska. Die Stemmer<br />

Imaging GmbH mit Sitz in<br />

Puchhe<strong>im</strong> bei München ist Vertriebshaus<br />

für alle Komponenten<br />

der Bildverarbeitung und<br />

Entwickler der allgemeinen<br />

Bildverarbeitungs-Software<br />

Common Vision Blox sowie der<br />

zugehörigen Werkzeuge.<br />

Und dann geht es <strong>im</strong> Automatikbetrieb<br />

los<br />

Der durch Einsatz der Bildverarbeitung<br />

neu geschaffene Arbeitsablauf<br />

umfasst folgende<br />

Schritte: Zunächst legt der<br />

Mitarbeiter die <strong>Cockpit</strong>s in<br />

eine Aufnahme ab und startet<br />

den Prozess. Das <strong>Cockpit</strong> wird<br />

dann vom Roboter gegriffen<br />

A u t o m A t i o n<br />

und den insgesamt acht Kameras,<br />

die an einem Stahlbau<br />

in der Zelle befestigt sind, in<br />

fünf verschiedenen Positionen<br />

präsentiert. Die Anzahl der<br />

Kameras ist notwendig, um<br />

alle 65 geforderten Prüfungen<br />

innerhalb der kurzen zur Verfügung<br />

stehenden Zykluszeit<br />

durchführen zu können.<br />

Im ersten Schritt wird der<br />

<strong>Cockpit</strong>-Typ durch das Bildverarbeitungssystem<br />

identifiziert<br />

und automatisch die für diesen<br />

Typ richtige Prüfung gestartet.<br />

Im Anschluss daran werden


44 Inspect 4/2006<br />

die weiteren Merkmale in insgesamt<br />

fünf Roboterpositionen<br />

geprüft. Nach Erreichen der<br />

jeweiligen Position startet der<br />

Roboter eine Teilmessung über<br />

die Profibus-Schnittstelle und<br />

erhält schon nach wenigen<br />

Hundertstelsekunden das Signal<br />

zur Weiterfahrt. In jeder<br />

Position erfasst das VMT-<br />

Bildverarbeitungssystem mehrere<br />

Merkmale gleichzeitig und<br />

wertet diese aus. Die Merkmale<br />

selbst befinden sich dabei<br />

an allen Seiten des <strong>Cockpit</strong>s.<br />

Nach Prüfung der letzten<br />

Position übergibt das Bildverarbeitungssystem<br />

einen Gesamt-Mess-Status<br />

an die Roboter-Steuerung.<br />

Die komplette<br />

Auswertung eines <strong>Cockpit</strong>s<br />

dauert inklusive der Roboterbewegung<br />

ca. 8 Sekunden.<br />

Aufgrund des Gesamt-Mess-<br />

Status wird das <strong>Cockpit</strong> dem<br />

Nacharbeitsband zugeführt,<br />

falls ein Fehler aufgetreten ist.<br />

An diesem Arbeitsplatz werden<br />

dem Werker auf einer Großbildanzeige<br />

die Fehlerpositionen<br />

direkt an einem „digitalen“<br />

<strong>Cockpit</strong> angezeigt.<br />

Sobald die Nacharbeiten abgeschlossen<br />

sind, wird das <strong>Cockpit</strong><br />

einer erneuten Prüfung<br />

zugeführt. Das Bildverarbeitungssystem<br />

steht während der<br />

gesamten Nacharbeiten uneingeschränkt<br />

für die Automatikmessungen<br />

zur Verfügung.<br />

Durch die einfache Bedienung<br />

des Bildverarbeitungssystems<br />

war es den Mitarbeitern<br />

in der Produktion bereits<br />

nach einer Schulung von nur<br />

zwei Tagen möglich, neue<br />

Merkmale anzulegen und die<br />

Anlage während der Produktion<br />

zu opt<strong>im</strong>ieren. „Vor allem<br />

die Funktion des Offline-Teachens,<br />

die durch die Protokollierung<br />

aller Prüfungen und<br />

der zugehörigen Bilder möglich<br />

ist, hat die Opt<strong>im</strong>ierung<br />

der Anlage beschleunigt“, so<br />

Winkenwerder, der leitende<br />

Mitarbeiter bei Johnson Controls<br />

für dieses Projekt.<br />

„Seit der Inbetriebnahme<br />

überzeugt das Bildverarbeitungssystem<br />

durch seine hohe<br />

Zuverlässigkeit“, zeigt sich<br />

Herr Winkenwerder überaus<br />

zufrieden mit der realisierten<br />

Lösung, zumal sich auch die<br />

<strong>im</strong> Vorfeld kalkulierten Kos-<br />

Abb. 3: Nach der Auswertung von bis<br />

zu 70 Merkmalen zeigt ein Großbild<br />

die erkannten Fehlerpositionen an<br />

einem „digitalen“ <strong>Cockpit</strong>.<br />

teneinsparungen in der Realität<br />

eingestellt haben.<br />

Das VMT-Bildverarbeitungssystem<br />

Das eigentliche Herz des Systems<br />

schlägt in Form der VMT<br />

IS-Software, die in jahrelanger<br />

Entwicklung in über 500 Projekten<br />

gemeinsam mit Kunden<br />

aus der Automobil- und Zulieferindustrie<br />

geschaffen wurde.<br />

Dabei haben die Weinhe<strong>im</strong>er<br />

sehr hohen Wert auf eine einfache<br />

und intuitive Bedienerführung<br />

gelegt, die es dem Anwender<br />

schon nach wenigen<br />

Tagen ermöglicht, selbst Prüfungen<br />

<strong>im</strong> System anzulegen.<br />

Die Bedienung und Einrichtung<br />

des Systems erfolgt<br />

komplett ohne Programmierung<br />

über die grafische<br />

Oberfläche und ist für unterschiedlichste<br />

Anwendungen<br />

wie Robotersichtführung,<br />

Vollständigkeitsprüfung und<br />

Klarschriftlesen vollkommen<br />

einheitlich. Die Benutzersprachen<br />

(standardmäßig Deutsch<br />

und Englisch) sind jederzeit<br />

online umschaltbar und das<br />

System ist offen für Erweiterungen<br />

auf andere Sprachen.<br />

� Kontakt<br />

Dipl.-Ing.<br />

Andreas Tarnoki,<br />

VMT Bildverar-<br />

beitungssysteme<br />

Vmt Bildverarbeitungssysteme<br />

GmbH, Weinhe<strong>im</strong><br />

tel.: 06201/9027-0<br />

Fax: 06201/9027-29<br />

sales@vmt-gmbh.com<br />

www.vmt-gmbh.com<br />

Stemmer <strong>im</strong>aging GmbH,<br />

Puchhe<strong>im</strong><br />

tel.: 089/80902-0<br />

Fax: 089/80902-116<br />

info@<strong>im</strong>aging.de<br />

www.stemmer-<strong>im</strong>aging.de


Den Fehdehandschuh hingeworfen<br />

bekommen, zum Duell herausgefor­<br />

dert, bei der Ehre gepackt ….<br />

Eine untechnische, aber doch sehr<br />

treffende Beschreibung für die Auf­<br />

gabenstellung, Oberflächenfehler auf<br />

metallischen Bauteilen automatisch<br />

optisch zu erkennen. Dieser Kampf<br />

wird nur mit Erfahrung, Hartnäckig­<br />

keit und den richtigen Waffen gewon­<br />

nen. Der folgende Beitrag beschreibt<br />

die Schritte und die Lösung zur erfolg­<br />

reichen Installation eines<br />

Bildverarbeitungs­<br />

systems für die<br />

Erkennung von<br />

Oberflächenstruk­<br />

turengeschlif­ fener Flächen.<br />

Die visuelle Inspektion von Oberflächen<br />

ist eine wichtige Qualitätssicherungsmaßnahme.<br />

Die Fehler an Oberflächen<br />

unterscheiden sich generell in<br />

zwei Arten – den sog. Cosmetic<br />

Defects und den funktionsbeeinträchtigendenDefects.<br />

Cosmetic Defects sind<br />

hierbei für die Optik des Betrachters<br />

störende Fehler,<br />

die jedoch keinen Einfluss<br />

auf die eigentliche Funktion<br />

des Bauteils haben. Diese<br />

Fehlerart ist allgemein bekannt,<br />

und so mancher preisbewusste<br />

Endverbraucher<br />

macht sich dies zunutze und<br />

kauft gezielt „B-Ware“ ein.<br />

Anders sieht es mit der<br />

zweiten Fehlerart aus. Diese<br />

Fehler führen dazu, dass<br />

Baugruppen schneller verschleißen,<br />

zu wenig Kontaktfläche<br />

bieten oder gar<br />

durch Verklemmen <strong>im</strong> Betrieb<br />

ausfallen.<br />

Die hier vorgestellte<br />

Lösung für die<br />

Oberflächenprüfung<br />

einer<br />

geschliffenen<br />

Fläche ist eine<br />

Realisierung<br />

für einen großen<br />

Zulieferer der Automobilindustrie.<br />

Die Applikationsabteilung<br />

der NeuroCheck<br />

GmbH übernahm bei dieser<br />

Anwendung das Engineering,<br />

den Systemaufbau und die<br />

Integration des Systems in den<br />

Prüfautomaten.<br />

Herausforderung<br />

Die metallischen Prüfteile<br />

werden in einem mehrstufigen<br />

Schleifprozess bearbeitet.<br />

Nach der Bearbeitung sollen<br />

die Teile in einen<br />

Prüfrundtisch eingesetzt und der<br />

automatischen Oberflächenprüfung<br />

zugeführt werden.<br />

Die Oberflächenkontrolle unterteilt<br />

sich grundsätzlich in zwei<br />

Teilaspekte der Prüfung – zum einen<br />

in die Erkennung von Krat-<br />

zern, Schleiffehlern und Lunkern auf der<br />

Planfläche und zum anderen in die Überprüfung<br />

der Außenkontur des Plateaus<br />

auf Ausbrüche. Um den Fertigungsprozess<br />

der Teile nicht zu behindern, muss<br />

die Ausbringung des Prüfsystems mindestens<br />

40 Teile/min. betragen.<br />

Wahl der Waffen<br />

A u t o m A t i o n<br />

Herausforderungen annehmen<br />

Automatische optische Prüfung geschliffener Oberflächen<br />

Grundlage der Realisierung waren die<br />

Ergebnisse einer Machbarkeitsuntersuchung<br />

anhand protokollierter Fehlerteile.<br />

In dem Protokoll sind die Oberflächen<br />

mit einem Rauhtiefenmessgerät<br />

aufgenommen worden. Über Vergleichsmessungen<br />

mit Gut- und Grenzteilen<br />

wurden vom Kunden die zulässigen Fehlergrenzen<br />

festgelegt. Eine direkte Tiefenmessung<br />

von Kratzern kann mit<br />

einem Bildverarbeitungssystem nicht realisiert<br />

werden. In Abst<strong>im</strong>mung mit dem<br />

Kunden wurden Versuche unternommen,<br />

die Fehler durch geeignete Beleuchtungsverfahren<br />

über Kontrast und Form<br />

klassifizieren zu können. Diese Art der<br />

Betrachtung entspricht auch der derzeitigen<br />

visuellen Inspektion der Teile durch<br />

die Mitarbeiter.<br />

Für die Lösung der Aufgabe wurden<br />

ein speziell auf die Aufgabenstellung angepasstes<br />

Ringlicht, eine hochauflösende<br />

FireWire-Kamera des Herstellers Baumer<br />

Optronic in der NeuroCheck-Edition mit<br />

1024 x 768 Pixeln, sowie ein Makroobjektiv<br />

von Rodenstock für ein Bildfeld von<br />

4 x 3 mm² verwendet. Als Bildverarbei-<br />

� Abb. 1: Typische Oberflächenfehler auf geschliffenen<br />

Bauteilen<br />

Inspect 4/2006<br />

45


A u t o m A t i o n<br />

�<br />

Abb. 3: Bildaufnahme<br />

derselben IO­Teile<br />

wie in Abbildung 1<br />

mit neuem Beleuchtungskonzept.<br />

tungssystem kam die NeuroCheck-Power-<br />

Box mit Pentium 4-Prozessor, Windows<br />

XP Professional, IEEE 1394-Schnittstelle<br />

und einer Profibus-Interfacekarte für die<br />

Prozesskommunikation zum Einsatz. Alle<br />

Komponenten wurden in ein Umgehäuse<br />

mit Peltierkühlelement eingebaut.<br />

Die Prüfprogrammstruktur gliedert<br />

sich in verschiedene Einzelaufgaben und<br />

wurde auf Basis der Premium-Edition<br />

der parametrierbaren Standardsoftware<br />

NeuroCheck, Version 5.1, erstellt. Die<br />

entwickelten Prüfprogramme bestehen<br />

aus verschiedenen Einzelprüfungen in<br />

hierarchischer Struktur mit mehreren<br />

sequenziell aneinander gereihten Prüfschritten.<br />

Die Software stellt sowohl Entwicklungs-<br />

als auch Laufzeitumgebung<br />

unter einer Oberfläche zur Verfügung.<br />

Die Prüfprogramme sind dadurch jederzeit<br />

direkt am System erweiterbar. Sie<br />

werden aus verschiedenen Bibliotheksfunktionen<br />

graphisch-interaktiv zusammengestellt<br />

und parametriert. Eine Programmierung<br />

des Systems ist hierzu<br />

nicht erforderlich.<br />

Die Bildaufnahme erfolgt <strong>im</strong> Blitzbetrieb<br />

der digitalen FireWire-Kamera. Über deren<br />

Flash-Ausgang und mit Hilfe eines<br />

Blitzmoduls wird die Beleuchtung <strong>im</strong> Moment<br />

der Bildaufnahme und nur für die<br />

Dauer der eingestellten Kamera-Shutterzeit<br />

aktiviert. Diese Betriebsart erhöht die<br />

Lebensdauer der LED-Beleuchtung und<br />

gestattet es zusätzlich, diese mit einer höheren<br />

Lichtleistung zu betreiben, um<br />

Fremdlichteinflüsse zu reduzieren.<br />

Nach einer <strong>im</strong> ersten Schritt erfolgten<br />

Lageerkennung des Bauteiles <strong>im</strong> Bild erfolgt<br />

die Bildvorverarbeitung für die Kratzer-<br />

und Mackenerkennung. Durch Anwenden<br />

von kombinierten Filterverfahren<br />

werden die relevanten Strukturen herausgearbeitet.<br />

Die feine Oberflächenstruktur<br />

des Schliffbildes wird hierbei unterdrückt.<br />

Gerade bei schmalen langen Objekten<br />

besteht die Gefahr, dass nicht die gesamte<br />

Länge zusammenhängend erzeugt werden<br />

kann. Aus diesem Grund wurde in<br />

dieser Aufgabe eine Funktion verwendet,<br />

die eine Verbindung von benachbarten<br />

Objekten gestattet. Durch die intelligent<br />

46 Inspect 4/2006<br />

eingesetzte Vorverarbeitung reduziert<br />

sich die komplexe Aufgabenstellung letztendlich<br />

auf die Bewertung von dunklen<br />

Objekten, die sich von der hellen Oberfläche<br />

abheben. Die Merkmale für die Beurteilung<br />

sind Kontrast, Flächen, Achsenlängen<br />

und Forminformationen.<br />

Für den zweiten Aufgabenteil, die Erkennung<br />

von Ausbrüchen an der Außenkontur,<br />

wird das bereits vorverarbeitete<br />

Bild verwendet und die Welligkeit der<br />

Originalkontur zu einem dynamisch erzeugten<br />

Ausgleichskreis berechnet.<br />

Rückschlag …<br />

� Abb. 2: Grauwertschwankung<br />

von<br />

IO­Teilen in Abhängigkeit<br />

des<br />

Werkzeugzustandes<br />

Die Inbetriebnahme und Testphase anhand<br />

vorliegender Fehler- und Serienteile<br />

zeigte, dass die Aufgabe sicher gelöst werden<br />

kann. Mit Anlauf der Serienfertigung<br />

wurden die Teile zur Kontrolle noch zusätzlich<br />

per manueller Sichtprüfung gegen<br />

geprüft. Anfangs konnten die Ergebnisse<br />

der Testphase bestätigt werden. Zur<br />

Überraschung aller Beteiligten ändert<br />

sich das Aussehen der Teile jedoch nach<br />

Tagen schleichend und erhöhte die Fehlerquote<br />

des Bildverarbeitungssystems.<br />

Untersuchungen ergaben, dass sich das<br />

Aussehen der Oberfläche je nach Zustand<br />

der Schleifscheibe grundlegend ändert.<br />

Der Grauwert der IO-Fläche variiert zwischen<br />

ca. 20–255, je nach Zustand des<br />

Werkzeugs. Nachdem die Scheibe wieder<br />

abgerichtet wird, ist die Oberfläche der<br />

Teile wieder wie erwartet hell – direkt vor<br />

dem Abrichten war diese noch dunkel.<br />

Die Problematik, die sich hier aufzeigt,<br />

scheint auf den ersten Blick unlösbar. Die<br />

bisher dunklen Fehlstellen gehen in der<br />

Oberfläche unter.<br />

„Herausforderungen annehmen und<br />

Lösungen finden sind ein Grundsatz für<br />

die Ingenieure der NeuroCheck-Applikationsabteilung“,<br />

beschreibt Dirk Zinnäcker,<br />

Leiter der Applikationsabteilung,<br />

das Firmen-Motto bei der Projektbearbeitung.<br />

Ein neuartiges Beleuchtungskonzept<br />

war erforderlich, um den auftretenden<br />

Effekt ausgleichen zu können. In<br />

einem Brainstorming sind die Erfahrungen<br />

der Mitarbeiter zusammengefasst<br />

und verschiedene Möglichkeiten erörtert<br />

worden. Das Ergebnis ist ein<br />

Beleuchtungssystem, das durch Verwendung<br />

von Kombinationen unterschiedlicher<br />

Beleuchtungen die Helligkeitsunterschiede<br />

kompensieren kann.<br />

Für die Lösung der Aufgabe werden direkt<br />

aus dem Prüfprogramm heraus verschiedene<br />

Beleuchtungen ausgewählt und<br />

geblitzt von der Kamera aufgenommen.<br />

Die Blitzansteuerung erfolgt über den<br />

Flash-Ausgang der Kamera mit Hilfe eines<br />

Blitzmoduls. Die jeweilige Beleuchtung<br />

wird <strong>im</strong> Moment der Bildaufnahme und<br />

nur für die Dauer der eingestellten Kamera-<br />

Shutterzeit aktiviert. Um die jeweils<br />

opt<strong>im</strong>ale Helligkeit der Bildaufnahme in<br />

jeder Beleuchtungssituation zu erreichen,<br />

wird eine Umsteuerung der Kameraparameter<br />

aus dem Prüfprogramm heraus<br />

<strong>im</strong> laufenden Betrieb vorgenommen.<br />

Die erforderlichen Änderungen der<br />

bisherigen Auswertestrategie wurden<br />

durch die einfach zu bedienende Soft-<br />

� Abb. 4: System zur Oberflächeninspektion<br />

geschliffener Bauteile<br />

� Abb. 5: Prüfprotokoll direkt aus<br />

dem System heraus


wareoberfläche von Neuro-<br />

Check schnell und einfach interaktiv<br />

durchgeführt.<br />

… und Sieg<br />

Nach der Integration des<br />

neuen Beleuchtungssystems<br />

fand ein erneuter Testlauf mit<br />

Produktionsteilen statt. Von<br />

kleineren Opt<strong>im</strong>ierungen abgesehen,<br />

die der Endanwender<br />

selbst durchführen<br />

konnte, zeigt sich die Lösung<br />

als sehr zuverlässig in der Erkennung<br />

der Fehlermerkmale.<br />

Ein Problem mit den<br />

schwankenden Oberflächengüten<br />

gibt es nach Aussage<br />

des Anwenders nicht mehr.<br />

„Wir hatten nach den anfangs<br />

vorliegenden Bildern Zweifel,<br />

ob diese Aufgabe betriebssicher<br />

gelöst werden kann. Die<br />

ersten Bilder der neuen Strategie<br />

zeigten jedoch, dass sich<br />

Fachleute mit dem Thema befassten.<br />

Das innerbetriebliche<br />

Interesse an der geplanten<br />

Lösung war <strong>im</strong>mens, sah man<br />

doch Ansatzmöglichkeiten für<br />

andere Projekte mit ähnlicher<br />

Aufgabenstellung. Heute<br />

kann man sagen, dass sich<br />

die Lösung bewährt hat“, so<br />

der Projektleiter des Kunden.<br />

Für die Prüfprogrammdokumentation<br />

des Projektes<br />

wurde ein Feature der NeuroCheck-Software<br />

verwendet,<br />

das es ermöglicht, alle Daten<br />

und Parameter des Prüfprogramms<br />

vollständig zu<br />

exportieren und in einer übersichtlichen<br />

XML-Ansicht auszugeben.<br />

Die interaktive<br />

Erstellung findet <strong>im</strong> Manuell-<br />

Betrieb der Software statt und<br />

wird per Knopfdruck vom Benutzer<br />

ausgelöst. Besonders<br />

<strong>im</strong> Hinblick auf Zertifizierungen<br />

in den Branchen Medizintechnik<br />

und Automotive ist<br />

dies eine erhebliche Arbeitserleichterung.<br />

Die erzeugte<br />

XML-Datei kann mit dem Internet<br />

Explorer betrachtet und<br />

ausgedruckt werden.<br />

Der Zugriff auf das System<br />

von extern ist über eine Fernwartungssoftware<br />

(z. B. PC-<br />

Anywhere) realisiert. Über<br />

diese Verbindung kann sich<br />

sowohl der Systembetreuer<br />

be<strong>im</strong> Kunden <strong>im</strong> Werk als<br />

auch der Hersteller einwäh-<br />

len, um den aktuellen Zustand<br />

der Anlage zu überprüfen.<br />

Dadurch sind kurze<br />

Reaktionszeiten bei überschaubaren<br />

Kosten möglich –<br />

ein Mehrwert an Unterstützung<br />

und letztendlich<br />

Kundenzufriedenheit.<br />

Für Herausforderungen gut<br />

gerüstet<br />

Der Projektverlauf zeigt, wie<br />

wichtig es ist, dass ein guter<br />

Informations- und Erfahrungsaustausch<br />

mit möglichst<br />

genauer Kenntnis der auftretenden<br />

Zustände bereits <strong>im</strong><br />

Anfragestadium stattfindet,<br />

um eine funktionierende Lösung<br />

erstellen zu können.<br />

Trotz sorgfältiger Vorbereitung<br />

treten manchmal erst<br />

während des Projektes fertigungsbedingte<br />

Streuungen<br />

auf, die selbst dem Hersteller<br />

der Bauteile unbekannt sind.<br />

Gerade in solchen Situationen<br />

zeigen sich die Vorteile einen<br />

Systempartner zu haben,<br />

der sowohl über langjährige<br />

Anwendungserfahrung in der<br />

A u t o m A t i o n<br />

Beleuchtungstechnik als auch<br />

über ein flexibel einsetzbares<br />

Softwaretool für die industrielle<br />

Bildverarbeitung verfügt.<br />

� Kontakt<br />

Jochen Raasch,<br />

NeuroCheck GmbH<br />

neuroCheck GmbH, Remseck<br />

tel.: 07146/8956-0<br />

Fax: 07146/8956-29<br />

jraasch@neurocheck.com<br />

www.neurocheck.com<br />

Inspect 4/2006<br />

47<br />

Wir stellen aus: VISION Stuttgart, Halle 4, Stand 510 vom 07.–09.11.2006


A u t o m A t i o n<br />

0-Fehler-Qualität für die Automobilindustrie<br />

Erstaunlich, was man mit einem knapp 10<br />

mm² großen Bauteil alles bewegen kann:<br />

Die Halbleiterchips der Elmos Semiconduc-<br />

tor AG in Dortmund messen, regeln und<br />

steuern zahlreiche Komfort-, Sicherheits-<br />

und Motorfunktionen in Fahrzeugen, wie<br />

z. B. elektrische Fensterheber und Airbags.<br />

Weil die Chips absolut zuverlässig funktio-<br />

nieren müssen, spielt die Qualitätssiche-<br />

rung in dem weltweit agierenden 1.100<br />

Mitarbeiter-Unternehmen, das jährlich<br />

etwa 120 Millionen Chips fertigt, eine<br />

wesentliche Rolle.<br />

Abb. 1: Visualisierung der optischen Inboardprüfung<br />

von Asentics<br />

Wer für die Automobilindustrie arbeitet,<br />

wird mit vielfältigen Herausforderungen<br />

konfrontiert: Hoher Kostendruck, Justin-T<strong>im</strong>e<br />

Liefertreue und größtmögliche<br />

Zuverlässigkeit. Es gilt, die in der Automobilindustrie<br />

geforderte 0-Fehler-Strategie<br />

wirksam umzusetzen. Um diese anspruchsvollen<br />

Anforderungen zu erfüllen,<br />

beschreitet Elmos innovative Wege und<br />

investiert in aufwändige Test- und Qualitätsmaßnahmen.<br />

Künstliche Alterung<br />

Dazu zählt auch der sog. Burn-in-Prozess.<br />

Dabei wird ein Board mit mehreren<br />

Chips bestückt und bei einer erhöhten<br />

Temperatur dynamisch betrieben, um<br />

eine künstliche Alterung – wie <strong>im</strong> Zeitraffer<br />

– herbeizuführen. Das ist deshalb<br />

sinnvoll, weil die Ausfallwahrscheinlichkeit<br />

eines Chips zu Beginn und zu Ende<br />

48 Inspect 4/2006<br />

Wie mit Bildverarbeitung Microchips getestet werden<br />

des Lebenszyklus höher ist. Durch die<br />

künstlich herbeigeführte Alterung wird<br />

der Beginn des Lebenszyklus s<strong>im</strong>uliert.<br />

Besteht ein Chip diesen Test, ist die Ausfallwahrscheinlichkeit<br />

über den geplanten<br />

Einsatzzeitraum <strong>im</strong> Fahrzeug<br />

äußerst gering.<br />

Allerdings: Wenn ein Fehler <strong>im</strong> elektrischen<br />

Test nach Burn In auftritt, muss<br />

das nicht unbedingt am Chip liegen. Deshalb<br />

werden bei Elmos die kompletten<br />

Bauteile auf den Burn-in-Boards zusätzlich<br />

optisch geprüft, bevor die künstliche<br />

Alterung eingeleitet wird. Dabei kommt<br />

es darauf an, dass jedes Element präzise<br />

in den vorgesehenen Sockel gesetzt<br />

wurde, dass die „Beinchen“ (Leads) –<br />

also die Anschlüsse des Chips – vollständig,<br />

unversehrt, richtig gebogen und ex-<br />

akt ausgerichtet sind und dass der<br />

Aufdruck auf dem Bauteil, das sog.<br />

Marking, korrekt ist.<br />

Augenscheinlich korrekt<br />

Abb. 2 + 3: Inboardprüfung mit Asentics Bildverarbeitungs-Systemen<br />

„Früher wurden diese Tests von Mitarbeitern<br />

visuell durchgeführt“, erklärt<br />

Thomas Lehner, der als Leiter Engineering<br />

Backend auch für die Null-Fehler-<br />

Qualität der Bauteile verantwortlich ist.<br />

„Aber dieses Verfahren erwies sich als zu<br />

unsicher, zu zeitaufwändig und zu<br />

teuer.“<br />

Als Alternative kam eine automatische<br />

Prüfung mit industrieller Bildverarbeitung<br />

in Betracht. „Allerdings braucht<br />

man dafür einen Anbieter, der eine<br />

Lösung konsequent anwenderspezifisch


Abb. 4: 6 Zoll Waferproduktion <strong>im</strong> Frontend<br />

(Reinraum)<br />

entwickeln kann, der Erfahrungen mit<br />

dem Sondermaschinenbau hat und der<br />

auch die Anforderungen der Halbleiter-<br />

Industrie gut kennt. Eine Standard-<br />

Applikation hätte uns hier nicht weitergeholfen.“<br />

Mit dem Siegener Bildverarbeitungs-<br />

Spezialisten Asentics habe man dann den<br />

idealen Partner gefunden. „Die verfügen<br />

nicht nur über Erfahrungen und entsprechende<br />

Referenzen in der Halbleiter-<br />

Industrie, sondern können auch anwenderspezifische<br />

Lösungen entwickeln.<br />

Außerdem hat Asentics das erforderliche<br />

Know-how, um die Bildverarbeitungs-<br />

Software nahtlos in die bereits bestehenden<br />

Steuerungs- und Datenbanksysteme<br />

von Elmos zu integrieren.“<br />

Die Bildverarbeitungs-Lösung<br />

Die von Asentics entwickelte Lösung besteht<br />

aus einem Prüfstand, der mit einem<br />

Codeleser, einer hochauflösenden Kamera<br />

und einer aufwändigen und besonders<br />

wirkungsvollen Pyramidenbeleuchtung<br />

ausgerüstet ist.<br />

Im Rahmen des Prüfvorgangs werden<br />

die bestückten und mit einem Barcode<br />

versehenen Boards vom Prüfstand aufgenommen.<br />

Der Codeleser BR 613 von<br />

Asentics identifiziert das Board anhand<br />

des Barcodes und gibt – wenn alle Daten<br />

st<strong>im</strong>men – der Kamera das „Go!“ Anhand<br />

des Codes sucht sich die Kamera ihre Referenzposition,<br />

bewegt sich in ihre Aufnahmestellung<br />

und erstellt von jedem<br />

einzelnen Bauteil in weniger als einer<br />

Sekunde drei verschiedene, opt<strong>im</strong>al ausgeleuchtete<br />

Bilder, die sämtliche Prüfauf-<br />

A u t o m A t i o n<br />

gaben abbilden. Darüber hinaus prüft<br />

das Bildverarbeitungs-System auch das<br />

korrekte Marking.<br />

Bei der Auswertung, die zeitgleich erfolgt,<br />

werden neben dem Marking die<br />

PIN 1-Position der Chips sowie die Anordnung<br />

und exakte Stellung der Leads<br />

blitzschnell vermessen und mit den Referenzbildern<br />

abgeglichen, die <strong>im</strong> System<br />

hinterlegt sind. Anschließend wird in einer<br />

Matrix angezeigt, welche Bauteile <strong>im</strong><br />

Board fehlerhaft sind und welche konkreten<br />

Fehler vorliegen. Anhand dieser<br />

Anzeige ist es möglich, an einem Nacharbeitsplatz<br />

manuell Korrekturen vorzunehmen,<br />

bevor das bestückte Board dem<br />

Burn-in-Prozess zugeführt wird.<br />

Schneller Rechner und modernes Software-Konzept<br />

für komplexe Aufgaben<br />

Gesteuert wird der komplizierte Prozess<br />

von dem Bildverarbeitungsrechner Videolab<br />

G 7-4, der ebenfalls von Asentics entwickelt<br />

wurde. Mit besonders schnellen<br />

Prozessoren und modernsten Schnittstellen<br />

ausgestattet, kann dieser die komplexen<br />

Aufgaben problemlos bewältigen.<br />

Darüber hinaus bietet das Software-<br />

Konzept eine weitere logische Ergänzung<br />

des Systems. Leichte Bedienbarkeit und<br />

intuitive Benutzerführung sind übersichtlich<br />

nach Sinnzusammenhängen geordnet<br />

und erleichtern dem Anwender so<br />

die Arbeit mit der gesamten Anlage.<br />

„Mit diesem System wird die geforderte<br />

optische Prüf-Aufgabe gelöst“,<br />

stellt Thomas Lehner zufrieden fest.<br />

„Man kann wirklich sagen, dass hier eine<br />

sehr gute Lösung entwickelt wurde, die<br />

es uns ermöglicht, die Bestückqualität<br />

der Bauteile auf den BI-Boards schnell,<br />

effizient und vor allen Dingen zuverlässig<br />

zu prüfen.“<br />

� Kontakt<br />

Axel Scharbert<br />

Asentics GmbH & Co. KG, Siegen<br />

tel.: 0271/30391-0<br />

Fax: 0271/30391-19<br />

a.scharbert@asentics.de<br />

www.asentics.de


A u t o m A t i o n<br />

Haptik optisch geprüft<br />

Louis Braille war drei Jahre alt, als er sein<br />

Augenlicht in Folge eines Unfalls in der<br />

väterlichen Schuhmacherwerkstatt verlor.<br />

Mit sechzehn Jahren hatte er die Blinden-<br />

schrift, heute als Braille-Schrift bekannt,<br />

fertig entwickelt. Die Braille-Schrift arbei-<br />

tet mit Punktemustern, die so in das Papier<br />

geprägt werden, dass sie als Erhöhungen<br />

mit den Fingerspitzen zu ertasten sind. Die<br />

automatische Qualitätskontrolle von<br />

Braille-Beschriftung, z. B. auf Medikamentenverpackungen,<br />

erfolgt optisch, also<br />

nicht tastend, da berührende Messungen<br />

das Messobjekt, den Braille-Punkt, verändern<br />

könnten und viel zu langsam sind. Als<br />

aussichtreichstes Verfahren, die geprägte<br />

Beschriftung trotz farbiger Aufdrucke eindeutig<br />

zu prüfen, erwies sich das Prinzip<br />

„Shape from Shading“. Dieses wurde von<br />

der in-situ GmbH konsequent zu einem<br />

industrietauglichen Produkt weiterentwickelt:<br />

DotScan.<br />

Gestalt durch Licht und Schatten<br />

Künstler wie Leonardo da Vinci und<br />

Rembrandt haben mit der Hell-Dunkel-<br />

Malerei die Illusion von Tiefe in zweid<strong>im</strong>ensionalen<br />

Bildern zu hoher Perfektion<br />

entwickelt (Abb. 1). Das optische Messverfahren<br />

„Shape from Shading“ (SfS)<br />

kehrt dieses Prinzip um. Ein einfaches<br />

Beispiel verdeutlicht dies: Wird eine<br />

weiße Marmorstatue von einer Seite beleuchtet,<br />

so erhalten wir durch die Schattierung,<br />

also die formabhängige Helligkeitsverteilung,<br />

einen dreid<strong>im</strong>ensionalen<br />

Eindruck. N<strong>im</strong>mt man diese Helligkeitsverteilung<br />

(Shading) eines Objektes mit<br />

einer Kamera auf, so kann daraus mit<br />

Abb. 2: Intensitätsprofile eines Würfels, der aus<br />

zwei unterschiedlichen Richtungen beleuchtet<br />

wurde.<br />

50 Inspect 4/2006<br />

Blindenschriftinspektion durch Shape-from-Shading<br />

Abb. 1: Dame mit dem Hermelin (1490) von<br />

Leonardo da Vinci<br />

den entsprechenden Algorithmen dessen<br />

3D-Form (Shape) berechnet werden.<br />

Abbildung 2 zeigt das Beispiel eines<br />

weißen Würfels, der ohne Änderung der<br />

Aufnahmeanordnung aus zwei verschiedenen<br />

Richtungen beleuchtet wird. Offenbar<br />

unterscheiden sich die Intensitätsprofile<br />

über eine Bildzeile (rote Linie)<br />

in den beiden Bildern sehr deutlich. Die<br />

Nutzung solcher charakteristischer Helligkeitsverteilungen<br />

zur Formbest<strong>im</strong>mung<br />

liegt nahe.<br />

Projektchronologie<br />

Zur Entwicklung des Blindenschrift-<br />

Inspektionssystems DotScan trafen einige<br />

günstige Umstände zusammen: Die<br />

richtigen Firmen und Hochschulen haben<br />

zur richtigen Zeit zusammengefunden,<br />

die Problematik war aktuell und es<br />

standen mittlerweile schnelle Rechner<br />

zur Verfügung, mit denen die zwar schon<br />

länger bekannten, aber doch recht rechenintensiven<br />

Algorithmen in annehmbarer<br />

Zeit ausgeführt werden konnten.<br />

Den Anstoß zur Entwicklung von<br />

DotScan gab die Firma Kroha GmbH, ein<br />

Hersteller von Faltschachteln für Medizinprodukte.<br />

Nachdem die Notwendigkeit<br />

zur Prüfung der Blindenschrift offenkundig<br />

war, suchte dieses innovative


Unternehmen einen Partner, der eine optische<br />

Lösung liefern konnte. Über die<br />

Fa. Wenzel Präzision, einem Hersteller<br />

von Koordinatenmessgeräten, wurde der<br />

Kontakt zu dem Bildverarbeitungsspezialisten<br />

in-situ GmbH aus Sauerlach bei<br />

München hergestellt. Danach wurde eine<br />

Studie bei Prof. Dr. Hartmut Ernst von<br />

der Fachhochschule Rosenhe<strong>im</strong> in Auftrag<br />

gegeben, den Stand der Technik hinsichtlich<br />

der Blindenschriftinspektion zu<br />

ermitteln und innovative Lösungsmöglichkeiten<br />

zu analysieren. Wichtige Kriterien<br />

waren<br />

�<br />

�<br />

�<br />

�<br />

�<br />

die Messgeschwindigkeit,<br />

die Messunsicherheiten in x-, y- und<br />

z-Richtung,<br />

ein einfacher Messaufbau,<br />

die Robustheit des Verfahrens,<br />

und natürlich ein konkurrenzfähiger<br />

Preis.<br />

Hierzu wurden neun verschiedene 3D-<br />

Messverfahren unter die Lupe genommen<br />

und auf Tauglichkeit überprüft.<br />

Letztendlich blieben drei Verfahren übrig:<br />

�<br />

�<br />

�<br />

Shape from Shading (SfS)<br />

Phasenshiftverfahren<br />

Laser- Lichtschnittverfahren<br />

Von diesen drei Verfahren hob sich SfS<br />

besonders ab, da es ohne scannende<br />

Mechanik und ohne aufwändige und<br />

teure Linienprojektoren auskommt. Damit<br />

sprachen neben der Messgeschwindigkeit<br />

und der zu erwartenden Messgenauigkeit<br />

auch die Kosten für SfS.<br />

Algorithmus zur Formbest<strong>im</strong>mung<br />

Das Verfahren zur Formbest<strong>im</strong>mung arbeitet<br />

in zwei Stufen: Zunächst werden<br />

aus den detektierten Grauwerten eines<br />

Objektes die Gradienten der Oberfläche<br />

in X- und Y-Richtung ermittelt. Die von<br />

einer Kamera aufgenommene Intensität<br />

hängt von folgenden Parametern ab: der<br />

Position der Kamera und deren Licht-<br />

Abb. 4: Funktionsprinzip<br />

von Shape from Shading:<br />

Die Beleuchtung mit dem<br />

Richtungsvektor s verursacht<br />

eine Helligkeitsintensität<br />

auf dem Oberflächenelement<br />

mit dem<br />

Normalenvektor n, die<br />

von der Kamera gemessen<br />

wird. Je nach der<br />

Ausrichtung der Oberflächenelemente<br />

ergibt sich<br />

so eine Schattierung, in<br />

der die Information der<br />

Oberflächenform steckt.<br />

Also lässt sich aus der<br />

Schattierung auf die<br />

Form der Oberfläche<br />

schließen.<br />

Abb. 3: Abbildung einer Faltschachtel mit Braille-<br />

Punkten und Aufdruck. Die hier angewandte<br />

seitliche Beleuchtung hebt die Braille-Punkte für<br />

dieses Bild bereits besser hervor.<br />

empfindlichkeit, der Richtung und der<br />

Intensität des eingestrahlten Lichtes, den<br />

material- und ortsabhängigen Reflexionskoeffizienten<br />

(also dem Aufdruck)<br />

sowie dem Winkel zwischen dem bekannten<br />

Richtungsvektor des einfallenden<br />

Lichts und der unbekannten<br />

Normalen des betrachteten Oberflächenelements<br />

(Abb. 4), aus der die gesuchten<br />

Gradienten folgen.<br />

Die Flächennormalen sind durch die<br />

X- und Y-Gradienten der zugehörigen<br />

Objektoberflächenelemente definiert,<br />

also durch die partiellen Ableitungen der<br />

Oberfläche z(x,y) nach x und y. Daher<br />

können diese Gradienten aus der aufgenommenen<br />

Intensität ermittelt werden.<br />

Zur Berechnung der beiden Gradienten<br />

und El<strong>im</strong>inierung der als Albedo (Produkt<br />

aus Kameraempfindlichkeit, Lichtintensität<br />

und Reflexionskoeffizienten für<br />

diffuse Reflektion) bezeichneten dritten<br />

Unbekannten sind jedoch mindestens<br />

drei Aufnahmen mit unterschiedlichen,<br />

bekannten Positionen der Lichtquelle erforderlich.<br />

Zur Erhöhung der Messgenauigkeit<br />

wird bei DotScan mit vier<br />

Aufnahmen gearbeitet. Im zweiten, rechnerisch<br />

aufwändigeren Schritt, wird<br />

dann durch Integration über die Gradienten<br />

eine Höhenkarte erstellt.<br />

Umsetzung in die Praxis<br />

A u t o m A t i o n<br />

Nun lag es bei in-situ, mit diesen Erkenntnissen<br />

ein industrietaugliches Gerät<br />

zu entwickeln. Der SfS-Algorithmus<br />

wurde nicht neu entwickelt, sondern in<br />

Zusammenarbeit mit der Fa. 3D-Shape,<br />

einem Spin-off der Uni Erlangen, an die<br />

Gegebenheiten angepasst und opt<strong>im</strong>iert.<br />

Außerdem mussten aufwändige Bildvorverarbeitungsfilter<br />

entwickelt werden.<br />

Schließlich sind die Faltschachteln bedruckt<br />

(Abb. 3), was jedem optischen<br />

Verfahren schnell die Grenzen des Möglichen<br />

aufzeigt. Die vorverarbeiteten Bilder<br />

wurden nun dem SfS-Algorithmus<br />

zugeführt, der einen 3D-Datensatz errechnet<br />

(Abb. 5). Durch Analyse dieser<br />

Punktewolken konnte dann die Position<br />

und Höhe der Braille-Punkte ermittelt<br />

werden. Unter anderem ist dabei eine<br />

Inspect 4/2006<br />

51


A u t o m A t i o n<br />

Abb. 5: 3D-Datensatz, aus dem die Blindenschrift-Punkte<br />

deutlich hervorstechen. Es ist<br />

leicht ersichtlich, dass über einen Höhenschwellwert<br />

zu niedrig geprägte Punkte sicher erkannt<br />

werden können.<br />

mögliche Wölbung der Faltschachtel zu<br />

erkennen und aus der Analyse zu el<strong>im</strong>inieren.<br />

Über ein Kalibrationsverfahren<br />

können die Punkthöhen mit einer Messsicherheit<br />

von einigen hundertstel Mill<strong>im</strong>etern<br />

best<strong>im</strong>mt werden.<br />

Im letzten Schritt müssen die Punkte<br />

den Braille-Zeichen zugeordnet werden.<br />

Hier hat sich der Zeichensatz „Marburg-<br />

Medium“ durchgesetzt, der Punktabstand,<br />

Zeichenabstand und Zeilenabstand<br />

definiert. Jedoch gibt es nicht nur<br />

Abweichungen von diesem Standard,<br />

sondern auch in der Punkteform: Die<br />

Punkte können pyramidenförmig, plateauartig<br />

abgeflacht oder rund sowie mit<br />

verschiedenen Durchmessern ausgeformt<br />

sein. Alle diese Punktformen werden<br />

erkannt. Der Braille-Definition gemäß<br />

werden die Punkte in einem Raster<br />

gesucht, das über die Blindenschrift gelegt<br />

wird, wobei diese auch leicht schräg<br />

präsentiert werden kann.<br />

Damit DotScan nicht am Bedarf der<br />

Faltschachtelindustrie vorbei entwickelt<br />

wurde, sind mehrere Präsentationszyklen<br />

bei der Fa. Kroha eingeplant worden.<br />

Zusätzlich hat Kroha zwei Mitbewerber,<br />

die Firmen August Faller KG und<br />

Theis GmbH & Co. KG eingeladen, damit<br />

möglichst alle relevanten Aspekte berücksichtigt<br />

werden. Schlussendlich waren<br />

alle drei Firmen äußerst zufrieden<br />

und sprachen eine Empfehlung zugunsten<br />

DotScan aus.<br />

Zu erwähnen ist noch, dass DotScan<br />

zwar zur 3D-Erfassung von Braille-Punkten<br />

entwickelt wurde, dass aber eine<br />

gleichzeitige Aufdruckkontrolle als Software-Erweiterung<br />

ohne Änderung der<br />

Hardware ebenfalls möglich ist.<br />

52 Inspect 4/2006<br />

Abb. 6: Blick in die Messkammer von DotScan. Man erkennt die vier telezentrischen Beleuchtungen, die<br />

das Messfeld gleichmäßig ausleuchten. Messfeld und Skaleneinheit befinden sich auf der Schublade.<br />

Zusätzlich können weitere kundenspezifischen<br />

Anpassungen an dem Basissystem<br />

vorgenommen werden, wie z. B.<br />

Bildfeldgrößenanpassungen, höher auflösende<br />

Kamera, mehrere Kameras, automatische<br />

Prüflingszuführungen (Feeder).<br />

Einschränkungen<br />

SfS liefert die 3D-Form des betrachteten<br />

Objekts, jedoch keine direkten absoluten<br />

Abstands- oder Höhenmaße, wie z. B. das<br />

Triangulationsverfahren. Informationen<br />

über die 3D-Form werden aus der Schattierung<br />

stetiger Oberflächen, d. h. weicher<br />

Konturen gewonnen. Auf steile<br />

Kanten und Hinterschneidungen, die<br />

Schatten werfen, ist der SfS-Algorithmus<br />

nicht ausgelegt. Braille-Punkte, aber<br />

auch andere Prägeschriften oder Schlagzahlen<br />

sind für dieses Verfahren opt<strong>im</strong>al<br />

geeignet.<br />

Außerdem benötigt auch SfS, genauso<br />

wie andere optische Verfahren, optisch<br />

gutmütige Oberflächen. Ungünstig sind<br />

transparente oder auch halbtransparente<br />

Medien (z. B. Milchglas) sowie stark<br />

spiegelnde Oberflächen, da in dem Verfahren<br />

nur diffuse Reflektion berücksichtigt<br />

wird. Es zeigte sich jedoch, dass die<br />

Blindenschrift auch auf metallischen Patrizen<br />

und spiegelnden Faltschachteln<br />

gut gelesen wird.<br />

Bildaufnahme und Bedienung<br />

DotScan besteht weitestgehend aus Standard-Komponenten,<br />

die in ein kompaktes<br />

19“-Rack integriert wurden. Im oberen<br />

Bereich des Racks ist ein Industrie-PC<br />

Abb. 7: Die grafische Oberfläche von DotScan<br />

wurde bewusst einfach gehalten. Die Bedienung<br />

ist entsprechend problemlos, insbesondere mit<br />

Hilfe der mitgelieferten Dokumentation.<br />

montiert und <strong>im</strong> unteren eine Schublade,<br />

in die die Prüflinge eingelegt werden.<br />

Dazwischen befindet sich der Messraum<br />

mit einer mittig positionierten hochauflösenden<br />

digitalen Kamera und vier symmetrisch<br />

angeordneten, telezentrischen<br />

LED-Leuchten. Nacheinander werden<br />

vier Bilder aufgenommen und <strong>im</strong> IPC gespeichert.<br />

Bei jeder Aufnahme ist eine<br />

der Leuchten eingeschaltet. Die Aufnahmezeit<br />

ist daher, verglichen mit scannenden<br />

Systemen, sehr kurz.<br />

Zur Reduktion störender spiegelnder<br />

Reflexe wird blaues Licht verwendet. Die<br />

vier Bilder werden nun, wie oben beschrieben,<br />

ausgewertet. Hervorzuheben<br />

ist ferner die Robustheit des Verfahrens<br />

und die mechanische Einfachheit, da<br />

keine beweglichen Teile erforderlich<br />

sind. In einer Messung kann ein Bildbereich<br />

mit einer Breite von bis zu 150 mm<br />

erfasst werden. Die Auswertezeit variiert<br />

mit der Breite des Bildbereichs; typische<br />

Werte sind ca. 300 ms.


Die Bedienung der grafischen<br />

Oberfläche (GUI) von<br />

DotScan (Abb. 7) wurde in enger<br />

Kooperation mit Vertretern<br />

der Faltschachtelindustrie,<br />

den Firmen Kroha, Faller<br />

und Theis, entwickelt. Deren<br />

Anregungen und Bedürfnisse<br />

wurden direkt umgesetzt. Im<br />

Vordergrund steht eine möglichst<br />

einfache Bedienung und<br />

100 %-ige Detektion fehlerhaft<br />

geprägter Blindenschrift-<br />

Punkte. Besonders wichtig ist<br />

es, die Faltschachteln in der<br />

Form zu prüfen, wie sie einem<br />

Blinden letztendlich vorliegen,<br />

also von oben.<br />

Zur Inspektion muss ein<br />

Prüfling in das Prüffeld der<br />

Schublade eingelegt werden.<br />

Geprüft wird <strong>im</strong> Vergleich mit<br />

einer das Sollmuster enthaltenden<br />

pdf-Datei oder einem<br />

Referenztext. Die Ergebnisse<br />

können in einem Prüfbericht<br />

dokumentiert und ausgedruckt<br />

oder als pdf-Datei abgespeichert<br />

werden. Nur den<br />

Inhalt des Blindenschrifttextes<br />

anzuzeigen ist natürlich<br />

ebenfalls möglich – und<br />

zwar auch bei den zur Prägung<br />

verwendeten Patrizen.<br />

Neben dem deutschen Braille-<br />

Schriftsatz können über einen<br />

Menüpunkt auch weitere internationale,<br />

Schriftsätze ausgewählt<br />

werden.<br />

Zusammenfassung und<br />

Ausblick<br />

Mit DotScan wurde ein robustes,<br />

schnelles, bedienerfreundliches<br />

aber auch preiswertes<br />

Inspektions- und<br />

Lesesystem für Blindenschriften<br />

(Braille-Code) auf<br />

bedruckten Faltschachteln<br />

entwickelt. Grundlage ist die<br />

3D-Formerfassung durch den<br />

Algorithmus „Shape from<br />

Shading“. Die Entwicklung<br />

des Systems wurde von Vertretern<br />

der Faltschachtelindustrie<br />

begleitet, so dass deren<br />

Bedürfnisse konsequent<br />

umgesetzt wurden.<br />

Die Einsatzmöglichkeiten<br />

dieser 3D-Formerfassung<br />

sind natürlich auch auf andere<br />

Aufgabenstellungen anwendbar,<br />

und zwar <strong>im</strong>mer<br />

dann, wenn es um stetige, erhabene<br />

Strukturen geht. Mög-<br />

liche Einsatzbereiche sind die<br />

Vermessung oder Lesung von<br />

Prägeschriften (z. B. von Symbolen<br />

und Schriften auf Reifenwänden)<br />

und Schlagzahlen.<br />

Aber auch exotischere<br />

Anwendungen wie etwa die<br />

Analyse der Knittermuster<br />

von Textilien oder Oberflächentexturen<br />

sowie die Beurteilung<br />

von Oberflächenfehlern,<br />

wie z. B. Riefen oder<br />

Kratzer auch auf glänzenden<br />

Materialien, sind möglich.<br />

� Kontakt<br />

Dipl.-Inf. Sandra Söll,<br />

in-situ GmbH & Co. KG<br />

Dr. Helge Moritz,<br />

in-situ GmbH & Co. KG<br />

Prof. Dr. Hartmut Ernst,<br />

Fachhochschule<br />

Rosenhe<strong>im</strong><br />

A u t o m A t i o n<br />

in-situ GmbH & Co. KG, Sauerlach<br />

tel.: 08104/6482-30<br />

Fax: 08104/6482-43<br />

vision@in-situ.de<br />

www.in-situ.de<br />

Fachhochschule Rosenhe<strong>im</strong>,<br />

Fachgebiete digitale Bildverarbeitung<br />

numerik und informatik,<br />

Rosenhe<strong>im</strong><br />

tel.: 08031/805-123<br />

Fax: 08031/805-122<br />

ernst@fh-rosenhe<strong>im</strong>.de<br />

www.fh-rosenhe<strong>im</strong>.de<br />

Inspect 4/2006<br />

53


A u t o m A t i o n<br />

Pfand,<br />

wem Pfand gebührt<br />

Zur Jahrtausendwende war die gängige Meinung, dass Bildverarbeitung zu teuer für ein<br />

Pfandsystem sei. Sechs Jahre später hat sie sich ökonomisch durchgesetzt und stellt<br />

das zentrale Element für eine sichere und zuverlässige Annahme von Einweggetränke­<br />

verpackungen dar. Obwohl durch System­ und Vorgabenänderungen viele Hürden in kürzes­<br />

ter Zeit zu nehmen waren, werden seit dem 1. Mai 2006 deutschlandweit Dosen und Mehr­<br />

wegflaschen in einem einheitlichen Pfandsystem entgegengenommen. Mittendrin bei der<br />

Realisierung: Die Komponenten und das Know­how der Matrix Vision GmbH.<br />

Die Aussage „in kürzester Zeit“ kann der<br />

eine oder andere auch zynisch auffassen.<br />

Immerhin ist durch die „Verordnung<br />

über die Vermeidung und Verwertung<br />

von Verpackungen“ von 1991 durch den<br />

damaligen Bundesumweltminister Klaus<br />

Töpfer aus ökologischen Gründen der<br />

Grundstein für das heutige Pfandsystem<br />

gelegt worden. In Folge dieser damaligen<br />

Best<strong>im</strong>mungen wurde seit dem 1. Januar<br />

2003 ein Pflichtpfand für Getränkeverpackungen<br />

erhoben, außerdem wurde<br />

der Wirtschaft neun Monate Zeit eingeräumt,<br />

um das System umzustellen. Da<br />

stellt sich doch die Frage, warum es bis<br />

2004 noch <strong>im</strong>mer kein einheitliches<br />

Pfandsystem gab?<br />

Abb. 1: Pfandlogo der Deutschen Pfandsystem<br />

GmbH<br />

54 Inspect 4/2006<br />

Intelligente Kamera validiert Einweggetränkeverpackungen<br />

Obgleich sich der Handel am 1. Oktober<br />

2003 zu einem einheitlichen System<br />

verpflichtete, verzögerte sich die Einführung<br />

dieses Systems. Eine Verfassungsbeschwerde<br />

und ein Urteil des<br />

Europäischen Gerichtshof (C­463/01,<br />

14. Dezember 2004), welches das Dosenpfand<br />

bestätigte, aber den ausländischen<br />

Getränkeherstellern mehr Zeit einräumte,<br />

verhinderte eine schnelle Umsetzung<br />

des Pfandsystems und sorgte für<br />

sog. Insellösungen einzelner Handelsketten.<br />

Erst <strong>im</strong> Juni 2005 wurde die Deutsche<br />

Pfandsystem GmbH (kurz DPG) gegründet<br />

und mit der Aufgabe betraut, bis<br />

zum 1. Mai 2006 bundesweit ein einheitliches<br />

Pfandsystem für Einweggetränkeverpackungen<br />

zu schaffen.<br />

Neues Pfandlogo mit neuem Sicherheitsverfahren<br />

Als einziges Erkennungsmerkmal besaßen<br />

Einweggetränkeverpackungen bislang<br />

einen Barcode. Mit Pfandautomaten<br />

und industrieller Bildverarbeitung<br />

konnten so innerhalb der einzelnen<br />

Insellösungen Getränkeverpackungen<br />

klassifiziert und ohne Personal entgegengenommen<br />

werden. Die neue Verpackungsordnung<br />

verpflichtet nun die<br />

Händler mit einer Verkaufsfläche ab 200<br />

m², auch sämtliche Getränkeverpackungen,<br />

die sie selbst nicht in Verkehr gebracht<br />

haben, anzunehmen. Damit die<br />

Händler zwischen Verpackungen aus<br />

dem deutschen Pfandsystem und ausländischen<br />

Verpackungen unterscheiden<br />

können, hat die DPG mit dem Pfandlogo<br />

ein weiteres Erkennungsmerkmal eingeführt.<br />

Mit diesem Logo sind die Händler<br />

vor Pfandbetrugsversuchen sicher.<br />

Um das Pfandlogo fälschungssicher zu<br />

machen, wurde zunächst ein UV­Verfahren<br />

getestet. Nachdem aber <strong>im</strong> November<br />

2005 das UV­Sicherheitsverfahren in<br />

einem Feldversuch überlistet wurde, entschied<br />

sich die DPG für ein Infrarot­<br />

Sicherheitsverfahren. Mit Unterstützung<br />

von Matrix Vision und anderen Bildverarbeitern<br />

wurde das Sicherheitsverfahren<br />

definiert und ein eng gesteckter Zeitplan<br />

für eine Neuentwicklung eines<br />

Lesesystems für das Pfandlogo ausgearbeitet.<br />

Die Neuausrichtung des Sicherheitsverfahrens<br />

sechs Monate vor der<br />

Einführung hatte jedoch einen Nachteil:<br />

Die Hersteller von Rücknahmeautomaten<br />

konnten in der verbleibenden Zeit keine


Lesesysteme für ihre Automaten entwickeln,<br />

welche zusätzlich das Pfandlogo<br />

validieren können.<br />

Modulares Lesesystem für Rücknahmeautomaten<br />

Mit dem Security Mark Reader mvSMR<br />

hat Matrix Vision auf Basis der bewährten<br />

mvBlueLynx Technologie in kurzer<br />

Zeit ein modulares Lesesystem entwickelt.<br />

Die intelligente Kamera als<br />

Kameraeinheit bietet zwei wesentliche<br />

Vorteile: Sie kann zum einen die erfassten<br />

Bilder direkt auf der Kameraeinheit<br />

verarbeiten und zum anderen die unterschiedlichen<br />

Belichtungsfolgen der Beleuchtungseinheiten<br />

zum Erkennen des<br />

Pfandlogos steuern. Da der Rücknahmeautomat<br />

nur das positive oder negative<br />

Ergebnis von der Kameraeinheit er­<br />

Abb. 2: Die intelligente Kamera mvBlueLYNX diente<br />

als Grundlage für die Entwicklung des mvSMR<br />

hält, muss kein Rücknahmeautomat neu<br />

entwickelt werden.<br />

Eine Nachrüstung mit dem mvSMR<br />

und ein Update der Firmware reichen<br />

für die Aktualisierung der Automaten<br />

aus. Für die Verarbeitung der Informationen<br />

besitzt die Kameraeinheit einen<br />

400 MHz starken Prozessor, der ausreichend<br />

Leistung für jetzige und zukünftige<br />

Aufgaben des Lesesystems zur Verfügung<br />

stellt. Des Weiteren gehört ein<br />

1280 x 1024 Pixel großer Sensor zur<br />

Kameraeinheit. Dieser Sensor ist nötig,<br />

da Einwegverpackungen beidseitig eingelegt<br />

werden können und dementsprechend<br />

ein größeres Sichtfeld von der<br />

Kameraeinheit abgedeckt werden muss.<br />

Der mvSMR unterstützt Verpackungsdurchmesser<br />

bis zu 120 mm und eine<br />

Rotationsgeschwindigkeit von bis zu 25 m/<br />

min. Der Erkennungsalgorithmus ist robust<br />

und zuverlässig und kann das Sicherheitskennzeichen<br />

auch auf leicht deformierten<br />

und verschmutzten Verpackungen<br />

identifizieren. Dessen ungeachtet weist<br />

die DPG darauf hin, auf den Zustand der<br />

Getränkeverpackungen zu achten. Das<br />

Pfandlogo und der Barcode dürfen weder<br />

beschädigt noch verschmutzt sein.<br />

Auf Grund seiner technischen Eigenschaften<br />

und des kompakten und modularen<br />

Aufbaus kann der mvSMR auf<br />

die jeweiligen Anforderungen der unterschiedlichen<br />

Hersteller von Zählzentren<br />

und Rücknahmeautomaten angepasst<br />

und nachgerüstet werden.<br />

Zukünftige Erweiterungen des Pfandsystems<br />

mit anderen oder zusätzlichen<br />

Sicherheitsprüfungen können durch<br />

Abb. 3: mvSMR in Aktion: Überprüfung einer<br />

Getränkeverpackung <strong>im</strong> Rücknahmeautomaten<br />

Onlineaktualisierung der Firmware bewerkstelligt<br />

werden. Damit ist das<br />

System neben möglichen Gesetzesänderungen<br />

auch für denkbare neue<br />

Vorgaben der Deutschen Pfandsystem<br />

GmbH gerüstet.<br />

Fazit<br />

Die fortschreitende Entwicklung der industriellen<br />

Bildverarbeitung ermöglicht<br />

dort den automatisierten Einsatz, wo bisher<br />

aus wirtschaftlichen oder technischen<br />

Gründen, nicht daran zu denken<br />

war. Inzwischen können durch leistungsfähigere<br />

Hardware­ und opt<strong>im</strong>ierte Softwarekomponenten<br />

binnen kürzester Zeit<br />

zuverlässige und kostengünstige Bildverarbeitungslösungen<br />

entwickelt werden.<br />

Mit dem diesjährigen Firmenjubiläum<br />

kann die Matrix Vision GmbH auf 20<br />

Jahre Erfahrung zurückgreifen und hat<br />

mit der Entwicklung des mvSMR bewiesen,<br />

dass sie ein verlässlicher Lieferant<br />

für Komponenten und Lösungen in<br />

Sachen industrielle Bildverarbeitung ist.<br />

� Kontakt<br />

Dipl.­Inform. (FH) Ulli Lansche<br />

matrix Vision, oppenweiler<br />

tel.: 07191/9432-0<br />

Fax: 07191/9432-88<br />

info@matrix-vision.de<br />

www.matrix-vision.de<br />

A u t o m A t i o n<br />

Inspect 4/2006<br />

55


A u t o m A t i o n<br />

Makellose<br />

Außenhaut<br />

Die Bandgeschwindigkeiten in kontinuierlichen<br />

Feuerverzinkungsanlagen liegen je nach Band-<br />

dicke bei bis zu 180 m/min. Damit erreichen<br />

Feuerverzinkungsanlagen eine Tonnenleistung<br />

von über 1000 t pro Tag. Stahlbänder können in<br />

so guter Qualität feuerverzinkt werden, dass<br />

diese heute sogar in Automobilen für Außen-<br />

hautteile (Dach, Kotflügel, ...) eingesetzt wer-<br />

den. Damit rückt natürlich auch die automati-<br />

sierte Qualitätskontrolle an diesen Anlagen<br />

mehr und mehr in den Fokus. Durch Oberflä-<br />

cheninspektion und die anschließende Verar-<br />

beitung der Inspektions- zu Qualitätsdaten<br />

produzieren Stahlproduzenten deutlich höher-<br />

wertige Ware bei opt<strong>im</strong>aler Prozessführung.<br />

Oberflächeninspektionssysteme<br />

wie espresso SI der Parsytec<br />

AG (Aachen, Deutschland)<br />

stellen dem Produzenten<br />

von Stahlbändern verlässliche<br />

und umfassende Informationen<br />

über relevante<br />

Oberflächendefekte in fast allen<br />

Produktionsstufen bereit.<br />

Zusammen mit der Software-<br />

Plattform parsytec 5i ist das<br />

komfortable Erstellen von individuellen<br />

Anwendungen zur<br />

Steigerung der Oberflächenqualität<br />

sowie die Integration<br />

von Oberflächenqualitäts-<br />

daten mit Prozessdaten<br />

durchführbar.<br />

Komplette Steuerung nur<br />

durch Inspektionssysteme<br />

Die komplette und objektive<br />

Steuerung von Bandmaterialien<br />

einschließlich Defektdetektion<br />

und -klassifikation<br />

wird nur durch flexible und<br />

automatische Inspektionssysteme<br />

garantiert. Diese Flexibilität<br />

ist das Fundament der<br />

Parsytec Inspektionssysteme,<br />

die auf komplett Software-<br />

Abb. 2: Parsytecs espresso SI Inspektionssystem für Metalloberflächen<br />

56 Inspect 4/2006<br />

Surface Quality Yield Management in der Feuerverzinkung<br />

Abb. 1: Feuerbeschichtungsanlage<br />

bei Thyssen Krupp Steel AG in<br />

Dortmund mit Parsytec Inspektionssystem<br />

basierter Datenextraktion und<br />

-analyse für alle Arten galvanisierter<br />

Stahlbänder beruhen.<br />

Oberflächeninspektion an<br />

Feuerverzinkungslinien ersetzt<br />

nachfolgende Inspektionen,<br />

die ansonsten für die<br />

Qualitätssicherung unumgänglich<br />

wären. Zudem ist Oberflächeninspektion<br />

ein probates<br />

Werkzeug für die Defektdokumentation,<br />

da sie <strong>im</strong> Gegensatz<br />

zur manuellen Inspektion<br />

nicht von der Produktionsgeschwindigkeit<br />

abhängt, die gerade<br />

bei höheren Geschwindigkeiten<br />

nicht hinreichend<br />

konsistent ist. Letztendlich ist<br />

die Oberflächeninspektion<br />

nicht nur Fehlererkennung,<br />

sondern unterstützt insgesamt<br />

die Prozessentwicklung.<br />

Bestandteile des Inspektionssystems<br />

sind die Oberflä-<br />

chen-Sensoren mit Kameras<br />

und Beleuchtungen für die<br />

Untersuchung der Bandoberflächen,<br />

die mechanischen<br />

und elektrischen Komponenten<br />

für die Linienintegration<br />

und den Schutz gegen äußere<br />

Einflüsse, die Schnittstellen<br />

zu den Datenspeicherfunktionen,<br />

die Rechner für alle<br />

Verarbeitungsaufgaben und<br />

die Terminals für die Inspektion<br />

und das System-Tuning.<br />

Kernstück des Inspektionssystems<br />

ist natürlich die Software<br />

für die Defektdetektion<br />

und -klassifikation, für die<br />

Schnittstellen und Synchronisierung<br />

aller Hardware- und<br />

Software-Komponenten, sowie<br />

die Mensch-Maschine-<br />

Interaktion.<br />

Defekterkennung durch<br />

Paarbildung<br />

Das Oberflächen-Inspektionssystem<br />

tastet die gesamte<br />

Bandoberfläche mit kamerabasierten<br />

Sensoren ab. Es<br />

identifiziert und klassifiziert<br />

alle oberflächenrelevanten


Defekte und stellt die Ergebnisse<br />

auf einer Coil-Map oder<br />

in Form einer statistischen<br />

Übersicht einschließlich der<br />

Defektbilder bereit. Für die<br />

Suche nach Oberflächendefekten<br />

wird jedes Bild in viele<br />

Abschnitte unterteilt, aus denen<br />

Strukturinformationen<br />

extrahiert werden. Diese Informationen<br />

werden dann mit<br />

Prototypen von Hintergrundstrukturen<br />

verglichen. Wurde<br />

ein passendes Paar gefunden,<br />

dann muss es sich um das fehlerfreie<br />

Bild des Hintergrundes<br />

handeln. Der Prototyp wird<br />

anschließend mit diesen neuen<br />

Informationen aktualisiert,<br />

um sich adaptiv an Veränderungen<br />

der Hintergrundstruktur<br />

anzupassen.<br />

Kann die Strukturinformation<br />

jedoch nicht einem bereits<br />

vorhandenen Prototyp<br />

zugeordnet werden, dann enthält<br />

sie eine Anormalität, einen<br />

Defekt. Auf diese Weise<br />

können Parsytecs Inspektionssysteme<br />

verlässlich Materialien<br />

auch mit starken Hintergrundstrukturen<br />

wie z. B.<br />

galvanisierte Materialien, geschliffene<br />

Flächen oder streifige<br />

Oberflächen inspizieren.<br />

Mit der eingesetzten diffusen<br />

Beleuchtung werden selbst<br />

starke Oberflächenstrukturen<br />

beinahe komplett unterdrückt<br />

und Unterschiede zwischen<br />

dem Hintergrund und dem eigentlichen<br />

Defekt besonders<br />

hervorgehoben.<br />

Parsytecs neues Inspektionssystem<br />

espresso SI vereint<br />

alle sinnvollen Sensorarten<br />

mit verschiedenen<br />

Beleuchtungs- und Kameratypen<br />

(Flächen- und Zeilenkameras)<br />

und deckt somit das<br />

gesamte Anwendungsspektrum<br />

<strong>im</strong> Bereich der Metallinspektion<br />

ab.<br />

Intelligente Klassifizierung<br />

Mit Hilfe der Defektklassifikation,<br />

d. h. der Vergabe von<br />

branchenüblichen Namen für<br />

die gefundenen Defekte, wird<br />

ein unmittelbarer Überblick<br />

über die erzeugte Bandqualität<br />

gegeben. Diesen sehr anspruchsvollen<br />

Prozess leistet<br />

<strong>im</strong> Parsytec Inspektionssystem<br />

die „Intelligent Classifier<br />

Abb. 3: Fehlerbild eines Zinkstreifens<br />

Abb. 4: Screenshot einer mit parsytec<br />

5i generierten Anwendung<br />

zur Korrelation von Prozessparametern<br />

einer Verzinkungslinie mit dem<br />

Auftreten von Oberflächenfehlern.<br />

Technology“, ein hierarchisch<br />

aufgebauter Klassifikationsansatz<br />

über mehrere Stufen,<br />

der sowohl Basiswissen aus<br />

vergleichbaren Applikationen<br />

als auch das Know-how der<br />

Inspektoren und Kontextinformationen<br />

über die Fehlerposition<br />

und die Bandhistorie<br />

einbezieht. Trotz der hohen<br />

Komplexität ist dieser Prozess<br />

mit Hilfe von intuitiven Tools<br />

für den Stahlexperten einfach<br />

handelbar.<br />

Auch bei hoher Qualität<br />

der automatischen Klassifikation<br />

ist in einigen strittigen<br />

Fällen die Kontrolle durch<br />

den menschlichen Experten<br />

nach wie vor sinnvoll und gewünscht.<br />

Espresso SI unterstützt<br />

diesen Kundenwunsch<br />

A u t o m A t i o n<br />

wirkungsvoll durch den automatisierten<br />

und präzisen<br />

Bandstopp an von dem Operator<br />

elektronisch gekennzeichneten<br />

Stellen des Bandes.<br />

Je nach Linienaufbau hat der<br />

Operator nun für einige Minuten<br />

Zeit, eine Bandstelle nachzuinspizieren<br />

und eine eventuelle<br />

Reparatur einzuplanen.<br />

Produktionsopt<strong>im</strong>ierung<br />

durch Prozessdatenkorrelation<br />

Parsytec gibt heute mit parsytec<br />

5i dem Stahlhersteller<br />

leistungsfähige Software an<br />

die Hand, um bspw. Korrelationen<br />

zwischen dem Auftreten<br />

von Oberflächenfehlern<br />

und Prozessparametern herzustellen<br />

und daraus unmittelbar<br />

Korrekturen für die<br />

Prozessführung abzuleiten.<br />

Auf diese Weise lassen sich<br />

<strong>klar</strong> Schwankungen der Prozessgeschwindigkeit,<br />

dem<br />

Temperaturverlauf <strong>im</strong> Zinkpott,<br />

der Zugabezeitpunkt von<br />

Zinkbarren und den Strömungsverhältnissen<br />

<strong>im</strong> Zinkpott<br />

den Fehlerhäufungen<br />

von Zinkstreifen und Verunreinigungen<br />

(„Dross“) zuordnen<br />

und damit auch min<strong>im</strong>ieren.<br />

Mittlerweile trägt Parsytec<br />

mit weltweit 19 Inspektionssystemen<br />

an Feuerverzinkungslinien<br />

beträchtlich zur<br />

Produktionsopt<strong>im</strong>ierung bei.<br />

Jüngstes Beispiel hierfür ist<br />

der Auftrag für die Ausstattung<br />

der Feuerverzinkungslinien<br />

5 und 6 bei Posco in den<br />

Kwang-Yang Werken (Korea).<br />

Seit 1999 gab Posco 34 Inspektionssysteme<br />

bei Parsytec<br />

in Auftrag und unter diesen<br />

befanden sich auch sieben<br />

Feuerverzinkungslinien, die<br />

Poscos Vertrauen in Parsytecs<br />

führende Inspektionstechnologie<br />

und die daraus erwachsende<br />

Wertschöpfung nachhaltig<br />

dokumentieren.<br />

� Kontakt<br />

Dr. Steffen Burkhardt<br />

Elisa Jannasch<br />

Parsytec AG, Aachen<br />

tel.: 0241/9696-600<br />

Fax: 0241/9696-500<br />

jan@parsytec.de<br />

www.parsytec.de


A u T o m A T i o n<br />

Sauberer Schnitt<br />

24 % des Umsatzes der deutschenBildverarbeitungsunternehmen<br />

wurde <strong>im</strong> letzen Jahr<br />

mit nichtindustriellen Anwendungen<br />

erzielt. Man denkt an<br />

Postsortierung, Verkehrsüberwachungssysteme,Mikroskopie.<br />

Aber denken Sie auch an<br />

Weinberge?<br />

Die automatische Erkennung<br />

von Pfählen zur Unterscheidung<br />

von Rebstöcken <strong>im</strong> Weinberg<br />

ist einer von mittlerweile<br />

einer ganzen Reihe von Beiträgen,<br />

die die Bildverarbeitung<br />

zur Automatisierung der<br />

Landwirtschaft leistet.<br />

Der Winzer spart Zeit bei<br />

der Pflege seines Weinbergs,<br />

die er dann getrost in den<br />

Ausbau seiner Weine investieren<br />

kann. Das freut dann<br />

auch den Bildverarbeiter.<br />

Nach der Weinlese müssen<br />

die Rebstöcke für das nächste<br />

Jahr zurück geschnitten werden.<br />

Dazu fährt ein Traktor<br />

mit einem sog. Vorschneider<br />

die Reihen <strong>im</strong> Weinberg entlang<br />

und beschneidet die Rebstöcke<br />

<strong>im</strong> Vorbeifahren. Da<br />

zwischen den Rebstöcken in<br />

regelmäßigen Abständen<br />

Pfähle für die Spanndrähte<br />

gesetzt sind, muss der Fahrer<br />

das Schneidwerkzeug vor je-<br />

dem Pfahl per Knopfdruck<br />

öffnen. Das erfordert die ständige<br />

Aufmerksamkeit des<br />

Fahrers und ist nur in langsamer<br />

Fahrt möglich. WesentlichesUnterscheidungsmerkmal<br />

der Pfähle<br />

gegenüber dem Rebholz ist<br />

ihre gerade Form und ihr größerer<br />

Durchmesser.<br />

Mehr Speed durch Vision<br />

Abb. 2: Anordnung von Kamerabaugruppe und Reflektor<br />

58 Inspect 4/2006<br />

Vision­Sensor für die Automatisierung <strong>im</strong> Weinberg<br />

Abb. 1: Typische Prüfszene mit<br />

Holzpfählen<br />

Der Einsatz eines Vision-Sensors<br />

ermöglicht die automatische<br />

Unterscheidung des<br />

Rebstocks von den Rebpfählen.<br />

Dies erleichtert die Arbeit<br />

des Fahrers und beschleunigt<br />

so das Schneiden.<br />

Als Basis für das Bildverarbeitungssystem<br />

kommt die<br />

Platinenversion einer smart<br />

camera mit den Abmessungen<br />

60x60 mm zum Einsatz. Zusätzlich<br />

wurde eine Versorgungsplatine<br />

entwickelt, auf<br />

der die elektrischen Schnittstellen,<br />

die Beleuchtungssteuerung<br />

und die IRED-Beleuchtung<br />

selbst untergebracht<br />

sind. Die beiden Platinen sind<br />

in Sandwichbauweise in ein<br />

Schutzgehäuse integriert.<br />

Die Beleuchtung erfolgt in<br />

Kombination mit einer Retroreflektorfolie,<br />

die aus Kamerasicht<br />

hinter den Weinreben<br />

angebracht wird. Damit ist<br />

gewährleistet, dass <strong>im</strong>mer ein<br />

homogener heller Hintergrund<br />

vorliegt, die Szene<br />

entspricht quasi einer Durchlichtanordnung.Fremdlichteinflüsse<br />

können so ausgeschlossen<br />

werden, das System<br />

arbeitet robust bei wechselnden<br />

Lichtverhältnissen.<br />

Weitere wesentliche Bestandteile<br />

des Kameramoduls<br />

sind:<br />

� Netzteil mit weitem Eingangsspannungsbereich<br />

für Versorgung aus der<br />

Fahrzeugbatterie<br />

� Watchdog zur Überwa-<br />

�<br />

chung von Betriebsspannung<br />

und Kamera<br />

Heizung mit automatischer<br />

Temperaturüberwachung<br />

zum thermischen Schutz<br />

der Kamera <strong>im</strong> Arbeitstemperaturbereich<br />

-10 °C bis +45 °C<br />

von<br />

� 12-poliges Verbindungskabel<br />

zum Vorschneider mit<br />

allen Schnittstellen und<br />

�<br />

Signalen<br />

RS232-Schnittstelle für<br />

Servicearbeiten<br />

und Diagnose-<br />

Automatische Rebpfahlerkennung<br />

Das Bildverarbeitungssystem<br />

läuft <strong>im</strong> Betrieb frei und prüft<br />

fortlaufend den Sichtbereich<br />

vor der Kamera auf das Vorhandensein<br />

von Pfählen. Es<br />

erkennt während des Vorbeifahrens<br />

automatisch, ob<br />

Rebpfähle vorhanden sind<br />

und öffnet in diesem Fall<br />

selbsttätig den Vorschneider.<br />

Die Verarbeitung erfolgt<br />

mit 20 Auswertungen pro<br />

Sekunde. Das ergibt bei<br />

einer Überwachungsbreite<br />

von 25cm eine max<strong>im</strong>al mögliche<br />

Geschwindigkeit des<br />

Vorschneiders von 11 km/h,<br />

damit kein Pfahl übersehen<br />

wird. Dies liegt deutlich über<br />

den üblichen Fahrgeschwindigkeiten<br />

bis max<strong>im</strong>al 8km/h.<br />

Trotz der unterschiedlichen<br />

Gelände- und Witterungsbedingungen<br />

werden<br />

vorhandene Pfähle sicher erkannt.<br />

Angesichts der natürlichen<br />

Vielfalt der Rebstöcke,<br />

aber auch der Varianten der<br />

vorkommenden Pfahlarten<br />

eine herausragende Leistung<br />

des Systems. Neben unterschiedlichen<br />

Materialien –<br />

Pfähle aus Holz, Kunststoff,<br />

Metall oder Beton – mit ihren<br />

wechselnden Reflexionseigenschaften,<br />

Querschnitten<br />

und Farben müssen auch geneigte<br />

Pfähle sicher erkannt<br />

werden. Sogar die Erkennung<br />

von Pfählen, die mit Rebholz<br />

berankt sind, ist mit dem System<br />

gewährleistet.<br />

� Kontakt<br />

Bi-Ber Bilderkennungssysteme,<br />

Berlin<br />

Tel.: 030/5304-1253<br />

Fax: 030/5304-1254<br />

info@bilderkenung.de<br />

www.bilderkennung.de


A u T o m A T i o n<br />

Schnelle und genaue 3D­Inspektion<br />

RevXperts präsentiert auf der Euromold (Halle 6 Stand B78) den 3D<br />

Creator Dual – die logische Ergänzung des 3D Creators, um größere<br />

Messfelder mit hoher Genauigkeit aufbauen zu können. Der 3D<br />

Creator Dual erlaubt die Einrichtung eines Messraums von 6 m<br />

Länge, 3 m Breite und 2 m Höhe mit einer Messgenauigkeit von 0,5<br />

mm. Noch größere Ausmaße von bis zu 6 x 5 x 2 m sind möglich,<br />

wenn zwei Systeme synchronisiert werden. Das optisch-elektronische<br />

Messsystem besteht aus zwei Sensoreinheiten, zwei Kontrolleinheiten<br />

und einem freibeweglichen Messstift, dessen Bewegungsrichtung<br />

und Position über die Infrarotverbindungen mit den Kameras genau best<strong>im</strong>mt werden. Dabei<br />

werden aktive Infrarot-Leuchtdioden, die auf dem Messstift integriert sind, bis zu einer Entfernung von<br />

über 5 m mit den Kameras erfasst und die genauen X,Y,Z-Koordinaten sowie die Bewegungsvektoren<br />

der Messspitze best<strong>im</strong>mt.<br />

RevXperts • Tel.: 089/548420-80 • volker.huth@revxperts.de • www.revxperts.de<br />

Workshop für Bildverarbeitungsanbieter<br />

Gemeinsam mit der Messe Stuttgart bietet die Vision Academy während<br />

der Vision 2006 in Stuttgart eine neue Workshop-Reihe für Bildverarbeitungsanbieter<br />

und -anwender unter dem Motto „Methoden<br />

und Anwendungen in der Bildverarbeitung” an. Am 8. November<br />

2006 besteht die Gelegenheit zur Teilnahme am Workshop „Optische<br />

Messverfahren für die Geometrie- und Oberflächeninspektion”. Die<br />

Workshops werden thematisch von Vision Projekt Erfurt und dem CiS-<br />

Institut für Mikrosensorik begleitet. Die Workshop-Reihe stellt für Bildverarbeiter<br />

und Anwender praxisgeprüfte Erkenntnisse und Erfahrungen für die Einführung innovativer Verfahren<br />

bereit. Angemeldete Workshopbesucher erhalten ein kostenloses Messeticket. Alle weiteren Informationen,<br />

Downloads und Anmeldeformulare unter www.vision-academy.org bzw. www.messe-stuttgart.de.<br />

Vision Academy GmbH<br />

Tel.: 0361/42 62-187 • infopoint@vision-academy.org • www.vision-academy.org<br />

Zielgerichtete Partnerschaft<br />

Parsytec gibt die Partnerschaft mit der Maco Corporation bekannt. Diese Partnerschaft hat zum Ziel, Parsytecs<br />

Oberflächeninspektionslösungen auf dem indischen Markt durch zielgerichtete Prozessverbesserungen<br />

und Erzielung hoher Produktionsqualität zu etablieren. Maco Corporation (India) Pvt. Ltd. ist als<br />

Partner für <strong>im</strong>portierte Industrieanlagen, Ersatzteile und Verbrauchsgüter auf dem indischen Metallmarkt renommiert.<br />

Indiens wachsende Metallindustrie und viel versprechende Aussichten überzeugten Parsytec, den<br />

indischen Markt aktiv mit einem lokal ansässigen Partner zu erschließen. Das Unternehmen wird nicht nur<br />

die Vermarktung von Inspektionslösungen übernehmen, sondern auch qualifiziertes Projektmanagement<br />

und technische Beratung bieten.<br />

Parsytec AG • Tel.: 0241/9696-0 • info@parsytec.de • www.parsytec.de<br />

Prüfung von Druckerzeugnissen<br />

Die Hamburger Firma deltaE <strong>im</strong>aging entwickelte zwei neue Bilderfassungssysteme<br />

zur opt<strong>im</strong>alen Überprüfung qualitativ hochwertiger Druckerzeugnisse.<br />

Besonders interessant für die Druckereien der Pharma-, Lebensmittel-<br />

und Kosmetikindustrie ist der antares Quality Control, der<br />

Vorlagen bis zu einer Größe von DIN B1 erfasst. Dieses Prüfgerät scannt<br />

berührungslos, so dass strukturierte und empfindliche Vorlagen opt<strong>im</strong>al<br />

erfasst werden können. Der Schwerpunkt des atair Quality Control liegt<br />

auf der Wareneingangskontrolle und eignet sich für Vorlagen bis DIN A 2. Beide Geräte können Brailleschrift<br />

prüfen und überzeugen durch enorme Bildqualität, hohe Scangeschwindigkeit und einfache Bedienbarkeit.<br />

Durch die hohe Präzision können kleinste Abweichungen in Schriftbild, Größe oder Braillepunkten<br />

erkannt werden. Außerdem spricht ein fairer Preis für die Systeme der deltaE <strong>im</strong>aging.<br />

deltaE <strong>im</strong>aging GmbH • Tel.: 040/87971335 • info@deltae-<strong>im</strong>aging.de • www.deltae-<strong>im</strong>aging.de<br />

weitere Produkte unter www.PRo-4-PRo.com


A u T o m A T i o n<br />

Null­Fehler­Fertigung <strong>im</strong> Fokus<br />

Das intelligente Kompaktkamerasystem SBOC-Q/<br />

SBOI-Q von Festo steht für 100 %ige Qualitätskontrolle<br />

– selbst bei enormer Typenvielfalt. Klein<br />

und robust lässt sich das flächenbasierte Prüfsystem<br />

einfach in Anlagen integrieren und hilft Herstellern,<br />

den steigenden Qualitätsanforderungen<br />

ihrer Kunden gerecht zu werden. Ob zur Orientierungsprüfung<br />

von Kleinteilen, zum Vermessen von<br />

Drehteilen, zur Feinpositionierung von Antrieben<br />

oder bei der Objektlokalisierung zur Steuerung von<br />

Handhabungseinrichtungen – die intelligente Kamera<br />

bietet zuverlässige Prüfergebnisse für ein<br />

breites Anwendungsspektrum. Sowohl gleichmäßig als auch unregelmäßig bewegte<br />

oder ruhende Teile lassen sich mit dem System kontrollieren.<br />

Festo AG & Co. KG<br />

Tel.: 0711/347-2141 • rso@de.festo.com • www.festo.com<br />

Für anspruchsvolle Vision­Entwicklungen<br />

Für anspruchsvolle Aufgaben der Bildverarbeitung<br />

ist die Verkürzung der gesamten<br />

Engineeringszeit und die zügige Implementierung<br />

in den Automatisierungsprozess<br />

von zunehmend strategischer Bedeutung.<br />

Das schlüssige Verzahnen von<br />

Hard- und Software der Bildverarbeitung<br />

und die opt<strong>im</strong>ierte Einbindung in die Prozesssteuerung<br />

sowie Unternehmenskommunikation<br />

muss in <strong>im</strong>mer kürzeren Zeiten bewältigt werden. Mit der mächtigen<br />

Entwicklungsumgebung VisionPro Version 4.1 von Cognex erhält der Systemintegrator<br />

und Anwender ein effizientes bewährtes Werkzeug mit vielen neuen Leistungsmerkmalen.<br />

Komplexe PC-basierte Vision-Projekte mit mehreren Kameras oder auch<br />

zusätzlich kombiniert mit Vision-Sensoren können in gesteigerter Funktionssicherheit<br />

und -qualität beschleunigt durchgeführt und erhebliche Kosten eingespart werden.<br />

Cognex Germany, Inc.<br />

Tel.: 0721/6639-0 • torsten.zoeller@cognex.com • www.cognex.net<br />

Prüfung von komplexen 3D­Objekten<br />

Auf der Hannover Messe 2006 präsentierte Viscom<br />

das robotergestützte Inspektionssystem S3012ROB.<br />

Mit Hilfe dieses Roboters können komplexe 3-D-<br />

Objekte rundum sicher geprüft werden. Zu den typischen<br />

Inspektionsaufgaben in der industriellen<br />

Praxis gehört oft die Rundum-Inspektion von montierten<br />

oder bearbeiteten Objekten. Das System von<br />

Viscom ist <strong>im</strong> opt<strong>im</strong>alen Fall mit starr montierten<br />

Kameras ausgestattet. Der Prüfling wird dabei von<br />

Robotern bewegt, so dass eine Prüfung aller sechs<br />

Seiten möglich ist. Die aufwändigere Kamerabewegung ist in besonderen Anwendungsfällen<br />

auch möglich. Besonderes Highlight ist die hochwertige Auslegung<br />

der Sensorik. Die Intensität, Lichtrichtung und die Kombination einzelner<br />

Beleuchtungskonzepte werden entsprechend der Prüfaufgabe variiert.<br />

Viscom AG • Tel.: 0511/94996-531 • info@viscom.de • www.viscom.de<br />

Neues Mehrkamerasystem<br />

Die für ihre optischen Qualitätssicherungssysteme<br />

bekannte Firma <strong>im</strong>ess hat auf der<br />

Control 2006 in Sinshe<strong>im</strong> das neue Mehrkamerasystem<br />

IML 100 zur IML-Kontrolle<br />

vorgestellt. Eine beispielhafte Prüfaufgabe<br />

für das IML 100 stellt die Kontrolle frisch<br />

gespritzter Kunststoffteile direkt nach der<br />

Entnahme dar. Typische Fehler sind dabei<br />

Unterspritzung sowie teilweise fehlende<br />

und versetzte Etiketten. Idealerweise wird bei dieser Anwendung die Kamerakontrolle<br />

in den Entladeprozess durch die vorhandenen Handlungsgeräte integriert.<br />

Das Ergebnis ist, dass die fehlerhaften Teile aussortiert werden. Die<br />

Steuer- und Auswerteeinheit besteht aus einem leistungsfähigen PC mit Schnittstellen<br />

zu den Kameras und zur Steuerung (Digital, TCP/IP oder Profibus). Pro<br />

PC sind vier anschließbare Kameras typisch, bei langsamen Prozessen acht oder<br />

mehr. Die Bildaufnahme- und Auswerterate liegt bei bis zu 10 Bildern pro Sekunde.<br />

<strong>im</strong>ess GmbH<br />

Tel.: 02302/96888-0 • feld@<strong>im</strong>ess.com. • www.<strong>im</strong>ess.com<br />

60 Inspect 4/2006 weitere Produkte unter www.PRo-4-PRo.com


Mehr ab Seite 62<br />

CONTROL<br />

MATERIALPRÜFUNG UND MESSGERÄTE<br />

Verborgene Gehe<strong>im</strong>nisse<br />

Hochgeschwindigkeits-Kamerasystem lässt nichts unentdeckt<br />

M A C H I N E V I S I O N • S U R F A C E I N S P E C T I O N • M I C R O S C O P Y<br />

OLYMPUS DEUTSCHLAND<br />

IN KÜRZE<br />

Olympus ist führender Hersteller von professionellen<br />

opto-digitalen Produkten und ein Pionier<br />

bei Schlüsseltechnologien in den Bereichen<br />

Bildgebungs- und Sprachprodukte, Endoskopie,<br />

Mikroskopie, Bioanalytik und Diagnostik.<br />

Die Marke Olympus steht für innovative optodigitale<br />

Technologie, herausragendes Design und<br />

höchste Qualität; intensive Kundenorientierung<br />

und schnelle Umsetzung von Kundenwünschen<br />

und Marktanforderungen sowie Kreativität und<br />

Originalität bei der Entwicklung von neuen Produkten<br />

und effi zienten Systemlösungen.<br />

i-Speed 2<br />

Die Weiterentwicklung des erfolgreichen Hochgeschwindigkeits-Kamerasystems<br />

i-Speed ermöglicht<br />

Bildspeicherung ohne PC, intuitiv,<br />

fl exibel und mobil – ebenso wie be<strong>im</strong> Vorgängermodell<br />

wird Benutzerfreundlichkeit groß<br />

geschrieben. Darüber hinaus bietet das neue<br />

System einen schnellen Mikroprozessor, MJPEG-<br />

Kompression, Bildbearbeitung per externer Kontrolleinheit<br />

für bestmögliche Bildeinstellung, bis<br />

33.000 fps, Aufl ösung 800 x 600 bei 1.000 fps,<br />

Monochrom- oder Farbkameras, Standard- oder<br />

High G-Version, Bilderdownload auf den PC via<br />

Compact Flash oder Ethernet, kontinuierliches<br />

Live Video Streaming über vier Ausgänge und die<br />

exklusive externe Kontrolleinheit (CDU).<br />

k o n t a k t<br />

Olympus Deutschland GmbH<br />

Industrie Endoskopie<br />

Wendenstr. 14–18<br />

20097 Hamburg<br />

Tel.: 040/23773-465<br />

Fax: 040/23773-654<br />

industrie@olympus.de<br />

www.olympus.de/industrie<br />

INSPECT 4/2006<br />

61


C o n t r o l<br />

Verborgene Gehe<strong>im</strong>nisse<br />

Hochgeschwindigkeits-Kamerasystem lässt nichts unentdeckt<br />

Wie oft fragt man sich, was<br />

wirklich hinter den Kulissen<br />

eines Prozesses steht, was in<br />

der Forschung & Entwicklung<br />

real passiert. Doch der<br />

Mensch kann mit seinen<br />

Augen nur eingeschränkt erfassen,<br />

was in schnellen Abläufen<br />

vor sich geht – und<br />

kann daher viele Fehlerquellen<br />

nicht nachvollziehen. Für<br />

Unternehmen wiederum<br />

kann dies zu einem kritischen<br />

Kostenfaktor werden, da<br />

ganze Produktionschargen<br />

durch Herstellungsfehler vernichtet<br />

werden könnten. Genau<br />

hier bietet Olympus mit<br />

dem Hochgeschwindigkeits-<br />

Kamerasystem i-Speed 2 eine<br />

einzigartige Möglichkeit, versteckte<br />

oder für das Auge<br />

nicht fassbare und unverständliche<br />

Qualitätsprobleme<br />

in der Produktion, Forschung<br />

& Entwicklung und in Testprojekten<br />

sichtbar zu machen.<br />

Die Fehlerdiagnose<br />

wird extrem vereinfacht.<br />

Rundum benutzerfreundlich<br />

Der Schlüssel zum Erfolg des<br />

i-Speed Hochgeschwindigkeits-Kamerasystems<br />

lag in<br />

der Benutzerfreundlichkeit.<br />

Diese wird nun <strong>im</strong> neuen<br />

62 Inspect 4/2006<br />

i-Speed 2 System fortgeführt,<br />

jedoch mit einem noch höheren<br />

Maß an Flexibilität und<br />

Komfort. Durch die intuitive<br />

Handhabung ist es auch einem<br />

unerfahrenen Anwender möglich,<br />

innerhalb kürzester Zeit<br />

mit dem System zu arbeiten.<br />

Vom Aufbau des Systems bis<br />

zur Erstellung des ersten Bildes<br />

vergehen max<strong>im</strong>al 20 Minuten.<br />

Weltweit einzigartig ist die<br />

externe Kontrolleinheit – die<br />

CDU (Control Display Unit).<br />

Sie bietet dem Anwender den<br />

großen Vorteil, Bilder anzusehen<br />

und direkt in der Kamera<br />

zu speichern – vorbei<br />

die Zeit, als man <strong>im</strong>mer und<br />

überall einen PC oder Laptop<br />

mit dem System zusammen<br />

Manchmal muss man Verborgenes sichtbar machen – vor diesem<br />

Dilemma standen schon Sherlock Holmes oder Marie Curie, aber<br />

auch der Arzt, der eine Diagnose erstellen muss, der Kr<strong>im</strong>inalbe-<br />

amte, der ein Verbrechen aufzuklären hat, oder die Mutter, die<br />

herauszufinden versucht, warum ihr Kind weint (oftmals hilft ein<br />

Windelwechsel…). Es gibt viele Dinge, die für unser Auge nicht<br />

fassbar sind. Aus diesem Grund hat Olympus das erfolgreiche<br />

Hochgeschwindigkeits-Kamerasystem i-Speed weiterentwickelt<br />

– das neue i-Speed 2 kann noch mehr Unentdecktes für das<br />

menschliche Auge sichtbar machen. Bildspeicherung ohne PC,<br />

intuitiv, flexibel und mobil – das und vieles mehr ist i-Speed 2.<br />

aufbauen musste! Die aufgenommenen<br />

Daten können<br />

nachträglich über eine Compact<br />

Flash Karte oder via<br />

Ethernet auf einen Rechner<br />

übertragen werden. Außerdem<br />

besteht die Möglichkeit,<br />

direkt vor Ort – über den Monitor<br />

der CDU – eine mögliche<br />

Fehlerdiagnose zu erstellen.<br />

Dadurch können u. U. wertvolle<br />

Zeit und auch Kosten<br />

gespart werden.<br />

Ein weiteres Feature des i-<br />

Speed 2 Kamerasystems ist<br />

die Möglichkeit, Bilddaten zu<br />

kompr<strong>im</strong>ieren. Die Aufnahmen<br />

können in der Originalgröße<br />

mit höherem Speicherbedarf<br />

oder in kompr<strong>im</strong>ierter<br />

Form in kleiner Dateigröße<br />

mit Farbreduzierung gespeichert<br />

werden. Durch die<br />

Kompr<strong>im</strong>ierung der Daten<br />

sind wesentlich kürzere<br />

Downloadzeiten zu erzielen.<br />

Die kompr<strong>im</strong>ierten Filmsequenzen<br />

können jetzt problemlos<br />

per E-Mail versandt<br />

werden. So bietet das System<br />

jedem Kunden eine opt<strong>im</strong>ale<br />

Lösung in Bezug auf Speichergeschwindigkeit,Dateigröße<br />

und Datenfluss.<br />

Einsatzmöglichkeiten en<br />

masse<br />

Es gibt unendlich viele Einsatzmöglichkeiten<br />

für i-<br />

Speed 2, denn das System ist<br />

flexibel einsetzbar – ob in<br />

der Steuerung und Überwachung<br />

von Prozessen<br />

(bspw. Leiterplattenbestückung),<br />

bei zerspanenden<br />

Vorgängen wie Drehen, Fräsen,<br />

Schneiden, ebenso in<br />

der Automobilindustrie bei<br />

Komponententests, der Untersuchung<br />

von Einspritzanlagen<br />

und Airbagtests.<br />

Weiterhin wird das System<br />

z. B. in der Biomechanik<br />

(u. a. Sportwissenschaften)<br />

eingesetzt, um Bewegungsabläufe<br />

zu untersuchen und<br />

zu analysieren.<br />

Auch in der Verpackungsmaschinen-Industrie<br />

sind<br />

Hochgeschwindigkeits-Kamerasysteme<br />

nicht mehr wegzu


Anfang oktober wurde die<br />

neue i-Speed 2 offiziell der<br />

Fachpresse vorgestellt. Dafür<br />

hatte man sich auch etwas<br />

ganz Besonderes einfallen<br />

lassen: Mit dem original-Bus<br />

von St. Pauli fuhr man gemeinsam zu einer Golfanlage. Unter dem<br />

Motto „Verborgenes entdecken“ (vielleicht auch verborgene talente?)<br />

wurde dann nicht nur geputtet und Abschläge geübt, was<br />

das Zeug hielt, sondern sehr zur Freude aller angehenden Golf-<br />

Champions kam auch die i-Speed 2 zum Einsatz, die mit bis zu<br />

33.000 Bildern pro Sekunde deutlich machte, wo das Verbesserungspotential<br />

jedes Einzelnen be<strong>im</strong> Abschlag lag – in gnadenloser<br />

Klarheit!<br />

denken, z. B. bei der Kontrolle<br />

von Etikettierungsvorgängen,<br />

Abfüllprozessen, Prozesse in<br />

Druckmaschinen und maschinellem<br />

Verpacken. Außerdem<br />

darf die Forschung und Ent-<br />

wicklung nicht außer Betracht<br />

gelassen werden. Diese<br />

Anwendungen finden sich in<br />

Life- und Material Science<br />

Branchen wieder:<br />

� Untersuchung der Bewegung<br />

von Fl<strong>im</strong>merhärchen<br />

� Münzerkennungsmechanismen<br />

in Automaten<br />

� Entwicklung von Leuchtmitteln<br />

(Halogenlampen,<br />

Gasentladungslampen,…)<br />

� Grundlagenforschung<br />

Universitäten<br />

in<br />

Tiefe Einblicke<br />

Das System i-Speed 2 wurde<br />

so konzipiert, dass ein Einsatz<br />

mit Industrie Endoskopen<br />

sowie Mikroskopen (über<br />

C-Mount adaptierbar) möglich<br />

ist. Diese Kombinationen<br />

ermöglichen es, noch tiefere<br />

Einblicke in Anwendungen zu<br />

nehmen und bisher nicht<br />

sichtbare Vorgänge darzustellen.<br />

Hier macht es keinen<br />

Unterschied, ob es sich um<br />

das Innenleben einer Abfüllmaschine,<br />

den Dreh von Werbespots<br />

oder die Bewegung<br />

C o n t r o l<br />

von Fl<strong>im</strong>merhärchen handelt.<br />

Das Wichtigste für eine innovative<br />

Zukunft in der Industrie<br />

ist der Dialog mit<br />

Kunden und den Anwendern<br />

der Geräte. So sind und werden<br />

die Systeme für die aktuellen<br />

und zukunftsorientierten<br />

Bedürfnisse und Anforderungen<br />

weiterentwickelt.<br />

Dialoge und Kommunikation,<br />

erfolgreicher Erfahrungsaustausch,<br />

Systemlösungen –<br />

Olympus – ein Partner für die<br />

industrielle Zukunft!<br />

� Kontakt<br />

Karin Volkmer<br />

olympus Deutschland GmbH<br />

Geschäftsbereich Industrie<br />

Endoskopie<br />

tel.: 040/23773-402<br />

Fax: 040/23773-654<br />

industrie@olympus.de<br />

www.olympus.de/industrie<br />

Inspect 4/2006<br />

63


C o n t r o l<br />

Wo gehobelt wird, da fallen Späne …<br />

Berührungslose Oberflächenanalyse von Wendeschneidplatten<br />

Zerspanung bezeichnet alle mechanischen Bearbeitungsverfahren, bei<br />

denen das Material in die gewünschte Form gebracht wird, indem es<br />

in Form von Spänen abgetragen wird. Das Grundprinzip des Spanens<br />

beruht auf dem Eindringen einer keilförmigen Werkzeugschneide in<br />

die Oberfläche des Werkstücks und anschließendem Abschälen einer<br />

dünnen Materialschicht, dem Span.<br />

Zerspaner stellen heute höchste Ansprüche an ihr Werkzeug. Gute<br />

Schneideigenschaften bei hohen Schnittgeschwindigkeiten und<br />

lange Standzeiten sind ausschlaggebend für die Qualität hochwer­<br />

tiger Wendeschneidplatten. Schnittgeschwindigkeit und Lebens­<br />

dauer der Hartmetallkomponenten hängen vor allem von der Ober­<br />

flächengeometrie der Schneidkanten ab. Das optische Messgerät<br />

InfiniteFocus von Alicona Imaging ermöglicht die hochgenaue, be­<br />

rührungslose Messung von Winkeln und Verrundungsradien einer<br />

Wendeschneidplatte.<br />

Qualitativ hochwertige Wendeschneidplatten,<br />

die eine lange Standzeit haben<br />

und bei hohen Schnittgeschwindigkeiten<br />

gute Schneideigenschaften aufweisen,<br />

sind in jeder Produktion und Fertigung<br />

für die spanende Bearbeitung von Metall<br />

unabdingbar. Die Oberflächenbeschaffenheit<br />

der einzelnen Schneidekanten ist<br />

ausschlaggebend für die opt<strong>im</strong>ale Zerspanung<br />

be<strong>im</strong> Bohren, Drehen und Fräsen.<br />

Radien und Winkel des Schneidkeils<br />

best<strong>im</strong>men die Standzeit und Schnittqualität<br />

der Werkzeuge. Ceratizit,<br />

Experte in Sachen<br />

Hartmetall und führender<br />

Hersteller<br />

von Wende­<br />

Abb. 1: Das optische 3D Messgerät InfiniteFocus<br />

64 Inspect 4/2006<br />

schneidplatten, hat InfiniteFocus <strong>im</strong> Einsatz<br />

und kennt die stetig wachsenden<br />

Anforderungen an die Schneidstoffentwickler.<br />

Der Hersteller mit dem Slogan<br />

„where hard material matters“ legt viel<br />

Wert auf eine verlässliche Oberflächenkontrolle<br />

zur Qualitätssicherung seiner<br />

Produkte. „Bei der anspruchsvollen Fertigung<br />

müssen wir uns auf eine aussagekräftige<br />

Oberflächenprüfung verlassen<br />

können“, so der renommierte Hersteller.<br />

Herkömmliche Oberflächenanalyse<br />

durch taktile Messungen wird den Anforderungen<br />

an eine genaue Oberflächenkontrolle<br />

nicht gerecht. Die Ergebnisse<br />

einer taktilen Messung sind fehleranfällig<br />

und daher wenig aussagekräftig.<br />

Das Problem mit<br />

taktilen Messgeräten<br />

Jede Schneidkante<br />

weist best<strong>im</strong>mte<br />

Oberflächeneigenschaften<br />

auf, die<br />

<strong>im</strong> Vorfeld der<br />

Herstellung definiert<br />

wurden.<br />

Die meisten<br />

Schneidkeilgeometrien<br />

setzen sich aus verschiedenen Winkeln<br />

und Radien zwischen 10 µm und 100 µm<br />

zusammen. Mittels der Oberflächenanalyse<br />

wird festgestellt, welche Oberflächenmerkmale<br />

die Wendeschneidplatte<br />

nach der Herstellung aufweist und ob die<br />

Radien und Winkel mit den zuvor festgelegten<br />

D<strong>im</strong>ensionen übereinst<strong>im</strong>men.<br />

Taktile Messgeräte erfüllen diese Messanforderung<br />

nur bis zu einem best<strong>im</strong>mten<br />

Grad. Die Bewegung der Nadel über<br />

die Schneidkante ist keine verlässliche<br />

Messmethode zur Topografiebest<strong>im</strong>mung<br />

für gerundete Oberflächen, da die Haftung<br />

der Nadel an der Oberfläche nicht<br />

durchgehend gegeben ist. Zudem messen<br />

taktile Instrumente nur die Topografie<br />

der abgetasteten Spur, flächenhafte<br />

Messungen sind ausgeschlossen. Ungenauigkeiten<br />

und Messfehler sind die<br />

Folge.<br />

Hochgenaue und berührungslose<br />

Oberflächenanalyse<br />

InfiniteFocus erfüllt die Anforderungen<br />

einer genauen, einfachen, schnellen und<br />

komplexen Oberflächenanalyse in mehrerer<br />

Hinsicht. Krümmungsradien und<br />

Schneidewinkel werden zuverlässig und<br />

sehr benutzerfreundlich ermittelt. Die<br />

3D Messung wird direkt <strong>im</strong> optischen 2D<br />

Farbbild vorgenommen. Der Anwender<br />

definiert per Mausklick die Winkel und<br />

Radien, die gemessen werden sollen und<br />

erhält Ergebnisse mit einer vertikalen<br />

Auflösung von bis zu 20 nm. Die ständige<br />

direkte visuelle Korrelation zwischen<br />

dem Farbbild der Oberfläche und den<br />

Messergebnissen ermöglicht eine völlig<br />

neuartige Form der Qualitätskontrolle.


Abb. 2: Berührungslose Messung der Winkel und<br />

Verrundungsradien von Wendeschneidplatten<br />

Die Oberflächenmessung wird einfacher,<br />

zuverlässiger, flexibler und wesentlich<br />

genauer. InfiniteFocus berechnet nach<br />

Wahl Höhe, Volumen, Fläche oder, der<br />

EN ISO 4287 Norm entsprechend, die<br />

Rauheit einer Oberfläche. Als Instrument<br />

zur Qualitätssicherung bietet Infinite­<br />

Focus zusätzliche Vorteile, da das Messgerät<br />

die Oberfläche der Schneidkante<br />

auch als 3D Modell visualisiert. Der Anwender<br />

kann durch die dreid<strong>im</strong>ensionale<br />

Ansicht von großen Gesichtsfeldern Rückschlüsse<br />

auf die Oberflächenbeschaffenheit<br />

<strong>im</strong> Bezug auf Glätte, Höhenunterschiede<br />

und Fremdkörper ziehen.<br />

Optisch Messen mit InfiniteFocus<br />

InfiniteFocus ist ein Messgerät zur optischen<br />

3D­Oberflächenerfassung. Das<br />

Abb. 3: 3D Modell der Wendeschneidplatte<br />

Funktionsprinzip basiert auf der geringen<br />

Schärfentiefe einer optischen Vergrößerung.<br />

Die Oberfläche einer Probe<br />

wird vertikal gescannt. Aufgrund dieser<br />

Fokus­Variation generiert das Messgerät<br />

sowohl die topographische als auch die<br />

registrierte Farbinformation einer Probenoberfläche.<br />

Der Anwender erhält einen<br />

einzelnen 3D Datensatz mit genauer<br />

topographischer Information, der von<br />

neuen, innovativen Algorithmen berechnet<br />

wird.<br />

Die vertikale Auflösung beträgt bis<br />

zu 20 nm, was das Instrument zu einem<br />

idealen Messsystem für die Tiefen­<br />

C o n t r o l<br />

analyse von<br />

Oberflächen<br />

unterschiedlicher<br />

Struktur<br />

und Materialien<br />

macht. Rückführbare<br />

Kalibrierung<br />

ermöglicht die Verifikation<br />

der Messergebnisse.<br />

InfiniteFocus wird sowohl <strong>im</strong><br />

Labor als auch in produktionsnaher<br />

Umgebung eingesetzt. Eine Reihe von<br />

Funktionen und Analysen kann zusätzlich<br />

automatisiert werden. InfiniteFocus<br />

erfüllt sämtliche Anforderungen an ein<br />

genaues und schnelles Messinstrument<br />

für die 3D Tiefenanalyse und Oberflächeninspektion.<br />

� Kontakt<br />

Mag. Astrid Krenn<br />

Alicona Imaging, Grambach/Graz, Österreich<br />

tel.: +43 316 4000 742<br />

Fax: +43 316 4000 711<br />

inf@alicona.com<br />

www.alicona.com<br />

Inspect 4/2006<br />

65


C o n t r o l<br />

In Müllverbrennungsanlagen werden die<br />

angelieferten Abfälle üblicherweise in<br />

geschlossenen Bunkern zwischengelagert.<br />

Durch chemische Vorgänge <strong>im</strong> gelagerten<br />

Müll oder Fremdeintrag heißer Stoffe kön-<br />

nen Bunkerbrände entstehen, die hohe<br />

Risiken für Betreiber und Umwelt bergen.<br />

Durch eine kontinuierliche, automatisch<br />

ablaufende Temperaturmessung der Abfall-<br />

schüttung können Gl<strong>im</strong>mnester oder<br />

Schwelbrände frühzeitig detektiert und mit<br />

geeigneten Maßnahmen in kürzester Zeit<br />

vor Ausbruch eines Brandes beseitigt wer-<br />

den. Damit werden erhebliche Schäden und<br />

Anlagenstillstände vermieden sowie die<br />

Entstehung und Freisetzung toxischer Luft-<br />

schadstoffe wirksam verhindert.<br />

Firefighter <strong>im</strong> Bunker<br />

In Deutschland wird in der 17. Bundes-<br />

Immissionsschutzverordnung (BImSchV),<br />

die die Errichtung und den Betrieb von<br />

Verbrennungsanlagen für Abfälle regelt,<br />

gefordert, dass in den Bunkern oder geschlossenen<br />

Lagern „... Einrichtungen<br />

zur Erkennung und Bekämpfung von<br />

Bränden vorzusehen sind.“<br />

Das Landesumweltamt Nordrhein-<br />

Westfalen empfiehlt auf der Grundlage<br />

eigener Untersuchungen den Einsatz<br />

von Infrarot-Thermografiesystemen als<br />

wirksamste Präventionsmaßnahme. Ein<br />

automatisch arbeitendes Brandfrüher-<br />

Abb. 1: Bunker einer Müllverbrennungsanlage<br />

66 Inspect 4/2006<br />

Thermographiesystem für die Müllbunker-Brandfrüherkennung<br />

kennungssystem auf der Basis der Infrarot-Thermografie<br />

muss dabei folgende<br />

Funktionen erfüllen:<br />

� Erkennen und Lokalisieren warmer<br />

Stellen auf der Abfalloberfläche als<br />

Hinweis auf Gl<strong>im</strong>mnester oder andere<br />

Wärmeherde,<br />

� frühzeitiges Melden kritischer Temperaturzustände,<br />

� automatische Auswertung der gemessenen<br />

Temperaturen und Aufzeichnung<br />

kritischer Zustände,<br />

� Möglichkeit der Beobachtung eines<br />

Brandes, auch bei starker Verqualmung,<br />

zur Koordinierung der Brandbekämpfung.<br />

Waste-Scan – Brandfrüherkennungssystem<br />

Das automatische Brandfrüherkennungssystem<br />

Waste-Scan basiert auf dem Prinzip<br />

der Infrarot-Thermografie. Es misst<br />

über größere Entfernungen kontinuierlich<br />

und berührungslos die Temperaturen<br />

auf der Oberfläche einer Abfallschüttung.<br />

Tiefer liegende Gl<strong>im</strong>mnester,<br />

die sich durch den Wärmetransport zumindest<br />

unscharf <strong>im</strong> Temperaturbild der<br />

Oberfläche abzeichnen, können damit<br />

ebenfalls erkannt werden.<br />

Herzstück des Systems ist die mit<br />

einem ungekühlten Mikrobolometer-<br />

FPA-Detektor ausgestattete, hochauflösende<br />

Thermografiekamera VarioCAM<br />

head des deutschen Herstellers Jenoptik<br />

Laser, Optik, Systeme.<br />

Bei der thermografischen Brandfrüherkennung<br />

kommt es darauf an, kleinste<br />

überhitzte Objekte – sog. „Hot Spots“ –<br />

frühzeitig und sicher zu erkennen und<br />

deren Temperatur korrekt zu best<strong>im</strong>men.<br />

Die hohe geometrische Auflösung<br />

der eingesetzten Thermografiekamera,<br />

die durch 320 x 240 Pixel erreicht wird,<br />

bietet dafür die technischen Voraussetzungen.<br />

Die übliche Falschfarbendarstellung<br />

eines Thermografiebildes entspricht<br />

nicht der gewohnten Ansicht eines Videobildes,<br />

eine Orientierung ist jedoch<br />

gleichermaßen gut möglich. Voraussetzung<br />

ist allerdings eine gute Temperaturauflösung<br />

der eingesetzten Thermo-


Abb. 2: Überwachung des Müllbunkers mit einer<br />

Thermografiekamera (schematische Seitenansicht)<br />

grafiekamera. Die VarioCAM head liefert<br />

dafür kontrastreiche, rauscharme Thermografiebilder,<br />

in denen bei einem opt<strong>im</strong>alen<br />

Temperaturmaßstab bereits Temperaturunterschiede<br />

von 0,1 K erkennbar<br />

sind.<br />

Aufgrund der Arbeitsweise der Thermografiekamera<br />

<strong>im</strong> sog. langwelligen<br />

Spektralbereich von 8–14 µm können<br />

Hot Spots selbst in verstaubter oder verqualmter<br />

Umgebung lokalisiert werden.<br />

Im Unterschied zum Spektralbereich des<br />

sichtbaren Lichtes ist die Atmosphäre in<br />

diesem Wellenlängenbereich für die detektierte<br />

Infrarotstrahlung durchlässig.<br />

Ein nicht zu vernachlässigender Parameter<br />

ist die Bildfrequenz der Thermografiekamera.<br />

Eine schnelle Bildfolge ist<br />

vor allem dann erforderlich, wenn die<br />

Kamera während der Beräumung von<br />

Verdachtsstellen oder bei der Brandbekämpfung<br />

eingesetzt werden soll. Die<br />

VarioCAM head hat als Echtzeit-Kamera<br />

eine Infrarot-Bildfrequenz von 50 Hz und<br />

liefert damit Thermografiebilder in der<br />

gewohnten Video-Bildfrequenz.<br />

Überwachung des Bunkers<br />

C o n t r o l<br />

Die Thermografiekamera ist in einem<br />

robusten Schutzgehäuse mit einer Freiblaseinrichtung<br />

für das Kameraobjektiv<br />

Inspect 4/2006<br />

67


C o n t r o l<br />

Abb. 3: Montage des Kamerakopfes oberhalb des<br />

Kranführer-Leitstandes Abb. 4: Farbdisplays <strong>im</strong> Kranführer-Leitstand<br />

montiert und funktioniert dadurch auch<br />

unter widrigsten Umgebungsbedingungen.<br />

Für eine bessere visuelle Orientierung<br />

kann optional eine zusätzliche,<br />

lichtstarke Farb-CCD-Kamera in das<br />

Schutzgehäuse integriert werden.<br />

Durch Einsatz eines ferngesteuerten<br />

Schwenk-/ Neigekopfes können auch größere<br />

Müllbunker komplett mit einer einzelnen<br />

Thermografiekamera überwacht<br />

werden. Der Bunker wird dazu entsprechend<br />

seiner spezifischen Geometrie in<br />

beliebig viele Überwachungssektoren<br />

aufgeteilt, die zyklisch mit einer Positioniergenauigkeit<br />

von < 0,2 ° abgetastet<br />

werden. Die Umlaufzeit liegt unter zwei<br />

Minuten. Von der automatischen Abtastung<br />

der Überwachungssektoren kann<br />

<strong>im</strong> Fall eines Brandes oder bei der Beobachtung<br />

und Beräumung von Verdachtsstellen<br />

auf Handsteuerung umgeschaltet<br />

werden.<br />

Während des Automatikbetriebes<br />

werden die Thermografiekamera und<br />

der Schwenk-/Neigekopf laufend auf<br />

ihre Funktionsfähigkeit hin überwacht<br />

und <strong>im</strong> Störungsfall selbsttätig reinitialisiert.<br />

Während die Thermografiekamera<br />

funktionsbedingt über der zu überwachenden<br />

Bunkerfläche installiert werden<br />

muss, werden die Auswerteeinheiten des<br />

Systems in weniger staubbelasteten Räumen<br />

der Müllverbrennungsanlage untergebracht.<br />

Mit flexiblen Verkabelungstechnologien,<br />

z. B. durch Einsatz von<br />

Lichtwellenleitern, können dabei beliebig<br />

lange Übertragungsstrecken realisiert<br />

werden. Die Anzeige- und Bedieneinheiten,<br />

jeweils aus zwei TFT-Farbdisplays<br />

und einer Tastatur/Bedienkonsole<br />

bestehend, werden <strong>im</strong> Kranführer-Leitstand,<br />

der Leitzentrale bzw. an weiteren<br />

beliebigen Standorten installiert.<br />

Das automatische Brandfrüherkennungssystem<br />

Waste-Scan ist für einen<br />

Dauerbetrieb (24 h/Tag, 365 Tage/Jahr)<br />

ausgelegt. Die Systemwartung erfolgt an<br />

einer separaten Konsole <strong>im</strong> Schalt-<br />

68 Inspect 4/2006<br />

schrank oder optional über Fernwartung<br />

(remote control).<br />

Für den Benutzer <strong>im</strong> Bild<br />

Die Auswertung der aufgenommenen<br />

Thermografiebilder, die Hardwaresteuerung<br />

der Systemkomponenten sowie die<br />

Bedienung des Systems werden durch<br />

ein leistungsfähiges Softwarepaket vorgenommen,<br />

das unter den gängigen<br />

Betriebssystemen Windows 2000 und XP<br />

läuft.<br />

In der grafischen Anzeige- und Bedienoberfläche,<br />

die auf dem System-<br />

Monitor kontinuierlich dargestellt wird,<br />

werden den Bedienern alle relevanten<br />

Daten angezeigt. Dazu gehören die:<br />

� kontinuierliche Darstellung der aktuellen<br />

farbigen Thermografiebilder aller<br />

Sektoren,<br />

� Angabe der Max<strong>im</strong>al-, Min<strong>im</strong>al- und<br />

Durchschnittstemperaturen jedes Sektors,<br />

� grafische Darstellung der Temperatur-Zeit-Verläufe<br />

aller Sektoren,<br />

� Protokollierung des Betriebsablaufes<br />

sowie<br />

� Fenster mit Anzeigen des Kameraoder<br />

Systemstatus.<br />

Die kontinuierliche Anzeige der aktuellen<br />

Thermografiebilder aller Sektoren<br />

liefert dem Bediener jederzeit eine komplette<br />

Übersicht des Bunkers. Die Zuordnung<br />

der Temperaturmesswerte zu den<br />

Farben erfolgt über eine Farbskala. Die<br />

Spanne dieser Farbskala ist konfigurierbar,<br />

z. B. auf einen praktisch sinnvollen<br />

Bereich von –10 °C bis +90 °C, und kann<br />

durch den Bediener bei Bedarf an die aktuellen<br />

Bedingungen angepasst werden.<br />

Auf einem weiteren Monitor wird<br />

entweder das aktuelle Live-Bild der<br />

Thermografiekamera (als Graubild) oder<br />

das VIS-Bild der (optionalen) Farb-CCD-<br />

Kamera angezeigt. Zur besseren Übersicht<br />

können in dieses Live-Bild programmierbare<br />

Parameter wie z. B.<br />

Abb. 5: Bedienoberfläche mit Thermografiebildern,<br />

Temperaturwerten, Temperatur-Zeit-Verläufen<br />

aller Sektoren, Protokoll- und Statusfenstern<br />

Sektornummer, aktuelle Sektortemperatur<br />

oder Betriebszustand eingeblendet<br />

werden. Das VIS-Bild kann zudem durch<br />

die Hot Spots des zugehörigen Thermografiebilds<br />

überlagert werden.<br />

Die Kombination von Thermografie-<br />

und VIS-Bild ermöglicht, vor allem unter<br />

schwierigsten Umgebungsbedingungen,<br />

eine opt<strong>im</strong>ale Orientierung. Die Farb-<br />

CCD-Kamera stellt mit ihrer hohen<br />

Lichtempfindlichkeit die Struktur der<br />

Mülloberfläche bestmöglich dar, die<br />

Thermografiekamera lokalisiert darauf<br />

die Verdachtsstellen bzw. einen Brandherd.<br />

So wird z. B. bei der Beräumung<br />

von Verdachtsstellen oder eventuellen<br />

Löscharbeiten die Wirkung dieser Maßnahmen<br />

<strong>im</strong> überlagerten Live-Bild anhand<br />

der in Echtzeit dargestellten Veränderung<br />

der Hot Spots sofort sichtbar.<br />

Alarmgenerierung<br />

Bei Überschreitung kritischer Temperaturschwellen<br />

werden automatisch Alarmsignale<br />

generiert und zur Weiterverarbeitung<br />

ausgegeben. Dabei ist eine<br />

mehrstufige Alarmierung mit frei einstellbaren<br />

Warn- und Alarmschwellen<br />

vorgesehen. Neben der Beurteilung der<br />

gemessenen Temperaturen durch<br />

Schwellenwerte kann eine Auswertung<br />

des langfristigen Temperaturtrends mit<br />

einstellbarer Zeitbasis erfolgen.<br />

Zur späteren Rückverfolgung und Untersuchung<br />

der Brandentstehung erfolgt<br />

eine detaillierte Dokumentation von<br />

Alarmsituationen einschließlich Archivierung<br />

der aufgenommenen Bilddaten.<br />

� Kontakt<br />

Infratec GmbH, Dresden<br />

thermografie-Automation<br />

tel.: 0351/871-8610<br />

Fax: 0351/871-8727<br />

thermo@infratec.de<br />

www.infratec.de


3D-Messtechnik für die Produktion<br />

Schnell, berührungslos und hochpräzise<br />

Abb. 1: Gitterstruktur auf Platine<br />

Abb. 2: Schnitt A: Höhenprofil entlang Goldkontakt,<br />

Schnitt B: Höhenprofil senkrecht dazu,<br />

Schichthöhe ca. 21 µm.<br />

Das Weißlichtinterferometer Korad3D<br />

eignet sich auf Grund seines einfachen<br />

Aufbaus sowohl für hochpräzise Messungen<br />

unter Laborbedingungen, als auch<br />

für die Qualitätskontrolle unter industriellen<br />

Fertigungsbedingungen. Mit dem<br />

Messsystem können bei einer Genauigkeit<br />

<strong>im</strong> Sub-µm-Bereich Taktzeiten von 1,5 s<br />

erreicht werden. Damit ist das Gerät als<br />

Komponente für Prüfverfahren in der industriellen<br />

Fertigung durchaus geeignet.<br />

Anwendungen findet das Gerät bspw. bei<br />

der Ermittlung von Oberflächenparametern<br />

wie der Ebenheit und Rauhigkeit<br />

etwa an Dichtflächen und Komponenten<br />

von Einspritzsystemen. Darüber hinaus<br />

kann das System für die 3D-Vermessung<br />

an Fräs- und Bohrwerkzeugen verwendet<br />

werden, sowie zur Kontrolle werkzeugspezifischer<br />

Parameter und Abnutzungserscheinungen,<br />

z. B. an Wendeschneidplatten.<br />

Ein weiteres großes<br />

Anwendungsfeld stellt die Qualitätskontrolle<br />

von elektronischen Bauelementen<br />

dar, z. B. die Prüfung von Periodenlänge<br />

und Stufenhöhe von Kontakten.<br />

Weißlichtinterferometrie und phasenmes-<br />

sende Deflektrometrie: Das erinnert mich<br />

an mein Optik-Studium, klingt komplex und<br />

hochempfindlich. Sind das denn Verfahren,<br />

die sich eignen für die Qualitätskontrolle in<br />

der Produktion?<br />

Die 3D-Shape GmbH, ein Spin-Off des Insti-<br />

tuts für Optik, Information und Photonik<br />

der Friedrich-Alexander-Universität Nürn-<br />

berg-Erlangen, sagt ja und stellt die beiden<br />

3D-Sensoren vor.<br />

Abb. 3: Gemessener mittlerer Flächenbrechwert eines Gleitsichtglases und Schnitt durch die Krümmungskarte<br />

Nach einem völlig anderen Messverfahren<br />

– der Phasenmessenden Deflektometrie<br />

– arbeitet der SpecGage3D-Sensor.<br />

Damit steht dem Markt ein extrem<br />

schnelles und zuverlässiges 3D-Messgerät<br />

für spiegelnde Oberflächen zur Verfügung.<br />

Der Sensor deckt ein weites<br />

Spektrum von Messaufgaben ab: optische<br />

Flächen, blanke ästhetisch wirksame<br />

Oberflächen wie Kunststoffteile, Keramiken,<br />

Autoscheiben, Lack, Wafer (auch<br />

strukturiert) und Solarzellen sowie polierte<br />

Metallteile.<br />

Bei großen Brillenglasherstellern <strong>im</strong><br />

In- und Ausland (Zeiss, Rodenstock) hat<br />

sich der Sensor bereits bewährt. Bei<br />

Brillengläsern liegt die Messunsicherheit<br />

bei ± 2/100 dpt. Damit und durch die<br />

kurzen Prüfzeiten wird die vollflächige<br />

Kontrolle auch von asphärischen Gläsern<br />

ermöglicht.<br />

Der neue SpecGage3D-Sensor ist deutlich<br />

kompakter als sein Vorgänger. Durch<br />

die Integration von PC, Monitor und Tastatur<br />

konnte ein Stand-alone-Gerät geschaffen<br />

werden, das benutzerfreundlich<br />

die Vorteile der optischen 3D-Technik<br />

auch für die Prüfung auf kleinste Formabweichungen<br />

<strong>im</strong> Nanometerbereich anbietet.<br />

Obwohl also Genauigkeiten erreicht<br />

werden, die an die Genauigkeiten<br />

interferometrischer Verfahren heranreichen,<br />

ist das Gerät wesentlich robuster<br />

gegenüber Störeinflüssen. Der Hauptvorteil<br />

ist aber, dass nicht nur sphärische<br />

Flächen vermessen werden können, sondern<br />

auch Freiformflächen.<br />

� Kontakt<br />

Dr. Sabine Schiffer<br />

3D-Shape, Erlangen<br />

Tel.: 09131/977959-20<br />

Fax: 09131/977959-11<br />

schiffer@3d-shape.com<br />

www.3d-shape.com<br />

C o n T r o l<br />

Inspect 4/2006<br />

69


C o n t r o l<br />

Stolz auf Made in Germany<br />

Ergonomisches Video-Messmikroskop von Walter Uhl<br />

Die Optik ist die Kerntechnologie des<br />

21. Jahrhunderts. Unsere durch technischen<br />

Fortschritt geprägte Zeit bedarf<br />

innovativer kleiner und mittlerer Unternehmen,<br />

die flexibel auf die sich ständig<br />

verändernden Anforderungen des<br />

Marktes reagieren können. Die Firma<br />

Walter Uhl ist ein Unternehmen, das sich<br />

diesen Herausforderungen stellt.<br />

Schnell installiert – sofort einsatzbereit<br />

Der Aufbau eines Messplatzes n<strong>im</strong>mt in<br />

der Regel viel Zeit in Anspruch. Vor allem<br />

der Anschluss und die Konfiguration von<br />

Peripheriegeräten wie PC, Bildschirm,<br />

Kaltlichtquellen etc. avanciert oft zum Geduldsspiel.<br />

Mit dem Video-Messmikroskop<br />

VMS ergo ist nun Schluss damit.<br />

Mit nur wenigen Handgriffen ist das<br />

Gerät auf einem normalen Tisch in Betrieb<br />

genommen, denn das Video-Messmikroskop<br />

von Walter Uhl aus Aßlar<br />

(Hessen) integriert bereits alles, was man<br />

für die zweid<strong>im</strong>ensionale Vermessung<br />

von Erstmustern und Kleinserien in Labor-<br />

sowie Produktionsumgebungen benötigt.<br />

Nur das Netzkabel sowie eine<br />

Maus und Tastatur sind noch anzuschlie-<br />

70 Inspect 4/2006<br />

ßen, dann ist das VMS ergo gemäß einer<br />

echten Plug & Play-Philosophie bereit.<br />

Durchdachte Ergonomie<br />

Besonderes Augenmerk legte Walter Uhl<br />

aber nicht nur auf die schnelle Einsatzbereitschaft<br />

des Gerätes, sondern<br />

darüber hinaus auch auf ein ermüdungsfreies<br />

und damit konzentriertes Arbeiten<br />

des Anwenders. Beste Beweise für dieses<br />

durchdachte ergonomische Konzept sind<br />

der <strong>im</strong> Stativfuß integrierte Flachbildschirm<br />

sowie der Fokustrieb mit Grob-<br />

und Feinverstellung in opt<strong>im</strong>aler<br />

Handhabungshöhe. Der Stativfuß<br />

beherbergt ferner einen<br />

Embedded-PC. Die Intelligenz<br />

ist somit ebenfalls kompakt verpackt.<br />

All-in-One mit nur 35 kg Gewicht<br />

In leicht erreichbarer Griffweite,<br />

ebenfalls <strong>im</strong> Stativ,<br />

sind zudem die Bedienelemente<br />

für die Beleuchtung untergebracht<br />

– das VMS ergo integriert hier mit<br />

Durchlicht, koaxialem Auflicht und Ring-<br />

Die Fußball-WM ist jetzt bereits seit einigen<br />

Monaten vorbei. Nach der Euphorie, die das<br />

ganze Land ergriffen hatte, ist wieder der Alltag<br />

eingekehrt. Eins aber ist geblieben: Die Unge-<br />

zwungenheit <strong>im</strong> Umgang mit unserer deutschen<br />

Fahne. Vor vielen Häusern weht sie nach wie vor,<br />

Autofahrer fahren sie täglich spazieren, sogar<br />

Bettwäsche und Handtücher in schwarz-rot-gold<br />

sind <strong>im</strong>mer noch ein Renner. Das Sport-Spekta-<br />

kel hat etwas bewirkt, was weder Politik noch<br />

Ingenieurskunst in den letzten Dekaden ge-<br />

schafft hatte: Wir sind <strong>im</strong> eigenen Land wieder<br />

stolz auf Made in Germany.<br />

Abb. 1: Mit VMS ergo wird der Aufbau eines<br />

Messplatzes zur Min<strong>im</strong>alprozedur


Abb. 2: Der Flachbildschirm (Touchscreen) ist <strong>im</strong><br />

Stativfuß integriert, in dem sich ebenfalls der Fokussierbetrieb<br />

und ein Embedded-PC befinden.<br />

licht gleich drei Systeme. Auf der Rückseite<br />

des Stativs befindet sich ein USB-<br />

Anschluss für den Transfer der<br />

Messergebnisse auf einen Datenträger.<br />

Alles in allem dürfte dieses 35 kg leichte<br />

Video-Messmikroskop damit das wohl<br />

kleinste Gerät seiner Art sein.<br />

Schnell erlernbare Messsoftware<br />

Nicht nur die schnelle Installation und<br />

somit Inbetriebnahme des VMS ergo sind<br />

für den sofortigen Einsatz relevant. Auch<br />

an den Anwender hat Walter Uhl gedacht.<br />

Aus diesem Grund verwendet das<br />

Gerät die bewährte, leistungsfähige<br />

Optische Mess-Software OMS mit deutscher<br />

und englischer Benutzeroberfläche.<br />

Die vielfältigen Funktionen lassen<br />

sich intuitiv, also quasi <strong>im</strong> Zuge der aktuell<br />

anstehenden Messaufgaben, nutzen.<br />

Konkret bedeutet dies: Ein Messablauf<br />

lässt sich sehr einfach erlernen,<br />

wobei auch die Möglichkeit besteht, den<br />

Ablauf mit automatischer Kantenfindung<br />

zu programmieren. Alle Messpunkte<br />

können manuell mit der Maus direkt <strong>im</strong><br />

Videobild gesetzt werden. Äußerst hilfreich<br />

sind zudem die elementbezogenen<br />

Verknüpfungen der geometrischen Formen<br />

in einer Baumstruktur. Die Ergebnisse<br />

einer oder mehrerer Messungen<br />

lassen sich unmittelbar in einem farbigen<br />

Textprotokoll auf dem Bildschirm anzeigen.<br />

Werkzeuge intuitiv verwenden<br />

Darüber hinaus stellt OMS intuitiv verwendbare<br />

Werkzeuge zur Kantenantastung<br />

an Punkt, Gerade, Kreis und Kreissektor<br />

zur Verfügung. Zur schnellen<br />

visuellen Kontrolle hält die Software<br />

zudem Rechteck-, Kreis-, Gitter- und<br />

<strong>im</strong>portierbare Bildschirmmasken <strong>im</strong><br />

C o n t r o l<br />

Abb. 3: Die Optische Mess-Software (OMS) in<br />

deutscher und englischer Sprache ist schnell<br />

erlernt und ermöglicht einfaches Setzen der<br />

Messpunkte mit der Maus direkt <strong>im</strong> Videobild.<br />

Vektorformat als Maßverkörperung bereit.<br />

Last but not least bieten eine Vielzahl<br />

von Funktionen die Möglichkeit, bereits<br />

gemessene Geometrieelemente zu<br />

berechnen und zu verknüpfen.<br />

Alles „Made in Germany“<br />

In Kombination mit OMS vereint das<br />

Video-Messmikroskop VMS ergo die<br />

Stärken der auf einem Baukastensystem<br />

basierenden Messmikroskop-Serien MS<br />

und VMM von Walter Uhl. Sowohl die optischen<br />

und optoelektronischen Systeme<br />

der Serie MS, als auch die aus der Übernahme<br />

des Produktbereichs „Messmikroskopie“<br />

von Leica Microsystems hervorgegangene<br />

und von Walter Uhl<br />

opt<strong>im</strong>ierte VMM Gerätereihe, sind „Made<br />

in Germany“ und überzeugen wie das<br />

VMS ergo durch hochwertige Ausstattungsmerkmale<br />

und hohe Verarbeitungsqualität.<br />

� Kontakt<br />

Walter Uhl, technische Mikroskopie GmbH & Co.<br />

KG, Asslar<br />

tel.: 06441/88603<br />

Fax: 06441/85718<br />

mail@walteruhl.de<br />

www.walteruhl.de


C o n T r o l<br />

Dem Täter auf der Spur<br />

Ein nebliger Novembermorgen in Berlin-<br />

Adlershof. Kommissar Klein fröstelt es.<br />

Nicht nur wegen des Toten, der <strong>im</strong> frisch<br />

zertrampelten Gras vor ihm liegt. Der leh-<br />

mige Boden weist eine Reihe deutlich<br />

sichtbarer Spuren auf …<br />

Spätestens jetzt weiß der Kr<strong>im</strong>i-Kenner:<br />

Der Fall ist so gut wie gelöst. Die Spurensicherung<br />

wird die Schuhabdrücke aufnehmen,<br />

in eine gigantische Datenbank<br />

füttern und nach der einen oder anderen<br />

Verfolgungsjagd den Täter anhand seiner<br />

Schuhe identifizieren.<br />

Aber wie geht das eigentlich ?<br />

Spurensuche mit SCHARS<br />

Das geht schnell, sicher und gut dokumentiert<br />

mit der Bilddatenbank SCHARS,<br />

dem Schuhspur- und -muster- Archivierungs-<br />

und Retrieval-System. Dieses System<br />

wurde entwickelt für Aufnahme,<br />

Beschreibung und Wiederauffinden von<br />

bildlich vorliegenden Spuren, so wie sie<br />

vorwiegend <strong>im</strong> kr<strong>im</strong>inaltechnischen<br />

Umfeld und in Sicherheitsbereichen<br />

auftreten.<br />

SCHARS ist in direkten<br />

fachlichen Konsultationen<br />

und Beratungen<br />

mit Experten des<br />

Landeskr<strong>im</strong>inalamtes<br />

Brandenburg entstanden.<br />

Es ist in diversen<br />

Landeskr<strong>im</strong>inalämtern<br />

und Polizeipräsidien<br />

<strong>im</strong> Einsatz.<br />

Obwohl für Schuhspuren<br />

und Schuhsohlenmuster<br />

ausgelegt,<br />

kann<br />

72 Inspect 4/2006<br />

Bildverarbeitung für Polizei und Sicherheitsdienst<br />

das System aber mit den identischen<br />

Charakteristiken auch für Reifenspuren<br />

oder verwandte Bildklassen eingesetzt<br />

werden. Zur Bildgewinnung kann neben<br />

Flachbettscannern, insbesondere aufgrund<br />

der Reliefinformation in den realen<br />

Objekten, auch Kameratechnik mit<br />

Framegrabbern genutzt werden. Verbunden<br />

mit der bildlichen Charakteristik<br />

der Spur ist eine Vielzahl von alphanumerischen<br />

Informationen für den Anwender<br />

relevant, z. B. die Tatort- und<br />

Tatzeitbeschreibung. Diese Daten werden<br />

entsprechend mit bearbeitet bzw.<br />

ausgewertet.<br />

Dem Nutzer wird vom System sowohl<br />

für den Prozess der Kodierung, d. h. der<br />

Ablage seines Spur- und Vergleichsmaterials<br />

in einer Bilddatenbank, als auch für<br />

den Prozess der Suche in dieser Bilddatenbank<br />

eine automatisierte Unterstützung<br />

über indexierte Teilbilder bzw.<br />

Icons gegeben. Seinen Einsatz findet das<br />

System überall dort, wo die potentiell<br />

auftretende Bildmenge nach bildlichen<br />

Grundmustern und weiteren Regelmäßigkeiten<br />

in (möglichst kleine) Teilmengen<br />

sinnvoll klassifizierbar ist.<br />

Funktionsweise und Features<br />

SCHARS umfasst einen Kern, in<br />

dem die Daten, die Informationen,<br />

das Bildhandling und Abläufe,<br />

die sich innerhalb einer Nutzerklasse<br />

weitestgehend gleichen,<br />

enthalten sind. Die<br />

charakteristischen Informationen<br />

der einzelnen Nutzer,<br />

z. B. anwendungsabhängige<br />

Verwaltungsdaten oder fallspezifische<br />

Daten, sind in nutzerspezifischen<br />

Aufsätzen untergebracht.<br />

Diese Struktur erlaubt<br />

eine einfache Anpassung des Systems<br />

an neue Nutzerforderungen.<br />

Das System ist als<br />

Windows-Applikation<br />

in C++ programmiert<br />

und lässt die Bildakquisition<br />

über beliebigeEingabegeräte<br />

(Scanner,<br />

Kamera, Kamerascanner<br />

etc.) zu.<br />

Spezialhard<br />

Abb. 1: „SCHARS“ Schuhspur- und -muster-<br />

Archivierungs- und Retrieval-System“<br />

ware, bspw. Framegrabber mit eigenen<br />

Prozessoren für die Abarbeitung der<br />

bildspezifischen Prozeduren, kann je<br />

nach Anforderung integriert werden. Sowohl<br />

der Ergebnisausdruck bildlich vorliegender<br />

Daten als auch von vorgefertigten<br />

Textbausteinen in Form einer<br />

automatisierten Protokollierung werden<br />

unterstützt. Die Netzwerkfähigkeit ist gegeben,<br />

aktuelle Standards sind eingehalten.<br />

Als „features“ sind u. a. unterschiedliche<br />

Retrievalstrategien, Verknüpfungen<br />

und Ausschlüsse enthalten. Die effektive<br />

Inspektion größerer Bildmengen wird<br />

durch temporäre Klassenbildung unterstützt.<br />

Für die Ergebnisinspektion und<br />

die Bearbeitung der Bilder ist eine ganze<br />

Palette von Bildverarbeitungsfunktionen<br />

<strong>im</strong>plementiert. Neben einer Reihe nutzerfreundlicher<br />

Fensterfunktionen, z. B.<br />

Zooming, steht gleichfalls eine Messfunktion<br />

mit variabler Skalierungsmöglichkeit<br />

für die Kodierung zur Verfügung.<br />

Das SCHARS ist eine Bilddatenbank<br />

mit iconunterstützter Indexierung, ein<br />

Werkzeug, mit dem für den Kr<strong>im</strong>inalisten<br />

die Zeit für die operative Spurenauswertung<br />

sowohl bei der Kodierung von<br />

Schuhspuren und -mustern als auch bei<br />

der Recherche in den zugehörigen Datenbanken<br />

verkürzt wird.<br />

Täter gefasst.<br />

� Kontakt<br />

Dipl.-Inf. Christian Feist<br />

Dipl.-Inf. Ralf Knöfel<br />

Gesellschaft zur Förderung<br />

angewandter Informatik, Berlin<br />

Tel.: 030/6392-1608<br />

Fax: 030/6392-1661<br />

feist@gfai.de<br />

knoefel@gfai.de<br />

www.gfai.de


Haarscharf erkannt<br />

Unter Corning, dem Marktführer <strong>im</strong> Bereich<br />

der Glasfasern selbst, ist Corning<br />

Cable Systems eines der führenden globalen<br />

Unternehmen für Verkabelungssysteme<br />

und Glasfaser-Verbindungstechnik.<br />

Mit zwei neuen Geräten zum Spleißen<br />

von Einzelglasfasern und Faserbändchen<br />

erweitert CCS jetzt sein Produktspektrum<br />

um kamerageführte Spleißtechnik<br />

auf der Basis von Phytec-Modulen und<br />

adressiert damit auch den neuen Wachstumsmarkt<br />

FTTH (Fiber to the Home).<br />

Der Beitrag beschreibt die Entwicklungsgeschichte<br />

dieser neuen Produktfamilie<br />

sowie die Herausforderungen in Bezug<br />

auf Technik und T<strong>im</strong>e to Market, die zu<br />

meistern waren.<br />

Die wesentlichen Grundzüge der Geräte<br />

lassen sich wie folgt beschreiben:<br />

Zwei Kameras zur Lageerkennung der<br />

beiden Einzelfaser- oder Faserbändchenenden,<br />

Feinsteuerung zur Positionierung<br />

der Faserenden, Steuerung und Versorgung<br />

von Lichtbogengenerator und<br />

Schrumpfofen (zum Aufbringen eines<br />

Schrumpfschlauches zum Schutz der<br />

Spleißstelle), kompaktes, tragbares Design<br />

mit Akkubetrieb (bei einer Akku-Kapazität<br />

von 7,2 Ah), RoHS-konforme Ausführung<br />

und Einhaltung von EMV-Vorgaben,<br />

Kostenopt<strong>im</strong>ierung der Komponenten sowie<br />

der Montageaufwendungen.<br />

C o n t r o l<br />

Kamerageführte automatische Verbindung von Glasfasern<br />

Eine Standard-Glasfaser für die optische<br />

Übertragung von Sprache, Daten, Bildern<br />

hat einen Durchmesser von 125 µm. Sie<br />

besteht aus einem Mantel und einem Kern.<br />

Je nach Fasertyp und der zu übertragenden<br />

Wellenlänge des Lichtsignals ist der Durchmesser<br />

des Faserkerns unterschiedlich. Bei<br />

gängigen Standard-Einmodenfasern liegt<br />

er bei ca. 8 µm, somit etwa bei 1/10 der<br />

Dicke eines menschlichen Haars. Um die<br />

Datenübertragung über kilometerlange<br />

Strecken zu ermöglichen, müssen diese<br />

Fasern verlustarm miteinander verschweißt<br />

werden – automatisch und mit möglichst<br />

geringer Dämpfung an der Verbindungsstelle.<br />

Corning Cable Systems, vormals RXS<br />

Kabelgarnituren GmbH, eine 100 %ige<br />

Siemens Tochter, hat erste Lichtbogen-<br />

Spleißgeräte in den frühen 80er Jahren<br />

entwickelt und <strong>im</strong> Markt eingeführt.<br />

Um die Wettbewerbsvorteile bei der<br />

Erschließung des Marktes zu sichern,<br />

war ein enger Zeitrahmen einzuhalten:<br />

Erstellung eines Prototyps innerhalb von<br />

neun Monaten, Nullserienreife innerhalb<br />

von 12 Monaten. Aufgrund dieser Anforderungen<br />

musste die Hard- und<br />

Softwareentwicklung möglichst parallel<br />

durchgeführt werden.<br />

Lösungsansatz Modultechnik<br />

Corning Cable Systems hat sich zur Realisierung<br />

dieses Projektes für die Zusammenarbeit<br />

mit Phytec entschieden. Phytec<br />

bot mit dem Embedded Video Kit eine<br />

Hardware-/Softwarebasis, die einen sofortigen<br />

Start der Softwareentwicklung ermöglichte<br />

und die Realisierungszeit der<br />

Hardware entscheidend verkürzte, da<br />

zentrale Komponenten bereits serienreif<br />

zur Verfügung standen. Zentraler Rechenkern<br />

der fertigen Serienlösung ist entsprechend<br />

das PXA270 phyCore-Modul in exakt<br />

der Ausführung, wie es <strong>im</strong> Embedded<br />

Video Kit zur Verfügung steht. Weitere Lösungselemente<br />

konnten auf der Basis von<br />

Phytec-Schaltungsbibliotheken und -Softwaremodulen<br />

bereits zu Projektbeginn<br />

eingebracht werden. Die Modultechnik ermöglicht<br />

in einer frühen Phase des Projektes<br />

bereits die Entwicklung hardware-


74 Inspect 4/2006<br />

C o n t r o l<br />

Abb. 1: Anordnung der elektronischen Baugruppen <strong>im</strong> Spleißgerät<br />

Abb. 2: Datenstrom des PXA270 in Overlaydarstellung<br />

spezifischer Komponenten und auch die<br />

sofortige Realisierung der Softwarebasis<br />

für die Seriengeräte. Die Softwarebasis für<br />

die Gesamtlösung ist Linux.<br />

Kamerainterface zur Lageerkennung<br />

und Positionierung der Glasfaserenden<br />

Für die Positionserkennung der Glasfaserenden<br />

werden zwei Kameras am<br />

digitalen Kamerainterface des PXA270-<br />

Microcontrollers betrieben. Die Bilderfassung<br />

erfolgt mit CMOS-Sensoren, da<br />

diese direkt an den PXA270 angeschlossen<br />

werden können und damit zur Kostenreduktion<br />

durch Bauteile- und Platzmin<strong>im</strong>ierung<br />

beitragen. Phytec realisierte<br />

eine PLD-basierte Multiplexlösung, die<br />

bei min<strong>im</strong>alem Hardwareaufwand (ohne<br />

Änderung des phyCore-Moduls) beide<br />

Sensoren auf das vorhandene Interface<br />

„mapped“. Gleichzeitig gestattet eine Zusatzlogik<br />

die Steuerung der Beleuchtung<br />

derart, dass beide Sensorbilder ein<br />

eindeutiges Abbild der Lage der beiden<br />

Faserenden liefern.<br />

Die Vorpositionierung der beiden Glasfaserenden<br />

ist bereits besser als auf den<br />

Mill<strong>im</strong>eter genau. Dafür sorgt ein intelli-<br />

Abb. 3: OptiSplice: Vorserienausführung des<br />

entwickelten Spleißgerätes<br />

gentes, von Corning Cable Systems patentiertes,<br />

Verfahren. Die exakte Positionierung<br />

zum letztendlichen Verschweißen<br />

der Faserenden übern<strong>im</strong>mt danach vollautomatisch<br />

eine Motor-Steuerung unter<br />

ständiger Kontrolle der absoluten Position<br />

durch die beiden Kamerasensoren.<br />

Diese beiden Sensoren prüfen auch nach<br />

dem kompletten Produktionsablauf die<br />

Qualität der Faserverbindung, da bereits<br />

wenige Mikrometer Versatz zu einer nicht


„Statement Christian Heidler;<br />

Splice Equipment Development;<br />

Corning Cable Systems<br />

GmbH & Co. KG“<br />

Am Anfang der Entwicklung unserer<br />

neuen Spleißgerätefamilie für den FttP<br />

Markt stand die Anforderung, ein leistungsfähiges<br />

und gleichzeitig kostengünstiges<br />

Gerät in einer sehr kurzen Zeit zu<br />

entwickeln. Um dieses Ziel zu erreichen,<br />

nahmen wir Kontakt zu externen Dienstleistungsunternehmen<br />

auf, um mit Hilfe<br />

von deren Know-how das Projekt zu beschleunigen.<br />

Im Bereich der Elektronikentwicklung<br />

wandten wir uns an die Firma Phytec, die<br />

Erfahrung <strong>im</strong> Bereich Bildverarbeitung<br />

vorweisen konnte und deren PXA270<br />

Modul eine geeignete Basis für unser<br />

Projekt darstellte. Die Entscheidung, ein<br />

Prozessormodul anstelle einer Eigenentwicklung<br />

einzusetzen, verringerte den<br />

Entwicklungsaufwand für die Elektronik<br />

erheblich.<br />

Unsere kundenspezifische Hardware<br />

wurde an die standardisierten Schnittstellen<br />

des PXA Moduls angebunden, wodurch<br />

die Integration sehr einfach und<br />

mit min<strong>im</strong>alem treiberaufwand möglich<br />

war. Das Kamerainterface des PXA270<br />

wurde mit geringem Hardwareaufwand<br />

erweitert, so dass zwei Kameras angeschlossen<br />

werden können, um den Spleißprozess<br />

aus zwei Achsen zu betrachten.<br />

Ein verfügbares Evaluation Board und ein<br />

entsprechendes Board Support Package<br />

erlaubten einen frühzeitigen Start der<br />

Softwareentwicklung. Durch die Parallelisierung<br />

von Hard- und Softwareentwicklung<br />

konnte das Projekt zügig und termingerecht<br />

vorangetrieben werden.<br />

Besonders hervorzuheben ist die exzellente<br />

Zusammenarbeit mit Phytec. noch<br />

vor dem eigentlichen Beginn des Projektes<br />

hatten wir Gelegenheit, <strong>im</strong> rahmen<br />

eines von Phytec vorgeschlagenen Workshops<br />

den verantwortlichen Entwicklungsingenieuren<br />

unser Projekt vorzustellen<br />

und schon erste lösungsansätze zu<br />

diskutieren. Das Projekt wurde von Phytec<br />

mit sehr viel Engagement und Know-how<br />

vorangetrieben. Durch intensive lösungsorientierte<br />

Diskussionen wurden kostengünstige<br />

und innovative lösungen für unser<br />

FttP Spleißgerät gefunden, die u.a.<br />

auch eine hervorragende Basis für weitere<br />

Spleißgerätegenerationen von Corning<br />

Cable Systems darstellen.<br />

C o n t r o l<br />

Abb. 4: Der Blick in das geöffnete Gerät zeigt<br />

die mechanischen Herausforderungen bei der<br />

Elektronikentwicklung.<br />

tolerierbaren Signaldämpfung führen<br />

können. CCS sichert mit der automatischen<br />

Steuerung und nachfolgenden objektiven<br />

Qualitätsbeurteilung die Zuverlässigkeit<br />

der Glasfaseranbindung auf<br />

hohem technischem Niveau.<br />

Modultechnik und enge Kooperation<br />

Zentraler Kern des Gerätes ist das phy-<br />

Core PXA270-Modul. Die Ansteuerung<br />

aller zusätzlichen Komponenten wurde<br />

aus mechanischen Gründen auf insgesamt<br />

sechs Zusatzboards verteilt, die von<br />

Phytec in enger Zusammenarbeit mit<br />

CCS entwickelt wurden und die auch <strong>im</strong><br />

Hause Phytec in Serie produziert werden.<br />

Für den gewölbten Deckelbereich<br />

des Gerätes wird eine flexible Leiterplatte<br />

eingesetzt. Konstruktive Lösungen<br />

in Bezug auf die räumliche Anordnung<br />

der Platinen sichern einen extrem geringen<br />

Platzbedarf und gestatten trotzdem<br />

die kostengünstige Montage des Gesamtgerätes.<br />

Modultechnik und enge Kooperation<br />

zwischen CCS und Phytec waren maßgeblich<br />

für die Einhaltung des engen<br />

Zeitrahmens. Das jeweils spezifische<br />

Know-how beider Unternehmen führte<br />

zu einer innovativen Gesamtlösung. Derzeit<br />

befindet sich das Design in der<br />

abschließenden Opt<strong>im</strong>ierungs- und Zertifizierungsphase.<br />

Der Serieneinsatz erfolgt<br />

<strong>im</strong> 4. Quartal 2006.<br />

� Kontakt<br />

Christian Heidler,<br />

Splice Equipment Development<br />

Phytec Messtechnik GmbH, Mainz<br />

tel.: 06131/9221-0<br />

Fax: 06131/9221-33<br />

info@phytec.de<br />

www.phytec.de


PRO-4-PRO Charts<br />

01.09.2006–15.10.2006<br />

Welche Unternehmen, welche Produkte wurden am häufi gsten gesucht?<br />

Das zeigen Ihnen die PRO-4-PRO Charts.<br />

Kameras<br />

1. High-Speed Kamera RDT-Lightning<br />

Bfi Optilas<br />

2. Mikrokamera-Familie<br />

Kappa opto-electronics<br />

3. Multi-Megapixel-Kamera Oscar<br />

Allied Vision Technologies<br />

4. Ultra-hochempfi ndliche Kamera<br />

WAT-902H<br />

Herke Videotechnik<br />

5. ImagEM – Electron Multiplier CCD<br />

Camera<br />

Hamamatsu Photonics<br />

6. Robuste Miniatur-CCD-Kamera<br />

Intravision CC25<br />

K.H. Hinze Optoengineering<br />

7. Ultra-kleine Kompakt-Farbkameras:<br />

STC-P63 Serie<br />

Videor Technical<br />

8. High Speed Kamera CamRecord 800<br />

Optronis<br />

9. CMOS-Kamera Sondermodell VL450<br />

L.O.T.-Oriel<br />

10. Linux GigE Vision SDK<br />

Rauscher<br />

Komponenten<br />

1. Matrox Morphis QxT Framegrabber<br />

Rauscher<br />

2. Farb-Vision Sensor FA 45<br />

Sensopart Industriesensorik<br />

3. Profi lsensor ScanControl 2810<br />

Micro-Epsilon Messtechnik<br />

4. Kompakte Sensorfamilie VeriSens<br />

Baumer Electric<br />

5. Handbook of Machine Vision<br />

Wiley-VCH<br />

6. Framegrabber PC_Eye/Sec<br />

Eltec Elektronik<br />

7. Sondenobjektive für CCD-Kameras<br />

K.H. Hinze Optoengineering<br />

8. Vision-Sensoren DVT 515/ DVT 535<br />

Cognex Germany<br />

9. Kamerasensor für fl ächige<br />

Farberfassung<br />

Sick<br />

10. Barcode Scanner MS Quadrus<br />

Microscan Systems<br />

Abonnieren auch Sie den PRO-4-PRO Produktnewsletter unter www.pro-4-pro.com/msr<br />

Hier sehen Sie die aktuellen Charts der Online-Branchenplattform PRO-4-PRO.<br />

Die Erhebung erfolgte anhand der Zugriffe durch die PRO-4-PRO Besucher und ist auf den oben ausgewiesenen<br />

Zeitraum eingeschränkt. Die Charts stehen Ihnen auch online unter www.PRO-4-PRO.com zur Verfügung.<br />

CONTROL<br />

1. Mikroskop-Kameraserie Digital Sight<br />

Nikon<br />

2. Portable Infrarotkamera ThermaCam<br />

SC640<br />

Flir Systems<br />

3. Okularloses Inspektion Mantis Macro<br />

Vision Engineering<br />

4. Siscan-Sensor zur hochpräzise<br />

3D-Inspektion<br />

Siemens A&D<br />

5. Wärmebildkamera IR-FlexCam Serie<br />

Ti40<br />

Fluke Deutschland<br />

6. Interaktives 3D-System<br />

für die Mikroskopie<br />

Leica Microsystems<br />

7. Wärmebildkamera Thermal-Eye 4500AS<br />

Bfi Optilas<br />

8. Mikroskopie-Digitalkamera DP71<br />

Olympus Deutschland<br />

9. Röntgeninspektionssystem Nanotom<br />

Phoenix|x-ray<br />

10. ProgRes Capture Pro Software<br />

für Apple Macintosh<br />

Jenoptik


C o n t r o l<br />

Gekühlte Electron-Multiplier-Kameras<br />

Hamamatsu stellt mit der ImagEM eine in Leistung und Flexibilität<br />

unerreichte CCD-Kamera vor. Es ist eine universelle Kamera für<br />

Restlicht-Anwendungen <strong>im</strong> Bereich der Life Sciences, Fluoreszenz-<br />

und Lumineszenz-Imaging, physikalischen Messtechnik und industriellen<br />

Bildverarbeitung. ImagEM zeichnet sich durch geringsten<br />

Dunkelstrom, hohe Verstärkung und verbessertes Signal- zu Rauschverhältnis<br />

aus. Im CCD-Mode arbeit die Kamera wie übliche gekühlte<br />

CCD-Kameras, <strong>im</strong> EM-Mode wird ein zusätzlicher Verstärkungsfaktor<br />

eingeführt. Das ermöglicht die opt<strong>im</strong>ale Anpassung der<br />

Kameraeinstellungen an die jeweils geforderte Aufgabenstellung. Der Kamera Dunkelstrom von weniger als<br />

0.001 Elektronen/Pixel/Sekunde wird bei Kühlung auf unter -80 °C erreicht.<br />

Hamamatsu Photonics Deutschland GmbH<br />

Tel.: 08152/375-139 • kreutter@hamamatsu.de • www.hamamatsu.de<br />

Hochgeschwindigkeitskamera<br />

Die neue CamRecord 1000 Hochgeschwindigkeitskamera von Optronis ermöglicht es, selbst schnellste Vorgänge<br />

für das menschliche Auge sichtbar zu machen. Das portable und robuste Kamerasystem<br />

lässt sich einfach per FireWire Schnittstelle an ein Notebook oder PC<br />

anschließen und ist damit bestens für Einsatzzwecke geeignet, die eine hohe<br />

Mobilität voraussetzen. Eines der Haupteinsatzgebiete sind die Beobachtung<br />

und Analyse schneller Vorgänge in Produktion und<br />

Entwicklung. Damit bei länger dauernden Vorgängen keine Informationen<br />

verloren gehen, ist die Kamera mit einem großen<br />

internen Bildspeicher ausgestattet, der lange Aufnahmezeiten<br />

erlaubt. Mit einer Geschwindigkeit von 1000 Bildern/s bei einer<br />

Auflösung von 1280 x 1024 Pixel lassen sich selbst schnellste Prozesse beobachten.<br />

Optronis auf der Vision: Halle 4.0 Stand 017.<br />

Optronis GmbH • Tel.: 07851/9126-0 • info@optronis.com • www.optronis.com<br />

Universelle Mikroskop-Kameraserie<br />

Gleich fünf Digitalkameras umfasst Nikon’s Kameraserie Digital Sight für die Mikroskopie. Jede DS-Kamera<br />

besitzt individuell zugeschnittene Leistungsparameter für best<strong>im</strong>mte<br />

Anwendungsgebiete, wie bspw. hochauflösende Farbfotographie,<br />

Fluoreszenzmikroskopie und schnelle Live-Bilderfassung. In der Digital-Sight-Serie<br />

steckt das aktuellste Know-how von Nikon über die<br />

Digitalkameratechnolgie. Neu ist die hochauflösende 5-Megapixelkamera<br />

DS-Fi1 mit 12bit Farbtiefe für perfekte Bildergebnisse in Histologie,<br />

Pathologie, Phasenkontrast- und DIC-Mikroskopie an Zellen<br />

und Geweben, sowie bei der Qualitätskontrolle in der Industrie. Speziell<br />

für Fluoreszenzanwendungen bietet Nikon für hochauflösende<br />

Farbaufnahmen an mehrfach gefärbten Präparaten die 5-Megapixelkamera DS-5Mc, und für die schnelle Live-<br />

Bildaufnahme an vital-gefärbten Zellen <strong>im</strong> Monochrombetrieb die 2-Megapixel Kamera DS-2Mc an.<br />

Nikon GmbH • Tel.: 0211/9414217 • joerg.kukulies@nikon.de • www.nikon-instruments.com<br />

Forum MikroskopieTrends’06<br />

Welche Anforderungen an eine automatisierte Bildanalyse müssen moderne Mikroskope für den Anwender<br />

aus dem LifeScience-Labor oder der Industrie erfüllen? Wie können <strong>im</strong> Übergang von der reinen Bildgebung<br />

zur komplexen Messauswertung Auflösungsgrenze bzw. Geschwindigkeit weiter opt<strong>im</strong>iert und damit qualitativ<br />

hochwertige Bilder erzeugt werden? Und was findet bereits in derzeitigen Gerätekonzepten Berücksichtigung?<br />

Diese Fragen bilden die Grundlage für das anspruchsvolle Vortragsprogramm des Forums MikroskopieTrends<br />

’06, das am 07. Dezember in Göttingen stattfindet. Im Mittelpunkt stehen aktuelle<br />

Mess- und Manipulationsmethoden in verschiedenen Bereichen der LifeScience-Mikroskopie, vorgestellt von<br />

Anwendern aus Kliniken, universitären Forschungslaboren und dem Deutschen Krebsforschungszentrum.<br />

PhotonicNet GmbH • Tel.: 0551/3057-222 • www.photonicnet.de<br />

weitere Produkte unter www.Pro-4-Pro.com<br />

Inspect 4/2006<br />

77


Wir stellen aus: SPS/IPC/DRIVES in Halle 5, Stand 221<br />

C o n t r o l<br />

Sicherheit für die Druckluftversorgung<br />

Die stationären Drucktaupunkt-<br />

Messgeräte der Airsecure Baureihe<br />

ECO sind Regler und Warngerät<br />

zugleich. Das Gerät besitzt drei<br />

Ausgänge, wobei der erste Ausgang<br />

bei Überschreiten des eingestellten<br />

Regelungswertes den<br />

Trockner ansteuert und einen<br />

Trocknungszyklus einleitet. Ein<br />

weiterer Kontakt ist für den Voralarm<br />

und ein Kontakt für die Meldung des Hauptalarms vorgesehen.<br />

Über eine Signalleuchte und den akustischen Signalgeber wird der Alarm<br />

vor Ort signalisiert.<br />

Hygrosens Instruments GmbH • Tel.: 07669/921011<br />

info@hygrosense.com • www.hygrosense.com<br />

Digitalisieren mit Laserscannersystem<br />

Das handgeführte Laserscannersystem<br />

ModelMaker der Descam 3D Technolgies benötigt<br />

zur 3D-Formerfassung ungefähr ein<br />

Fünftel der Zeit einer klassischen Messmaschine.<br />

Insbesondere wenn sich das Objekt<br />

in einer Aufpassung komplett rundherum<br />

einscannen lässt oder nur Teilbereiche benötigt<br />

werden. Je komplexer die Teile sind und<br />

je mehr Freiformflächenanteil das Objekt hat,<br />

umso größer ist der Vorteil. Der größte Unterschied<br />

der beiden Messmethoden besteht<br />

darin: Auf der Messmaschine werden nur<br />

eine überschaubare Anzahl Koordinatenpunkte gemessen, be<strong>im</strong> Laserscannen<br />

wird jedoch die gesamte Oberfläche erfasst. Die Analyse kann also –<br />

auch nachträglich – beliebig erweitert werden. Auch in der Luft- und Raumfahrtbranche<br />

wird der Laserscanner eingesetzt. Aufgabenstellungen können<br />

dadurch schneller gelöst und die Arbeit effizienter gestaltet werden.<br />

Descam 3D Technolgies GmbH<br />

Tel.: 089/450286-0 • info@descam.de • www.descam.de<br />

Softwarepakete für manuelle und halbautomatische<br />

Röntgensysteme<br />

Viscom hat das neue Softwarepaket XMC auf den Markt gebracht, das dem<br />

Bediener manueller und halbautomatischer Röntgensysteme<br />

wesentliche Erleichterungen und Verbesserungen<br />

bringt. Eingebunden in die einheitliche<br />

Bedienoberfläche VVP (ViscomVisionPilot), mit<br />

der alle Inspektionssysteme von Viscom – auch<br />

die optischen – betrieben werden, ist XMC<br />

speziell an die Bedürfnisse der manuellen und<br />

halbautomatischen Röntgensysteme angepasst.<br />

Mit der Echtzeitbildverarbeitung werden<br />

die Inspektionsbilder verbessert und verzögerungsfrei<br />

<strong>im</strong> „Livebild“ dargestellt, ohne dass es zusätzlicher<br />

Tastatureingaben bedarf. Dies ist besonders für manuelle Röntgenuntersuchungen<br />

von Vorteil, damit der Bediener sich ganz auf seine Prüfaufgabe<br />

konzentrieren kann. (electronica Halle A1/Stand A1.550)<br />

Viscom AG<br />

Tel.: 0511/94996-0 • me@viscom.de • www.viscom.de<br />

78 Inspect 4/2006 weitere Produkte unter www.Pro-4-Pro.com


Turbinenschaufeln effizient messen<br />

Die Software Blade Pro von Zeiss macht das Messen von Turbinenschaufeln<br />

und die Datenauswertung am PC äußerst effektiv. Messvorgänge<br />

in Teilmessungen zu zerlegen, um die von vielen Parametern abhängigen<br />

Ergebnisse zu best<strong>im</strong>men,<br />

erübrigen sich. Durch Verwendung eines<br />

CAD-Kerns in der Messgeräte-Software<br />

können auch CAD-Modelle als Basis für<br />

ein Messprogramm dienen. Blade Pro<br />

gestattet die bestmögliche Ermittlung<br />

aller Kenngrößen einer Turbinenschaufel<br />

und den Profilvergleich auch bei unterschiedlichen<br />

Längen. Ein für Carl Zeiss<br />

patentierter Algorithmus berücksichtigt überproportionale Längenfehler.<br />

Erst damit ist die aussagekräftige Auswertung funktionskritischer Bereiche<br />

wie der Eintritts- bzw. Austrittskante bei Turbinenschaufeln sichergestellt.<br />

Die mathematische Besteinpassung lässt keine Wünsche offen.<br />

Carl Zeiss Industrielle Messtechnik<br />

Tel.: 07364/20-3539 • lindmayer@zeiss.de • www.zeiss.de<br />

Neues Video-Mess-Mikroskop<br />

Vision Engineering präsentiert mit dem neuen Video-Messsystem Merlin rechtzeitig<br />

zu den wichtigen Herbstmessen eine Produktinnovation für den industriellen<br />

Bereich. Auf der Basis des erfolgreichen Messmikroskops Kestrel wurde<br />

der robuste und bewährte Vision-Messtisch mit der neuen QC-300 Auswertungs-Einheit<br />

zu einem System aus einem Guss vereint. Mit einfacher, logischer<br />

Bedienung fügt es sich in das Benutzerkonzept von Vision Engineering ein. In<br />

der Darstellung des Prüflings mittels Video-Livebild werden genaue Messungen<br />

von Strecken, Radien und Abständen mittels Fadenkreuz oder Kantenerkennung<br />

vorgenommen. Die gefundenen Ergebnisse können auf einfache Weise<br />

miteinander geometrisch verknüpft werden. Alle wichtigen Schnittstellen zu<br />

Drucker oder PC stehen für die Dokumentation der Ergebnisse zur Verfügung.<br />

Optional kann auch das Videobild gespeichert werden.<br />

Vision Engineering Ltd.<br />

Tel.: 08141/40167-0 • summer@visioneng.de • www.visioneng.de<br />

Intelligente Messtechniklösung<br />

µPhase smartgage von Fisba Optik ist die ideale<br />

Messtechniklösung zur Qualitätskontrolle in der<br />

Massenproduktion kleiner optischer Komponenten.<br />

Dieses einzigartige Messgerät wurde speziell für den<br />

Einsatz in der Produktionsumgebung entwickelt. Die<br />

innovative Technologie des Messinstruments gewährleistet<br />

den wirtschaftlichen Einsatz in der Produktion<br />

und trägt dort zu verbesserten Ergebnissen<br />

bei. µPhase smartgage ermöglicht auf Knopfdruck<br />

eine präzise digitale Analyse der Oberflächenabweichungen<br />

planer, sphärischer und leicht asphärischer<br />

Oberflächen, z. B. bei Kamaraobjektiven von Mobiltelefonen<br />

oder Digitalkamaras. Es ermöglicht eine effiziente Qualitätsprüfung und<br />

Analyse der PV-, RMS- und ISO-Werte und liefert zuverlässige Messergebnisse. Die<br />

Messung erfolgt auf einfachen Knopfdruck oder durch Berührung des Touchscreens.<br />

Die Ergebnisse werden innerhalb von Sekunden auf dem Bildschirm dargestellt.<br />

Fisba Optik AG<br />

Tel.: +41 71 282 31 79 • barbara.ras@fisba.ch • www.fisba.ch<br />

Schnelle und komfortable Spektralmessung<br />

Das Spektralmesssystem spec‘3 ermöglicht die<br />

schnelle Messung von spektralen Verteilungen<br />

vom UV bis zum NIR. Als Nachfolger des über<br />

lange Jahre bewährten Systems spec2000 basiert<br />

spec’3 auf einer Detektorzeile mit deutlich<br />

höherer Auflösung. Die Ansteuer- und Auswertesoftware<br />

wurde komplett neu entwickelt und<br />

bietet eine Vielzahl von Auswertemöglichkeiten.<br />

Im sichtbaren Spektralbereich werden<br />

die farbmetrischen Größen gemäß CIE direkt<br />

ausgegeben. Die Ausgabe kann <strong>im</strong> Live-Modus<br />

kontinuierlich erfolgen, was die Beobachtung<br />

zeitlicher Änderungen einfach ermöglicht oder auch Einstellaufgaben sinnvoll<br />

unterstützt. Farbtoleranzbereiche können in der Auswertesoftware definiert<br />

werden, um einen schnellen Test gegen Prüfvorschriften durchzuführen. Die<br />

Farbwiedergabewerte nach CIE werden <strong>im</strong> Live-Modus permanent aktualisiert.<br />

Opsira GmbH • Tel.: 0751/561-890 • www.opsira.de<br />

C o n t r o l


I N D E x + I M P R E S S U M<br />

Firma Seite<br />

3D Shape 69<br />

alicona Imaging 64, 67<br />

Allied Vision Technologies 39<br />

Artray 59<br />

Asentics 48<br />

Axiomtek Deutschland 44<br />

Baumer Optronic 47<br />

Bi-Ber Bilderkennungs-Systeme 58<br />

Chromasens 40<br />

Cognex Germany 60<br />

DeltaE <strong>im</strong>aging 59<br />

Descam 3D Techn. 78<br />

eMVA 34<br />

Festo GB Cybernetic 60<br />

FH Darmstadt 16<br />

Fisba Optik 39, 79<br />

Framos Electronic 39<br />

Fujinon Europe 7<br />

GFaI Ges. zur Förderung angewandter Informatik 72<br />

Hamamatsu Photonics 77<br />

Hygrosens Instruments 78<br />

iB/E Ing.-Büro K. Eckerl 39<br />

IDS 30, 38, 49<br />

Imagic Bildverarbeitung 71<br />

Imess 60<br />

In-situ 50<br />

InfraTec 66<br />

Kappa 79<br />

Laser 2000 73<br />

Leica Microsysteme Vertrieb 65<br />

Leutron Vision 20, 57<br />

Linos Photeonics 25<br />

matrix Vision 35, 54<br />

MaxxVision 28, 2.US<br />

Messe München 37<br />

Mitutoyo Messgeräte 63<br />

MVTec Software 38<br />

National Instruments 24<br />

NET New Electronic Technology Vertriebsges. 5<br />

Herausgeber<br />

<strong>GIT</strong> VERLAG GmbH & Co. KG<br />

Objektleitung<br />

Dr. Peter Ebert<br />

Tel.: 06151/8090-162<br />

p.ebert@gitverlag.com<br />

redaktion<br />

Gabriele Jansen (Chefredakteurin)<br />

Tel.: 06151/8090-153<br />

g.jansen@gitverlag.com<br />

Angela Seibert-Weck<br />

Tel.: 06151/8090-131<br />

a.weck@gitverlag.com<br />

Andreas Grösslein<br />

Tel.: 06151/8090-163<br />

a.groesslein@gitverlag.com<br />

redaktionsassistenz<br />

Lana Feldmann<br />

Tel.: 06151/8090-194<br />

l.feldmann@gitverlag.com<br />

Wissenschaftlicher Beirat<br />

Prof. Dr. Christoph Heckenkamp<br />

Darmstadt University of Applied Sciences<br />

80 Inspect 4/2006<br />

anzeigenvertretungen<br />

Manfred Höring<br />

Tel.: 06159/5055<br />

media-kontakt@t-online.de<br />

Claudia Brandstetter<br />

Tel.: 089/43749678<br />

claudia.brandst@t-online.de<br />

Dr. Michael Leising<br />

Tel.: 03603/893112<br />

leising@leising-marketing.de<br />

Herstellung<br />

<strong>GIT</strong> VERLAG GmbH & Co. KG<br />

Dietmar Edhofer (Leitung)<br />

Bernd Happel (Redaktion)<br />

Claudia Vogel (Anzeigen)<br />

Sandra Rauch (Layout)<br />

Elke Palzer, Ramona Rehbein (Litho)<br />

Bankkonten<br />

Dresdner Bank Darmstadt<br />

Konto-Nr. 01.715.501/00, BLZ 50880050<br />

Zur Zeit gilt die Anzeigenpreisliste<br />

vom 1. Oktober 2006<br />

Firma Seite<br />

NeuroCheck 17<br />

Nikon 77<br />

Olympus Deutschland 62<br />

Omron Electronics Titelseite<br />

Opsira 79<br />

Optometron 40<br />

Optronis 77<br />

Panasonic Electric Works 40<br />

Panasonic Marketing Europe Beilage<br />

Parsytec 56, 59<br />

PCO 77<br />

Pentax Europe 29, 40<br />

PhotonicNet 77<br />

Phytec Messtechnik 36, 73<br />

PMDTechnologies 22<br />

POG Präzisionsoptik Gera 78<br />

Point Grey Deutschland 19, 21<br />

Polytec 39<br />

rauscher 1, 26, 40<br />

Schäfer Technologie 74<br />

Schäfter + Kirchhoff 75<br />

Jos. Schneider Optische Werke 44<br />

SensoPart Industriesensorik 35<br />

Sick 43<br />

Siemens 11<br />

Silicon Software 31<br />

Sony Deutschland 38<br />

Stemmer Imaging 42, 53<br />

tamron Europe 24<br />

TechnoTeam Bildverarbeitung 60<br />

Walter Uhl Techn.-Mikrosk. 70<br />

Videor Techn. 3<br />

Videor Technical Marketing Service 32<br />

Viscom 60, 78<br />

Vision & Control 38, 78<br />

Vision Academy 59<br />

Vision Components 40, 4.US<br />

Vision Engineering 79<br />

Vision Tools Bildanalyse- Systeme 14<br />

Carl Zeiss 79<br />

2006 erscheinen 4 Ausgaben<br />

„Inspect“<br />

Druckauflage: 15.000<br />

abonnement<br />

4 Ausgaben EUR 25,– ZZgl. 7 % MWSt<br />

Einzelheft EUR 13,–, zuzüglich MWSt+Porto<br />

Schüler und Studenten erhalten unter Vorlage einer<br />

gültigen Bescheinigung 50 % Rabatt.<br />

Abonnement-Bestellungen gelten bis auf Widerruf;<br />

Kündigungen 6 Wochen vor Jahresende. Abonnement-<br />

Bestellungen können innerhalb einer Woche<br />

schriftlich widerrufen werden, Versandreklamationen<br />

sind nur innerhalb von 4 Wochen nach Erscheinen<br />

möglich.<br />

Originalarbeiten<br />

Die namentlich gekennzeichneten Beiträge stehen in<br />

der Verantwortung des Autors. Nachdruck, auch<br />

auszugsweise, nur mit Genehmigung der Redaktion<br />

und mit Quellenangabe gestattet. Für unaufgefordert<br />

eingesandte Manuskripte und Abbildungen übern<strong>im</strong>mt<br />

der <strong>Verlag</strong> keine Haftung.<br />

Dem <strong>Verlag</strong> ist das ausschließliche, räumlich, zeitlich<br />

und inhaltlich eingeschränkte Recht eingeräumt, das<br />

Werk/den redaktionellen Beitrag in unveränderter<br />

Form oder bearbeiteter Form für alle Zwecke beliebig<br />

oft selbst zu nutzen oder Unternehmen, zu denen<br />

gesellschaftsrechtliche Beteiligungen bestehen, so<br />

wie Dritten zur Nutzung zu übertragen. Dieses<br />

Nutzungsrecht bezieht sich sowohl auf Print- wie<br />

elektronische Medien unter Einschluss des Internets<br />

wie auch auf Datenbanken/ Datenträgern aller Art.<br />

Alle etwaig in dieser Ausgabe genannten und/ oder<br />

gezeigten Namen, Bezeichnungen oder Zeichen<br />

können Marken oder eingetragene Marken ihrer<br />

jeweiligen Eigentümer sein.<br />

Druck<br />

Frotscher Druck<br />

Riedstr. 8, 64295 Darmstadt<br />

Printed in Germany<br />

ISSN 1616-5284<br />

I M P R E S S U M

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!