klar im Cockpit - GIT Verlag
klar im Cockpit - GIT Verlag
klar im Cockpit - GIT Verlag
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
D 30 122 F<br />
7. JAHRGANG<br />
NOVEMBER 2006<br />
4<br />
Airbag-Customizing <strong>im</strong> Autositz<br />
Quotientenbild-Stereo-Verfahren<br />
Europäischer Exportschlager Bildverarbeitung<br />
� � � � � V I S I O N � A U T O M A T I O N � C O N T R O L � � � � �<br />
Verborgene Gehe<strong>im</strong>nisse durch High Speed entdecken<br />
www.gitverlag.com
&<br />
E d i t o r i a l<br />
Tradition<br />
Fortschritt<br />
Anfang der 90er Jahre haben sich die Pioniere<br />
der Bildverarbeitung in Deutschland<br />
erstmals zu einem Branchenverband<br />
zusammen geschlossen – dem<br />
Vision Club. Der Name war fast schon<br />
Programm: Zwei Dutzend Firmen, alle –<br />
give or take – der gleichen Größe, vertreten<br />
zumeist durch ihre Gründer, man<br />
kannte sich untereinander. Aufbruchst<strong>im</strong>mung<br />
einer neuen Branche, Begeisterung<br />
und Engagement der Branchenvertreter,<br />
die ihre Macherqualitäten als<br />
erfolgreiche Unternehmer auch in die<br />
ehrenamtliche Vereinsarbeit hinein getragen<br />
haben. Der Vision Club hat die Interessen<br />
der jungen Branche erstmals<br />
konsolidiert und in den Bereichen Messepolitik,<br />
Marketing und Forschungsprojekte<br />
viel bewegt.<br />
Der nächste große Schritt war die<br />
Überführung des „Clubs“ in die Verbandskultur<br />
des VDMA (Verband Deutscher<br />
Maschinen und Anlagenbau).<br />
Klare Strukturen und etwas weniger<br />
Hemdsärmeligkeit, Risiko und Chance<br />
für die junge Branche mit ihren jungen<br />
Entrepreneurs. Anfangs war dieser Kulturwechsel<br />
gar nicht jedem Recht, kritische<br />
St<strong>im</strong>men sprachen gar von Tankern<br />
und Schnellbooten – und hingen<br />
letzteren wehmütig nach. Jedoch, der<br />
Bildverarbeitungsbranche in Deutschland<br />
hat das Dienstleistungsangebot, das<br />
professionelle Management und der politische<br />
Einfluss des großen Verbandes genützt.<br />
Der Paradigmenwechsel hat sich<br />
ausgezahlt.<br />
Heute steht die Bildverarbeitungsbranche<br />
– nicht nur in Deutschland – erneut<br />
vor der Herausforderung, sich eine<br />
unabwendbare Veränderung zunutze zu<br />
machen. Nicht mehr nur die Gründer von<br />
damals, die mit Kreativität, Fleiß und<br />
Fortune ihre Firma nach vorne gebracht<br />
haben, gestalten heute die Branche.<br />
Hinzu kommen neu die großen OptosensorikHersteller,<br />
für die die Bildverarbeitung<br />
eine natürliche – und lohnenswerte<br />
– Erweiterung ihres angestammten Spektrums<br />
ist. Unternehmen mit dreistelligen<br />
MillionenUmsätzen, mit vierstelligen<br />
Mitarbeiterzahlen, mit Dutzenden internationalen<br />
Standorten, Flächen und<br />
Strukturvertrieb halten Einzug in einen<br />
Markt mit einer durchschnittlichen Firmengröße<br />
von 45 Mitarbeitern und<br />
einem durchschnittlichen Umsatz bei<br />
etwa 5 Mio. Beunruhigend?<br />
Ein Club gewinnt dadurch, dass alle<br />
die gleiche Sprache sprechen und durch<br />
gemeinsame Interessen miteinander verbunden<br />
sind. Das schafft eine angenehme<br />
und durchaus auch beflügelnde Atmosphäre.<br />
Dabei bleibt es aber <strong>im</strong>mer ein<br />
Club. Ein Verband ist stark, wenn er die<br />
Ziele und Interessen möglichst vieler heterogener<br />
Mitglieder bündeln kann und<br />
daraus Stärke sowohl für die politische<br />
Arbeit als auch für den Erfolg seiner Mitglieder<br />
<strong>im</strong> internationalen Wettbewerb<br />
schafft. Die Chancen in der Zusammenarbeit<br />
aller Branchenvertreter der Bildverarbeitung,<br />
sei die individuelle Herkunft<br />
nun aus dem Komponentenbereich,<br />
dem Systemgeschäft, der Integration<br />
oder der Sensorik, werden allemal größer<br />
sein als die Risiken. Und sei es <strong>im</strong><br />
schlechtesten Fall auch nur, um seinen<br />
neuen Wettbewerber besser kennen zu<br />
lernen.<br />
Ich wünsche Ihnen viel Vergnügen bei der<br />
Lektüre Ihrer aktuellen Inspect.<br />
Gabriele Jansen<br />
Chefredakteurin Inspect
I n h a l t<br />
2 Inspect 4/2006<br />
AKTUELL<br />
Editorial: Tradition und Fortschritt 1<br />
G. Jansen<br />
News 4<br />
Vision 2006, Stuttgart 10<br />
MTQ 2006, Dortmund 10<br />
So schön ist Finnland! 12<br />
EMVA Conference in Tampere bricht alle Rekorde<br />
PRO-4-PRO Charts 76<br />
Index & Impressum 80<br />
TITELSTORY<br />
Airbag-Customizing <strong>im</strong> Autositz 6<br />
Laserdistanzsensoren <strong>im</strong> Einsatz für mehr Sicherheit<br />
C. Beede, E.-C. Reiff<br />
Airbags haben in der Vergangenheit nicht nur als Lebensretter Schlagzeilen gemacht; in<br />
Einzelfällen kam es durch Fehlfunktionen auch zu Verletzungen oder sogar Todesfällen,<br />
z. B. wenn sich bei einem Unfall Kinder in falscher Position auf dem Beifahrersitz<br />
befanden. Solche tragischen Vorfälle lassen sich jedoch vermeiden, wenn die Airbag-<br />
Aktivierung auf Körpergröße und Körpergewicht des Beifahrers abgest<strong>im</strong>mt ist. Ausgeklügelte<br />
Test- und Kalibrieranlagen mit modernster Sensorik tragen hier heute zur<br />
max<strong>im</strong>alen Sicherheit bei. Mehr dazu in unserer Titelstory ab S. 6.<br />
VISION 13<br />
„Mr. Spock, schneller Scan der Oberfläche“ 14<br />
Neues Verfahren für schnelle und robuste 3D-Abtastung von Oberflächen<br />
Die Abenteuer des Raumschiffs Enterprise sind uns allen unvergessen. Wenn neue<br />
unbekannte Planeten auf dem Bildschirm auftauchten, konnten in Sekundenschnelle<br />
jede Menge Daten generiert werden dank der Sensorenphalanx an Bord des Schiffes.<br />
So auch Daten über Beschaffenheit und Aufbau der Oberfläche. – Und selbst, wenn es<br />
vielleicht noch nicht wirklich solch utopische Technologien gibt wie auf der Enterprise –<br />
just wurde in einer innovativen Bildverarbeitungsschmiede ein Verfahren entwickelt,<br />
das die Struktur von Oberflächen wesentlich schneller und zuverlässiger erfassen kann<br />
als bisher.<br />
Grundlagen der Bildverarbeitung 16<br />
Morphologische Filter<br />
Prof. Dr. C. Heckenkamp<br />
Noch lange kein altes Eisen 20<br />
Mit Power-over-CameraLink übertrumpft der digitale<br />
den analogen Framegrabber<br />
M. S<strong>im</strong>nacher<br />
Luchsaugen für die Bildverarbeitung 22<br />
Mehrd<strong>im</strong>ensionale Objektvermessung<br />
Dipl.-Ing. (FH) B. Hagebeuker<br />
Wie wär’s mit unserer Suite? 24<br />
Erweiterte Softwaresuite für die Bildverarbeitung<br />
Interface Race 26<br />
Gigabit-Ethernet für Machine Vision<br />
R. K<strong>im</strong>melmann<br />
Best of Both Worlds 28<br />
Value Added Distributoren als Mittler zwischen Technologie und Praxis<br />
S. Sol<strong>im</strong>an<br />
Tischlein-deck-Dich 30<br />
Küchentisch der Zukunft mit USB 2.0-Industriekameras<br />
T. Schmidgall<br />
Die Weisheit liegt nicht <strong>im</strong> Wein allein 32<br />
Intelligente „Open Source“ Kamera bietet höchste Flexibilität<br />
M. Kissel<br />
Euro<br />
Erge<br />
P. Sch<br />
Prod<br />
Alle<br />
Bildv<br />
Dipl.-<br />
Das C<br />
st<strong>im</strong>m<br />
nehm<br />
Cockp<br />
Her<br />
Auto<br />
J. Raa<br />
Nul<br />
Wie<br />
A. Sc<br />
Hap<br />
Blind<br />
Dipl.-<br />
Pfan<br />
Intel<br />
Dipl.-<br />
Mak<br />
Surf<br />
Dr. S.<br />
Sau<br />
Visio<br />
Prod<br />
Verb<br />
Hoch<br />
K. Vo<br />
Manc<br />
schon<br />
erste<br />
Mutt<br />
wech<br />
helfe<br />
Olym<br />
Wo<br />
Berü<br />
Mag.<br />
Fire<br />
Ther<br />
3D-<br />
Schn<br />
Dr. S.<br />
Stol<br />
Ergo<br />
Dem<br />
Bildv<br />
Dipl.-<br />
Haa<br />
Kam<br />
Prod
I n h a l t<br />
päischer Europäischer Exportschlager: Exportschlager: Bildverarbeitung Bildverarbeitung 34 34<br />
bnisse der Ergebnisse Marktdatenerhebung der Marktdatenerhebung Vision Technology Vision 2006 Technology 2006<br />
warzkopf P. Schwarzkopf<br />
ukte Produkte 38 38<br />
AUTOMATION 41<br />
s <strong>klar</strong> <strong>im</strong> Alles <strong>Cockpit</strong> <strong>klar</strong> <strong>im</strong> <strong>Cockpit</strong> 42 42<br />
erarbeitung Bildverarbeitung und Robotik sorgen und Robotik für 100 sorgen % Qualität für 100 bei % <strong>Cockpit</strong>s Qualität bei <strong>Cockpit</strong>s<br />
Ing. A. Tarnoki Dipl.-Ing. A. Tarnoki<br />
ockpit ist der Das Kommandostand <strong>Cockpit</strong> ist der für Kommandostand Fahrvergnügen für und Fahrvergnügen Fahrsicherheit. und Hier Fahrsicherheit. muss alles Hier muss alles<br />
en, funktional st<strong>im</strong>men, und ästhetisch. funktional Johnson und ästhetisch. Controls, eines Johnson der Controls, weltweit eines führenden der weltweit Unter- führenden Unteren<br />
<strong>im</strong> Bereich nehmen der automobilen <strong>im</strong> Bereich Innenausstattung der automobilen und Innenausstattung Elektronik, prüft und seine Elektronik, Auto- prüft seine Autoits<br />
mit acht Kameras <strong>Cockpit</strong>s auf mit bis acht zu Kameras 70 Merkmale auf bis in zu zwei 70 Varianten Merkmale nach in zwei vier Varianten Kriterien. nach vier Kriterien.<br />
ausforderungen Herausforderungen annehmen annehmen<br />
matische optische Automatische Prüfung optische geschliffener Prüfung Oberflächen geschliffener Oberflächen<br />
45 45<br />
sch J. Raasch<br />
l-Fehler-Qualität Null-Fehler-Qualität für die Automobilindustrie für die Automobilindustrie<br />
mit Bildverarbeitung Wie mit Bildverarbeitung Mikrochips getestet Mikrochips werden getestet werden<br />
48 48<br />
harbert A. Scharbert<br />
tik optisch Haptik geprüft optisch geprüft<br />
enschriftinspektion Blindenschriftinspektion durch Shape-from-Shading durch Shape-from-Shading<br />
Inf. S. Söll, Dr. Dipl.-Inf. H. Moritz, S. Söll, Prof. Dr. H. H. Moritz, Ernst Prof. Dr. H. Ernst<br />
50 50<br />
d, wem Pfand, Pfand gebührt wem Pfand gebührt 54 54<br />
ligente Kamera Intelligente validiert Kamera Einweggetränkeverpackungen<br />
validiert Einweggetränkeverpackungen<br />
Inf. (FH) U. Lansche Dipl.-Inf. (FH) U. Lansche<br />
ellose Außenhaut Makellose Außenhaut<br />
ace Quality Surface Yield Management Quality Yield in Management der Feuerverzinkung in der Feuerverzinkung<br />
Burkhardt, E. Dr. Jannasch S. Burkhardt, E. Jannasch<br />
56 56<br />
berer Schnitt Sauberer Schnitt<br />
n-Sensor für Vision-Sensor die Automatisierung für die Automatisierung <strong>im</strong> Weinberg <strong>im</strong> Weinberg<br />
58 58<br />
ukte Produkte 59 59<br />
CONTROL 61<br />
orgene Gehe<strong>im</strong>nisse Verborgene Gehe<strong>im</strong>nisse 62 62<br />
geschwindigkeits-Kamerasystem Hochgeschwindigkeits-Kamerasystem lässt nichts unentdeckt lässt nichts unentdeckt<br />
lkmer K. Volkmer<br />
hmal muss man Manchmal Verborgenes muss man sichtbar Verborgenes machen – sichtbar vor diesem machen Dilemma – vor standen diesem Dilemma standen<br />
Sherlock Holmes schon oder Sherlock Marie Holmes Curie, oder aber Marie auch der Curie, Arzt, aber der auch eine der Diagnose Arzt, der eine Diagnose<br />
llen muss, der erstellen Kr<strong>im</strong>inalbeamte, muss, der der Kr<strong>im</strong>inalbeamte, ein Verbrechen der aufzuklären ein Verbrechen hat, oder aufzuklären die hat, oder die<br />
er, die herauszufinden Mutter, die versucht, herauszufinden warum ihr versucht, Kind weint warum (oftmals ihr Kind hilft weint ein Windel- (oftmals hilft ein Windelsel…).<br />
Es gibt wechsel…). viele Dinge, Es die gibt für viele unser Dinge, Auge die nicht für fassbar unser Auge sind. nicht Und fassbar genau hier sind. Und genau hier<br />
n Hochgeschwindigkeits-Kamerasysteme helfen Hochgeschwindigkeits-Kamerasysteme weiter, von denen weiter, eins aus von dem denen Hause eins aus dem Hause<br />
pus nun einen Olympus turboschnellen nun einen Nachfolger turboschnellen vorstellt. Nachfolger vorstellt.<br />
gehobelt Wo wird, gehobelt da fallen wird, Späne… da fallen Späne… 64 64<br />
hrungslose Berührungslose Oberflächenanalyse Oberflächenanalyse von Wendeschneidplatten von Wendeschneidplatten<br />
A. Krenn Mag. A. Krenn<br />
fighter <strong>im</strong> Firefighter Bunker <strong>im</strong> Bunker 66 66<br />
mographiesystem Thermographiesystem für die Müllbunker-Brandfrüherkennung<br />
für die Müllbunker-Brandfrüherkennung<br />
Messtechnik 3D-Messtechnik für die Produktion für die Produktion<br />
ell, berührungslos Schnell, berührungslos und hochpräzise und hochpräzise<br />
69 69<br />
Schiffer Dr. S. Schiffer<br />
z auf Made Stolz in auf Germany Made in Germany<br />
nomisches Ergonomisches Video-Messmikroskop Video-Messmikroskop<br />
70 70<br />
Täter auf Dem der Täter Spur auf der Spur<br />
erarbeitung Bildverarbeitung für Polizei und für Sicherheitsdienst<br />
Polizei und Sicherheitsdienst<br />
Inf. R. Knöfel, Dipl.-Inf. R. Christan Knöfel, Dipl.-Inf. Feist Christan Feist<br />
72 72<br />
rscharf erkannt Haarscharf erkannt<br />
erageführte Kamerageführte automatische Verbindung automatische von Verbindung Glasfasernvon<br />
Glasfasern<br />
73 73<br />
ukte Produkte 77 77<br />
Inspect 4/2006<br />
3
A k t u e l l<br />
20 Jahre Matrix Vision<br />
Was als kleine Steuerungs- und<br />
Auswertesoftwareschmiede für<br />
chemische Analysegeräte begann,<br />
hat sich zu einem weltweit<br />
agierenden Unternehmen<br />
in der industriellen Bildverarbeitung<br />
entwickelt. 1986 gründeten<br />
Gerhard Thullner und<br />
Werner Armingeon die Matrix<br />
Datensysteme. Die Firma entwickelte<br />
Software für chemische Analysegeräte und arbeitete damals mit Atari-<br />
Rechnern. Für diese Rechner wurde die weltweit erste Grafikkarte für 19-Zoll-Bildschirme<br />
entwickelt. Das Produkt war auf der CeBIT 1988 ein Schlager und stellte<br />
den Einstieg in die Grafik- und Videotechnik dar. Heute hat das Unternehmen 45<br />
Mitarbeiter, ist über Distributoren weltweit aktiv und vertreibt seine Produkte direkt<br />
in Deutschland, Frankreich, Italien, Österreich und der Schweiz. Das Produktportfolio<br />
ist für den weiterhin wachstumsreichen, wechselhaften Markt der industriellen<br />
Bildverarbeitung gut gerüstet.<br />
www.matrix-vision.de<br />
news<br />
ews<br />
news<br />
Global Technology<br />
Award 2006<br />
In der Kategorie bestes „Inspection/X-ray<br />
system“ wurde Phoenix<br />
X-ray für sein neues Computertomographiesystem<br />
nanotom <strong>im</strong><br />
Rahmen der Assembly Technology<br />
Expo 2006 in Rosemont (Chicago)<br />
mit dem Global Technology Award<br />
ausgezeichnet. Vergeben wurde<br />
dieser Preis von der Fachzeitschrift<br />
Global SMT & Packaging. Die internationale<br />
Jury, die sich aus unabhängigen<br />
Industrieexperten und<br />
Wissenschaftlern zusammensetzte,<br />
lobte unter anderem den technischen<br />
Innovationsgrad sowie die<br />
damit verbundenen Vorteile für die<br />
Anwender.<br />
www.phoenix-xray.com<br />
IDS baut die Produktions- und Logistikkapazitäten weiter aus<br />
Be<strong>im</strong> schwäbischen Kamera-Spezialisten IDS Imaging Development Systems stehen<br />
die Zeichen weiter auf Wachstum. Das Unternehmen hat seine Produktions- und Logistikflächen<br />
deutlich ausgebaut und seine personellen Ressourcen auf nunmehr<br />
knapp 60 Mitarbeiter erhöht.<br />
Mit dem jetzt fertiggestellten<br />
neubau hat der schwäbische<br />
Kamera-Spezialist seine Produktionskapazitäten<br />
am Standort in<br />
Obersulm bei Heilbronn verdreifacht<br />
und die Gesamtnutz- und<br />
Logistikflächen annähernd verdoppelt.<br />
Seit der Gründung<br />
1997 hat man sich ganz der industriellen<br />
Bildverarbeitung verschrieben. Mit dem Know-how der beiden Gründer<br />
und Geschäftsführer Jürgen Hartmann und Armin Vogt ist aus kleinsten Anfängen<br />
ein wichtigster Hersteller und Anbieter von Komponenten und Lösungen für die industrielle<br />
Bildverarbeitung geworden.<br />
www.ids-<strong>im</strong>aging.de<br />
Inspect 4/2006<br />
Neues Produktionszentrum<br />
von Linos<br />
Linos hat am 15. September 2006 ihren<br />
neubau am Standort Regen offiziell<br />
eingeweiht. Im Rahmen der Feier, an<br />
der rund 400 Gäste teilnahmen, hob<br />
die Parlamentarische Staatssekretärin<br />
be<strong>im</strong> Bundesminister für Wirtschaft und<br />
Technologie, Dagmar Wöhrl, in ihrer<br />
Ansprache die Bedeutung der optischen<br />
Technologien für den Wirtschaftsstandort<br />
Deutschland hervor. Das Unternehmen<br />
hat in das neue Produktionszentrum<br />
rund 5,3 Mio. € investiert. Die<br />
Regierung von niederbayern unterstützte<br />
das Projekt mit Fördermitteln.<br />
Allein <strong>im</strong> laufenden Geschäftsjahr wendet<br />
Linos in Regen 1,2 Mio. € für eine<br />
neue Fertigungslinie auf, mit der ab Anfang<br />
2007 hoch komplexe optische<br />
Systeme gebaut werden sollen. Der<br />
neubau verfügt über eine Produktionsfläche<br />
von 7.200 m². Der Vorstand verspricht<br />
sich von dem Umzug eine erhebliche<br />
Verbesserung der Infrastruktur<br />
und damit effizientere Arbeitsabläufe.<br />
www.linos.de<br />
VDMA Industrielle Bildverarbeitung<br />
mit neuem Vorstand<br />
Auf der Mitgliederversammlung der<br />
VDMA Fachabteilung Industrielle Bildverarbeitung,<br />
die am 6. Oktober 2006<br />
in Dresden stattfand, wurde turnusgemäß<br />
ein neuer Vorstand gewählt. Als<br />
Vorstandsvorsitzender wurde Dr. Dietmar<br />
Ley, Vorsitzender des Vorstandes<br />
von Basler, bestätigt. Ley hatte den<br />
Vorsitz der Fachabteilung Industrielle<br />
Bildverarbeitung bereits <strong>im</strong> Juni 2005<br />
von Volker Pape, Vorstand von Viscom,<br />
übernommen und wird sein Amt für<br />
drei weitere Jahre ausüben. Dem<br />
neuen Vorstand der VDMA Fachabteilung<br />
Industrielle Bildverarbeitung gehören<br />
außerdem an: Enis Ersü, Vorsitzender<br />
des Vorstands Isra Vision, Dr.<br />
Horst G. Heinol-Heikkinen, Geschäftsführer<br />
Asentics, Charlotte Helzle, Gesellschafter-Geschäftsführerin<br />
hema<br />
electronic, Dr. Olaf Munkelt, Geschäftsführer<br />
MVTec Software und Wilhelm<br />
Stemmer, Geschäftsführer Stemmer<br />
Imaging.<br />
www.vdma.org/vision<br />
<strong>GIT</strong> – 50 Jahre führend <strong>im</strong> Labor<br />
Im Oktober feierten wir <strong>im</strong> <strong>GIT</strong> VERLAG das 50-jährige Bestehen der <strong>GIT</strong> Labor-<br />
Fachzeitschrift. 1956 gründete Ernst H. W. Giebeler die Fachzeitschrift Glas-Instrumenten-Technik<br />
für die Praktiker <strong>im</strong> Labor. Die Publikation vermittelte von Anfang<br />
an aktuelle Trends, neuste Techniken und spannende Hintergrund-Informationen<br />
zum breiten Spektrum der Labortechnik. So unterstützt<br />
das Magazin seither alle Beteiligten – von<br />
der Bench bis zum Entscheider – bei den Herausforderungen<br />
des Laboralltags.<br />
Die <strong>GIT</strong> Labor-Fachzeitschrift bildete 1969 den<br />
Grundstein für die Gründung des <strong>GIT</strong> VERLAGs in<br />
Darmstadt, der heute mit 100 Mitarbeitern über<br />
40 Titel für die Branchen Biotechnologie, Chemie,<br />
Pharma, Medizintechnik, Automatisierungstechnik<br />
und Prozesstechnik herausbringt. Hierzu gehören<br />
u.a. die Titel CHEManager, Management<br />
& Krankenhaus, <strong>GIT</strong> SICHERHEIT + MAnAGE-<br />
MEnT, BIOforum und MessTec & Automation.<br />
Das redaktionelle Konzept der <strong>GIT</strong> Labor-Fachzeitschrift<br />
zeichnet sich durch drei Komponenten<br />
aus: qualitativ hochwertige Beiträge von den<br />
führenden Meinungsbildnern, nachrichten zu den aktuellsten Trends und Entwicklungen<br />
der jeweiligen Branche und anwendungs-orientierte Hintergrundinformationen.<br />
Damit bietet jede Publikation eine eigene Plattform für Forscher und Anwender,<br />
für Zulieferer und Verbraucher. Ergänzt werden die Print-Titel durch das<br />
Branchenportal www.pro-4-pro.com sowie Direct Mail, Reprint und E-Magazine-<br />
Lösungen.<br />
Einzigartig in der Berichterstattung und Vorstellung neuer Technologien ist der Praxisbezug<br />
der <strong>GIT</strong> Labor-Fachzeitschrift. Ziel war und ist es, dem Leser praxisnahe<br />
Informationen über das breite Spektrum der Analytik und Labortechnik interdisziplinär<br />
zu bieten und die Arbeit <strong>im</strong> Labor durch entsprechende Lösungsvorschläge<br />
zu unterstützen. Ob in der Hochleistungsforschung oder in der Routine, die <strong>GIT</strong><br />
zeigt, wie man die täglichen Laborprobleme löst und Prozesse opt<strong>im</strong>iert. Dadurch<br />
spart der Leser letztlich Zeit und Geld – und das ist es, was heute zählt, in Industrie<br />
und Wissenschaft gleichermaßen.<br />
www.gitverlag.com
T i T e l s T o r y<br />
Airbag-Customizing <strong>im</strong> Autositz<br />
Airbags haben in der<br />
Vergangenheit nicht<br />
nur als Lebensretter<br />
Schlagzeilen gemacht;<br />
in Einzelfällen kam es<br />
durch Fehlfunktionen<br />
auch zu Verletzungen<br />
oder sogar Todesfäl-<br />
len, z. B. wenn sich bei<br />
einem Unfall Kinder in<br />
falscher Position auf<br />
dem Beifahrersitz<br />
befanden. Solche<br />
tragischen Vorfälle<br />
lassen sich jedoch<br />
vermeiden, wenn die<br />
Airbag-Aktivierung<br />
auf Körpergröße und<br />
Körpergewicht des<br />
Beifahrers abgest<strong>im</strong>mt<br />
ist. Ausgeklügelte<br />
Test- und Kalibrieran-<br />
lagen mit modernster<br />
Sensorik tragen hier<br />
heute zur max<strong>im</strong>alen<br />
Sicherheit bei.<br />
Inspect 4/2006<br />
Laserdistanzsensoren <strong>im</strong> Einsatz für mehr Sicherheit<br />
Abb. 1: Test- und Kalibrieranlage für die in aktuellen<br />
Autositzen integrierten Klassifizierungssysteme.<br />
Die Airbag-Aktivierung lässt sich so auf<br />
Körpergröße und Gewicht der Passagiere abst<strong>im</strong>men.<br />
(Foto: Stankowitz)<br />
Um die für die entsprechende Airbag-<br />
Anpassung notwendigen Daten zu erhalten,<br />
werden in Beifahrer-Autositzen<br />
verschiedene Personen-Klassifizierungssysteme,<br />
bspw. drucksensitive Belegungsmatten<br />
oder Gewichtssensoren, inte-<br />
griert. Aufgrund der erfassten Messwerte<br />
lässt sich die erforderliche Auslösung des<br />
Airbags an den jeweiligen Passagier anpassen.<br />
Sichere Beifahrer-Klassifizierungsmöglichkeiten<br />
Ein Spezialist auf diesem Gebiet ist die in<br />
Diepholz (Deutschland) ansässige Firma<br />
Stankowitz Test Equipment. Seit mehr<br />
als dreißig Jahren entwickelt und fertigt<br />
das auf dem Weltmarkt etablierte Familienunternehmen<br />
Test- und Opt<strong>im</strong>ierungssysteme;<br />
nicht nur für den Automobilbereich,<br />
sondern auch für Luftfahrt,<br />
Chemie und Lebensmitteltechnologie.<br />
Die Test- und Kalibrieranlagen für die in<br />
aktuellen und zukünftigen Autositzen integrierten<br />
Klassifizierungssysteme sind<br />
heute bei allen Automobilsitzherstellern<br />
<strong>im</strong> Einsatz.<br />
Automatische Positionskontrolle mit<br />
höchster Präzision<br />
Meist sind die Prüf- und Kalibriersysteme<br />
direkt in die Automatisierungs-
Abb. 2: Intelligente Laserdistanzsensoren: Der<br />
kleinformatige Verstärker bietet viele anwenderfreundliche<br />
Funktionen. Unterschiedliche Sensorköpfe<br />
mit Auflösungen bis in den Mikrometerbereich<br />
decken verschiedenste Anwendungsbereiche<br />
ab. (Foto: Omron electronics)<br />
linie eingebunden. Sie können die verschiedenen<br />
Sitztypen flexibel in<br />
beliebiger Reihenfolge „bearbeiten“.<br />
Die Produktions-Werkstückträger sind<br />
mit einer vollautomatischen Klemmeinrichtung<br />
zur exakten Positionierung<br />
des Sitzes ausgestattet und werden bis<br />
zu einem mechanischen Anschlag in<br />
die Testanlage transportiert. Laserdistanzsensoren<br />
sorgen dann dafür,<br />
dass die zu erreichenden Positionen<br />
des Sitzes für Sitzneigung, Lehnen- und<br />
Höheneinstellung sichergestellt werden.<br />
Die Distanzsensoren messen dazu<br />
an mehreren genau festgelegten Stellen<br />
den Abstand zu den Oberflächen<br />
der Sitze. Die für den jeweiligen Sitztyp<br />
geltenden Werte sind <strong>im</strong> Anlagenrechner<br />
mit einer entsprechenden Legende<br />
hinterlegt.<br />
Zeigen die Messwerte der Sensoren<br />
an, dass die richtigen Positionen erreicht<br />
sind, startet der Test bzw. die Kalibrierung.<br />
An den Sitzen werden nacheinander<br />
verschiedene Krafteinleitungen<br />
durchgeführt. Auch während dieses Prozesses<br />
sind die Laserdistanzsensoren aktiv.<br />
Um die Richtigkeit der Kalibrierung<br />
und der Testergebnisse zu gewährleisten,<br />
kontrollieren sie ständig die Sitzposition.<br />
Dabei müssen die Sensoren Beachtliches<br />
leisten.<br />
Hohe Anforderungen an die eingesetzte<br />
Sensorik<br />
„Wir haben sehr hohe Anforderungen an<br />
die Reproduzierbarkeit,“ erläutert Reinhard<br />
Stankowitz, Geschäftsführer der<br />
Stankowitz Test Equipment GmbH. „Der<br />
Sitz muss sehr präzise positioniert sein,<br />
damit die Funktion getestet bzw. kalib-<br />
T i T e l s T o r y<br />
riert und anschließend verifiziert werden<br />
kann. Schließlich geht es hier um die<br />
Sicherheit von Menschen.“ Außerdem<br />
dürfen unterschiedliche Reflexionseigenschaften<br />
der Sitzoberflächen die Funktion<br />
nicht beeinträchtigen. „Wir erwarten zuverlässige<br />
Messergebnisse sowohl bei<br />
Stoff- als auch bei Leder- oder Kunstleder-Bezügen.<br />
Helle oder dunkle Farben,<br />
gemusterte oder einfarbige Bezugsstoffe,<br />
stumpfe oder seidenmatte<br />
Oberflächen: All das darf keine Auswirkungen<br />
auf die Qualität der Messergebnisse<br />
haben“, ergänzt Stankowitz. Gleichzeitig<br />
müssen die Sensoren unempfindlich<br />
gegenüber Fremdlichteinflüssen sein und<br />
mit möglichst kurzen Ansprechzeiten arbeiten.<br />
„Die passenden Geräte, die diese<br />
Anforderungen erfüllen und gleichzeitig<br />
auch noch ein günstiges Preis-/Leistungsverhältnis<br />
bieten, haben wir <strong>im</strong> Sensorikprogramm<br />
des Automatisierungsspezialisten<br />
Omron electronics gefunden“,<br />
fasst Reinhard Stankowitz zusammen.<br />
An den Test- und Kalibrieranlagen für<br />
die Beifahrer-Klassifizierungssysteme<br />
sind je nach Ausführung bis zu vier<br />
Laserdistanzsensoren der Serie ZX-<br />
LD300L <strong>im</strong> Einsatz. Die Sensoren eignen<br />
sich für Distanzen bis 300 mm, wobei die<br />
Auflösung bei 300 µm liegt (gemittelter<br />
Wert über 4.096 Messzyklen). Die Ent-
T i T e l s T o r y<br />
Abb. 3: Klein und kompakt. Auch an den Test-<br />
und Kalibrieranlagen für aktuelle und zukünftige<br />
Autositze lassen sich die Laserdistanzsensoren<br />
gut montieren. (Foto: Stankowitz)<br />
fernungsmessung basiert auf dem Triangulationsprinzip.<br />
Der Laserstrahl trifft<br />
also auf das Objekt und wird auf ein PSD-<br />
Element (Position Sensitive Device) reflektiert.<br />
Eine speziell entwickelte Auswerteelektronik<br />
berechnet aus der<br />
Verteilung des reflektierten Lichts auf<br />
diesem Empfängerelement die Distanz<br />
zum Objekt. Störende Reflexionen unterdrückt<br />
die Auswerteelektronik, so dass<br />
die Distanzmessung auch bei kritischen<br />
Objekten – wie den unterschiedlich bezogenen<br />
Autositzen – zuverlässige Messergebnisse<br />
liefert. Die Werte werden in<br />
entfernungsproportionale Ausgangssignale<br />
umgesetzt und an die übergeordnete<br />
Steuerung weitergeleitet. Fremdlichteinflüsse<br />
bis 3000 lx (eine typische<br />
Bürobeleuchtung liegt bei einer Beleuchtungsstärke<br />
von etwa 500 lx) beeinträchtigen<br />
die Funktion nicht.<br />
Kompakt, einbaufreundlich und<br />
zuverlässig<br />
Aber auch darüber hinaus haben die Laserdistanzsensoren<br />
einiges zu bieten. Die<br />
Sensorköpfe sind sehr kompakt; ihre Abmessungen<br />
entsprechen mit 39 mm<br />
Höhe, 17 mm Breite und 33 mm Tiefe denen<br />
konventioneller Lichtschranken.<br />
Platzprobleme be<strong>im</strong> Einbau sind also<br />
nicht zu befürchten und auch an den<br />
Test- und Kalibieranlagen lassen sich die<br />
Laserdistanzsensoren gut montieren.<br />
Gleiches gilt für die kleinformatigen Verstärker.<br />
Sie sind lediglich 31 mm breit,<br />
8 Inspect 4/2006<br />
Abb. 4: Der neue Laserdistanzsensor ZS-HLD „blickt“ bis zu 2.000 mm weit. Die Konstruktion der<br />
Testsysteme vereinfacht sich dadurch wesentlich. (Foto: Stankowitz)<br />
30 mm hoch und 64 mm lang. Dennoch<br />
bieten sie eine Vielzahl intelligenter und<br />
anwenderfreundlicher Funktionen, z. B.<br />
Skalierung, drehbare Anzeige, Empfindlichkeitsauswahl,<br />
verschiedene Parametriermöglichkeiten,<br />
Teach-in etc. Die Testspezialisten<br />
aus Diepholz sind mit ihrer<br />
Sensorwahl zufrieden. „Neben der hohen<br />
Zuverlässigkeit hat uns auch die Langlebigkeit<br />
der Laserdistanzsensoren überzeugt“,<br />
so Stankowitz weiter. Schließlich<br />
würden unerwartete Sensorausfälle das<br />
komplette Testsystem vorübergehend<br />
lahm legen. „An unseren Testsystemen<br />
setzen wir deshalb als einer der ersten<br />
Anwender heute auch einen ganz neuen<br />
Sensorkopf aus dem Hause Omron ein.“<br />
Dank der großen Tastweite von 2.000<br />
mm lässt sich der Sensor ZS-HLD fest <strong>im</strong><br />
Kopf rahmen der Prüfanlage installieren.<br />
Dadurch spart man die Mechanik für die<br />
Verfahreinheit, gewinnt Platz und beschleunigt<br />
obendrein auch noch den<br />
Prüf- bzw. den Kalibriervorgang.<br />
Auch ein weiterer optischer Sensor<br />
konnte mittlerweile in den Test- und<br />
Kalibrieranlagen seine Zuverlässigkeit<br />
beweisen. Ein Vision-Sensor der Serie<br />
F150 überprüft Federn und Bolzen an<br />
der Unterseite der Autositze auf Vorhandensein<br />
und Positionierung. Gleichzeitig<br />
kontrolliert er, ob die Prüfstecker am Sitz<br />
gesteckt sind, denn erst dann kann das<br />
Testsystem seine Arbeit aufnehmen. Das<br />
kleine Bildverarbeitungssystem mit integrierter<br />
Beleuchtung ist einfach zu<br />
programmieren und lässt sich mit unterschiedlichen<br />
Kamera-Einheiten kombinieren.<br />
Sind zwei Kameras angeschlossen,<br />
können die Bilder wahlweise<br />
nacheinander verarbeitet oder miteinander<br />
kombiniert werden. Optische Sensorik<br />
in unterschiedlichen Ausführungen<br />
trägt damit wesentlich dazu bei, <strong>im</strong><br />
Kraftfahrzeug die Sicherheit für die Passagiere<br />
deutlich zu verbessern.<br />
� Autoren<br />
Christian Beede, Omron electronics<br />
Ellen-Christine Reiff, Redaktionsbüro<br />
Stutensee<br />
� Kontakt<br />
Bernd Markowski<br />
omron electronics GmbH, langenfeld<br />
Tel.: 02173/6800-436<br />
Fax: 02173/6800-400<br />
bernd.markowski@eu.omron.com<br />
www.omron.de
A K T U E L L<br />
Vision 2006<br />
Dieses Jahr erwarten die Besucher der Vision besonders viele Kamera-Neuentwicklungen<br />
Hochgeschwindigkeitskameras, RFID<br />
und Videosensoren – das sind die Produkte,<br />
die sich die Besucher der Vision,<br />
der internationalen Fachmesse für industrielle<br />
Bilderverarbeitung und Identifikationsverfahren,<br />
genauer ansehen<br />
möchten. Die Messe findet dieses Jahr<br />
vom 7.–9. November auf dem Stuttgarter<br />
Killesberg statt, die Veranstalter rechnen<br />
mit rund 200 Ausstellern und über 5.000<br />
Besuchern. Dort werden dieses Jahr, wie<br />
eine Pressemitteilung des Veranstalters<br />
Quick Info<br />
Messetermin 7.–9. November 2006<br />
Öffnungszeiten täglich 9–17 Uhr<br />
Eintrittspreise Tageskarte 19,00 €<br />
Veranstaltungsort Messe Stuttgart<br />
Veranstalter Stuttgarter MesseundKongressgesellschaft<br />
mbH<br />
MTQ 2006<br />
verriet, besonders viele Neuentwicklungen<br />
vorgestellt: So soll allein Basler Vision<br />
Technologies gleich mit 38 neuen<br />
Scout- und Pioneer-Kameramodellen <strong>im</strong><br />
Rahmen einer Europapremiere vorstellen.<br />
Auch die Leutron Vision AG, eigentlich<br />
ein Framegrabber-Hersteller, ist<br />
kürzlich in den Kameramarkt eingestiegen<br />
und präsentiert 28 parallel entwickelte<br />
Kameras. Sie alle werden erstmalig<br />
auf der Vision 2006 vorgestellt.<br />
Ebenfalls ein großes Thema auf der<br />
diesjährigen Vision werden Kameras mit<br />
bildvorverarbeitender Intelligenz und die<br />
Übertragung über Gigabit-Ethernet sein.<br />
Denn mit dem GigE-Interface, das seit<br />
Mai dieses Jahres als Standard verabschiedet<br />
ist, lassen sich Anwendungen<br />
mit langen Kabellängen und hohen Datenraten<br />
deutlich einfacher und wirtschaftlicher<br />
umsetzen, als es mit bishe-<br />
Fachmesse für Materialprüfung, Messtechnik & Qualitätsmanagement<br />
Welche neuen Methoden der Materialprüfung<br />
gibt es? Welche Messgeräte haben<br />
die Ingenieure weiterentwickelt? Wie<br />
kann ich mein Qualitätsmanagement verbessern?<br />
Wer Antworten auf diese Fragen<br />
sucht, wird auf der MTQ, der Fachmesse<br />
für Materialprüfung, Messtechnik<br />
und Qualitätsmanagement, fündig. Sie<br />
findet vom 14.–17. November bereits zum<br />
11. Mal in den Westfalenhallen Dortmund<br />
statt. Auf der Messe präsentiert sich das<br />
aktuelle Angebot an Produkten, Systemen<br />
und Komplett-Lösungen für die industrielle<br />
Qualitätssicherung. Die Hersteller<br />
von Koordinaten- Messmaschinen werden<br />
laut einem Pressebericht der Messe<br />
Dortmund auf der MTQ massiv Flagge<br />
zeigen, aber auch bedeutende Unternehmen<br />
aus anderen Bereichen wie Babtec,<br />
Böhme & Weihs, Studenroth werden<br />
10 Inspect 4/2006<br />
Quick Info<br />
durch Stände vertreten sein. Ingesamt<br />
haben swich 150 ausstellende Unternehmen<br />
angekündigt, die auf einer Bruttofläche<br />
von ca. 8.300 m² Neuentwicklungen<br />
und Produkte vorstellen.<br />
Die Messe Dortmund als Austragungsort<br />
der MTQ ist dabei günstig gewählt,<br />
denn die MTQ hat sich für Nordrhein-<br />
Westfalen zur bedeutenden Messe <strong>im</strong> Bereich<br />
der Messtechnik und Qualitätssicherung<br />
entwickelt. Das belegen auch<br />
die Zahlen, die bei einer Besucher- und<br />
Aussteller-Befragungen vor zwei Jahren<br />
nachgewiesen wurden. Damals kamen<br />
83,41 % der Fachbesucher direkt aus<br />
Nordrhein-Westfalen und stellten damit<br />
den mit Abstand größten Kreis. Sie<br />
stammten zum großen Teil, nämlich zu<br />
67 %, aus Industriebetrieben aller Größenordnungen,<br />
22,8 % kamen aus<br />
rigen Interfacetechnologien möglich war.<br />
Deswegen werden viele Kamera-Hersteller<br />
Modelle mit GigE-Schnittstelle auf der<br />
Messe vorstellen und Software präsentieren,<br />
die die schnelle Übertragung voll<br />
nutzt. Kameras mit bildvorverarbeitender<br />
Intelligenz, sog. Smart-Kameras,<br />
werden ebenfalls <strong>im</strong> Rampenlicht der<br />
Messe stehen. So wird bspw. die Vision<br />
Components GmbH mit einer ganzen<br />
Reihe neu entwickelter intelligenter Kamerasysteme<br />
auf der Vision vertreten<br />
sein.<br />
� Kontakt<br />
Stuttgarter Messe- und Kongressgesellschaft<br />
mbH, Stuttgart<br />
Tel.: 0711/2589-0<br />
Fax: 0711/2589-440<br />
info@messe-stuttgart.de<br />
www.messe-stuttgart.de<br />
Messetermin 14.–17. November 2006<br />
Öffnungszeiten Dienstag–Donnerstag 9–16 Uhr<br />
Eintrittspreise Tageskarte Erwachsene 18,00 €<br />
Tageskarte Ermäßigte (Schüler, Studenten und sonstige Berechtigte mit Ausweis) 12,00 €<br />
Veranstaltungsort Westfalenhallen Dortmund<br />
Veranstalter P.E. Schall GmbH<br />
kleineren Zuliefer- und Handwerksbetrieben.<br />
An erster Stelle für die Motivation,<br />
die MTQ in Dortmund zu besuchen,<br />
stand die Information über Weiter- und<br />
Neu-Entwicklungen (34,35 %), an zweiter<br />
der Wunsch, durch die Marktübersicht<br />
besser vergleichen und Investitions-<br />
Entscheidungen absichern zu können,<br />
und an dritter Stelle stehen konkrete<br />
Kaufabsichten. Damit fühlt sich die<br />
Messe bestätigt, dass die MTQ der ideale<br />
Ort für Geschäftsabschlüsse ist – und<br />
auch dieses Jahr wieder sein wird.<br />
� Kontakt<br />
P.E. Schall GmbH, Frickenhausen-Linsenhofen<br />
Tel.: 07261/689-0<br />
Fax: 07261/689-220<br />
info@schall-messen.de<br />
www.schall-messen.de
A K T U E L L<br />
St<strong>im</strong>men der Konferenzteilnehmer<br />
„Die EMVA Conference ist eine ausgezeichnete<br />
Kombination aus Business,<br />
Technologie und Networking. Schwer vorstellbar,<br />
dass jemand aus unserer Branche<br />
nicht davon profitieren könnte.“<br />
Jens Michael Carstensen, CTO, Videometer<br />
A/S, Dänemark<br />
„Northwire möchte die Präsenz <strong>im</strong> europäischen<br />
Markt ausbauen und wir hatten<br />
eine hohe Erwartungshaltung an die Konferenz<br />
in Tampere. Wir sind sehr zufrieden<br />
mit den Ergebnissen: Das Rahmenprogramm<br />
war gut organisiert, die Vorträge<br />
waren interessant, informativ und manchmal<br />
auch provokativ und die Networking<br />
Events waren gut geplant. Wir freuen uns<br />
auf die nächste Konferenz 2007 in Lyon.“<br />
Bud Brown, Director of New Business Development,<br />
Northwire Inc., U.S.A.<br />
„Die EMVA Conference 2006 bestätigte<br />
einmal mehr ihre Rolle als Networking<br />
Event Nr. 1 für unsere Branche in Europa.<br />
Die vorgestellten Business- und Technologiethemen<br />
waren äußerst wertvoll und<br />
lösten sehr lebendige Diskussionen aus.<br />
Bereichernd und absolut nützlich.“<br />
Dr. Dietmar Ley, CEO, Basler AG, Ahrensburg,<br />
Deutschland.<br />
„Ich war wirklich überrascht zu sehen,<br />
wie dynamisch die EMVA ist und wie<br />
schnell sie wächst. Der Zuwachs an Konferenzteilnehmern<br />
zeigt dies deutlich. Die<br />
Konferenz war sehr lebendig und gut organisiert.<br />
Sie war eine ausgezeichnete<br />
Möglichkeit für uns, mit anderen Experten<br />
aus diesem Bereich zu sprechen und zu<br />
verstehen, was die wichtigen Themen sind<br />
und wie unser Business in Zukunft aussehen<br />
wird. Was mich sehr beeindruckt<br />
hat, war, dass viele Mitglieder ein so<br />
großes Interesse am asiatischen Markt<br />
haben und an intensive Zusammenarbeit<br />
mit Verbänden in Asien denken. Das zeigte<br />
mir, dass das Thema Globalisierung eine<br />
zentrale Bedeutung für unsere Branche<br />
hat. Jedes Mal, wenn ich diese Konferenz<br />
besuche, fahre ich mit neuen Ideen und<br />
Denkanstössen nach Hause.“<br />
Hiroshi Takaoka, President & CEO, Toshiba<br />
Teli Corporation, Japan<br />
12 Inspect 4/2006<br />
So schön ist Finnland!<br />
EMVA Conference in Tampere bricht alle Rekorde<br />
In nur kurzer Zeit hat sich die jährliche<br />
Business-Conference des europäischen<br />
Bildverarbeitungsverbandes EMVA (Euro-<br />
pean Machine Vision Association) weltweit<br />
einen Namen gemacht. In der Branche<br />
genießt sie den Ruf eines „Events, das man<br />
nicht verpasst“. Nach Barcelona (2003),<br />
Budapest (2004) und Palermo (2005) fand<br />
die Konferenz dieses Jahr in Finnland statt:<br />
Am 30. Juni und 1. Juli trafen sich 150<br />
Entscheidungsträger und Experten der BV-<br />
Branche aus 17 Ländern in Tampere, einem<br />
der High-tech-Standorte Finnlands. Damit<br />
stieg die Anzahl der Teilnehmer um 50 % <strong>im</strong><br />
Vergleich zum Vorjahr. Auch sonst stehen<br />
die Weichen bei der noch jungen EMVA auf<br />
Wachstum: Im letzten Jahr wuchs die Mitgliederzahl<br />
um 25 % auf nun 79. Die Branche<br />
arbeitet international und braucht ein<br />
europäisches und internationales Networking-Event<br />
hoher Qualität. Das zeigt sich<br />
deutlich am Erfolg der EMVA und ihrer<br />
Business Conference.<br />
Die EMVA Conference 2006 fokussierte<br />
sich auf vier Themenbereiche: Bildverarbeitung<br />
in Finnland (Kernkompetenzen<br />
der Anbieter in Finnland), neue<br />
Technologien (z. B. neue 3D-Verfahren),<br />
Business-Trends (z. B. Patente als strategische<br />
Instrumente) und Märkte (Marktanalysen<br />
aus Japan und Nordamerika).<br />
Neben den Vorträgen ging es in Tampere<br />
aber <strong>im</strong>mer auch um das Knüpfen neuer<br />
Kontakte. Das Networking wird groß<br />
geschrieben und Pausen, Rahmenpro-<br />
gramm und Abendevents boten viele<br />
Möglichkeiten, miteinander ins Gespräch<br />
zu kommen: Auf einer Bootsfahrt nach<br />
Rosendahl, in der Mitternachtssonne auf<br />
der Hotelterrasse oder bei einer Erkundungstour<br />
durch Tampere und Umgebung.<br />
In der Mitgliederversammlung am<br />
zweiten Konferenztag wurden die Arbeitsschwerpunkte<br />
der EMVA vorgestellt<br />
und diskutiert, so bspw. die ersten Ergebnisse<br />
der neuen europäischen Marktbefragung<br />
Industrielle Bildverarbeitung,<br />
die Normungsarbeit der EMVA (GenICam<br />
und 1288 Standard) sowie Marketingangebote<br />
oder neue Aktivitäten <strong>im</strong> Bereich<br />
der europäischen Forschungsförderung.<br />
Die Mitglieder wählten turnusgemäß<br />
auch den Vorstand für die kommenden<br />
drei Jahre. Der Vorstand wurde einst<strong>im</strong>mig<br />
wieder gewählt und setzt sich weiterhin<br />
zusammen aus:<br />
�<br />
�<br />
�<br />
�<br />
�<br />
EMVA Präsidentin Gabriele Jansen<br />
EMVA Vizepräsident Mats Gökstorp<br />
(Sick IVP, Schweden)<br />
EMVA Schatzmeister Toni Ventura-<br />
Traveset (Datapixel, Spanien)<br />
Don Braggins (UKIVA, Großbritannien)<br />
Martin Wäny (AWAIBA, Portugal)<br />
Schließlich befanden die Mitglieder noch<br />
über den Veranstaltungsort für die<br />
nächste EMVA Conference: 2007 wird<br />
man sich in Lyon wieder sehen.<br />
� Kontakt<br />
EMVA European Machine Vision Association,<br />
Frankfurt<br />
Tel.: 069/6603-1466<br />
Fax: 069/6603-2466<br />
info@emva.org<br />
www.emva.org
Blicke streifen Form<br />
Quotienten-Bild Stereo: Streifenprojektion zur Formerfassung<br />
Was die Natur sich zur Tarnung des Zebras vor Tsetse-<br />
Fliegen ausgedacht hat, macht sich die Technik zur<br />
dreid<strong>im</strong>ensionalen Formerfassung zu Nutze<br />
Mehr ab Seite 14<br />
Vision<br />
Komponenten und technologien<br />
M A C H I N E V I S I O N • S U R F A C E I N S P E C T I O N • M I C R O S C O P Y<br />
Problemlöser mit leib<br />
und seele.<br />
VisionTools ist kein Unternehmen wie jedes andere<br />
– das würde kaum zur Persönlichkeit ihres<br />
Gründers passen. Denn Geschäftsführer Dr. Tropf<br />
setzt andere Maßstäbe als nur den rein kommerziellen<br />
Erfolg. Er versteht sein Unternehmen als<br />
eine Art technisch-gesellschaftlichen Organismus,<br />
der in ständiger Verantwortung steht – zu seinen<br />
Mitarbeitern, zum technischen Fortschritt, zur<br />
Industrie und zur gesamtgesellschaftlichen Entwicklung.<br />
Ein kooperatives Modell, von dessen<br />
Stärken die Mitarbeiter ebenso profitieren wie<br />
die Kunden. Dazu gehört auch, so Dr. Tropf, „dass<br />
bei uns kein Platz für Eigentümer ist, die die Firma<br />
ausschließlich als Mittel zur Geldgewinnung<br />
betrachten.“ Vielleicht ist dies der Grund dafür,<br />
dass dieses erfolgreiche Unternehmen nie eine<br />
Aktiengesellschaft wurde, nie die Berg- und Talfahrten<br />
des IT-Business mitmachen musste und<br />
nie seine unternehmerische Unabhängigkeit eingebüßt<br />
hat...<br />
Ganz gewiss aber liegt hierin die tiefere Ursache<br />
dafür, dass bei VisionTools noch <strong>im</strong>mer uneingeschränkt<br />
die einfache Max<strong>im</strong>e gelten darf: „An<br />
erster Stelle steht <strong>im</strong>mer die Problemlösung – das<br />
Geschäft entwickelt sich dann von selbst.“<br />
Und das Geschäft hat sich gut entwickelt seit<br />
der Gründung 1987. Heute sorgt ein hochmotiviertes<br />
Team von über 40 Mitarbeitern dafür,<br />
dass die weit über 1000 installierten Systeme<br />
opt<strong>im</strong>al funktionieren und die Kunden aus fast<br />
allen Branchen der produzierenden Industrie zufrieden<br />
sind.<br />
k o n t a k t<br />
VisionTools<br />
Bildanalyse Systeme GmbH<br />
Goethestr. 63<br />
68753 Waghäusel<br />
Tel.: 07254/9351-0<br />
Fax: 07254/9351-20<br />
info@vision-tools.com<br />
www.vision-tools.com<br />
Inspect 4/2006<br />
13
V i s i o n<br />
„Mr. Spock, schneller Scan der Oberfläche“<br />
Wenn die U.S.S. Enterprise Planeten<br />
oberflächen scannt, dauert es keine<br />
Sekunde, schon taucht auf dem Schirm des<br />
Wissenschaftsoffiziers eine dreid<strong>im</strong>ensio<br />
nale Karte des Planeten auf. Es sieht <strong>im</strong>mer<br />
so einfach aus: Das Raumschiff schwebt<br />
heran, Laserstrahlen tasten die unbekannte<br />
Oberfläche ab und schon zeigt ein Schirm<br />
ein dreid<strong>im</strong>ensionales Bild des Bodens mit<br />
jedem noch so kleinen Detail. Heutige<br />
Bildverarbeitungssysteme sind unspek<br />
takulärer, langsamer und ungenauer. Doch<br />
zumindest <strong>im</strong> Kleinen tastet man sich an<br />
die utopische Geschwindigkeit und Zu<br />
verlässigkeit des Sternenschiffs heran: Das<br />
QuotientenbildStereoVerfahren kann die<br />
Struktur von Oberflächen schneller und<br />
zuverlässiger erfassen als bisher. Wir<br />
stellen es vor.<br />
Abb. 1 + Abb. 2: Versetzen wir uns in die Lage eines Objektpunktes, der bei der ersten Bildaufnahme<br />
auf einem dunklen Streifen und bei der zweiten auf einem hellen Streifen liegt: Er „sieht“ jedes Mal<br />
die selbe Lichtquelle, also die selbe Verteilung in demselben Raumwinkel.<br />
Bei nach rechts geneigtem Objekt gelangt mehr reflektiertes Licht in die rechte Kamera als in die<br />
linke; dennoch ist für beide Kameras am Objektpunkt der Quotient der beiden Grauwerte exakt gleich.<br />
Dies gilt auch unabhängig von den Oberflächeneigenschaften.<br />
14 Inspect 4/2006<br />
Eindeutig besser<br />
Die Methode, die Dr. Hermann Tropf entwickelt<br />
hat, nennt er Quotientenbild-<br />
Stereo. Dabei handelt es sich um eine<br />
Weiterentwicklung der bisher eingesetzten<br />
Verfahren.<br />
Das Verfahren ist gegenüber bisher<br />
bekannter Technologie wesentlich unempfindlicher<br />
gegen verschiedene Oberflächeneigenschaften<br />
wie lokale Neigung,<br />
Rauheit, Bedruckung, Verschmutzung,<br />
Bearbeitungsspuren usw. Flächen unterschiedlicher<br />
Reflexionskeule werden mit<br />
dem neuen Sensor zuverlässig und<br />
schnell als Höhenbild erfasst.<br />
Quotientenbilder<br />
Das Verfahren arbeitet mit Stereokameras<br />
und einer Streifenlichtprojektion mit<br />
einem ganz speziellen Muster, das mit<br />
einem unkalibrierten Beamer projiziert<br />
wird. Es werden je Kamera genau zwei<br />
unterschiedlich beleuchtete Bilder aufgenommen,<br />
anschließend wird eine pixelweise<br />
Quotientenbildung beider Bilder<br />
vorgenommen. Das resultierende<br />
Quotientenbild ist per se völlig unabhängig<br />
von den Oberflächeneigenschaften<br />
des Objekts sowie der Richtung der<br />
Oberflächen-Normalen: Die Best<strong>im</strong>mung<br />
der korrespondierenden
Punkte (das Hauptproblem bei Stereoauswertung)<br />
wird dadurch ganz wesentlich<br />
erleichtert.<br />
Das spezielle Streifenmuster ist der<br />
Schlüssel der neuen Technik; dadurch<br />
wird eine zuverlässige Stereoauswertung<br />
mit nur zwei Bildaufnahmen realisiert;<br />
Bildserien, wie bei codiertem Licht erforderlich,<br />
entfallen. Durch die Quotientenbildung<br />
erreicht das System seine vergleichsweise<br />
bessere Unempfindlichkeit<br />
gegenüber verschiedenen Oberflächeneigenschaften<br />
wie lokale Neigung, Rauheit,<br />
Bedruckung etc. Es ist keinerlei mechanische<br />
Bewegung des Messsystems notwendig.<br />
Die Auflösung des Beamers ist<br />
unkritisch: „Er muss nicht so hoch auflösen<br />
wie die Kameras“, so Tropf.<br />
Abschattungsprobleme, wie sie bei<br />
Stereokameras grundsätzlich auftreten,<br />
können durch Verwendung von mehr als<br />
zwei Kameras unterbunden oder zumindest<br />
verringert werden. Natürlich können<br />
die vorhandenen Kameras auch zusätzlich<br />
zu diesen Verfahren für<br />
konventionelle Grauwert- oder Farbauswertung<br />
eingesetzt werden.<br />
Verformungen erkennen<br />
Zuverlässige Abstandsbilder,<br />
wie sie mit dem neuen<br />
Neues Verfahren für schnelle und robuste 3DAbtastung von Oberflächen<br />
Abb. 3 + 4: Objekt ohne und mit aufprojiziertem Streifenmuster Abb. 5: 3DDarstellung des Verarbeitungsergebnisses<br />
Verfahren gewonnen werden, sind<br />
grundsätzlich einfacher auszuwerten als<br />
Grauwertbilder – und für den Benutzer<br />
auch verständlicher in der Parametrierung:<br />
Die mitunter komplexen Zusammenhänge<br />
zwischen Beleuchtungsgeometrie,<br />
Abbildungsgeometrie und<br />
Reflexionseigenschaften brauchen mit<br />
dem neuen System vom Anwender nicht<br />
bedacht zu werden.<br />
Das Verfahren ist nicht nur für die<br />
klassischen Einsatzgebiete der Firma<br />
VisionTools geeignet, wie der Metall-<br />
oder Elektrogeräteindustrie; es bietet<br />
sich auch für eine Vielzahl alternativer<br />
Anwendungsfelder an wie Archäologie,<br />
Textilindustrie, Biometrie, Medizin oder<br />
Reverse Engineering. In der Textilindustrie<br />
kann bspw. unabhängig von<br />
Farbmustern ein Faltenschlag zuverlässig<br />
erkannt und bewertet werden.<br />
Jetzt müsste Dr. Tropf nur noch effektheischend<br />
einen roten Laser einbauen –<br />
und so wäre man vom Raumschiff nicht<br />
mehr weit entfernt.<br />
Andreas Grösslein<br />
� Kontakt<br />
VisionTools Bildanalyse systeme GmbH<br />
Tel.: 07254/9351-0<br />
Fax: 07254/9351-20<br />
info@vision-tools.com<br />
www.vision-tools.com<br />
V i s i o n<br />
Inspect 4/2006<br />
15
V i s i o n<br />
Grundlagen der Bildverarbeitung<br />
Morphologische Filter beeinflussen die<br />
Gestalt von Objekten in einem Bild. Sie<br />
können Strukturen herausarbeiten oder<br />
Störungen el<strong>im</strong>inieren. Oft wird die Form<br />
der Filtermaske gezielt auf die Problem-<br />
stellung abgest<strong>im</strong>mt. Am Beispiel von<br />
Rangordnungsfiltern erläutert dieser<br />
Artikel einige der grundsätzlichen Ideen<br />
der morphologischen Filterung und<br />
beschreibt die häufig verwendeten<br />
Operationen „Medianfilter“, „Erosion“,<br />
„Dilatation“, „Opening“ und „Closing“.<br />
Filter<br />
Morphologische Filter<br />
Filter sind Operatoren, die jedem Bildpunkt<br />
einen neuen Grauwert zuordnen.<br />
Aus dem Quellbild entsteht durch die Anwendung<br />
eines Filters („Filterung“) ein<br />
neues, gleich großes Bild. Filter berücksichtigen<br />
nicht nur den Grauwert des<br />
betreffenden Pixels, sondern auch die<br />
Grauwerte aus dessen Umgebung zur<br />
Berechnung des neuen Grauwerts. Filter<br />
können daher als „Nachbarschaftsoperationen“<br />
(<strong>im</strong> Gegensatz zu „Punktoperationen“)<br />
aufgefasst werden. Die relevante<br />
Umgebung wird durch eine Maske spezi<br />
fiziert, die mit ihrem Zentrum über den<br />
aktuell betrachteten Bildpunkt gelegt<br />
wird. Ein Filter wird daher durch zwei<br />
Definitionen best<strong>im</strong>mt: durch die Festlegung<br />
der Filtermaske und durch die<br />
Vorschrift, mit der aus den Grauwerten<br />
innerhalb der Maske der neue Grauwert<br />
des aktuell betrachteten Pixels berechnet<br />
wird. Die Masken werden oft auch<br />
als Strukturelemente bezeichnet.<br />
Als Beispiel zeigt Abbildung 1 die Filteroperation<br />
„Die Mehrheit gewinnt“.<br />
Stellen Sie sich als Quellbild ein Binärbild<br />
vor. Die Filtermaske soll ein Quadrat<br />
mit drei Pixeln Kantenlänge und dem ak<br />
� Abb. 1: Vier mögliche Umgebungskonfigurationen für das 3x3-Filter „Die Mehrheit gewinnt“. Das<br />
Zentralpixel ist mit einem Kreuz gekennzeichnet, rechts jeweils der neue Grauwert an dieser Stelle.<br />
16 Inspect 4/2006<br />
tuell betrachteten Pixel <strong>im</strong> Zentrum sein.<br />
Dies ist eine sog. „3x3Maske“. Die Maske<br />
wird jetzt so über das Bild gelegt, dass<br />
das Pixel, dessen neuer Grauwert berechnet<br />
werden soll, <strong>im</strong> Zentrum der<br />
Maske liegt. Der neue Grauwert wird best<strong>im</strong>mt,<br />
indem die Grauwerte der Pixel<br />
betrachtet werden, die innerhalb der<br />
Maske liegen. In diesem Beispiel soll der<br />
neue Grauwert derjenige Grauwert sein,<br />
der innerhalb der Maske am häufigsten<br />
vorkommt. Wenn also innerhalb der<br />
Maske nur ein einziges Pixel schwarz ist,<br />
wird <strong>im</strong> Ergebnisbild das Pixel <strong>im</strong> Zentrum<br />
der Maske auf Weiß gesetzt. Wenn<br />
nur ein einziges Pixel weiß ist, wird das<br />
Pixel <strong>im</strong> Zentrum der Maske auf Schwarz<br />
gesetzt. Wenn vier Pixel innerhalb der<br />
Maske weiß und fünf Pixel schwarz sind,<br />
wird das Ergebnispixel schwarz – und so<br />
weiter. Abbildung 1 zeigt einige der möglichen<br />
Konfigurationen.<br />
Bei der Anwendung der Filteroperation<br />
auf das ganze Bild werden nacheinander<br />
alle Pixel aus dem Quellbild von<br />
links nach rechts und von oben nach unten<br />
abgetastet. Man greift sich also ein<br />
Pixel aus dem Quellbild heraus, legt die<br />
Filtermaske so auf das Quellbild, dass<br />
das aktuell betrachtete Pixel <strong>im</strong> Zentrum<br />
der Maske liegt, berechnet den neuen<br />
Grauwert aus den Grauwerten der Pixel,<br />
die innerhalb der Maske liegen, und ord
net diesen Grauwert dem aktuell<br />
betrachteten Pixel zu –<br />
aber <strong>im</strong> Ergebnisbild! Be<strong>im</strong><br />
nächsten Schritt wird die Filtermaske<br />
über das nächste<br />
Pixel zentriert, das be<strong>im</strong> Abtasten<br />
des Quellbildes an der<br />
Reihe ist. Das vorher behandelte<br />
Pixel wird dann meist<br />
noch innerhalb der Filtermaske<br />
liegen und die Berechnung<br />
des neuen Grauwerts<br />
beeinflussen. Bei den meisten<br />
Filtern darf man daher nicht<br />
mit den bereits modifizierten<br />
Grauwerten rechnen, sondern<br />
muss die Grauwerte aus<br />
dem ursprünglichen Bild benutzen.<br />
Es ist deshalb sinnvoll,<br />
mit zwei völlig unabhängigen,<br />
gleich großen Bildern<br />
zu arbeiten, dem Quellbild<br />
und dem Zielbild. Das Ergebnis<br />
der Filteroperation wird<br />
dann <strong>im</strong> Zielbild abgelegt, das<br />
Quellbild bleibt völlig unangetastet.<br />
Die oben als Beispiel eingeführte<br />
Filteroperation „Die<br />
Mehrheit gewinnt“, angewandt<br />
auf ein Binärbild, el<strong>im</strong>iniert<br />
das sog. „Binärrauschen“, das<br />
sind kleine isolierte Gruppen<br />
von schwarzen Pixeln auf<br />
weißem Untergrund (oder umgekehrt).<br />
Das Binärrauschen<br />
wird oft auch als „Salz und<br />
PfefferRauschen“ bezeichnet.<br />
Übrigens verwendet man mit<br />
Vorliebe symmetrische Masken<br />
mit einer ungeraden Zahl<br />
von Pixeln. Dann ist unmittelbar<br />
<strong>klar</strong>, welches das zentrale<br />
Pixel ist, dem der neue Grauwert<br />
zugeordnet wird. Masken<br />
können jedoch grundsätzlich<br />
beliebige Größen und beliebige<br />
Formen haben. Bei asymmetrischen<br />
Masken muss aber<br />
explizit verabredet werden,<br />
welchem Pixel der neue Grauwert<br />
zugeordnet werden soll.<br />
Rangordnung<br />
Rangordnungsfilter selektieren<br />
Pixel. Die Pixel innerhalb<br />
der Filtermaske werden in<br />
eine Rangfolge gebracht, also<br />
geordnet, z. B. in eine aufsteigende<br />
Folge von Grauwerten.<br />
Nach einer definierten Vorschrift<br />
wird dann dem Zentralpixel<br />
der Maske <strong>im</strong> Ergebnisbild<br />
ein best<strong>im</strong>mter Grauwert<br />
aus der Rangfolge zugeordnet.<br />
Wir betrachten hier zunächst<br />
nur Binärbilder. Bei Binärbildern<br />
bestehen die Grauwerte<br />
nur aus „weiß“ und „schwarz“.<br />
Zur Vereinfachung wird hier<br />
„schwarz“ mit 0 und „weiß“<br />
mit 1 (statt mit 255) codiert.<br />
Ein Beispiel für ein Rangordnungsfilter<br />
ist das Medianfilter.<br />
Der Median einer Verteilung<br />
ist der Wert, für den<br />
genauso viele Elemente oberhalb<br />
wie unterhalb dieses<br />
Wertes liegen. Bei einem Medianfilter<br />
mit einer 3x3Filtermaske<br />
besteht die Grauwert<br />
Rangliste aus neun Elementen.<br />
Der Median ist dann der Grauwert<br />
des „mittleren“ Elements,<br />
hier also des fünften<br />
Elements in der Rangliste.<br />
Dieser Wert wird <strong>im</strong> Ergebnisbild<br />
dem zentralen Pixel<br />
unter der Filtermaske als Resultat<br />
der Filteroperation zugeordnet.<br />
In Abbildung 2 sind<br />
als Beispiele zwei mögliche<br />
Bildausschnitte für eine 3x3<br />
Filtermaske dargestellt. Im<br />
oberen Teilbild ist die aufsteigend<br />
nach Grauwerten geordnete<br />
Rangliste 001111111.<br />
Der Median dieser Verteilung<br />
ist hier der fünfte Wert, also<br />
V i s i o n<br />
1. Oberhalb dieses Wertes liegen<br />
vier Elemente, unterhalb<br />
ebenfalls vier. Im Ergebnisbild<br />
wird für das zentrale Pixel der<br />
Wert 1 abgespeichert. Im unteren<br />
Teilbild ist die Rangliste<br />
000 000111. Der Median ist<br />
der Wert 0.<br />
Bei genauerer Überlegung<br />
stellt man fest, dass das Medianfilter<br />
<strong>im</strong> Binärbild mit dem<br />
oben eingeführten Filter „Die<br />
Mehrheit gewinnt“ identisch<br />
ist. Der Median repräsentiert<br />
<strong>im</strong> Binärbild nämlich gerade<br />
den Grauwert, der in der<br />
Maske am häufigsten vertreten
V i s i o n<br />
� Abb. 2: Zwei mögliche Umgebungskonfigurationen<br />
für das 3x3-Filter-Medianfilter <strong>im</strong><br />
Binärbild. Für das obere Teilbild ist die aufsteigend<br />
geordnete Rangliste 001111111 mit<br />
Median 1, für das obere Teilbild 000000111<br />
mit Median 0.<br />
ist. Ein Medianfilter el<strong>im</strong>iniert Salz und<br />
PfefferRauschen, ohne die Umgebung wesentlich<br />
zu stören. Praktischerweise wirkt<br />
er sich bei einer quadratischen Filtermaske<br />
mit einer ungeraden Zahl von Elementen<br />
auf eine lang gestreckte binäre<br />
Kante überhaupt nicht aus. Generell lässt<br />
ein Medianfilter unter diesen Bedingungen<br />
die Position einer Kante unverändert. Die<br />
Ecken eines binären Objekts werden allerdings<br />
modifiziert.<br />
Min<strong>im</strong>um- und Max<strong>im</strong>umfilter<br />
Wenn die Rangliste einmal vorliegt, bieten<br />
sich auch andere Elemente als der<br />
Median als Ergebnis der Filteroperation<br />
an. Nahe liegend sind der erste und der<br />
letzte Vertreter der aufsteigend geordneten<br />
GrauwertRangliste. Die zugehörigen<br />
Filter sind das Min<strong>im</strong>umfilter und<br />
das Max<strong>im</strong>umfilter, die jeweils den kleinsten<br />
und größten Grauwert innerhalb der<br />
Maske als Ergebnis liefern. Andere Selektionsvorschriften<br />
sind denkbar und werden<br />
auch verwendet. Letztlich handelt es<br />
sich dabei <strong>im</strong>mer um die Auswertung<br />
eines lokalen Histogramms, denn die<br />
Rangfolge der Grauwerte innerhalb der<br />
Filtermaske kann man auch als Histogramm<br />
eines Bildausschnitts um das aktuelle<br />
betrachtete Pixel herum auffassen.<br />
Auch wenn die Rangordnungsfilter<br />
hier nur <strong>im</strong> Zusammenhang mit Binärbildern<br />
vorgestellt wurden, lässt sich das<br />
Konzept zwanglos auf Grauwertbilder<br />
übertragen. Auch dort gibt es innerhalb<br />
der Maske einen Median, einen größten<br />
und einen kleinsten Wert. Für den Vergleich<br />
„Die Mehrheit gewinnt“ gibt es <strong>im</strong><br />
Grauwertbild jedoch keine vernünftige<br />
Entsprechung: „Mehrheit“ ist ein binäres<br />
Konzept.<br />
18 Inspect 4/2006<br />
� Abb. 3: Bild eines Objekts, das in der Bewegung mit einer Interlaced-Kamera aufgenommen wurde.<br />
Das Bild wird zunächst binarisiert und anschließend zwe<strong>im</strong>al mit einer 3x3-Erosion bearbeitet<br />
(zweite Bildspalte). Die nachfolgende zwe<strong>im</strong>alige Dilatation mit demselben Strukturelement baut<br />
an der Umrandung wieder Fläche auf (dritte Bildspalte).<br />
Rangordnungsfilter sind übrigens mit<br />
erheblichem Rechenaufwand verbunden,<br />
weil ein Sortierverfahren erforderlich ist.<br />
Filter sind von vornherein bereits aufwändige<br />
Operationen, weil die lokale Umgebung<br />
für jedes Pixel neu berechnet und<br />
aus dem Bildspeicher ausgelesen werden<br />
muss. Anders als Grauwerttransformationen<br />
kann man Filteroperationen normalerweise<br />
nicht mit Lookuptables realisieren,<br />
sondern man muss jedes Pixel<br />
<strong>im</strong> Bild „besuchen“ und seine Umgebung<br />
anschauen. Man sollte daher sehr genau<br />
überlegen, bevor man ein 3x3Medianfilter<br />
durch ein 9x9Medianfilter ersetzt.<br />
Erosion und Dilatation<br />
Auch mit quadratischen Masken sind<br />
morphologische Filter sinnvoll. Die bekanntesten<br />
Beispiele sind die morphologischen<br />
Grundoperationen Dilatation<br />
und Erosion. Zur Erläuterung betrachten<br />
wir zunächst wieder ein Binärbild,<br />
diesmal mit weißen Objektpixeln auf<br />
schwarzem Untergrund.<br />
Das Max<strong>im</strong>umFilter, angewandt auf<br />
ein weißes Objekt <strong>im</strong> Binärbild, führt<br />
dazu, dass sich das Objekt an den Rändern<br />
ausdehnt, denn sobald schwarze Pixel<br />
innerhalb der Filtermaske liegen,<br />
wird das zentrale Pixel auf weiß gesetzt,<br />
solange auch nur ein einziges weißes Pixel<br />
vorhanden ist. Helle Bereiche dehnen<br />
sich also auf Kosten dunkler Bereiche<br />
aus. Das Max<strong>im</strong>umFilter wird deshalb<br />
in diesem Zusammenhang auch als Dilatationsfilter,<br />
die Filterwirkung als Dilatation<br />
(Dehnung) bezeichnet. Entsprechend<br />
sorgt das Min<strong>im</strong>umFilter <strong>im</strong> Binärbild<br />
dafür, dass weiße Bereiche an den Rändern<br />
abgetragen werden, die weißen Bereiche<br />
also zu Gunsten der schwarzen<br />
Bereiche schrumpfen. Für das Min<strong>im</strong>um<br />
Filter ist daher auch die Bezeichnung<br />
Erosionsfilter üblich, die Filterwirkung<br />
nennt man Erosion (Abtragung).<br />
Anstatt über Abtragung bzw. Dehnung<br />
des Objekts kann man Dilatation und Erosion<br />
auch unter dem Gesichtspunkt der<br />
Überdeckung von Objekt und Filtermaske<br />
betrachten. Die Dilatation setzt ein Pixel<br />
auf den Objektpixelwert, sobald irgendein<br />
Objektpixel innerhalb der Maske liegt.<br />
Das Objekt dehnt sich aus, aber außerdem<br />
werden kleine Lücken und Risse geschlossen.<br />
Auch ein einzelnes Objektpixel<br />
wächst auf die Größe der Maske an. Die<br />
Erosion setzt ein Pixel nur dann auf den<br />
Objektpixelwert, wenn die gesamte<br />
Maske <strong>im</strong> Objekt liegt. Das Objekt<br />
schrumpft, einzelne herausragende Pixel<br />
und „Haare“ werden abgeschliffen, vorhandene<br />
Löcher <strong>im</strong> Objekt wachsen, und<br />
dünne Verbindungen werden aufgebrochen.<br />
Objekte, die kleiner sind als die<br />
Maske, verschwinden vollständig.<br />
Umgekehrt wirkt bei schwarzen Objekten<br />
auf weißem Untergrund das Min<strong>im</strong>umfilter<br />
als Dilatation der schwarzen<br />
Objekte und das Max<strong>im</strong>umfilter als Erosionsfilter<br />
für die schwarzen Objekte. Bei<br />
einigen Bildverarbeitungsprogrammen<br />
kann man wählen, ob die schwarzen oder<br />
die weißen Bereiche als Objekt verstanden<br />
werden sollen. Vor Anwendung der<br />
Erosion oder Dilatation in einem fremden<br />
Programm sollte man deshalb prüfen,<br />
welche Konventionen dort für diese Filteroperationen<br />
verwendet werden.<br />
Opening und Closing<br />
Bei der Dilatation wächst das Objekt, bei<br />
der Erosion schrumpft es. Häufig ist die<br />
Fläche eines Objekts in der Bildverarbei
tung jedoch ein wichtiges Merkmal, und<br />
es ist sinnvoll, die Fläche durch eine Filteroperation<br />
möglichst wenig zu verändern.<br />
Deshalb liegt der Gedanke nahe,<br />
nach einer Dilatation eine Erosion mit<br />
dem gleichen Strukturelement durchzuführen.<br />
Dann wird das Objekt zunächst<br />
gedehnt, anschließend wieder geschrumpft,<br />
und man darf hoffen, dass<br />
sich am Ende die Fläche nur geringfügig<br />
geändert hat. Ein Beispiel zeigt Abbildung<br />
3.<br />
Ein solches Vorgehen ist durchaus<br />
sinnvoll. Wenn bspw. in einem hellen Objekt<br />
auf dunklem Grund einige Löcher<br />
vorhanden sind, die vor einer BlobAnalyse<br />
geschlossen werden sollen, kann zunächst<br />
eine Dilatation mit einer quadratischen<br />
Maske durchgeführt werden. Die<br />
Dilatation schließt alle Löcher, die kleiner<br />
sind als die Maske. Eine nachfolgende<br />
Erosion wird diese Löcher nicht<br />
wieder öffnen können, denn auf eine homogene<br />
weiße Fläche hat die Erosion<br />
keine Wirkung. Die Erosion wird lediglich<br />
dafür sorgen, dass <strong>im</strong> Randbereich<br />
der größte Teil der vorherigen Ausdehnung<br />
wieder abgetragen wird. Die Fläche<br />
des Objekts wird anschließend annähernd<br />
so groß sein wie vor der Filterung,<br />
die Löcher sind aber geschlossen. Die<br />
aufeinander folgende Ausführung von<br />
Dilatation und Erosion heißt daher auch<br />
Closing. Es ist allerdings keineswegs<br />
gleichgültig, ob man zuerst die Dilatation<br />
und dann die Erosion ausführt oder umgekehrt.<br />
Diese beiden Filter sind nämlich<br />
(genauso wie viele andere Filter) nicht<br />
kommutativ. Wenn man zuerst die Erosion<br />
ausführt, werden kleine Löcher weiter<br />
geöffnet, dünne Stege zwischen größeren<br />
dunklen Bereichen werden<br />
aufgebrochen, Haare werden abrasiert.<br />
Die entstehenden Löcher können dabei<br />
so groß werden, dass die Maske der<br />
nachfolgenden Dilatation sie nicht mehr<br />
vollständig überdeckt. Die Löcher und<br />
die Trennungen bleiben dann erhalten.<br />
Die Hintereinanderausführung von Erosion<br />
und Dilatation wird deshalb auch als<br />
Opening bezeichnet.<br />
Einfluss der Strukturelemente<br />
Die oben eingeführten einfachen morphologischen<br />
Operationen kann man<br />
auch mehrfach hintereinander, mit verschieden<br />
großen und mit komplex geformten<br />
Filtermasken durchführen. Es<br />
gibt eine Fülle morphologischer Methoden<br />
mit zum Teil überraschenden Wirkungen.<br />
Beispielsweise kann man auf<br />
dasselbe Bild eine 3x3Dilatation und<br />
eine 5x5Dilatataion anwenden und anschließend<br />
die beiden Bilder voneinander<br />
subtrahieren. Auf diese Weise wer<br />
V i s i o n<br />
� Abb. 4: Ein Strichcode, zunächst binarisiert<br />
(Teilbild 2), dann mit einer 3x15-Maske dilatiert<br />
und anschließend mit demselben Strukturelement<br />
erodiert. Die Maske ist an die<br />
Form der Balken angepasst, so dass die<br />
Filteroperationen deren Struktur herausarbeiten<br />
und Störungen unterdrücken.<br />
den die Kanten der Objekte <strong>im</strong> Bild<br />
herausgehoben. In einem Bild, in dem<br />
man die länglichen Striche eines Strichcodes<br />
herausarbeiten möchte, bietet sich<br />
eine Filterung mit einer Maske an, die<br />
dieselben Abmessungen hat wie die gesuchten<br />
Striche. Ein Beispiel zeigt Abbildung<br />
4. Anstelle von quadratischen Masken<br />
werden für Dilatation und Erosion<br />
oft Kreisscheiben als Strukturelemente<br />
eingesetzt, weil damit eine bessere Annäherung<br />
an die häufig gewünschte Isotropie<br />
der Filterung erreicht wird. Durch<br />
fortgesetzt angewandte Erosion kann ein<br />
Objekt bis auf eine zusammenhängende<br />
Kette mit einem Pixel Breite abgetragen,<br />
also skeletonisiert werden. Bei Aufnahmen<br />
mit inhomogener Beleuchtung kann<br />
man ein Hintergrundbild für die Shading<br />
Korrektur gewinnen, indem das Bild mit<br />
einer Maske erodiert wird, die an die Objekte<br />
<strong>im</strong> Vordergrund angepasst ist und<br />
diese zum Verschwinden bringt. Morphologische<br />
Bildverarbeitung ist ein interessantes<br />
Spezialgebiet der Bildverarbeitung,<br />
das in letzter Zeit stark an<br />
Bedeutung zugenommen hat. Eine Reihe<br />
von morphologischen Verfahren sind<br />
mittlerweile aufgrund der zur Zeit stetig<br />
und rapide zunehmenden Rechnerleistungen<br />
auch für industrielle Anwendungen<br />
handhabbar geworden.<br />
� Kontakt<br />
Prof. Dr. Christoph Heckenkamp<br />
Hochschule Darmstadt –<br />
University of Applied sciences<br />
studiengang optotechnik und Bildverarbeitung<br />
Tel.: 06151/16-8651<br />
Fax: 06151/16-8975<br />
heckenkamp@h-da.de<br />
www.fbmn.h-da.de<br />
Inspect 4/2006<br />
19
V i s i o n<br />
Noch lange kein altes Eisen<br />
Der technologische Wandel bei industriellen<br />
Bildaufnahmekomponenten setzt Framegrab-<br />
ber-Hersteller zunehmend unter Druck. Denn<br />
wirtschaftliche Gigabit-Ethernet-Kamerasys-<br />
teme sollen aufwändige Lösungen mit Frame-<br />
grabber-Karte ablösen. Doch keine Panik, die<br />
altbewährte Bildeinzugskarte wird auch wei-<br />
terhin ihre Nischen finden: Vor allem in High-<br />
end-Applikationen.<br />
Seit Mai diesen Jahres funkelt ein neuer<br />
Stern am H<strong>im</strong>mel der industriellen<br />
Bildverarbeitungswelt: Gigabit-Ethernet-<br />
Vision (GigE), ein neuer Schnittstellenstandard<br />
zur Bilddatenübertragung<br />
zwischen Kamera und Host. Die Protagonisten<br />
prognostizieren: Mit ihm lassen<br />
sich Anwendungen der industriellen Bildverarbeitung<br />
(IBV) wesentlich einfacher<br />
und wirtschaftlicher realisieren, als es<br />
bisherige Interfacetechnologien ermöglicht<br />
haben. Das hat einschneidende Konsequenzen<br />
für so manche Lösungsvariante,<br />
bei der bisher noch die altbewährte<br />
Bildeinzugskarte zum Einsatz kommt.<br />
Landet der Framegrabber dann endgültig<br />
<strong>im</strong> Abseits? Schließlich hat auch die aktuelle<br />
VDMA-Marktumfrage ergeben, dass<br />
der Anteil des Komponentenumsatzes bei<br />
Framegrabbern vom Jahr 2004 auf 2005<br />
von 15 auf 13 % zurückgegangen ist.<br />
Nischen in Highend-Applikationen<br />
„Der Framegrabber gehört keinesfalls<br />
zum alten Eisen“, konstatiert Meinrad<br />
S<strong>im</strong>nacher, Geschäftsführer der Leutron<br />
Vision, „denn Maschinen mit kurzen Zykluszeiten<br />
und hohen Echtzeitanforderungen<br />
benötigen die Zuverlässigkeit<br />
und die definierten Latenzzeiten, die nur<br />
der Framegrabber bieten kann.“<br />
CameraLink-Verbindungen erreichen<br />
<strong>im</strong>mer noch die höchsten Datenübertragungsraten.<br />
Für besonders hoch auflösende<br />
und schnelle Kameras sind die<br />
typischen Werte von 25–70 MB pro Sekunde<br />
der bitseriellen Standards wie USB<br />
20 Inspect 4/2006<br />
Mit Power-over-CameraLink übertrumpft der digitale den analogen Framegrabber<br />
2.0, FireWire, GigE nicht ausreichend.<br />
Be<strong>im</strong> Aussuchen einer opt<strong>im</strong>alen Lösungsvariante<br />
müssen zudem Kriterien<br />
wie Sicherheit, Verfügbarkeit, Robustheit,<br />
Flexibilität und schließlich der Preis<br />
unbedingt berücksichtigt werden. Während<br />
USB, Firewire und GigE Ableger aus<br />
der Konsumwelt darstellen, wurde die<br />
klassische Bilderfassungskarte speziell<br />
für die IBV gebaut und ist mit deren Bedürfnissen<br />
gewachsen. Sie ist jahrzehntelang<br />
erprobt und gilt bisher <strong>im</strong>mer noch<br />
als die sicherste Technologie für den Bildeinzug.<br />
Deshalb spiegelt die Bildverarbeitungspraxis,<br />
trotz des „digitalen Hypes“,<br />
noch ein ganz anderes Bild wider: „Den<br />
größeren Teil unseres Framegrabber-<br />
Umsatzes erzielen wir nach wie vor mit<br />
analogen Bilderfassungskarten, bei denen<br />
es aber kaum mehr Neuentwicklungen<br />
gibt. Die digitalen CL-Framegrabber<br />
haben wir allerdings in den letzten Jahren<br />
sukzessive technologisch weiterentwickelt“,<br />
erklärt S<strong>im</strong>nacher. Abgesehen<br />
von den Buswechseln PCI-, PCI-Express,<br />
PCI-X, kam vor allem die Anforderung<br />
dazu, Speicher und echtzeitfähige Synchronisationssequenzer<br />
einzubauen.<br />
„Das war notwendig“, begründet Mathias<br />
Leumann, CEO der Leutron Vision, „um<br />
die ständig steigende Eigendynamik von<br />
Intels Chipsätzen und die <strong>im</strong>mer weniger<br />
echtzeitfähigen Betriebssysteme abzukoppeln.“<br />
Das habe zur Folge gehabt,<br />
dass die Softwareseite stetig abgest<strong>im</strong>mt<br />
werden musste. Zur Entlastung des Hosts<br />
wurden einige bild-vorverarbeitende<br />
Funktionen wie Bayerdecoder, Shadow-<br />
Correction etc. in FPGAs <strong>im</strong>plementiert.<br />
„Letztlich hat auch die Unterstützung von<br />
komplexen, zeitkritischen Zeilenkamera-<br />
Anwendungen noch ein paar Gates <strong>im</strong><br />
FPGA verschlungen“, sagt Leumann.<br />
Digital übertrumpft analog<br />
Analoge Bildverarbeitungslösungen<br />
konnten sich bisher vor allem so eisern<br />
behaupten, weil sie Preisvorteile offerierten.<br />
„Inzwischen können wir aber<br />
auch eine digitale Lösung mit Framegrabber,<br />
PicSight-Kamera und Kabel<br />
zum gleichen Preis wie die analoge Variante<br />
anbieten, und zwar kostengünstiger<br />
als viele unserer Mitbewerber“, betont<br />
S<strong>im</strong>nacher. Das Zauberwort heißt<br />
hier Power-over-CameraLink (PoCL).<br />
Hier wird die Spannungsversorgung für
Power-over-CameraLink mit der Framegrabber<br />
Kamera-Kombination PicPort-Express/PicSight<br />
von Leutron Vision<br />
die Kamera vom Framegrabber über das<br />
CL-Kabel bereitgestellt. Man spart die<br />
Kosten für ein separates Netzteil oder<br />
ein zusätzliches Kabel. „Wir konnten uns<br />
zwar schon gut mit CL-Framegrabbern<br />
<strong>im</strong> Markt etablieren“, fährt S<strong>im</strong>nacher<br />
fort, „doch aufgrund eines Distributionsabkommens<br />
mit dem amerikanischen<br />
Kabelhersteller Components Express<br />
sind wir jetzt in der Lage, uns auch <strong>im</strong><br />
Preis besser zu positionieren. Deshalb<br />
rechnen wir damit, dass sich unsere Umsatzverteilung<br />
bereits in naher Zukunft<br />
zugunsten der digitalen Grabber verschieben<br />
wird.“ Leutron Vision ist einer<br />
der ersten Hersteller, der PoCL am Markt<br />
anbietet. Auf der Fachmesse Vision 2006<br />
<strong>im</strong> November werden erste Framegrabber-Produkte<br />
mit PoCL vorgestellt werden.<br />
Große Erfolge kann der CL-Grabber<br />
z. B. in Anwendungen mit Zeilenkameras<br />
vorweisen, weil Leutron Vision hier besondere<br />
technische Eigenschaften wie<br />
etwa den direkten Anschluss von Drehgebern<br />
mit Vorwärts-/Rückwertserkennung<br />
realisiert hat.<br />
Die Zukunft kann kommen!<br />
„Ich bin sicher“, schlussfolgert Leumann,<br />
„dass bei einem Großteil der IBV-<br />
Lösungen in Zukunft GigE-Kameras eingesetzt<br />
werden, der Framegrabber aber<br />
gleichzeitig in Highend-Applikationen<br />
mit hohen Datenraten wie in Diebondern<br />
und anderen Maschinen für die Halbleiterindustrie<br />
oder in der Medizintechnik<br />
seine Nischen finden wird.“ Damit ist<br />
die Stückzahl der Framegrabber jedoch<br />
auf dem Rückzug. Das bedeutet, dass ein<br />
Framegrabber-Hersteller heute und zukünftig<br />
nicht mehr vom klassischen Framegrabber-Geschäft<br />
allein leben kann.<br />
Das Schweizer Unternehmen Leutron<br />
mit 27 Jahren Erfahrung <strong>im</strong> Grabber-Geschäft<br />
hat sich rechtzeitig für die Zukunft<br />
gerüstet. „Um potentielle Umsatzverluste<br />
aufzufangen, haben wir bereits 1999 in<br />
einem ersten Schritt unsere Framegrabber-Technologie<br />
mit leistungsfähigen<br />
Intel-Pentium-Prozessoren zu kleinen,<br />
hochleistungsfähigen Visionsystemen<br />
V i s i o n<br />
Maschinen mit kurzen Zykluszeiten und hohen<br />
Echtzeitanforderungen benötigen die Zuverlässigkeit<br />
und die definierten Latenzzeiten, die nur<br />
der Framegrabber bieten kann.<br />
verschmolzen. Das war sozusagen eine<br />
Technologieerweiterung auf einer der<br />
beiden Interface-Seiten des Framegrabbers.<br />
Damit haben wir wertvolles<br />
Know-how über Embedded-Processing-<br />
Technologie gewonnen. Nun haben wir<br />
uns seit Ende 2005 auch noch der anderen<br />
Seite des Framegrabbers, der Kameraseite,<br />
zugewandt“, erzählt Leumann.<br />
So ist der eingefleischte Framegrabber-<br />
Hersteller mit einem beeindruckenden<br />
Portfolio von 28 unterschiedlichen Kameras<br />
auf den Markt geprescht. „Um heute<br />
gute Kameras für die IBV anbieten zu<br />
können, benötigt man wesentlich mehr<br />
Framegrabber- und Applikationswissen<br />
als Sensor-Know-how“, erklärt Leumann,<br />
denn die klassische Bildeinzugskarte sei<br />
vom PC in die Kamera gewandert.<br />
„Außerdem waren in der Vergangenheit<br />
<strong>im</strong>mer wir als Framegrabber-Hersteller<br />
der Ansprechpartner für den OEM- und<br />
Endanwender, wenn es technische Probleme<br />
mit den Kameras gab. Das hat dazu<br />
geführt, dass wir ein enormes Wissen<br />
über die Kameratechnik ansammeln<br />
konnten. Das ließen wir dann direkt in die<br />
Entwicklung unserer ersten Kameraserie<br />
PicSight einfließen. Ich finde, das ist uns<br />
auch sehr gut gelungen“, so Leumann abschließend.<br />
Bereits <strong>im</strong> letzten Jahr konnte<br />
das Unternehmen speziell mit Gigabit-<br />
Ethernet-Kameras technisch sehr anspruchsvolle<br />
Projekte mit Echtzeitanforderungen<br />
und teilweise 10 bis 20 Kameras<br />
in einem Netzwerk umsetzen.<br />
� Kontakt<br />
Dipl. Inf. Meinrad S<strong>im</strong>nacher<br />
Leutron Vision GmbH, Konstanz<br />
Tel.: 07531/5942-0<br />
Fax: 07531/5942-99<br />
ms<strong>im</strong>nacher@leutron.com<br />
www.leutron.com<br />
Inspect 4/2006<br />
21
V i s i o n<br />
Luchsaugen für die Bildverarbeitung<br />
Mehrd<strong>im</strong>ensionale Objektvermessung mit PMD-Sensorik<br />
„Zum Sehen geboren, zum Schauen bestellt….“ beginnt das Lied des<br />
Lynkeus von Johann Wolfgang von Goethe. Lynkeus, der Luchsäugige<br />
(von griech. lynx = „Luchs“), war in der griechischen Mythologie der<br />
Lotse der Argonauten. Er hatte so scharfe Augen, dass er durch Mau-<br />
ern blicken und ins Erdinnere schauen konnte. Die Luchsaugen für die<br />
Bildverarbeitung durchdringen feste Materie noch nicht, aber erfas-<br />
sen doch <strong>im</strong>merhin bereits <strong>im</strong> Pixel ihre räumliche D<strong>im</strong>ension. Dies<br />
wird ermöglicht durch Photomischdetektoren, kurz PMD genannt.<br />
Sie basieren auf dem “T<strong>im</strong>e-of-Flight” Prinzip und erstellen<br />
in Echtzeit ein vollständiges, räumliches Abbild ihrer Umgebung.<br />
Dabei werden Helligkeitswerte und Entfernung ohne<br />
komplexen oder rechenintensiven Aufwand direkt<br />
in jedem Pixel ermittelt.<br />
Abb. 1: Grauwert Helligkeitsabbildung mit 160 *<br />
120 Pixeln<br />
Klassische optisch empfindliche Sensoren<br />
detektieren Helligkeitsinformationen und<br />
liefern damit nur ein projiziertes Abbild<br />
der Umgebung, d. h. die räumliche Information<br />
geht verloren. PMD-Sensoren dagegen<br />
registrieren bzw. messen zusätzlich<br />
zum konventionellen Helligkeitsbild<br />
auch die räumliche Tiefe der betrachteten<br />
Szene. Ähnlich einem Laserradar best<strong>im</strong>mt<br />
ein PMD-Pixel die Entfernung<br />
über die Echolaufzeit eines ausgesendeten<br />
Lichtsignals zur Objektoberfläche<br />
(engl.: t<strong>im</strong>e-of-flight). Mehrere in einer<br />
Zeile oder Matrix angeordnete PMD-Pixel<br />
erlauben die parallele Messung mehrerer<br />
Bildpunkte und dadurch die Vermessung<br />
einer komplexen Szene.<br />
Dabei handelt es sich um ein aktives<br />
System, in welchem eine Beleuchtungs-<br />
22 Inspect 4/2006<br />
Abb. 2: Entfernungswerte werden farbcodiert<br />
dargestellt.<br />
einheit die zu vermessende Szene mit<br />
moduliertem Licht ausleuchtet. Das ausgesandte<br />
Licht wird von Objekten in der<br />
Szene reflektiert und gelangt mit einer<br />
entfernungsabhängigen Phasenverschiebung<br />
zurück zu einer Empfangseinheit<br />
mit PMD-Detektoren. Diese werden ebenfalls<br />
mit der Frequenz der Beleuchtungseinheit<br />
moduliert und in einem anschließenden<br />
Vergleichprozess zwischen dem<br />
Modulationssignal mit dem phasenverschobenen<br />
Lichtsignal aus der Szene erhält<br />
man pixelweise die Entfernung zu<br />
den zugehörigen Objektpunkten in der<br />
Szene.<br />
Diese „Smart-Pixel“ Sensoren eröffnen<br />
neue Wege und Möglichkeiten in den<br />
verschiedensten Industriezweigen. Zu<br />
Evaluierungs- und Forschungszwecken<br />
sind bereits seit einigen Jahren Kameras<br />
mit verschiedenen Auflösungen bei der<br />
PMDTec verfügbar. Ein erstes Produkt<br />
für den Bereich der Automatisierungstechnik,<br />
ein 1D Abstandsmesssystem basierend<br />
auf der PMD-Technologie, wurde<br />
bereits <strong>im</strong> vergangenen Jahr vorgestellt<br />
und wird von der ifm electronic gmbh<br />
erfolgreich vertrieben. Dieser Laserdistanzsensor<br />
dient zur mill<strong>im</strong>etergenauen<br />
Abstandsmessung bei Reichweiten<br />
von bis zu 10 m.<br />
Lynkeus Forschungsprojekt<br />
Auch wenn für viele Applikationen die<br />
laterale Auflösung heutiger PMD-<br />
Kameras völlig ausreichend ist, ergibt<br />
sich <strong>im</strong>mer wieder auch die Frage nach<br />
höher auflösenden PMD-Matrizen und<br />
der Fremdlichtstabilität der Systeme.<br />
Diese Entwicklungen hin zu hochauflösenden<br />
PMD-Kameras werden u. a. durch<br />
Förderprojekte unterstützt. In dem Projektvorhaben<br />
Lynkeus, das durch das<br />
Bundesministerium für Bildung und Forschung<br />
(BMBF) gefördert wird, sollen intelligente<br />
3D-Kamerasysteme für den<br />
Bereich der autonomen und mobilen Robotik<br />
entwickelt werden. Das Projekt umfasst<br />
ein Gesamtvolumen in Höhe von<br />
12 Mio. €, wobei etwa 60 % von den<br />
beteiligten Industriepartnern finanziert<br />
werden. Das Projekt hat eine Laufzeit<br />
von drei Jahren und die Zielsetzung, die
PMD-Technologie auf eine breitere industrielle<br />
Basis zu stellen und damit den<br />
Einzug in neue Anwendungsbereiche<br />
voranzutreiben. Geplant ist die Entwicklung<br />
von mikrointegrierten intelligenten<br />
PMD-Kamerasystemen für Robotersysteme,<br />
für autonome Fahrzeuge und für<br />
die Mensch-Maschine Interaktion. Über<br />
eine Erweiterung des spektralen Funktionsbereiches<br />
der PMD Technologie in<br />
den Terahertz (THz) Frequenzbereich<br />
sollen zusätzlich die Anwendungsgebiete<br />
Sicherheitstechnik und Qualitätskontrolle<br />
anvisiert werden. Vielfältige Aktivitäten<br />
sind hierzu notwendig, von der Weiterentwicklung<br />
der<br />
PMD-<br />
Kameratechnologie<br />
an sich, über die Entwicklung von<br />
3D-Bildverarbeitungssoftware zur automatischen<br />
Erkennung von Objekten und<br />
zur autonomen Navigation, bis hin zur<br />
Modularisierung, Normung und Sicherheitszertifizierung.<br />
Insgesamt 15 Projektpartner<br />
aus Forschung und Industrie<br />
begleiten dieses Vorhaben. Die Breite der<br />
notwendigen Aktivitäten erklärt die<br />
große Zahl an Partnern <strong>im</strong> Projekt, um<br />
alle Kompetenzen zu bündeln, die notwendig<br />
sind, um diese Entwicklung effektiv<br />
umzusetzen.<br />
Griff-in-die-Kiste und Mensch-Roboter-<br />
Kooperation<br />
Die Aufgaben Griff-in-die-Kiste, also die<br />
Aufnahme chaotisch gelagerter Teile<br />
durch einen Roboter, und sichere<br />
Mensch-Roboter-Kooperation sind Problemstellungen,<br />
die exemplarisch sind<br />
für Einsatzgebiete von PMD-Sensorsystemen<br />
innerhalb der Robotik. Die<br />
Handhabung von Teilen, bzw. die dazu<br />
notwendige Positions- und Lagebest<strong>im</strong>mung,<br />
kann durch den Einsatz der PMD-<br />
Technologie effizient und universell<br />
durchgeführt werden, wobei gerade die<br />
hohe Bildwiederholrate der Systeme den<br />
Anforderungen der Automatisierungsbranche<br />
entgegenkommt. Kostspielige<br />
Zuführeinrichtungen, die ohne den Einsatz<br />
von 3D-Technik notwendig sind,<br />
können somit entfallen.<br />
Zusätzliche Herausforderungen entstehen,<br />
wenn bewegte Teile verfolgt und<br />
gegriffen werden sollen, bspw. be<strong>im</strong><br />
Teiletransport durch Förderbänder mit<br />
variierender Geschwindigkeit. Hierbei<br />
liefert das PMD-System die notwendigen<br />
3D-Informationen, um die Robotertrajektorie<br />
in Echtzeit korrigieren zu können<br />
und so ein sicheres Handhaben der<br />
Teile zu gewährleisten.<br />
Die Automatisierung mit Robotern ist<br />
mittlerweile an einem Punkt angelangt,<br />
bei dem für viele Anwendungen die Kooperation<br />
von Mensch und Roboter in<br />
einem gemeinsamen Arbeitsraum wünschenswert<br />
ist. Dem steht aber<br />
die Gefahr von Verletzungen<br />
des Menschen durch den<br />
Roboter entgegen. Sichere<br />
Roboter in Zusammenarbeit<br />
mit PMD-Sensoren,<br />
welche Mensch<br />
und Werkstück zuverlässig und schnell<br />
erkennen, sind eine gute Basis für eine<br />
flexible Mensch-Roboter-Kooperation<br />
ohne trennende Schutzeinrichtungen.<br />
Dabei muss jedoch die Zuverlässigkeit <strong>im</strong><br />
Sinne eines personensicheren Betriebs<br />
wesentlich höheren Ansprüchen genügen<br />
als bei einer reinen Materialhandhabung.<br />
Autonome mobile Systeme<br />
Fahrerlose Transportfahrzeuge fahren<br />
überwiegend innerhalb von Gebäuden<br />
auf Routen, die durch Referenzmarken<br />
wie z. B. Leitdrähte oder Reflektoren festgelegt<br />
sind. Zunehmend wird allerdings<br />
das autonome Navigieren <strong>im</strong> Außenbereich<br />
für die Mobil- und Servicerobotik<br />
gefordert. Dabei sollen die Fahrzeuge<br />
möglichst mit natürlichen Landmarken<br />
auskommen und darüber hinaus auf Hindernisse<br />
reagieren können. Eine hohe<br />
Störfestigkeit gegenüber Sonnenlicht,<br />
Schnee und anderen Witterungseinflüssen<br />
ist hier ein absolutes Muss. Durch die<br />
direkte 3D-Erfassung, kombiniert mit<br />
einer hohen Hintergrundlichtunterdrückung,<br />
ist die PMD-Technologie eine<br />
sehr gute Wahl, um in Kombination mit<br />
anderen Sensoren zuverlässig zu navigieren.<br />
Mit der Fusion von 2D- und 3D-<br />
Datensätzen oder auch der Verwendung<br />
mehrerer mit Abstand zueinander angeordneter<br />
PMD-Sensoren zur „Hinterleuchtung“<br />
von Objekten kann die Quali-<br />
Abb. 3: Roboter mit PMD-Kamera; Quelle : IPR,<br />
Uni Karlsruhe<br />
tät der räumlichen Darstellung verbessert<br />
und damit die Zuverlässigkeit des Gesamtsystems<br />
erhöht werden.<br />
Die vielfältigen<br />
Anwendungsgebiete<br />
dieser neuen<br />
Technologie lassen<br />
erwarten, dass<br />
es den PMD-Sensoren<br />
nicht so ergehen wird wie Lynkeus. Der<br />
wurde <strong>im</strong> Kampf mit den Diaskuren getötet.<br />
Es ging um Frauen.<br />
� Kontakt<br />
Dipl.-Ing. (FH)<br />
Bianca Hagebeuker<br />
PMD Technologies GmbH, siegen<br />
Tel.: 0271/238538-818<br />
Fax: 0271/238538-809<br />
b.hagebeuker@PMDTec.com<br />
www.PMDTec.com<br />
V i s i o n<br />
Inspect 4/2006<br />
23
V i s i o n<br />
Wie wär´s mit unserer Suite?<br />
Sie möchten auch in Zukunft die Vorteile<br />
der berührungslosen, optischen Prüfung für<br />
sich nutzen, aber gleichzeitig keine eigenen<br />
Ressourcen für die langwierige Entwicklung<br />
und aufwändige Pflege der Algorithmen<br />
bereitstellen? Mit dem Vision Development<br />
Module von National Instruments erweitern<br />
Sie Ihre Entwicklungsumgebung um zahl-<br />
reiche Algorithmen für die Bildverarbeitung.<br />
Der Funktionsumfang erstreckt sich auf<br />
die Vorverarbeitung, Skalierung, Kalibrierung,<br />
Merkmalsextraktion, Segmentierung,<br />
Klassifizierung, Geometrie, das<br />
Lesen von 7SegmentAnzeigen, Barcode,<br />
DataMatrixCode und Klarschrift,<br />
die Datensicherung und Visualisierung.<br />
Daraus erschließen sich Anwendungs<br />
24 Inspect 4/2006<br />
Erweiterte Softwaresuite für die Bildverarbeitung<br />
möglichkeiten bspw. in den Bereichen<br />
Identifikation, Verifikation, Sortierung,<br />
Vollständigkeitskontrolle, Oberflächeninspektion,<br />
Positionierung und Prüfen<br />
auf Maßhaltigkeit.<br />
Das NI Vision 8.2 Development Module<br />
umfasst drei Komponenten: Neben<br />
BVAlgorithmen für die Entwicklungsumgebung<br />
setzt es sich noch aus der<br />
Software NI Vision Acquisition und dem<br />
NI Vision Assistant zusammen. Mit der<br />
VisionAcquisitionSoftware können Kamerabilder<br />
über den NIFramegrabber<br />
oder von IEE1394a, IEE1394b oder<br />
GigEKameras erfasst werden. Nach der<br />
Installation des Treibers für die Bilddatenerfassung<br />
stehen zahlreiche Beispiele<br />
und ein ausgereiftes API (Application<br />
Program Interface) in den gängigsten<br />
Programmiersprachen zur Verfügung.<br />
Der Vision Assistant ist besonders für<br />
Entwickler ein hilfreiches, konfigurierbares<br />
PrototypingTool, mit dem offline<br />
nach einer geeigneten Verfahrensstrate<br />
gie für die Analyse gesucht werden kann.<br />
Dadurch muss nicht jeder Ideenansatz<br />
programmatisch umgesetzt werden –<br />
somit reduzieren sich die Entwicklungszeiten<br />
auf ein Min<strong>im</strong>um.<br />
Neue Features<br />
Neu <strong>im</strong> NI Vision 8.2 Development Module<br />
sind:<br />
� Die Algorithmen zum Lesen von Data<br />
MatrixCode wurden sowohl hinsicht
Mit dem Algorithmus „Golden<br />
Template Comparison“ können Sie<br />
Etiketten und Symbole auf Defekte<br />
überprüfen.<br />
�<br />
�<br />
lich der Leistung als auch<br />
der Genauigkeit opt<strong>im</strong>iert.<br />
Des Weiteren eignen sie<br />
sich nicht nur für die Identifikation,<br />
sondern auch<br />
zur Verifikation nach ISO<br />
16022 (AIM). Die Software<br />
kann während des eigentlichen<br />
Lesevorgangs zudem<br />
gleichzeitig die Qualität<br />
des Barcodes überprüfen<br />
und klassifizieren.<br />
Dadurch erhält man bspw.<br />
Aufschluss darüber, wie<br />
groß der Verschleiß der<br />
Maschine ist, die den Aufdruck<br />
des 2DBarcodes<br />
vorn<strong>im</strong>mt.<br />
Die geometrische Mustersuche<br />
wurde opt<strong>im</strong>iert und<br />
unterstützt nun die gleichzeitige<br />
Suche nach verschiedenen,<br />
<strong>im</strong> Vorfeld eingelernten<br />
Mustern mit<br />
einer einzelnen Suchfunktion<br />
(Multiple Template<br />
Matching). Zu den zahlreichenAusgangsparametern<br />
gehört auch der dem<br />
Prüflingstypen vom Entwickler<br />
zugewiesene<br />
Name. Damit ist der Prüfling<br />
bereits direkt nach der<br />
Erkennung klassifiziert<br />
und lässt sich <strong>im</strong> Anschluss<br />
ohne weiteren Aufwand<br />
sortieren.<br />
Das Golden Template Matching<br />
vergleicht die Pixel<br />
Intensitäten des zu untersuchenden<br />
Bildes mit<br />
denen eines Referenzmusters.<br />
Lagetoleranzen<br />
bei der Zuführung, perspektivische<br />
Verzerrungen und<br />
Beleuchtungsschwankungen<br />
werden in der Auswertung<br />
berücksichtigt. Der<br />
Algorithmus eignet sich<br />
z. B. zur Prüfung von Etiketten<br />
oder Symbolen auf<br />
�<br />
�<br />
�<br />
�<br />
�<br />
V i s i o n<br />
Kratzer, Risse oder Fehldrucke.<br />
OCV (Optical Character Verification)<br />
ist der Verifikationsteil<br />
der Lesefunktion<br />
für Schriftsätze. Mit OCV<br />
erhält der Anwender eine<br />
Qualitätsinformation des<br />
aufgebrachten Schriftzeichens.<br />
Wird ein Schwellwert<br />
unterschritten,<br />
könnte dies ein Indiz für<br />
einen Mangel bei der Beschriftungseinheit<br />
sein und<br />
bspw. auf eine leere Druckerpatrone<br />
oder einen<br />
defekten Laser hinweisen.<br />
Der Funktionsumfang zum<br />
Speichern von Bildern<br />
wurde um den Datentyp<br />
JPEG 2000 erweitert.<br />
Mit dem Algorithmus<br />
„Detect Shapes“ werden<br />
die Positionen geometrischer<br />
Objekte lokalisiert.<br />
Die Funktion erkennt<br />
Linien, Rechtecke, Kreise<br />
oder Ellipsen, deren Eigenschaften<br />
sich innerhalb<br />
der gewünschten Toleranzen<br />
befinden.<br />
Local Adaptive Threshold<br />
binarisiert ein Bild in Abhängigkeit<br />
von der gewählten<br />
Methode. Das Besondere<br />
daran ist, dass der<br />
Algorithmus bei der Binarisierung<br />
nicht das ganze<br />
Bild mit demselben, sondern<br />
mit verschiedenen<br />
Schwellwerten bearbeitet.<br />
Der Algorithmus kann sehr<br />
nützlich sein, wenn Prüfling<br />
oder der Systemaufbau<br />
nicht für homogene<br />
Bilder garantieren können.<br />
Die Wasserscheidentransformation<br />
(Watershed<br />
Transform) wurde als<br />
weiterer Algorithmus für<br />
die Objektsegmentierung<br />
integriert.<br />
Eine kostenlose Evaluierungsversion<br />
des Vision 8.2 Development<br />
Module zum Herunterladen<br />
finden Sie auf www.<br />
ni.com/vision/vdm.htm.<br />
� Kontakt<br />
national instruments GmbH,<br />
München<br />
Tel.: 089/7413130<br />
Fax: 089/7146035<br />
info.germany@ni.com<br />
www.ni.com
V i s i o n<br />
Interface Race<br />
Wieder einmal treten eine neue Schnitt-<br />
stelle und ein neuer Standard an, um das<br />
Interfacing zwischen Kamera und Host-PC<br />
zu vereinfachen: Gigabit Ethernet für Ma-<br />
chine Vision, oder kurz GigE Vision. Wird<br />
dieser neue Standard das Rennen machen ?<br />
Entwicklung von Kamerainterfaces<br />
Für analoge Kameras und auch die digitalen<br />
Kameras mit klassischer paralleler<br />
Schnittstelle (RS-422, LVDS) <strong>im</strong>plementierte<br />
bislang jeder Hersteller sein eigenes<br />
Design – ein Wechsel eingesetzter<br />
Komponenten war nur mit hohem Aufwand<br />
möglich, da kein Gerät wirklich<br />
austauschbar war. Mit CameraLink hatten<br />
die Branchenvertreter der Bildverarbeitung<br />
erstmalig eine einheitliche Kameraschnittstelle<br />
definiert. Vieles wurde<br />
dadurch vereinfacht: CameraLink stellt<br />
sicher, dass CameraLink konforme Geräte<br />
(Kamera, Framegrabber) kompatibel<br />
sind. Nicht vereinheitlicht wurde allerdings<br />
(mit Ausnahme der seriellen<br />
Schnittstelle) das Softwareinterface. Da<br />
jede Kamera unterschiedliche Features<br />
aufweist und mit unterschiedlichen Kommandos<br />
zu parametrisieren ist, kann<br />
eine bestehende CameraLink Applikation<br />
nicht ohne Portierungsaufwand auf neue<br />
Hardware umgestellt werden.<br />
Einen Schritt weiter geht die DCAM<br />
Spezifikation für Firewire-Kameras.<br />
Neben der Hardwareschnittstelle ist hier<br />
auch die Kamerafunktionalität und die<br />
zugehörige Softwareschnittstelle mehr<br />
oder minder fest definiert. Allerdings hat<br />
beinahe jeder Hersteller das Interface<br />
leicht unterschiedlich <strong>im</strong>plementiert.<br />
Dies führt dazu, dass bis heute jeder<br />
Kamerahersteller sein eigenes SDK (Software<br />
Development Kit) zu den Kameras<br />
mitliefert. Generelle und kameraunabhängige<br />
SDKs gibt es nur wenige (z. B.<br />
Matrox Imaging Library).<br />
GigE Vision – der neue Herausforderer<br />
Das Ziel der internationalen GigE Vision<br />
Standardisierungsbestrebung ist es, ei-<br />
26 Inspect 4/2006<br />
nen herstellerunabhängigen Hard- und<br />
Softwarestandard zu schaffen, der die<br />
Gerätesteuerung und Datenübertragung<br />
zwischen Kamera und Host-PC definiert.<br />
Als Kommunikationsinterface basiert<br />
GigE Vision auf der Ethernet-Technologie.<br />
Obwohl der Name die Verwendung<br />
des Giga-Ethernets nahe legt, kann GigE<br />
Vision für jede Ausbaustufe von Ethernet<br />
(10 Mbit, 100 Mbit, 1Gbit und künftig<br />
sogar 10 Gbit) <strong>im</strong>plementiert werden.<br />
Mit einem Übertragungsvolumen von<br />
derzeit ca. 100 MB/s bietet GigE Vision<br />
ausreichend Bandbreite für viele Anwendungen.<br />
Darüber hinaus bietet die<br />
Ethernet-Technologie einige interessante<br />
Vorteile: Kabelstrecken bis 100 Meter<br />
ohne die Verwendung von Repeatern/<br />
Hubs, die Verwendung äußerst kostengünstiger<br />
Standard-Infrastruktur (z. B.<br />
CAT5e/CAT6/CAT7-Netzwerkleitungen),<br />
zahlreiche Möglichkeiten der Infrastruktur-Topologie<br />
und vielfältige Ethernet-<br />
Transportmedien (z. B. Ethernet-over-<br />
Fiber).<br />
GigE Vision definiert in vier Teilen<br />
vollständig die Kommunikation und Datenübertragung<br />
einer GigE Vision Kamera<br />
mit einer Netzwerkkarte. Nach der<br />
Geräte-Erkennung (GigE Device Discovery<br />
and Enumeration) kennt die steuernde<br />
Host-Applikation alle <strong>im</strong> Netzwerk<br />
angeschlossenen Kameras und ist bereit,<br />
jedem Gerät Steuer-Kommandos zu senden<br />
und Daten zu empfangen.<br />
Gigabit Ethernet für Machine Vision<br />
GVCP (GigE Vision Control Protocol)<br />
regelt, wie die Applikation das Netzwerkgerät<br />
steuert und sog. Stream-Channels<br />
zur Datenübertragung aufbaut. Darüber<br />
hinaus wird festgelegt, wie die Kamera<br />
Events an die Applikation zurück sendet,<br />
um best<strong>im</strong>mte Ereignisse zu signalisieren.<br />
Es ist zwar nur einer einzigen Applikation<br />
<strong>im</strong> Netzwerk erlaubt, die Kamera<br />
zu steuern, es ist aber möglich, dass<br />
mehrere Anwendungen gleichzeitig Daten<br />
von der Kamera empfangen.<br />
Abb. 1: Gigabit<br />
Ethernet für Machine<br />
Vision von Rauscher
Auch der Datentransfer basiert auf<br />
dem UDP Transport-Protokoll. GVSP, das<br />
GigE Vision Streaming Protocol, ist zuständig<br />
für den Empfang der Bilddaten,<br />
Bildinformationen und anderer Informationen<br />
von der Kamera an die Anwendung.<br />
Neben der reinen Datenübertragung<br />
regelt GigE Vision auch das<br />
Umsetzen der internen Kameraregister<br />
und -features in eine für alle Hersteller<br />
einheitliche Softwareschnittstelle verbindlich.<br />
Wesentlicher Bestandteil ist der<br />
von der EMVA (European Machine Vision<br />
Association) geführte Standard GenICam<br />
(Generic Interface for Cameras). Dieser<br />
regelt, wie alle Kamerafeatures über<br />
eine kameraspezifische XML-Datei einheitlich<br />
angesprochen werden, so dass<br />
volle Softwarekompatibilität untereinander<br />
gewährleistet ist.<br />
Komponenten für die Praxis<br />
Da GigE Vision erst Mitte dieses Jahres<br />
endgültig verabschiedet wurde, sollen<br />
die wichtigsten Hardware- und Softwarekomponenten<br />
kurz vorgestellt werden,<br />
die für eine stabile Bildverarbeitungs-<br />
Anwendung auf Basis von GigE Vision<br />
empfohlen werden.<br />
Hardware für GigE Vision<br />
Der Vollständigkeit halber sollen zunächst<br />
die schon länger verfügbaren<br />
CameraLink nach Gigabit Ethernet Umsetzer<br />
erwähnt werden. Zumeist ist in<br />
diesen Geräten die Technologie des Herstellers<br />
Pleora <strong>im</strong>plementiert (z. B. in<br />
DALSA Netlink). So wird beinahe jede<br />
beliebige CameraLink Kamera auf<br />
Gigabit Ethernet umgesetzt und kann die<br />
Vorteile der Ethernet Technologie nutzen.<br />
Zu beachten ist, dass die Datenübertragung<br />
nicht zu 100 % GigE Vision entspricht.<br />
Echte GigE Vision Flächenkameras<br />
werden zurzeit <strong>im</strong>mer besser verfügbar.<br />
So bietet Prosilica z. B. bereits heute ein<br />
großes Spektrum an CCD und CMOS<br />
Kameras. Alle gängigen Auflösungen von<br />
640 x 480 bis hin zu 2048 x 2048 Pixel in<br />
monochrom und Farbe und mit Bildwiederholraten<br />
von bis zu 200 fps sind lieferbar.<br />
GigE Vision ist allerdings nicht<br />
auf Area-Scan beschränkt, auch Zeilenkameras<br />
nutzen bereits heute die Vorteile<br />
dieses Interface. So stellt die neue<br />
DALSA Spyder3 GigE Zeilenkamera einen<br />
großen Technologiesprung dar: Ein<br />
vollständig neu entwickelter Zeilensensor<br />
mit zwei Pixelreihen verdreifacht die<br />
Empfindlichkeit der gängigen Sypder2<br />
Kameraserie. Mit 1024 bzw. 2048 Pixeln/<br />
Zeile Auflösung und max<strong>im</strong>alen Zeilenraten<br />
von bis zu 68 kHz wird das GigE<br />
Vision Interface voll ausgenutzt. Alle<br />
gängigen Trigger- und Exposuremodi<br />
(externe Zeilensynchronisation, Belichtungskontrolle,<br />
etc.) sind natürlich auch<br />
ohne Framegrabber auf dieser Kamera<br />
realisierbar.<br />
Für eine stabile Übertragungskette ist<br />
natürlich die Empfangsseite genauso<br />
wichtig. Da die Basistechnologie Ethernet<br />
stark vom Consumermarkt geprägt<br />
ist und damit kurze Produktzyklus-, Produkt-Lebenszeiten<br />
und oft auch ungewisse<br />
Produktverfügbarkeit einhergeht,<br />
sind nicht alle Netzwerkkarten für den<br />
industriellen Einsatz von GigE Vision<br />
tauglich. Bewährt und von vielen Herstellern<br />
empfohlen werden Netzwerkkarten<br />
auf Basis des Intel 82541PI Chipsatzes,<br />
die (aufgrund der Herkunft aus<br />
dem Servermarkt) die Host-CPU zum Dateneinzug<br />
nur min<strong>im</strong>al belasten.<br />
Obwohl mit GigE Vision der Trend von<br />
spezialisierter Hardware weggeht, wird<br />
auf der Vision in Stuttgart dieses Jahr ein<br />
hochinteressantes Spezialboard von Matrox<br />
für GigE Vision vorgestellt. Es ist<br />
weit mehr als eine Gigabit Ethernet Netzwerkkarte<br />
– aber dennoch kein Framegrabber.<br />
Es bietet genau die Intelligenz<br />
und Funktionen, die Framegrabber für<br />
Analog- und CameraLink Kameras haben,<br />
einer Netzwerkkarte jedoch vollständig<br />
fehlen – und ist damit das Beste<br />
aus beiden Welten: Framegrabber und<br />
GigE Vision.<br />
Software für GigE Vision<br />
Gerade weil der GigE Vision Standard<br />
noch sehr jung ist, liefert derzeit jeder<br />
Hersteller sein eigenes SDK zusammen<br />
mit der Kamera. Nur wenige Hersteller,<br />
wie z.B. Prosilica, bieten die Softwaretools<br />
für unterschiedliche Betriebssysteme<br />
wie Windows, Linux und sogar QNX<br />
an – damit wird GigE Vision auf unterschiedlichen<br />
Prozessorarchitekturen (Intel<br />
x86, PowerPC) nutzbar.<br />
Auch Matrox hat GigE Vision voll in<br />
die Softwarebibliothek MIL (Matrox Imaging<br />
Library) integriert und bereits erfolgreich<br />
mit einer großen Anzahl unterschiedlicher<br />
Kameras verschiedener<br />
Hersteller getestet. Als vollkommen<br />
schnittstellen-unabhängige Bibliothek<br />
unterstützt die MIL damit jetzt alle<br />
Kamerainterfaces: Analog, Digital, CameraLink,<br />
IEEE 1394 und GigE Vision.<br />
Der Vorteil dieser allgemeinen Bildverarbeitungsbibliothek,<br />
geschaffen von langjährigen<br />
Bildverarbeitungsexperten, liegt<br />
in den wesentlich mächtigeren, komfortableren<br />
und umfangreicheren Features<br />
und Funktionen <strong>im</strong> Vergleich zum<br />
„reinen“ Kameratreiber.<br />
Das perfekte Interface?<br />
Zweifellos bietet GigE Vision viele Vorteile<br />
für ein großes Spektrum an unterschiedlichen<br />
Anwendungen. Ist es damit<br />
das perfekte Interface für alle Anwendungen?<br />
Für den Low-End Bereich liegen<br />
derzeit aufgrund der kurzen Zeit, in<br />
der GigE Vision wirklich verfügbar ist,<br />
die Preise noch relativ hoch. Der High-<br />
End Bereich wird sicherlich noch eine<br />
lange Zeit von CameraLink besetzt sein,<br />
da hier der Datendurchsatz nicht auf<br />
100 MB/s l<strong>im</strong>itiert ist, sondern bis 1GB/s<br />
reicht. Gerade bei Bildverarbeitungsaufgaben<br />
mit Zeilenkameras oder Multi-Kamera-Anwendungen<br />
wird dies schnell<br />
erreicht. Ideal ist GigE Vision derzeit sicherlich<br />
für den Mid-Range Bereich, der<br />
keine allzu großen Anforderungen an<br />
das Datenvolumen stellt – hier kommen<br />
alle Vorteile voll zum Tragen.<br />
� Kontakt<br />
Raoul K<strong>im</strong>melmann<br />
Rauscher GmbH, olching<br />
Tel.: 08142/44841-0<br />
Fax: 08142/44841-90<br />
info@rauscher.de<br />
www.rauscher.de<br />
V i s i o n<br />
Inspect 4/2006<br />
27
V i s i o n<br />
Best of Both Worlds<br />
Die Anforderungen an IBV-Systeme sind so mannigfaltig wie die Zahl ihrer Anwender.<br />
Patentrezepte von der Stange gibt es nicht. Der Anwender sucht keine Technologie, son-<br />
dern die effiziente, zukunftssichere Lösung für seine speziellen Anforderungen. Value-<br />
Added-Distributoren geben Solution Providern die Mittel an die Hand, um ganzheitliche<br />
Lösungen für ihre Kunden <strong>im</strong>plementieren zu können. Dann sind auch Neuanwender auf<br />
der sicheren Seite. Sie können sich auf die Lösung ihrer applikationsspezifischen Bildverarbeitungsaufgabe<br />
konzentrieren, ohne sich um die Einzelheiten der Hardware, Software<br />
oder Schnittstellen kümmern zu müssen.<br />
Als Mittler zwischen den Welten der<br />
Technik und der Praxis sieht sich das<br />
Stuttgarter IBV-Distributionshaus Maxx-<br />
Vision. Sayed Sol<strong>im</strong>an, Geschäftsführer<br />
der MaxxVision GmbH: „Wir sehen uns<br />
als Problemlösungspartner. Als Allrounder<br />
bezüglich verschiedener Technologien,<br />
Schnittstellen und Produkte sowie<br />
als Partner von derzeit mehr als 700<br />
Kunden haben wir keinen Anlass, einzelne<br />
technische Schlagworte oder reine<br />
Innovationen in den Vordergrund zu stellen.<br />
Wir wollen Aufklärer sein.“<br />
Um die Entwicklung ganzheitlicher<br />
IBV-Lösungen zu unterstützen, hat Maxx-<br />
Vision sein Portfolio an Leistungen beständig<br />
ausgebaut. Die Basis des Produkt-Portfolios<br />
war von Anfang an auf<br />
Flexibilität und Breite angelegt. Wie etwa<br />
bei den viel diskutierten Schnittstellen,<br />
die für die Stuttgarter bei der Erstellung<br />
von Lösungen schon <strong>im</strong>mer eher zweitrangig<br />
waren. Denn was sich einmal<br />
durchsetzen wird, ist nach wie vor offen.<br />
MaxxVision bedient deshalb alle gängigen<br />
Interfaces, um den Systemintegratoren<br />
bei der Umsetzung anforderungsgerechter<br />
IBV-Lösungen uneingeschränkt<br />
alle Möglichkeiten offen zu lassen.<br />
Ganz ohne sich mit der Schnittstellenproblematik<br />
auseinanderzusetzen kommt<br />
aus, wer für seine Applikation eine sog.<br />
intelligente Kamera oder Smart Camera<br />
wählt. Solche Systeme sind vergleichsweise<br />
einfach <strong>im</strong> Handling. Sie stellen an<br />
ihrem Ausgang keine Bildsignale zur<br />
Verfügung, sondern liefern direkt die Ergebnisse<br />
der programmierten Bildauswertung.<br />
Die von Sony entwickelte Smart<br />
Camera aus dem MaxxVision-Portfolio ist<br />
ein Beispiel dafür. Bei der XCI-SX1 bilden<br />
Kamera und Rechner eine kompakte<br />
Einheit mit Abmessungen von 55x55x11<br />
mm. Entwickler haben die Wahl zwischen<br />
den Betriebssystemen Windows<br />
und Linux. Im Oktober präsentiert Maxx-<br />
28 Inspect 4/2006<br />
Value Added Distributoren als Mittler zwischen Technologie und Praxis<br />
Abb. 1: Die neue XCI-V3 liefert präzise monochrome<br />
VGA Bilder mit 640 x 480 Bildpunkten<br />
und ist aufgrund der VGA-Technik preisgünstiger<br />
als deren Vorgänger.<br />
Vision die XCI-V3, die mit VGA-Auflösung<br />
das Smart Camera Line-Up von Sony am<br />
unteren Ende ergänzt. Das intelligente<br />
IBV-Kamerasystem integriert wie auch<br />
schon sein Vorgänger die Schnittstellen<br />
10/100MBit Ethernet, USB 1.1 für Tastatur<br />
und Maus, RS232C sowie eine Schnittstelle<br />
für handelsübliche PC-Monitore.<br />
Der 1.3 Megapixel Sensor liefert präzise<br />
monochrome VGA-Bilder mit 640x480<br />
Bildpunkten und Bildfrequenzen von<br />
60 fps (VGA). Trotz erhöhter Framerate<br />
wird die XCI-V3 aufgrund der VGA-Technik<br />
zu einem günstigeren Preis erhältlich<br />
sein als ihr Vorgänger XCI-SX1.<br />
Ein weiteres Highlight, das Maxx-<br />
Vision auf der diesjährigen Vision präsentieren<br />
wird, ist die Einführung einer<br />
neuen analogen Progressive Scan (PS)<br />
Kamera, die trotz SXGA-Auflösung auf<br />
eine hohe Framerate von 30 fps kommt.<br />
Die mit Abmessungen von 29 x 29 x 66<br />
mm sehr kompakte Kamera XC-HR90 ist<br />
für Kommunikations und Steuerungszwecke<br />
mit einer RS232-Schnittstelle<br />
ausgestattet und lässt sich ohne großen<br />
Aufwand in beliebige industrielle Applikationen<br />
integrieren. Der 1/3-Zoll PS<br />
CCD-Sensor verfügt über 1296 x 966<br />
effektive Bildaufnahme-Elemente. Er<br />
Abb. 2: Die neue XC-HR90 bietet eine SXGA-<br />
Auflösung mit 1280 x 960 Pixeln bei 30 Frames<br />
per second.<br />
wurde von Sony eigens für Machine-<br />
Vision-Anwendungen entwickelt und<br />
wird zunächst ausschließlich in der XC-<br />
HR90 angeboten. Durch die Verwendung<br />
quadratischer Pixel ist eine geometrisch<br />
korrekte Abbildung gewährleistet, so<br />
dass präzise Messungen vorgenommen<br />
werden können. Innovative Partial-Scan-<br />
und Binning-Funktionen erlauben überdies<br />
unter RS-232-Steuerung die Erfassung<br />
sehr schneller Bewegungen mit<br />
Frameraten von bis zu 190 fps.<br />
Anfang dieses Jahres hatte Maxx-<br />
Vision bereits durch die Kooperation mit<br />
Cognex DVT eine grundlegende Erweiterung<br />
seines Produktportfolios vollzogen.<br />
Den Kunden der Stuttgarter steht mit<br />
ausgewählten Cognex DVT-Systemen<br />
jetzt erstmals auch eine Auswahl an Bildverarbeitungssensoren<br />
mit einem Software-Portfolio<br />
von umfangreichen Softwarebibliotheken<br />
bis hin zu fertiger<br />
Applikationssoftware zur Verfügung.<br />
Dazu zählen auch der Hochgeschwindigkeits-Kamerasensor<br />
„Checker“ sowie die<br />
Produktserien der Cognex DVT-Vision-<br />
Sensoren und Cognex DVT Intelligent<br />
Scanner.<br />
Die kostengünstige, vielseitige und bedienfreundliche<br />
Produktfamilie der Cog-
Abb. 3: Cognex-DVT Vision-Sensoren sind intelligente<br />
Kameras für unterschiedlichste Anwendungen<br />
in den Bereichen Inspektion, Qualitätskontrolle<br />
und Automation.<br />
nex DVT-Vision-Sensoren eignet sich zur<br />
Inspektion, Qualitätskontrolle und Automation<br />
und ist ideal, wenn eine <strong>klar</strong><br />
strukturierte, funktionale Vision-Anwendung<br />
und/oder Farb- oder Zeilenscan-<br />
Inspektion gefragt ist. Mit der Produktserie<br />
Cognex DVT Intelligent Scanner<br />
bietet MaxxVision eine IBV-Lösung mit<br />
einem attraktiven Preis/Leistungsverhältnis.<br />
Der Intelligent Scanner ist als industrieller<br />
Barcodeleser mit OCR/OCV-<br />
Fähigkeiten mit bis zu 200 Codes pro<br />
Sekunde führend in Sachen Geschwindigkeit<br />
und Zuverlässigkeit.<br />
Sayed Sol<strong>im</strong>an: „Zu den Stärken der<br />
zunehmend leistungsfähigeren Vision-<br />
Sensoren zählen die einfache Inbetriebnahme,<br />
Flexibilität und Investitionssicherheit.<br />
Dadurch werden auch große<br />
neue Kundenkreise erreicht, die den Einsatz<br />
von Machine-Vision-Lösungen aus<br />
technischen oder finanziellen Gründen<br />
bisher noch gar nicht in Betracht gezogen<br />
haben – angespornt sicherlich auch<br />
durch unsere inhouse entwickelten und<br />
für die Kunden kostenlosen Schulungspakete,<br />
die den Einstieg in die moderne<br />
industrielle Bildverarbeitung erleichtern<br />
und prinzipiell Anwender von ganzheitlichen<br />
Lösungen unterstützen.“<br />
V i s i o n<br />
Mit der Aufnahme der Produktlinie<br />
In-Sight erweiterte MaxxVision jüngst<br />
die Kooperation mit Cognex. Die flexiblen<br />
Vision-Sensoren können einzeln oder <strong>im</strong><br />
Netzwerk für die Inspektion von Produkten<br />
in allen Fertigungsphasen und<br />
nahezu jeder Produktionslinie eingesetzt<br />
werden. Ihr Anwendungsbereich reicht<br />
von Produktinspektion und Objektidentifikation<br />
über Fehlerprüfung und Vermessungsaufgaben<br />
bis zur Roboterführung.<br />
Der weitere Ausbau des Angebots ist<br />
Programm bei MaxxVision. Zur Vision<br />
2006 in Stuttgart wird das Unternehmen<br />
daher noch weitere Produktneuheiten<br />
vorstellen. Mit der von Strampe Systemelektronik<br />
entwickelten VisionBox Compact<br />
II wird ein embedded Rechner präsentiert,<br />
der durch erweiterte Flexibilität<br />
Abb. 4: Die Zielapplikationen für die neue Vision-<br />
Box Compact II betreffen nahezu alle Bildverarbeitungssektoren<br />
und sind nicht auf Machine<br />
Vision beschränkt.<br />
und Modularität opt<strong>im</strong>iert wurde. An den<br />
Rechner lassen sich bis zu vier analoge<br />
Farb- oder PAL-S/W-Standardkameras<br />
wie etwa die MaxxVision Motor-Zoom-<br />
Kameras anschließen und per seriellem<br />
Interface steuern. Ergänzend zu digitalen<br />
IOs und seriellem Interface steht<br />
ein 1 GBit/s schnelles Ethernet-Interface<br />
zur Verfügung, mit dem Daten per TCP/<br />
IP übertragen werden können.<br />
Desweiteren wird MaxxVision eine<br />
CameraLink–Schwarzweiß-Kamera mit<br />
5 Megapixel Auflösung, sowie NED Zeilenkameras,<br />
die ebenfalls besonders<br />
hohe Auflösungen <strong>im</strong> Megapixelbereich<br />
bieten, präsentieren.<br />
� Kontakt<br />
Sayed Sol<strong>im</strong>an<br />
MaxxVision GmbH, stuttgart<br />
Tel.: 0711/997996-3<br />
Fax: 0711/997996-50<br />
info@maxxvision.com<br />
www.maxxvision.com
V i s i o n<br />
Tischlein-deck-Dich<br />
Gehen Sie noch selbst in den Supermarkt?<br />
Oder ordert Ihr Kühlschrank schon selbst-<br />
ständig die fehlenden Lebensmittel <strong>im</strong><br />
Internet? Kennt Ihr Spiegel <strong>im</strong> Badez<strong>im</strong>mer<br />
die Börsenkurse und schaltet sich Ihre<br />
Kaffeemaschine per Handy wie von Geis-<br />
terhand ein? So oder so ähnlich stellen sich<br />
Forscher das vollautomatisierte Komfort-<br />
Zuhause der Zukunft vor. An den Visionen<br />
wird bereits kräftig geplant, geforscht und<br />
getestet. Auch das leidige Thema „Was<br />
koche ich denn heute?“ wird da nicht aus-<br />
geklammert. Der mitdenkende Küchentisch,<br />
der „Recipe Table“, löst das täglich wieder-<br />
kehrende Problem ein für alle Mal. Er nutzt<br />
dazu die Möglichkeiten der modernen<br />
industriellen Bildverarbeitung und die<br />
ultra-kompakte Bauweise einer USB 2.0-<br />
Kamera.<br />
Eine fast unüberschaubare Flut an Kochmagazinen<br />
füllt die Zeitschriftenregale,<br />
Fernsehköche bringen uns ihre Kunst ins<br />
Wohnz<strong>im</strong>mer und das Ausprobieren von<br />
neuen Rezepten ist ein beliebtes Gesprächsthema.<br />
Doch wie häufig wagen<br />
wir uns tatsächlich an ein neues Gericht<br />
heran? Meist scheitern wir schon an der<br />
Planung und be<strong>im</strong> Einkaufen von Zutaten,<br />
die nicht zum täglichen Repertoire<br />
gehören. Die Suche nach Rezepten, die<br />
ausschließlich bereits vorhandene Zutaten<br />
enthalten, endet <strong>im</strong> wüsten Blättern<br />
in Rezeptbüchern und für fehlende<br />
Zutaten werden Kompromisse geschlossen.<br />
Selbst das Internet liefert nur be-<br />
Abb. 1: Der interaktive<br />
Küchentisch „RecipeTable“<br />
erfasst mit Hilfe einer USB 2.0-Kamera die auf<br />
ihm stehenden Zutaten und gibt <strong>klar</strong>e Antworten<br />
auf die alte, aber stets aktuelle Frage „Was<br />
koche ich denn heute?“<br />
30 Inspect 4/2006<br />
Küchentisch der Zukunft mit USB 2.0-Industriekameras<br />
scheidene Resultate, um aus wenigen,<br />
bereits vorhandenen Zutaten fantasievolle,<br />
leckere Gerichte zu zaubern.<br />
Menüentscheidung mit dem Recipe<br />
Table<br />
Vor diesem Hintergrund entwickelte der<br />
Magisterstudiengang Interface Culture,<br />
ein künstlerisch-wissenschaftliches Studium<br />
für angehende Medien-Künstler-<br />
Innen und ForscherInnen an der Kunstuniversität<br />
Linz, den sog. „Recipe Table“.<br />
Der interaktive Arbeitsplatz reagiert,<br />
wenn Zutaten auf ihn gestellt werden. Er<br />
identifiziert die Lebensmittel und ermittelt<br />
deren Standort sowie deren Quantität<br />
mit Hilfe einer miniaturisierten Kamera.<br />
Anschließend sucht er in seiner Rezeptdatenbank<br />
nach Rezepten, die ausschließlich<br />
diese Nahrungsmittel plus Grundzutaten<br />
wie Wasser, Salz, Öl etc. enthalten.<br />
Dabei best<strong>im</strong>mt die Anordnung der Produkte<br />
auf dem Arbeitsplatz die Rezeptauswahl.<br />
Zutaten näher be<strong>im</strong> Anwender<br />
sind wichtiger, die weiter weg weniger<br />
relevant. Ein Salzstreuer dient als „Joystick“,<br />
mit dessen Hilfe sich der Anwender<br />
durch die Menüs navigieren kann.<br />
Hier ein Beispiel: Eier, Mehl und Tomaten<br />
liegen auf dem Arbeitsplatz und<br />
die Tomaten sind am nächsten zum Anwender,<br />
das Mehl liegt in der Mitte und<br />
die Eier sind am weitesten weg. Das vorgeschlagene<br />
Top-Rezept könnte also ein<br />
einfaches Tomatenbrot sein. Tauschen<br />
Tomaten und Eier die Position, dann reorganisiert<br />
sich die Rezeptliste. Auf dem<br />
Bildschirm erscheinen gekochte Eier gefüllt<br />
mit Tomatenpaste, natürlich gleich<br />
mit der Abbildung des fertigen Gerichtes.<br />
Und stehen alle Zutaten in der Mitte,<br />
schlägt die Datenbank hausgemachte<br />
Nudeln mit Tomatensauce vor. Die Auswahl<br />
setzt sich fort, bis sich Köchin oder<br />
Koch für ein Rezept aus der Liste entschieden<br />
haben. Produkte können zu jeder<br />
Zeit weggenommen und dazugestellt<br />
werden und ändern die Resultate auf der<br />
Projektionsarbeitsplatte.<br />
Der „Recipe Table“ wird in die Küchenarbeitsplatte<br />
integriert und enthält<br />
eine Rezeptdatenbank, die ständig über<br />
das Internet up-gedatet wird. Identifiziert<br />
werden die Produkte mit Hilfe einer<br />
schnellen und hochauflösenden Industriekamera.<br />
Zum Einsatz kommt<br />
dabei eine µEye von IDS Imaging Development<br />
Systems, einem schwäbischen<br />
Machine-Vision-Spezialisten. Er setzt als<br />
einer der ersten Hersteller auf die komfortable<br />
USB 2.0-Schnittstelle und bietet<br />
heute auf dieser Basis eine breite Palette<br />
von Industriekameras, Zubehör und Software-Tools<br />
für die unterschiedlichsten<br />
Anforderungen an.<br />
Kameratechnik <strong>im</strong> Küchenalltag<br />
Die Industriekameras der µEye-Serie<br />
sind nicht nur klein gebaut – gerade mal<br />
24 x 32 x 27,4 mm misst das robuste<br />
Gehäuse in der kleinsten Version bei nur<br />
60 g Gewicht – dank ihrer standardisierten<br />
Schnittstelle kommen sie ohne zusätzliche<br />
Hardware aus und können<br />
sofort an jeden modernen Laptop, Industrie-PC<br />
oder Embedded-Rechner angeschlossen<br />
werden. Selbst für den „rauhen“<br />
Küchenalltag gibt es die µEyes in<br />
den RE Varianten. Hier entspricht das<br />
Gehäuse den Schutzklassen IP65 und<br />
IP67, so dass es keine Probleme gibt,<br />
wenn es be<strong>im</strong> Kochen mal feucht fröhlich<br />
oder ziemlich staubig zugeht. Auch sämtliche<br />
anderen Leistungsmerkmale können<br />
sich durchaus sehen lassen: Die Kameras<br />
schaffen eine Auflösung bis zu 3,1<br />
Megapixel oder bis zu 86 Bilder pro Sekunde<br />
<strong>im</strong> Vollmodus. Weit höhere Bildraten<br />
sind <strong>im</strong> sog. Area-of-Interest-Modus<br />
(AOI) bzw. Partial-Scan-Modus möglich.<br />
Fortschrittliche Features wie Windowing,<br />
Binning, Sub Sampling und Bildspiegelung<br />
in x und y Richtung ergänzen den<br />
Funktionsumfang.<br />
Auf über 40 verschiedene Modelle ist<br />
die IDS-Produktpalette bis heute angewachsen<br />
– von der einfachen CMOS-<br />
Kamera über verschiedene Monochrom-<br />
oder Farbkameras (mit Bayer-Mosaik-Farb-
Abb. 2: Die Kameras der µEye-Serie von IDS sind<br />
ultra-kompakt, schnell und hochauflösend. Wie<br />
derzeit kaum eine andere Industriekamera-Reihe<br />
erfüllen sie perfekt die hohen Ansprüche der<br />
modernen industriellen Bildverarbeitung.<br />
umrechnung) mit Rolling- oder Global<br />
Shutter bis hin zu 2 Mpixel Progressive<br />
Scan CCD-Kameras mit Sony-Sensor. Je<br />
nach Typ reicht die Auflösung von 640 x<br />
480 Pixel bis zu 2048 x 1536 Pixel. Alle Modelle<br />
sind mit einem universellen, optoentkoppelten<br />
Triggereingang und einem ebenfalls<br />
optoentkoppelten Ausgang, z. B. für<br />
die Ansteuerung eines Blitzes, ausgestattet.<br />
Für ihre unterschiedlichen Einsatzmöglichkeiten<br />
bieten die Kameras verschiedene<br />
USB-Anschlüsse: Neben dem gängigen<br />
Abb. 3: Dank ihrer umfangreichen Softwareunterstützung<br />
lassen sich die µEye-Kameras<br />
schnell und kostengünstig in kundenspezifische<br />
Applikation integrieren.<br />
Mini-B USB-Anschluss, der gleichfalls bei<br />
handelsüblichen Digitalkameras Verwendung<br />
findet, gibt es auch einen verschraubbaren<br />
Micro-SubD-Anschluss. Dieser beherbergt<br />
neben den USB-Signalen auch<br />
das Trigger Signal und die Flash-/Strobe<br />
Ansteuerung. Die RE-Kameravarianten<br />
hingegen verzichten auf die Standardschnittstelle<br />
und setzen bis hin zum Stecker<br />
konsequent auf IP65/67-Tauglichkeit.<br />
Die Kameras lassen sich dank ihrer<br />
hervorragenden Softwareunterstützung,<br />
einem Software-Entwicklungspaket und<br />
universellen Treibern schnell und<br />
problemlos in alle gängigen Industrie-Applikationen<br />
integrieren. Da jede Kamera<br />
mit einer kostenlosen Softwaresammlung<br />
ausgeliefert wird, die ein Software-Development-Kit<br />
(SDK), Demoprogramme für<br />
die Bilderfassung und –analyse sowie den<br />
zugehörigen in C/C++ geschriebenen<br />
Source Code enthält, eignen sich die µEyes<br />
auch für exper<strong>im</strong>entelle Anwendungen in<br />
Mensch-Maschine-Interaktion, wie das<br />
Beispiel des „Recipe Table“ zeigt. Dieser<br />
Nutzung kommt zudem zugute, dass die<br />
µEye-Serie die aktuellen Windows-Betriebssysteme<br />
und Linux unterstützt.<br />
Praxistest mit Bravour<br />
V i s i o n<br />
Einen ersten Praxistest hat der Prototyp<br />
des „mitdenkenden Küchentischs“ schon<br />
mit Bravour bestanden. Kein Geringerer<br />
als der Linzer Haubenkoch Georg Essig<br />
testete den „Recipe Table“ <strong>im</strong> Rahmen einer<br />
Kochshow auf dem Computer-Kunst-<br />
Festival Ars Electronica <strong>im</strong> September vergangenen<br />
Jahres. Auf dieser Ausstellung<br />
präsentierten die Studenten des Interface<br />
Culture Studiengangs an der Kunstuniversität<br />
Linz ihre visionären Arbeiten. Wir<br />
dürfen gespannt sein, ob der „Recipe Table“<br />
eines Tages den Weg in unsere Küchen<br />
finden wird. Nur das Kochen – das<br />
wird auch er uns nicht abnehmen können.<br />
� Kontakt<br />
Thomas Schmidgall<br />
iDs <strong>im</strong>aging Development systems GmbH,<br />
obersulm<br />
Tel.: 07134/96196-0<br />
Fax: 07134/96196-99<br />
t.schmidgall@ids-<strong>im</strong>aging.de<br />
www.ids-<strong>im</strong>aging.de
V I S I O N<br />
Die Weisheit liegt nicht allein <strong>im</strong> Wein<br />
Der Eneo aus der Toskana: sattes Rubin-Violett,<br />
sehr dichte Nase, nach Gewürznelken, leicht mine-<br />
ralische Noten, nach Brombeere und Rauch; viel<br />
helle Cassisfrucht am Gaumen, saftig, zupackendes<br />
Tannin, <strong>im</strong> Finale etwas rau, hat sehr gutes Poten-<br />
zial, viel Fruchtsüße, Nachhall nach Kakao…<br />
Die Eneo aus Rödermark: offene Systemarchitektur,<br />
Linux, Flexibilität, Standard-Applikationssoftware,<br />
Bildverarbeitungs-API, offene FPGA-Schnittstelle,<br />
Visual Applets…<br />
Von der Toskana nach Hessen: Der<br />
Rödermarker Distributor Videor Technical<br />
verfügt über ein umfangreiches<br />
Kamera- und Objektivsort<strong>im</strong>ent für die<br />
industrielle Bildverarbeitung. Auf der<br />
Vision 2006 stellt das Unternehmen mit<br />
Eneo erstmals eine Serie intelligenter<br />
Kameras mit offener System-Architektur<br />
und programmierbarem FPGA (Field<br />
Programmable Gate Array) vor.<br />
Im Machine Vision-Bereich beschreitet<br />
die Eneo-Kameraserie neue Wege<br />
und bietet höchste Flexibilität: Die auf<br />
das Betriebssystem Linux opt<strong>im</strong>ierte<br />
Architektur der äußerst kompakten, intelligenten<br />
Digitalkameras erlaubt die<br />
Verwendung von Standard-Softwarepaketen<br />
der industriellen Bildverarbeitung.<br />
So bietet das Münchener Unternehmen<br />
MVTec Software von Beginn an die<br />
Machine Vision Standard-Bibliothek und<br />
Entwicklungsumgebung Halcon für die<br />
Eneo-Kameraserie an. Es können aber<br />
auch maßgeschneiderte Lösungen für die<br />
Kamera programmiert werden. Hierfür<br />
stehen eine mächtige Bildverarbeitungs-<br />
API und eine hoch opt<strong>im</strong>ierte Toolchain<br />
zur Verfügung.<br />
Zukunftsweisende offene FPGA-<br />
Schnittstelle<br />
Zukunftsweisend ist vor allen Dingen die<br />
Möglichkeit, <strong>im</strong> frei zugänglichen Xilinx<br />
Spartan-3 FPGA anwendungsspezifische<br />
Bildvorverarbeitungs-Algorithmen zu<br />
32 INSPECT 4/2006<br />
<strong>im</strong>plementieren,<br />
um die Prozessor-<br />
Rechenleistung<br />
für die eigentlichen<br />
Aufgaben<br />
frei zu halten. Das<br />
Mannhe<strong>im</strong>er Unternehmen<br />
Silicon Software<br />
hat hierfür eine<br />
eigene Version ihrer VisualApplets entwickelt<br />
– ein grafisches Tool zur einfachen<br />
Programmierung des FPGA.<br />
Die Farb- und Monochromkameras<br />
sind wahlweise mit C-Mount Anschluss<br />
oder – ein weiteres Highlight – mit<br />
integrierter Optik und Beleuchtung verfügbar<br />
und lassen sich somit nicht nur<br />
auf Applikationen in der automatisierten<br />
Fertigungskontrolle ausrichten. Das<br />
kompakte Design (45x45x84 mm), das<br />
geringe Gewicht (ca. 184 g) und die extrem<br />
niedrige Leistungsaufnahme von<br />
weniger als 2 W ermöglichen die Integration<br />
in bestehende Anwendungen.<br />
Abtastraten von 180 Bildern pro Sekunde<br />
<strong>im</strong> Vollbildmodus und bis zu 1000 Bildern<br />
pro Sekunde <strong>im</strong> ROI-Modus tragen<br />
den hohen Fertigungsgeschwindigkeiten<br />
in modernen Automatisierungsanlagen<br />
Rechnung. Über eine Ethernet-Schnittstelle<br />
können mehrere Kameras vernetzt<br />
und zeitlich synchronisiert werden. Eine<br />
direkte Datenübertragung zur SPS kann<br />
ebenfalls über Ethernet, über CAN-Bus<br />
oder über einfache Schaltkontakte realisiert<br />
werden.<br />
Intelligente „Open Source“-Kamera Eneo<br />
Abb. 1: Intelligente Open Source Kamera Eneo<br />
Breites Portfolio<br />
Über die moderne und sicher zukunftsweisende<br />
Eneo-Serie hinaus enthält das<br />
breite Portfolio von Videor Technical eine<br />
Vielzahl von Monochrom- und Farbkameras<br />
mit oder ohne Gehäuse, für zum<br />
Teil sehr spezielle Anwendungen. Abgerundet<br />
wird dies von hochauflösenden<br />
Spezialobjektiven der japanischen Spitzenhersteller<br />
Tamron und Fujinon für<br />
die Bereiche Bildverarbeitung, Fertigungsautomation<br />
und Messtechnik, sowie<br />
von telezentrischen Objektiven und<br />
Beleuchtungen.<br />
� Kontakt<br />
Markus Kissel<br />
Videor Technical, Rödermark<br />
Tel.: 06074/888-260<br />
Fax: 06074/888-257<br />
m.kissel@videortechnical.com<br />
www.videortechnical.com
V i s i o n<br />
Europäischer Exportschlager: Bildverarbeitung<br />
Ergebnisse der Marktdatenerhebung Vision Technology 2006<br />
Wie ist eigentlich das Verhältnis zwischen<br />
Inlandsumsatz und Export der Bildverarbei<br />
tungsunternehmen in Deutschland? Wie<br />
viel Umsatz machen europäische Bildverar<br />
beiter in Asien? Wird der Markt in Europa<br />
ebenso wie in den USA von Komponenten<br />
umsätzen dominiert? Welche Abnehmer<br />
branche ist europaweit die stärkste? Wel<br />
ches Wachstum erwarten europäische<br />
BildverarbeitungsUnternehmen für 2006?<br />
Diese und mehr Fragen werden jährlich<br />
beantwortet durch die Ergebnisse der<br />
europäischen Vision Technology Market<br />
Statistics, einer Gemeinschaftsarbeit der<br />
Fachabteilung Bildverarbeitung <strong>im</strong> VDMA<br />
und der EMVA (European Machine Vision<br />
Association).<br />
Abb. 1: Umsatzentwicklung der industriellen Bildverarbeitung in Deutschland<br />
Abb. 2: Forecast für 2006: 14 % Wachstum<br />
34 Inspect 4/2006<br />
Bildverarbeitungstechnologie<br />
hat sich in allen Anwenderbranchen<br />
zum Synonym für<br />
die wettbewerbsfähige Produktion<br />
und innovative Fertigungsprozesse<br />
entwickelt. Als<br />
„Auge der Maschine“ steigert<br />
sie Produktivität und Qualität,<br />
senkt Herstellkosten und<br />
erhöht die Sicherheit. Aus<br />
dieser Rolle erklärt sich der<br />
Erfolg dieser Technologie, die<br />
seit vielen Jahren auf Wachstumskurs<br />
ist. Das zeigen auch<br />
die Ergebnisse der deutschen<br />
VDMA Marktbefragung Industrielle<br />
Bildverarbeitung<br />
und der europäischen Vision<br />
Technology Market Statistics<br />
der EMVA (European Machine<br />
Vision Association). Die<br />
wichtigsten Ergebnisse stellen<br />
wir <strong>im</strong> Folgenden vor.<br />
Entwicklung des Branchenumsatzes<br />
in Deutschland<br />
Die Bildverarbeitung schreibt<br />
ihre Erfolgsgeschichte fort<br />
und zeigt weiterhin dynamische<br />
und über dem Durchschnitt<br />
der Investitionsgüterindustrie<br />
liegende Zuwächse.<br />
Die aktuelle VDMA Marktbefragung<br />
bestätigte die <strong>im</strong> letzten<br />
Jahr abgegebene Prognose<br />
für den Branchenumsatz<br />
in Deutschland für 2005 exakt:<br />
Er stieg um +7 % und<br />
durchbrach wie vorhergesagt<br />
die 1MillardeEuroGrenze.<br />
Für 2006 sehen die befragten<br />
Unternehmen eine weitere<br />
Belebung des Geschäftes und<br />
rechnen mit einem Plus von<br />
etwa 9 % be<strong>im</strong> Gesamtumsatz<br />
auf gut 1,1 Mrd. €.
Gesamtumsatz der BildverarbeitungsAnbieter<br />
in Europa<br />
Die Analyse der europäischen<br />
Marktbefragung der European<br />
Machine Vision Association<br />
(EMVA) zeigt auch für<br />
Europa eine sehr ausgeprägte<br />
Wachstumsdynamik der<br />
Branche: Der Gesamtumsatz<br />
der europäischen Anbieter<br />
lag in 2004 bei 2,4 Mrd. €.<br />
2005 stieg er um 9 % auf 2,6<br />
Mrd. € an. Wachstumstreiber<br />
war hierbei insbesondere<br />
Amerika mit einem Plus von<br />
43 %. Die in Europa abgesetzten<br />
Volumina erhöhten sich<br />
hingegen vergleichsweise moderat<br />
um 6 %. Der leichte<br />
Rückgang der Umsätze der<br />
europäischen Anbieter in<br />
Asien von 3 % ist mit hoher<br />
V i s i o n<br />
Abb. 3: 55 % der deutschen Bildverarbeitungsunternehmen haben<br />
bis zu 20 Mitarbeiter.<br />
Abb. 4: Deutschland: Schwerpunkt der Umsatzverteilung sind die<br />
Systeme mit 68 %.<br />
Wahrscheinlichkeit auf stark<br />
zyklische Kundenbranchen<br />
zurückzuführen. Basierend<br />
auf den Meldungen von 55<br />
europäischen Unternehmen,<br />
die eine Schätzung für 2006<br />
abgaben, wird der Gesamtumsatz<br />
der europäischen<br />
Bildverarbeitungsanbieter in<br />
diesem Jahr um insgesamt<br />
14 % zulegen und dann 3 Mrd.<br />
€ erreichen.<br />
Die Struktur der Unternehmen:<br />
Mitarbeiter<br />
Die Branche ist bekanntlich<br />
durch kleine und mittelständische<br />
Unternehmen geprägt.<br />
Insgesamt erkennen wir jedoch<br />
einen spürbaren Trend<br />
zu steigender Unternehmensgröße,<br />
was einerseits auf die<br />
Inspect 4/2006<br />
35
V i s i o n<br />
Abb. 5: Europa: Schwerpunkt der Umsatzverteilung sind auch hier die Systeme<br />
mit 70 %.<br />
Wachstumsdynamik der<br />
Branche insgesamt, andererseits<br />
auf Firmenzusammenschlüsse<br />
sowie die<br />
zunehmende Internationalisierung<br />
der Unternehmen<br />
zurückzuführen ist. Das typische<br />
Bildverarbeitungs<br />
Unternehmen in Deutschland<br />
beschäftigt 2005 durchschnittlich<br />
45 Mitarbeiter, in<br />
Europa sind es durchschnittlich<br />
44 Mitarbeiter.<br />
36 Inspect 4/2006<br />
Die Aufteilung des Branchenumsatzes<br />
auf Systeme und<br />
Komponenten<br />
Dem Kunden eine passende<br />
und auf seinen spezifischen<br />
Bedarf zugeschnittene Lösung<br />
zu liefern, ist seit jeher eine<br />
ausgesprochene Stärke der<br />
europäischen Bildverarbeiter,<br />
die sich ein breites und fundiertes<br />
Applikationswissen erarbeitet<br />
haben. Das spiegelt<br />
Abb. 6: Europaweit stärkste Kundenbranche 2005 ist die Automobilindustrie.<br />
Abb. 7: 67 % des deutschen Systemumsatzes entfiel 2005 auf Inspektionssysteme.<br />
sich auch in der Verteilung des<br />
Umsatzes nach Produktarten<br />
wider. Gut zwei Drittel des<br />
Umsatzes entfielen <strong>im</strong> Jahr<br />
2005 auf Systeme – unterschieden<br />
in „anwendungsspezifische<br />
Systeme“ und „konfigurierbare<br />
Systeme“. Etwa ein<br />
Drittel des Branchenumsatzes<br />
der europäischen Anbieter<br />
entfiel auf Komponenten für<br />
die Industrielle Bildverarbeitung.<br />
Sowohl in Deutschland<br />
als auch in Europa gehen die<br />
Anteile der applikationsspezifischen<br />
Systeme leicht zurück,<br />
während die Anteile der konfigurierbaren<br />
Systeme sowie<br />
der Smart Cameras tendenziell<br />
steigen. Dies weist auf die<br />
gestiegene Leistungsfähigkeit<br />
der Standardsysteme hin, die<br />
teilweise Aufgaben übernehmen,<br />
die zuvor den applikationsspezifischen<br />
Systemen<br />
vorbehalten waren.<br />
Kundenbranchen der<br />
Systemhersteller<br />
Sowohl in Europa als auch in<br />
Deutschland liegt die Automobilindustrie<br />
(einschließlich Zu<br />
lieferern) mit einem Anteil von<br />
30 % des Systemumsatzes <strong>klar</strong><br />
vorne – gefolgt von der<br />
Glasherstellung (13 % in<br />
Europa, 16 % in Deutschland).<br />
Die Druckindustrie liegt bei<br />
einem Anteil von 10 % in<br />
Europa auf Platz 3 (in Deutschland<br />
mit einem Anteil von 2 %<br />
auf Platz 9). Ebenfalls wichtige<br />
Abnehmerbranchen sind die<br />
Elektro/Elektronikindustrie<br />
(9 % in Europa, 10 % in<br />
Deutschland) sowie die<br />
Gummi und Kunststoffherstellung<br />
(5 % in Europa, 6 % in<br />
Deutschland). Die Systemanbieter<br />
realisierten 2005 ein<br />
Fünftel ihres Umsatzes mit Applikationen<br />
außerhalb der industriellen<br />
Massenproduktion<br />
– also <strong>im</strong> Bereich der sog.<br />
nichtindustriellen Anwendungen.<br />
Diese umfassen Aufgabenstellungen<br />
wie z. B. das<br />
Unterscheiden von Leberfleck<br />
und Melanom, das automatische<br />
Erkennen von Gegenverkehr<br />
auf der Fahrbahn, das<br />
Lesen von Nummernschildern<br />
und Überweisungsträgern<br />
oder auch die Identifikation<br />
von Personen durch Iriserken
Abb. 8: Applikationsbezogene Umsatzverteilung für Smart Cameras<br />
nung oder das Scannen von<br />
Fingerabdrücken. Bei den<br />
Komponentenanbietern waren<br />
die nichtindustriellen Anwender<br />
mit Abstand die wichtigste<br />
Kundengruppe: Insgesamt erzielten<br />
die europäischen Komponentenanbieter<br />
31 % ihres<br />
Umsatzes in diesem Bereich;<br />
in Deutschland sogar 35 %.<br />
Anwendungen<br />
Bei den Anwendungen dominiert<br />
sowohl bei den deutschen<br />
als auch bei den europäischen<br />
Anbietern die Inspektion von<br />
Teilen und von Endlosmaterialien.<br />
In Deutschland entfällt<br />
fast die Hälfte des Umsatzes<br />
der Systemanbieter auf die Inspektion<br />
von diskreten Teilen<br />
(46 %). Die Inspektion von Endlosmaterialien<br />
ist mit 21 % der<br />
zweitstärkste Bereich. Messtechnische<br />
Anwendungen (2D<br />
und 3D) machen zusammen<br />
13 % des Umsatzes aus. Weitere<br />
wichtige Anwendungen<br />
sind visuell geführte Maschinen<br />
(z. B. Robot Vision), das<br />
Erkennen von Teilen und<br />
Schriftzeichen sowie das Codelesen.<br />
Bei den europäischen Anbietern<br />
ist die Inspektion von<br />
Teilen mit einem Anteil von<br />
40 % etwas schwächer gewichtet,<br />
die Inspektion von<br />
Endlosmaterialien hingegen<br />
etwas stärker (26 %). Danach<br />
kommen wie bei den deutschen<br />
Anbietern die messtechnischen<br />
Anwendungen<br />
mit insgesamt 15 % (2D und<br />
3D zusammen gefasst).<br />
Export: Motor des Wachstums<br />
Die deutschen Anbieter von<br />
Bildverarbeitungstechnologie<br />
exportieren <strong>im</strong>mer größere<br />
Anteile ihrer Produktion: 2005<br />
erzielten sie erstmals <strong>im</strong> Ausland<br />
höhere Umsätze als <strong>im</strong><br />
Inland und erreichten einen<br />
Exportanteil von insgesamt<br />
55 %. Für Europa insgesamt<br />
lag der Umsatzanteil der Exporte<br />
in außereuropäische Regionen<br />
2005 bei 29 %. Hiervon<br />
entfielen 13 % auf Asien und<br />
15 % auf Amerika. Insgesamt<br />
gehen die stärksten Wachstums<strong>im</strong>pulse<br />
für die deutschen<br />
und europäischen Bildverarbeiter<br />
von den Exporten aus,<br />
so dass sich die Exportquote<br />
in den kommenden Jahren<br />
noch weiter erhöhen dürfte.<br />
� Kontakt<br />
Patrick schwarzkopf<br />
Tel.: 069/6603-1466<br />
Fax: 069/6603-2466<br />
V i s i o n<br />
VDMA – Verband Deutscher<br />
Maschinen- und Anlagenbau,<br />
Frankfurt<br />
patrick.schwarzkopf@vdma.org<br />
www.vdma.org/vision<br />
EMVA – European Machine Vision<br />
Association, Frankfurt<br />
info@emva.org<br />
www.emva.org
V i s i o n<br />
MVTecSoftware mit Schnittstelle zu LumeneraKameras<br />
Die MVTec Software GmbH, München, bringt eine Schnittstelle auf den Markt,<br />
die den Betrieb der mächtigen Halcon Software-Bibliothek für die industrielle<br />
Bildverarbeitung mit der industrietauglichen USB-2.0-Kameraserie von Lumenera<br />
ermöglicht. Die USB-Kameraserie von Lumenera bietet ein breites Spektrum<br />
in Geschwindigkeit sowie Auflösungen von VGA bis 11 Megapixel an.<br />
Durch die Kombination mit der High-End-Software Halcon von MVTec kann ein<br />
weites Feld von industriellen Applikationen bedient werden wie z. B. OCR und<br />
OCV, Barcode-Erfassung, Qualitätsprüfung und viele mehr. Der USB-Standard<br />
stellt eine weit verbreitete Plug-and-Play-Technik dar, die zunehmend auch <strong>im</strong><br />
rauen industriellen Umfeld und in Machine-Vision-Systemen zu finden ist. MV-<br />
Tec ist stets darauf bedacht, Industrietrends aufzugreifen und entsprechende<br />
Schnittstellen bereitzustellen. Deshalb ist die Machine-Vision-Software Halcon<br />
auch in der Version 7.1 hardware- und plattformunabhängig.<br />
MVTec Software GmbH<br />
Tel.: 089/457695-0 • info@mvtec.com • www.mvtec.com<br />
Website überarbeitet<br />
Neues Erscheinungsbild, detaillierter<br />
Online-Katalog und umfangreiches<br />
Download- und Serviceangebot<br />
– der Bildverarbeitungsspezialist<br />
IDS Imaging<br />
Development Systems hat seinen<br />
Internetauftritt gründlich überarbeitet.<br />
Das Unternehmen – bekannt<br />
geworden mit der Entwicklung<br />
von Framegrabbern – setzte<br />
als einer der ersten Hersteller auf die schnelle USB 2.0-Schnittstelle für Machine-Vision-Applikationen.<br />
Auf dieser Basis bietet IDS heute eine breite Palette<br />
an Industriekameras, Zubehör und Software-Tools „Made in Germany“. Die Kamerafamilie<br />
uEye umfasst zur Zeit über 100 Modellvarianten. Unter www.ids<strong>im</strong>aging.de<br />
können sich Kunden und Interessenten über das breite Produktspektrum<br />
ausführlich informieren, einzelne Kameramodelle vergleichen, eine<br />
Angebotsanfrage tätigen oder die neueste Treiber-Version downloaden.<br />
IDS Imaging Development Systems GmbH • Tel.: 07134/96196–0<br />
sales@ids-<strong>im</strong>aging.de • www.ids-<strong>im</strong>aging.de<br />
Hochauflösende Objektive<br />
Mit der neuen Serie vicotar T201 erweitert<br />
Vision & Control sein breites Sort<strong>im</strong>ent an<br />
telezentrischen Objektiven. Die durchgehende<br />
Baureihe hochauflösender Objektive<br />
für C-Mount-Kameras mit max<strong>im</strong>al<br />
1“-Bildaufnehmer werden mit zwei unterschiedlichen<br />
Arbeitsabständen geliefert.<br />
Zur Serie T201 gehören acht objektseitig<br />
telezentrische Objektive mit C-Mount-<br />
Anschluss in identischer Bauform, mit<br />
gleichem max<strong>im</strong>alen Außendurchmesser<br />
(71 mm) und gleicher Baulänge (260 mm). Der auf die Machine Vision-Praxis<br />
abgest<strong>im</strong>mte Arbeitsabstand kann in zwei Stufen zwischen 140 mm und 280<br />
mm gewählt werden. Das erleichtert Maschinenbauern die Integration in Anlagen.<br />
Be<strong>im</strong> Optikdesign wurde der Trend zu <strong>im</strong>mer größeren Bildaufnehmern mit<br />
mehr Pixeln berücksichtigt.<br />
Vision & Control GmbH • Tel.: 03681/7974-0<br />
infopoint@vision-control.com • www.vision-control.com<br />
Kompakte analoge ProgressiveScanKamera<br />
Die Image Sensing Solutions Division<br />
von Sony Europe meldet die Einführung<br />
einer neuen analogen Progressive<br />
Scan Kamera, die trotz SXGA-Auflösung<br />
auf eine hohe Framerate von<br />
30 fps kommt. Die kompakte Kamera<br />
des Typs XC-HR90 empfiehlt sich<br />
durch ihre beispiellose Kombination<br />
aus Genauigkeit und Schnelligkeit für<br />
industrielle Inspektions-Anwendungen in Bereichen wie Elektronikfertigung,<br />
Robotertechnik sowie die Verpackungs, Automobil-, Nahrungsmittel- und Getränkeindustrie.<br />
Die mit Abmessungen von 29 x 29 x 66 mm sehr kompakte Kamera<br />
ist für Kommunikations- und Steuerungszwecke mit einer RS232-Schnittstelle<br />
ausgestattet und lässt sich ohne großen Aufwand in beliebige industrielle<br />
Applikationen integrieren. Der 1/3-Zoll PS CCD-Sensor verfügt über 1.296 x<br />
966 effektive Bildaufnahme-Elemente.<br />
Sony Deutschland GmbH • Tel.: 02217537-6581<br />
michael.pisch@eu.sony.com • www.sonybiz.net/vision
Licht nach Maß<br />
Polytec ist Komplettanbieter von Komponenten<br />
für die Bildverarbeitung. Neben<br />
Kameras, Objektiven und Bildauswertesoftware<br />
liegt ein Schwerpunkt <strong>im</strong><br />
Bereich der Beleuchtung. Obwohl hier<br />
mehrere tausend Komponenten zur Verfügung<br />
stehen, gibt es je nach Applikation<br />
Anwendungsgebiete, die nicht mit<br />
Standard-Beleuchtungen ausgerüstet<br />
werden können. In diesen Fällen entwickelt Polytec, sei es <strong>im</strong> faseroptischen<br />
Bereich oder bei der LED-Beleuchtung, kundenspezifische individuelle Beleuchtungen.<br />
Ein aktuelles Beispiel ist die Entwicklung einer 300 mm Dombeleuchtung<br />
mit integriertem Ringlicht und drei Kreisen mit „Satelliten“-LEDs.<br />
Alle LED-Gruppen sind einzeln ansteuerbar. Neben der diffusen Dombeleuchtung<br />
kann mit diesem Ringlicht ein gerichtetes Licht erzeugt und mit Hilfe der<br />
„Satelliten“-LEDs best<strong>im</strong>mte Flächen separat aufgehellt werden. So können<br />
mit einer Beleuchtungseinheit verschiedene Prüfaufgaben an einem Arbeitsplatz<br />
durchgeführt werden.<br />
Polytec GmbH<br />
Tel.: 07243/604-0 • f.fughe@polytec.de • www.polytec.de<br />
LEDBeleuchtungsspots<br />
Die IB/E LED-Beleuchtungsspots sind zur<br />
Beleuchtung kleiner Objektflächen konzipiert.<br />
Die Kombination hoch lichtstarker<br />
LEDs mit abgest<strong>im</strong>mter Beleuchtung nutzt<br />
die Lichtstärke der LED opt<strong>im</strong>al aus. Die<br />
Ausführung des LED-Spots ist für raue Industrieumgebung<br />
geeignet. Der LED-Spot<br />
kann auf Kundenwunsch hinsichtlich Bauform<br />
und Adaption abgest<strong>im</strong>mt werden.<br />
Für den Spot können beliebige Filter vorgesetzt werden. Ein Adapter für Lichtleiter ist<br />
verfügbar. Damit ist der LED-Spot als Ersatz für Kaltlichtquellen möglich. Ebenso sind<br />
Adaptionen für Sekundäroptiken möglich. Damit ergeben sich weitere Einsatzmöglichkeiten<br />
für den LED-Spot. IB/E bietet zusätzlich passende Treiber an.<br />
IB/E Optics • Tel.: 08505/3222 • ibe@ibe-optics.com • www.ibe-optics.com<br />
Asphären in bester Qualität<br />
Die Herstellung von Asphären stellt eine große Herausforderung<br />
an Optikproduzenten. Fisba Optik hat<br />
über die vergangenen Jahre eine Reihe von verschiedenen<br />
Fertigungsverfahren entwickelt, die erfolgreich<br />
in der Produktion von Asphären für spezifische Kundenprojekte<br />
angewendet worden sind. Fisba kann<br />
nun, aufgrund der gesammelten Erfahrungen, ihren<br />
Kunden eine breite Palette an kundenspezifischen<br />
Asphären zu einem günstigen Preis-/Leistungsverhältnis anbieten. Im Gegensatz zu<br />
Sphären haben Asphären keinen festen Radius. Dies führt zu wesentlich besseren<br />
optischen Abbildungseigenschaften und ermöglicht gleichzeitig die Verringerung der<br />
Linsenanzahl in optischen Systemen. Das Ergebnis ist eine verbesserte optische Güte<br />
bei gleichzeitiger Gewichtseinsparung und kompakterer Baugröße.<br />
Fisba Optik AG • Tel.: +41/71/2823131 • barbara.ras@fisba.ch • www.fisba.ch<br />
USB2.0 Kameras ohne externe Stromzufuhr<br />
Im Vergleich zur herkömmlichen LU-Serie<br />
enthält die LW-Serie von Lumenera<br />
einen deutlich größeren FPGA, wodurch<br />
mehrere Funktionen auf der Kamera <strong>im</strong>plementiert<br />
werden können. Die LW-Serie<br />
bietet neue Features sowie einen onboard<br />
32 MB RAM Speicher. Mit dem<br />
verbesserten Leistungsmanagement gelingt<br />
es, die Kamera ohne externe<br />
Stromzufuhr zu betreiben. Ein schnellerer Bilddurchsatz und eine insgesamt<br />
deutliche Performancesteigerung runden die hervorragenden Eigenschaften<br />
dieser neuen Kameraserie ab. Ein Beispiel ist die LW290/LW295.<br />
Diese 2/3“ CMOS Kamera erlaubt ein Auslesen von 20 Bildern/s bei voller<br />
2.1M Pixel Auflösung. Die Pixeldaten können in 8 oder 12 Bit bezogen<br />
werden. Die LW290/LW295 ist DirectShow kompatibel, enthält eine Vorschausoftware<br />
und kann mit einem Software Development Kit (SDK) geliefert<br />
werden. Dazu ist die USB2.0 Kamera in Farbe oder Monochrom lieferbar<br />
und kann extern getriggert werden.<br />
Framos GmbH<br />
Tel.: 089/710667 • info@framos.de • www.framos.de<br />
V i s i o n
V i s i o n<br />
Hochleistungskamera für komplexe Anwendungen<br />
Mit der VC4466 ist ab sofort das erste Modell der neuen VC44xx-Kameraserie<br />
lieferbar, die sich dank ihrer verbesserten Ausstattungsmerkmale selbst für<br />
höchst komplexe Anwendungen eignet. Die gesamte Baureihe ist mit der neuesten<br />
DSP-Generation von Texas Instruments (1 GHz, 8.000 MIPS) ausgestattet<br />
und verfügt über eine RS232- und eine<br />
Ethernetschnittstelle sowie einen externen<br />
Triggereingang, der selbst bei hoher Abfragefrequenz<br />
jitterfreie Bildaufnahmen<br />
ermöglicht. Zur Standardausrüstung gehört<br />
außerdem ein Hochgeschwindigkeitsencoderinterface.<br />
Die VC4466 hat einen<br />
1/3“-CCD-Sensor mit einer Auflösung<br />
von 1.024 x 768 Pixeln und erreicht eine Bildrate von 30 fps (60 fps mit Binning).<br />
In der Standardausführung dienen 4 MB Flash EPROM und 64 MB<br />
SDRAM zur Programm- und Bildspeicherung, optional kann die Speicherkapazität<br />
auf 128 MB erweitert werden.<br />
Vision Components GmbH • Tel.: 07243 / 2167-16<br />
najlaa.hussein@vision-comp.com • www.vision-components.com<br />
Komplettes Objektivset für die Bildverarbeitung<br />
Pentax hat aufgrund der großen Nachfrage das erfolgreiche Objektivset BVS-1 für<br />
die Bildverarbeitung noch einmal erweitert. Die bereits bekannte Zusammenstellung<br />
von Megapixel-Objektiven aus der hoch auflösenden<br />
M-Serie (Brennweiten: 12, 16, 25, 35, 50 und<br />
75 mm) kommt zusammen mit einem stabilen<br />
Werkzeugsatz. Dazu hat Pentax das Set um eine<br />
Auswahl des am meisten benötigten Bildverarbeitungszubehörs<br />
erweitert. Alle Objektive der M-Serie<br />
sind mit Kreuzschlitz- und Rändelschrauben zur<br />
Fixierung von Fokus und Blende ausgestattet. Sie<br />
eignen sich besonders für die hohen Anforderungen<br />
der modernen Megapixel-Kameras. In diesem<br />
Sort<strong>im</strong>ent ist das Makro-Fokus-Mount MUM-2M eine Besonderheit. Das Makro-Fokus-Mount<br />
ist ein spezieller Kamera-Anschluss (Mount) mit C-Mount Gewinde<br />
und einem um 2mm verlängerten Tubus.<br />
Pentax Europe GmbH<br />
Tel.: 040/56192-109 • cctv@pentax.de • www.pentax.de<br />
Ultrakompakte GigE VisionKameras<br />
Prosilica führt eine neue Reihe ultrakompakter Gigabit-Ethernet-Kameras für<br />
Bildverarbeitung und Anwendungen in der Industrie ein. Die Kameras der<br />
neuen GC-Serie von Prosilica sind die wohl kleinsten Gigabit-Ethernet Kameras<br />
der Welt. Bei Abmessungen<br />
von 4,3 x 4,6 x 3,3 cm wiegen<br />
diese mit GigE Vision kompatiblen<br />
Kameras nur 99 g. Die kleinen,<br />
leichten und energiesparenden<br />
Kameras eignen sich ideal<br />
für Anwendungen in den Bereichen<br />
Halbleiterinspektion, Luftfahrtelektronik<br />
und Robotertechnik. Sie verfügen über alle herausragenden<br />
Merkmale anderer Kameramodelle von Prosilica, darunter die Region of<br />
Interest-Funktion, Binning-Modi bis 8 x 8 Pixel, hohe Frameraten und verschiedene<br />
Farbausgabeformate einschließlich RGB. Außerdem umfassen die Kameras<br />
eine integrierte Farbinterpolation, ein robustes Design, ein exzellentes Software<br />
Development Kit und vieles mehr. (Vision 2006: Halle 4 – Stand 312)<br />
Rauscher GmbH<br />
Tel.: 08142/44841-0 • info@rauscher.de • www.rauscher.de<br />
Geschwindigkeit bei Kompaktsystemen gesteigert<br />
Panasonic Electric Works ist es gelungen, die<br />
hohe Prüfgeschwindigkeit seines Bildverarbeitungssystems<br />
„Imagechecker“ noch weiter zu<br />
steigern. Der PV310 erkennt Fehler bis zu 40x<br />
schneller als das Vorgängermodell. Damit sind<br />
viele Anwendungen in der Kompaktklasse<br />
möglich, die bisher PC-basierte Systeme erforderten,<br />
wie z. B. Oberflächen- und Kantenkontrollen.<br />
Hierfür verfügt der PV310 über<br />
neue Verfahren. Sie erkennen kleinste Fehler<br />
wie Risse, Kratzer, Anstanzungen oder<br />
Schw<strong>im</strong>mhäute auch bei schwankender Größe<br />
oder unterschiedlicher Helligkeit. Zur Dokumentation<br />
lassen sich Bilder in Echtzeit speichern<br />
und über Ethernet oder CF-Speicherkarte auf einen PC übertragen.<br />
Die kostenlos erhältliche Software zur Projektverwaltung unterstützt dies<br />
zusätzlich.<br />
Panasonic Electric Works Deutschland GmbH • Tel.: +49 8024 6480<br />
info-de@eu.pewg.panasonic.com • www.panasonic-electric-works.de<br />
Hochauflösende Farbzeilenkameras<br />
Zur Vision 2006 (Stand: 4.0–602) stellt Chromasens eine neue Serie hochauflösender<br />
Farbzeilenkameras vor. Highlight des „Modular Camera System“ ist<br />
die MCS-7300. Sie erreicht bei einer max<strong>im</strong>alen Zeilenfrequenz von 7,7 kHz<br />
und einer Datenrate von 180 MB pro Sekunde eine Auflösung von 7300 Pixel.<br />
Fünf weitere, baugleiche Modelle erlauben Auflösungen von 1–6 k Pixel bei<br />
Zeilenraten von bis zu 38,8 kHz. Durch ein modulares System von Objektivadaptern<br />
können die MCS-Kameras mit allen gängigen Standardobjektiven<br />
kombiniert werden. Chromasens verwendet für sämtliche Farbzeilenkameras<br />
der MCS-Familie die gleiche Basistechnologie und baugleiche Gehäuse. So ist<br />
gewährleistet, dass die Einzelkomponenten in jeder erdenklichen Produktvariante<br />
stabil miteinander arbeiten.<br />
Chromasens GmbH<br />
Tel.: 07531/87-4002 • info@chromasens.de • www.chromasens.de<br />
LED Multilight<br />
Optometron präsentiert mit der Produkterweiterung<br />
MultiLight Ringleuchte LR 45/90 POL eine<br />
LED Ringbeleuchtung mit integriertem Polarisationsfilter<br />
und drehbarem Analysator. Sie bietet<br />
eine nahezu reflexfreie Beleuchtung, opt<strong>im</strong>iert<br />
durch einfache Drehung der Stellung des Analysators.<br />
Speziell bei metallischen Oberflächen, an<br />
Lötstellen oder polierten Strukturen hoher Güte<br />
bringt die Polarisierung den entscheidenden Vorteil.<br />
Die Montage des Polfilters und Analysators<br />
direkt am LED Ringlicht verändert nicht die kompakte<br />
Bauform der LED Ringbeleuchtung mit den<br />
Abmessungen ID: 45 mm AD: 90 mm H: 25 mm. Sie ist daher passend für alle<br />
gängigen Mikroskope und Objektive für Machine Vision, in der Bildverarbeitung,<br />
der Stereo- und Videomikroskopie. Ergänzt mit Vorsätzen an Diffusoren<br />
oder Fresnellinsen werden neue Möglichkeiten eröffnet, schwer zu beleuchtende<br />
Proben ins rechte Licht zu setzten.<br />
Optometron GmbH<br />
Tel.: 089/906041 • info@optometron.de • www.optometron.de<br />
40 Inspect 4/2006 weitere Produkte unter www.PRo-4-PRo.com
Mehr ab Seite 42<br />
AutomAtion<br />
messen – Prüfen – identifizieren – steuern<br />
Alles <strong>klar</strong> <strong>im</strong> <strong>Cockpit</strong><br />
M A C H I N E V I S I O N • S U R F A C E I N S P E C T I O N • M I C R O S C O P Y<br />
Bildverarbeitung und Robotik sorgen für 100 % Qualität der <strong>Cockpit</strong>s von Johnson Controls<br />
Stemmer ImagIng In Kürze<br />
Mit einem Umsatz von 23,2 Mio. € <strong>im</strong> Geschäftsjahr<br />
2005/2006, das am 30. Juni 2006<br />
zu Ende ging, ist die Stemmer Imaging GmbH<br />
der größte deutsche und europäische Anbieter<br />
von Komponenten <strong>im</strong> Marktsegment Industrielle<br />
Bildverarbeitung. Gemeinsam mit den Tochterunternehmen<br />
und Partnern in den wichtigsten<br />
europäischen Staaten bietet Stemmer Imaging<br />
seinen Kunden die größtmögliche Liefersicherheit,<br />
einen opt<strong>im</strong>alen Support und leistungsfähige<br />
Produkte auf dem neuesten Stand der Technik.<br />
Wir stehen für kundennahe, lösungsorientierte<br />
und zuverlässige Kompetenz in der IBV.<br />
Produkte<br />
Die Produktpalette umfasst alle anwenderspezifischen<br />
Bestandteile der IBV:<br />
� Beleuchtungen für die bestmögliche Ausleuchtung<br />
des Prüfobjekts<br />
� Optiken für alle wichtigen Kameras und<br />
Aufgabenstellungen<br />
� Industrietaugliche Kameras, wie Flächen,<br />
Zeilen und HighSpeedKameras<br />
� Kabel und Steckverbindungen, auf Wunsch<br />
auch schleppkettentauglich<br />
� Bilderfassungskarten<br />
� Software für die Bildauswertung<br />
� Komplette Bildverarbeitungssysteme<br />
� Notwendiges Zubehör (Netzgeräte, Kamerastative,<br />
Schutzgehäuse, Filter usw.)<br />
Als Bindeglied dieser Komponenten dient die<br />
leistungsfähige, modulare SoftwarePlattform<br />
Common Vision Blox, die zusammen mit einer<br />
Werkzeugpalette, die inzwischen rund 30 Tools<br />
umfasst, nahezu alle denkbaren Aufgabenstellungen<br />
<strong>im</strong> Bereich der IBV auf einfache und<br />
flexible Weise lösbar macht.<br />
k o n t a k t<br />
Stemmer Imaging GmbH<br />
Gutenbergstraße 9–11<br />
82178 Puchhe<strong>im</strong><br />
Tel.: 089/80902-0<br />
Fax: 089/80902-116<br />
info@<strong>im</strong>aging.de<br />
www.stemmer-<strong>im</strong>aging.de<br />
Inspect 4/2006<br />
41
A u t o m A t i o n<br />
Alles <strong>klar</strong> <strong>im</strong> <strong>Cockpit</strong><br />
Bildverarbeitung und Robotik sorgen für 100 % Qualität der <strong>Cockpit</strong>s von Johnson Controls<br />
Das <strong>Cockpit</strong> ist der Kommandostand für<br />
Fahrvergnügen und Fahrsicherheit. Hier<br />
muss alles st<strong>im</strong>men, funktional und ästhe-<br />
tisch. Johnson Controls, eines der weltweit<br />
führenden Unternehmen <strong>im</strong> Bereich der<br />
automobilen Innenausstattung und Elektro-<br />
nik, prüft seine Auto-<strong>Cockpit</strong>s mit acht<br />
Kameras auf bis zu 70 Merkmale in zwei<br />
Varianten nach vier Kriterien. Die 100 %-<br />
Sicherheit gewährleistet ein VMT-Bild-<br />
verarbeitungssystem.<br />
Die meisten Automobilhersteller lassen<br />
ihre Interieurbauteile heute von Zulieferern<br />
produzieren, um die Qualität<br />
zu steigern und die Kosten zu senken.<br />
Am Standort Lüneburg der multinationalen<br />
Johnson Controls wird eine große<br />
Vielfalt an <strong>Cockpit</strong>s und Türinnenverkleidungen<br />
für verschiedene Automobilhersteller<br />
gefertigt und von dort direkt<br />
an das Produktionsband des<br />
jeweiligen Automobilherstellers geliefert.<br />
Das setzt natürlich voraus, dass<br />
die Bauteile das Werk in Lüneburg geprüft<br />
und absolut fehlerfrei verlassen.<br />
Johnson beliefert die führenden Automobilhersteller<br />
weltweit.<br />
Um den steigenden Erwartungen der<br />
Kunden stets einen Schritt voraus zu bleiben,<br />
setzt Johnson Controls auf stetige In-<br />
Abb. 1: Ein ABB-Roboter greift die <strong>Cockpit</strong>s und präsentiert sie in fünf<br />
Positionen vor der Prüfstation.<br />
42 Inspect 4/2006<br />
novation zur Verbesserung der Produktqualität<br />
sowie der Qualitätssicherung.<br />
Gerade <strong>im</strong> Bereich der <strong>Cockpit</strong>s werden<br />
die Anforderungen an Sicherheit und Qualität<br />
<strong>im</strong>mer komplexer, so dass in Folge<br />
eine sehr hohe Anzahl von qualitätsrelevanten<br />
und für die Weiterverarbeitung<br />
wichtigen Bauteilen vor der Auslieferung<br />
geprüft werden muss. Dabei handelt es<br />
sich um korrekt gesetzte Nieten speziell<br />
<strong>im</strong> Airbagbereich, Clipse, Federhalter,<br />
sonstige Anbauteile und Baugruppen sowie<br />
Verschraubungen allgemein.<br />
Die Anzahl der notwendigen Prüfungen<br />
beläuft sich derzeit auf 60–70 wechselnde<br />
Merkmale, wobei die Vielzahl durch die<br />
Varianten Rechts- und Linkslenker noch<br />
erhöht wird. Geprüft wird aber nicht nur,<br />
ob die Bauteile vorhanden oder korrekt<br />
angebracht sind, sondern auch, ob die<br />
richtigen Bauteile eingesetzt wurden und<br />
ob diese passgenau sitzen. Bisher wurde<br />
ein Großteil der Merkmale manuell durch<br />
Mitarbeiter von Johnson Controls <strong>im</strong> Dreischichtbetrieb<br />
überprüft.<br />
Die Aufgabenstellung schließt eine<br />
mechanische Lösung aus<br />
Um die Prüfung der <strong>Cockpit</strong>s zu automatisieren,<br />
musste ein flexibles und erweiterbares<br />
System geschaffen werden, das eine<br />
verlässliche und kontinuierliche 100 %-<br />
Prüfung der <strong>Cockpit</strong>s gewährleistet und<br />
das es ermöglicht, die hohe Anzahl der<br />
Prüfungen an allen <strong>Cockpit</strong>-Typen in sehr<br />
kurzer Zeit durchzuführen und zu dokumentieren.<br />
Abb. 2: Insgesamt acht Kameras und eine speziell angepasste Beleuchtung<br />
sorgen für eine opt<strong>im</strong>ale Bildaufnahme.
Eine weitere Herausforderung<br />
lag in den verschiedenen<br />
Farbkombinationen<br />
und Oberflächen, die durch<br />
das System verarbeitet werden<br />
müssen. Eine Vorgabe<br />
von Typ und Farbe konnte<br />
nicht gegeben werden. Zusätzlich<br />
muss das System die<br />
Möglichkeit bieten, die fehlerhaften<br />
<strong>Cockpit</strong>s in einer<br />
Nacharbeitsstation auszuschleusen<br />
und dem Mitarbeiter<br />
anzuzeigen, wo welcher<br />
Fehler vorliegt. Und zwar so,<br />
dass der Werker möglichst<br />
einfach und absolut sicher<br />
die als fehlerhaft erkannten<br />
Teile oder Baugruppen identifizieren<br />
und reparieren<br />
oder austauschen kann.<br />
Eine mechanische taktile<br />
Lösung kam wegen der hohen<br />
Anzahl der teilweise schwer<br />
erreichbaren Merkmale sowie<br />
aufgrund der Forderung nach<br />
einer hohen Flexibilität des<br />
Systems zur schnellen und unkomplizierten<br />
Erweiterung der<br />
Prüfungen nicht in Betracht.<br />
Gelöst wurde diese anspruchsvolle<br />
Aufgabe durch<br />
die VMT Bildverarbeitungssysteme<br />
GmbH mit Hauptsitz<br />
in Weinhe<strong>im</strong> in enger Zusammenarbeit<br />
mit der Dieffenbacher<br />
Automation GmbH<br />
aus Seevetal bei Hamburg.<br />
Für die VMT GmbH wurde<br />
das Projekt von den Technikern<br />
ihrer Niederlassung<br />
Nord in Garbsen betreut. Dabei<br />
hat sich die Nähe der beiden<br />
Firmen zum Endkunden<br />
bewährt und in kürzester<br />
Zeit zur erfolgreichen Umsetzung<br />
der Anlage geführt.<br />
Um den hohen Anforderungen<br />
gerecht zu werden,<br />
wurde auf eine Automatisierung<br />
mit dem bewährten<br />
Bildverarbeitungssystem<br />
VMT IS in Mehrkameraversion<br />
unter Einsatz von Bildverarbeitungs-Komponenten<br />
der Firma Stemmer Imaging<br />
GmbH in Kombination mit<br />
einem ABB Roboter gesetzt.<br />
Komplettiert wird die Zelle<br />
durch zwei Bänder, wobei<br />
das erste Band die fehlerfreien<br />
<strong>Cockpit</strong>s dem weiteren<br />
Produktionsprozess und das<br />
zweite Band fehlerhafte<br />
<strong>Cockpit</strong>s dem Nacharbeitsplatz<br />
zuführt.<br />
„Alle Bildverarbeitungs-<br />
Komponenten wie die Kameras,<br />
Objektive und Bilderfassungs-Karten<br />
beziehen wir von<br />
Stemmer Imaging. Besonders<br />
hilfreich war neben den bewährten<br />
Software-Tools unseres<br />
Unternehmens der Einsatz<br />
der Basis-Software<br />
Common Vision Blox”, erläutert<br />
VMT-Geschäftsführer Harald<br />
Mikeska. Die Stemmer<br />
Imaging GmbH mit Sitz in<br />
Puchhe<strong>im</strong> bei München ist Vertriebshaus<br />
für alle Komponenten<br />
der Bildverarbeitung und<br />
Entwickler der allgemeinen<br />
Bildverarbeitungs-Software<br />
Common Vision Blox sowie der<br />
zugehörigen Werkzeuge.<br />
Und dann geht es <strong>im</strong> Automatikbetrieb<br />
los<br />
Der durch Einsatz der Bildverarbeitung<br />
neu geschaffene Arbeitsablauf<br />
umfasst folgende<br />
Schritte: Zunächst legt der<br />
Mitarbeiter die <strong>Cockpit</strong>s in<br />
eine Aufnahme ab und startet<br />
den Prozess. Das <strong>Cockpit</strong> wird<br />
dann vom Roboter gegriffen<br />
A u t o m A t i o n<br />
und den insgesamt acht Kameras,<br />
die an einem Stahlbau<br />
in der Zelle befestigt sind, in<br />
fünf verschiedenen Positionen<br />
präsentiert. Die Anzahl der<br />
Kameras ist notwendig, um<br />
alle 65 geforderten Prüfungen<br />
innerhalb der kurzen zur Verfügung<br />
stehenden Zykluszeit<br />
durchführen zu können.<br />
Im ersten Schritt wird der<br />
<strong>Cockpit</strong>-Typ durch das Bildverarbeitungssystem<br />
identifiziert<br />
und automatisch die für diesen<br />
Typ richtige Prüfung gestartet.<br />
Im Anschluss daran werden
44 Inspect 4/2006<br />
die weiteren Merkmale in insgesamt<br />
fünf Roboterpositionen<br />
geprüft. Nach Erreichen der<br />
jeweiligen Position startet der<br />
Roboter eine Teilmessung über<br />
die Profibus-Schnittstelle und<br />
erhält schon nach wenigen<br />
Hundertstelsekunden das Signal<br />
zur Weiterfahrt. In jeder<br />
Position erfasst das VMT-<br />
Bildverarbeitungssystem mehrere<br />
Merkmale gleichzeitig und<br />
wertet diese aus. Die Merkmale<br />
selbst befinden sich dabei<br />
an allen Seiten des <strong>Cockpit</strong>s.<br />
Nach Prüfung der letzten<br />
Position übergibt das Bildverarbeitungssystem<br />
einen Gesamt-Mess-Status<br />
an die Roboter-Steuerung.<br />
Die komplette<br />
Auswertung eines <strong>Cockpit</strong>s<br />
dauert inklusive der Roboterbewegung<br />
ca. 8 Sekunden.<br />
Aufgrund des Gesamt-Mess-<br />
Status wird das <strong>Cockpit</strong> dem<br />
Nacharbeitsband zugeführt,<br />
falls ein Fehler aufgetreten ist.<br />
An diesem Arbeitsplatz werden<br />
dem Werker auf einer Großbildanzeige<br />
die Fehlerpositionen<br />
direkt an einem „digitalen“<br />
<strong>Cockpit</strong> angezeigt.<br />
Sobald die Nacharbeiten abgeschlossen<br />
sind, wird das <strong>Cockpit</strong><br />
einer erneuten Prüfung<br />
zugeführt. Das Bildverarbeitungssystem<br />
steht während der<br />
gesamten Nacharbeiten uneingeschränkt<br />
für die Automatikmessungen<br />
zur Verfügung.<br />
Durch die einfache Bedienung<br />
des Bildverarbeitungssystems<br />
war es den Mitarbeitern<br />
in der Produktion bereits<br />
nach einer Schulung von nur<br />
zwei Tagen möglich, neue<br />
Merkmale anzulegen und die<br />
Anlage während der Produktion<br />
zu opt<strong>im</strong>ieren. „Vor allem<br />
die Funktion des Offline-Teachens,<br />
die durch die Protokollierung<br />
aller Prüfungen und<br />
der zugehörigen Bilder möglich<br />
ist, hat die Opt<strong>im</strong>ierung<br />
der Anlage beschleunigt“, so<br />
Winkenwerder, der leitende<br />
Mitarbeiter bei Johnson Controls<br />
für dieses Projekt.<br />
„Seit der Inbetriebnahme<br />
überzeugt das Bildverarbeitungssystem<br />
durch seine hohe<br />
Zuverlässigkeit“, zeigt sich<br />
Herr Winkenwerder überaus<br />
zufrieden mit der realisierten<br />
Lösung, zumal sich auch die<br />
<strong>im</strong> Vorfeld kalkulierten Kos-<br />
Abb. 3: Nach der Auswertung von bis<br />
zu 70 Merkmalen zeigt ein Großbild<br />
die erkannten Fehlerpositionen an<br />
einem „digitalen“ <strong>Cockpit</strong>.<br />
teneinsparungen in der Realität<br />
eingestellt haben.<br />
Das VMT-Bildverarbeitungssystem<br />
Das eigentliche Herz des Systems<br />
schlägt in Form der VMT<br />
IS-Software, die in jahrelanger<br />
Entwicklung in über 500 Projekten<br />
gemeinsam mit Kunden<br />
aus der Automobil- und Zulieferindustrie<br />
geschaffen wurde.<br />
Dabei haben die Weinhe<strong>im</strong>er<br />
sehr hohen Wert auf eine einfache<br />
und intuitive Bedienerführung<br />
gelegt, die es dem Anwender<br />
schon nach wenigen<br />
Tagen ermöglicht, selbst Prüfungen<br />
<strong>im</strong> System anzulegen.<br />
Die Bedienung und Einrichtung<br />
des Systems erfolgt<br />
komplett ohne Programmierung<br />
über die grafische<br />
Oberfläche und ist für unterschiedlichste<br />
Anwendungen<br />
wie Robotersichtführung,<br />
Vollständigkeitsprüfung und<br />
Klarschriftlesen vollkommen<br />
einheitlich. Die Benutzersprachen<br />
(standardmäßig Deutsch<br />
und Englisch) sind jederzeit<br />
online umschaltbar und das<br />
System ist offen für Erweiterungen<br />
auf andere Sprachen.<br />
� Kontakt<br />
Dipl.-Ing.<br />
Andreas Tarnoki,<br />
VMT Bildverar-<br />
beitungssysteme<br />
Vmt Bildverarbeitungssysteme<br />
GmbH, Weinhe<strong>im</strong><br />
tel.: 06201/9027-0<br />
Fax: 06201/9027-29<br />
sales@vmt-gmbh.com<br />
www.vmt-gmbh.com<br />
Stemmer <strong>im</strong>aging GmbH,<br />
Puchhe<strong>im</strong><br />
tel.: 089/80902-0<br />
Fax: 089/80902-116<br />
info@<strong>im</strong>aging.de<br />
www.stemmer-<strong>im</strong>aging.de
Den Fehdehandschuh hingeworfen<br />
bekommen, zum Duell herausgefor<br />
dert, bei der Ehre gepackt ….<br />
Eine untechnische, aber doch sehr<br />
treffende Beschreibung für die Auf<br />
gabenstellung, Oberflächenfehler auf<br />
metallischen Bauteilen automatisch<br />
optisch zu erkennen. Dieser Kampf<br />
wird nur mit Erfahrung, Hartnäckig<br />
keit und den richtigen Waffen gewon<br />
nen. Der folgende Beitrag beschreibt<br />
die Schritte und die Lösung zur erfolg<br />
reichen Installation eines<br />
Bildverarbeitungs<br />
systems für die<br />
Erkennung von<br />
Oberflächenstruk<br />
turengeschlif fener Flächen.<br />
Die visuelle Inspektion von Oberflächen<br />
ist eine wichtige Qualitätssicherungsmaßnahme.<br />
Die Fehler an Oberflächen<br />
unterscheiden sich generell in<br />
zwei Arten – den sog. Cosmetic<br />
Defects und den funktionsbeeinträchtigendenDefects.<br />
Cosmetic Defects sind<br />
hierbei für die Optik des Betrachters<br />
störende Fehler,<br />
die jedoch keinen Einfluss<br />
auf die eigentliche Funktion<br />
des Bauteils haben. Diese<br />
Fehlerart ist allgemein bekannt,<br />
und so mancher preisbewusste<br />
Endverbraucher<br />
macht sich dies zunutze und<br />
kauft gezielt „B-Ware“ ein.<br />
Anders sieht es mit der<br />
zweiten Fehlerart aus. Diese<br />
Fehler führen dazu, dass<br />
Baugruppen schneller verschleißen,<br />
zu wenig Kontaktfläche<br />
bieten oder gar<br />
durch Verklemmen <strong>im</strong> Betrieb<br />
ausfallen.<br />
Die hier vorgestellte<br />
Lösung für die<br />
Oberflächenprüfung<br />
einer<br />
geschliffenen<br />
Fläche ist eine<br />
Realisierung<br />
für einen großen<br />
Zulieferer der Automobilindustrie.<br />
Die Applikationsabteilung<br />
der NeuroCheck<br />
GmbH übernahm bei dieser<br />
Anwendung das Engineering,<br />
den Systemaufbau und die<br />
Integration des Systems in den<br />
Prüfautomaten.<br />
Herausforderung<br />
Die metallischen Prüfteile<br />
werden in einem mehrstufigen<br />
Schleifprozess bearbeitet.<br />
Nach der Bearbeitung sollen<br />
die Teile in einen<br />
Prüfrundtisch eingesetzt und der<br />
automatischen Oberflächenprüfung<br />
zugeführt werden.<br />
Die Oberflächenkontrolle unterteilt<br />
sich grundsätzlich in zwei<br />
Teilaspekte der Prüfung – zum einen<br />
in die Erkennung von Krat-<br />
zern, Schleiffehlern und Lunkern auf der<br />
Planfläche und zum anderen in die Überprüfung<br />
der Außenkontur des Plateaus<br />
auf Ausbrüche. Um den Fertigungsprozess<br />
der Teile nicht zu behindern, muss<br />
die Ausbringung des Prüfsystems mindestens<br />
40 Teile/min. betragen.<br />
Wahl der Waffen<br />
A u t o m A t i o n<br />
Herausforderungen annehmen<br />
Automatische optische Prüfung geschliffener Oberflächen<br />
Grundlage der Realisierung waren die<br />
Ergebnisse einer Machbarkeitsuntersuchung<br />
anhand protokollierter Fehlerteile.<br />
In dem Protokoll sind die Oberflächen<br />
mit einem Rauhtiefenmessgerät<br />
aufgenommen worden. Über Vergleichsmessungen<br />
mit Gut- und Grenzteilen<br />
wurden vom Kunden die zulässigen Fehlergrenzen<br />
festgelegt. Eine direkte Tiefenmessung<br />
von Kratzern kann mit<br />
einem Bildverarbeitungssystem nicht realisiert<br />
werden. In Abst<strong>im</strong>mung mit dem<br />
Kunden wurden Versuche unternommen,<br />
die Fehler durch geeignete Beleuchtungsverfahren<br />
über Kontrast und Form<br />
klassifizieren zu können. Diese Art der<br />
Betrachtung entspricht auch der derzeitigen<br />
visuellen Inspektion der Teile durch<br />
die Mitarbeiter.<br />
Für die Lösung der Aufgabe wurden<br />
ein speziell auf die Aufgabenstellung angepasstes<br />
Ringlicht, eine hochauflösende<br />
FireWire-Kamera des Herstellers Baumer<br />
Optronic in der NeuroCheck-Edition mit<br />
1024 x 768 Pixeln, sowie ein Makroobjektiv<br />
von Rodenstock für ein Bildfeld von<br />
4 x 3 mm² verwendet. Als Bildverarbei-<br />
� Abb. 1: Typische Oberflächenfehler auf geschliffenen<br />
Bauteilen<br />
Inspect 4/2006<br />
45
A u t o m A t i o n<br />
�<br />
Abb. 3: Bildaufnahme<br />
derselben IOTeile<br />
wie in Abbildung 1<br />
mit neuem Beleuchtungskonzept.<br />
tungssystem kam die NeuroCheck-Power-<br />
Box mit Pentium 4-Prozessor, Windows<br />
XP Professional, IEEE 1394-Schnittstelle<br />
und einer Profibus-Interfacekarte für die<br />
Prozesskommunikation zum Einsatz. Alle<br />
Komponenten wurden in ein Umgehäuse<br />
mit Peltierkühlelement eingebaut.<br />
Die Prüfprogrammstruktur gliedert<br />
sich in verschiedene Einzelaufgaben und<br />
wurde auf Basis der Premium-Edition<br />
der parametrierbaren Standardsoftware<br />
NeuroCheck, Version 5.1, erstellt. Die<br />
entwickelten Prüfprogramme bestehen<br />
aus verschiedenen Einzelprüfungen in<br />
hierarchischer Struktur mit mehreren<br />
sequenziell aneinander gereihten Prüfschritten.<br />
Die Software stellt sowohl Entwicklungs-<br />
als auch Laufzeitumgebung<br />
unter einer Oberfläche zur Verfügung.<br />
Die Prüfprogramme sind dadurch jederzeit<br />
direkt am System erweiterbar. Sie<br />
werden aus verschiedenen Bibliotheksfunktionen<br />
graphisch-interaktiv zusammengestellt<br />
und parametriert. Eine Programmierung<br />
des Systems ist hierzu<br />
nicht erforderlich.<br />
Die Bildaufnahme erfolgt <strong>im</strong> Blitzbetrieb<br />
der digitalen FireWire-Kamera. Über deren<br />
Flash-Ausgang und mit Hilfe eines<br />
Blitzmoduls wird die Beleuchtung <strong>im</strong> Moment<br />
der Bildaufnahme und nur für die<br />
Dauer der eingestellten Kamera-Shutterzeit<br />
aktiviert. Diese Betriebsart erhöht die<br />
Lebensdauer der LED-Beleuchtung und<br />
gestattet es zusätzlich, diese mit einer höheren<br />
Lichtleistung zu betreiben, um<br />
Fremdlichteinflüsse zu reduzieren.<br />
Nach einer <strong>im</strong> ersten Schritt erfolgten<br />
Lageerkennung des Bauteiles <strong>im</strong> Bild erfolgt<br />
die Bildvorverarbeitung für die Kratzer-<br />
und Mackenerkennung. Durch Anwenden<br />
von kombinierten Filterverfahren<br />
werden die relevanten Strukturen herausgearbeitet.<br />
Die feine Oberflächenstruktur<br />
des Schliffbildes wird hierbei unterdrückt.<br />
Gerade bei schmalen langen Objekten<br />
besteht die Gefahr, dass nicht die gesamte<br />
Länge zusammenhängend erzeugt werden<br />
kann. Aus diesem Grund wurde in<br />
dieser Aufgabe eine Funktion verwendet,<br />
die eine Verbindung von benachbarten<br />
Objekten gestattet. Durch die intelligent<br />
46 Inspect 4/2006<br />
eingesetzte Vorverarbeitung reduziert<br />
sich die komplexe Aufgabenstellung letztendlich<br />
auf die Bewertung von dunklen<br />
Objekten, die sich von der hellen Oberfläche<br />
abheben. Die Merkmale für die Beurteilung<br />
sind Kontrast, Flächen, Achsenlängen<br />
und Forminformationen.<br />
Für den zweiten Aufgabenteil, die Erkennung<br />
von Ausbrüchen an der Außenkontur,<br />
wird das bereits vorverarbeitete<br />
Bild verwendet und die Welligkeit der<br />
Originalkontur zu einem dynamisch erzeugten<br />
Ausgleichskreis berechnet.<br />
Rückschlag …<br />
� Abb. 2: Grauwertschwankung<br />
von<br />
IOTeilen in Abhängigkeit<br />
des<br />
Werkzeugzustandes<br />
Die Inbetriebnahme und Testphase anhand<br />
vorliegender Fehler- und Serienteile<br />
zeigte, dass die Aufgabe sicher gelöst werden<br />
kann. Mit Anlauf der Serienfertigung<br />
wurden die Teile zur Kontrolle noch zusätzlich<br />
per manueller Sichtprüfung gegen<br />
geprüft. Anfangs konnten die Ergebnisse<br />
der Testphase bestätigt werden. Zur<br />
Überraschung aller Beteiligten ändert<br />
sich das Aussehen der Teile jedoch nach<br />
Tagen schleichend und erhöhte die Fehlerquote<br />
des Bildverarbeitungssystems.<br />
Untersuchungen ergaben, dass sich das<br />
Aussehen der Oberfläche je nach Zustand<br />
der Schleifscheibe grundlegend ändert.<br />
Der Grauwert der IO-Fläche variiert zwischen<br />
ca. 20–255, je nach Zustand des<br />
Werkzeugs. Nachdem die Scheibe wieder<br />
abgerichtet wird, ist die Oberfläche der<br />
Teile wieder wie erwartet hell – direkt vor<br />
dem Abrichten war diese noch dunkel.<br />
Die Problematik, die sich hier aufzeigt,<br />
scheint auf den ersten Blick unlösbar. Die<br />
bisher dunklen Fehlstellen gehen in der<br />
Oberfläche unter.<br />
„Herausforderungen annehmen und<br />
Lösungen finden sind ein Grundsatz für<br />
die Ingenieure der NeuroCheck-Applikationsabteilung“,<br />
beschreibt Dirk Zinnäcker,<br />
Leiter der Applikationsabteilung,<br />
das Firmen-Motto bei der Projektbearbeitung.<br />
Ein neuartiges Beleuchtungskonzept<br />
war erforderlich, um den auftretenden<br />
Effekt ausgleichen zu können. In<br />
einem Brainstorming sind die Erfahrungen<br />
der Mitarbeiter zusammengefasst<br />
und verschiedene Möglichkeiten erörtert<br />
worden. Das Ergebnis ist ein<br />
Beleuchtungssystem, das durch Verwendung<br />
von Kombinationen unterschiedlicher<br />
Beleuchtungen die Helligkeitsunterschiede<br />
kompensieren kann.<br />
Für die Lösung der Aufgabe werden direkt<br />
aus dem Prüfprogramm heraus verschiedene<br />
Beleuchtungen ausgewählt und<br />
geblitzt von der Kamera aufgenommen.<br />
Die Blitzansteuerung erfolgt über den<br />
Flash-Ausgang der Kamera mit Hilfe eines<br />
Blitzmoduls. Die jeweilige Beleuchtung<br />
wird <strong>im</strong> Moment der Bildaufnahme und<br />
nur für die Dauer der eingestellten Kamera-<br />
Shutterzeit aktiviert. Um die jeweils<br />
opt<strong>im</strong>ale Helligkeit der Bildaufnahme in<br />
jeder Beleuchtungssituation zu erreichen,<br />
wird eine Umsteuerung der Kameraparameter<br />
aus dem Prüfprogramm heraus<br />
<strong>im</strong> laufenden Betrieb vorgenommen.<br />
Die erforderlichen Änderungen der<br />
bisherigen Auswertestrategie wurden<br />
durch die einfach zu bedienende Soft-<br />
� Abb. 4: System zur Oberflächeninspektion<br />
geschliffener Bauteile<br />
� Abb. 5: Prüfprotokoll direkt aus<br />
dem System heraus
wareoberfläche von Neuro-<br />
Check schnell und einfach interaktiv<br />
durchgeführt.<br />
… und Sieg<br />
Nach der Integration des<br />
neuen Beleuchtungssystems<br />
fand ein erneuter Testlauf mit<br />
Produktionsteilen statt. Von<br />
kleineren Opt<strong>im</strong>ierungen abgesehen,<br />
die der Endanwender<br />
selbst durchführen<br />
konnte, zeigt sich die Lösung<br />
als sehr zuverlässig in der Erkennung<br />
der Fehlermerkmale.<br />
Ein Problem mit den<br />
schwankenden Oberflächengüten<br />
gibt es nach Aussage<br />
des Anwenders nicht mehr.<br />
„Wir hatten nach den anfangs<br />
vorliegenden Bildern Zweifel,<br />
ob diese Aufgabe betriebssicher<br />
gelöst werden kann. Die<br />
ersten Bilder der neuen Strategie<br />
zeigten jedoch, dass sich<br />
Fachleute mit dem Thema befassten.<br />
Das innerbetriebliche<br />
Interesse an der geplanten<br />
Lösung war <strong>im</strong>mens, sah man<br />
doch Ansatzmöglichkeiten für<br />
andere Projekte mit ähnlicher<br />
Aufgabenstellung. Heute<br />
kann man sagen, dass sich<br />
die Lösung bewährt hat“, so<br />
der Projektleiter des Kunden.<br />
Für die Prüfprogrammdokumentation<br />
des Projektes<br />
wurde ein Feature der NeuroCheck-Software<br />
verwendet,<br />
das es ermöglicht, alle Daten<br />
und Parameter des Prüfprogramms<br />
vollständig zu<br />
exportieren und in einer übersichtlichen<br />
XML-Ansicht auszugeben.<br />
Die interaktive<br />
Erstellung findet <strong>im</strong> Manuell-<br />
Betrieb der Software statt und<br />
wird per Knopfdruck vom Benutzer<br />
ausgelöst. Besonders<br />
<strong>im</strong> Hinblick auf Zertifizierungen<br />
in den Branchen Medizintechnik<br />
und Automotive ist<br />
dies eine erhebliche Arbeitserleichterung.<br />
Die erzeugte<br />
XML-Datei kann mit dem Internet<br />
Explorer betrachtet und<br />
ausgedruckt werden.<br />
Der Zugriff auf das System<br />
von extern ist über eine Fernwartungssoftware<br />
(z. B. PC-<br />
Anywhere) realisiert. Über<br />
diese Verbindung kann sich<br />
sowohl der Systembetreuer<br />
be<strong>im</strong> Kunden <strong>im</strong> Werk als<br />
auch der Hersteller einwäh-<br />
len, um den aktuellen Zustand<br />
der Anlage zu überprüfen.<br />
Dadurch sind kurze<br />
Reaktionszeiten bei überschaubaren<br />
Kosten möglich –<br />
ein Mehrwert an Unterstützung<br />
und letztendlich<br />
Kundenzufriedenheit.<br />
Für Herausforderungen gut<br />
gerüstet<br />
Der Projektverlauf zeigt, wie<br />
wichtig es ist, dass ein guter<br />
Informations- und Erfahrungsaustausch<br />
mit möglichst<br />
genauer Kenntnis der auftretenden<br />
Zustände bereits <strong>im</strong><br />
Anfragestadium stattfindet,<br />
um eine funktionierende Lösung<br />
erstellen zu können.<br />
Trotz sorgfältiger Vorbereitung<br />
treten manchmal erst<br />
während des Projektes fertigungsbedingte<br />
Streuungen<br />
auf, die selbst dem Hersteller<br />
der Bauteile unbekannt sind.<br />
Gerade in solchen Situationen<br />
zeigen sich die Vorteile einen<br />
Systempartner zu haben,<br />
der sowohl über langjährige<br />
Anwendungserfahrung in der<br />
A u t o m A t i o n<br />
Beleuchtungstechnik als auch<br />
über ein flexibel einsetzbares<br />
Softwaretool für die industrielle<br />
Bildverarbeitung verfügt.<br />
� Kontakt<br />
Jochen Raasch,<br />
NeuroCheck GmbH<br />
neuroCheck GmbH, Remseck<br />
tel.: 07146/8956-0<br />
Fax: 07146/8956-29<br />
jraasch@neurocheck.com<br />
www.neurocheck.com<br />
Inspect 4/2006<br />
47<br />
Wir stellen aus: VISION Stuttgart, Halle 4, Stand 510 vom 07.–09.11.2006
A u t o m A t i o n<br />
0-Fehler-Qualität für die Automobilindustrie<br />
Erstaunlich, was man mit einem knapp 10<br />
mm² großen Bauteil alles bewegen kann:<br />
Die Halbleiterchips der Elmos Semiconduc-<br />
tor AG in Dortmund messen, regeln und<br />
steuern zahlreiche Komfort-, Sicherheits-<br />
und Motorfunktionen in Fahrzeugen, wie<br />
z. B. elektrische Fensterheber und Airbags.<br />
Weil die Chips absolut zuverlässig funktio-<br />
nieren müssen, spielt die Qualitätssiche-<br />
rung in dem weltweit agierenden 1.100<br />
Mitarbeiter-Unternehmen, das jährlich<br />
etwa 120 Millionen Chips fertigt, eine<br />
wesentliche Rolle.<br />
Abb. 1: Visualisierung der optischen Inboardprüfung<br />
von Asentics<br />
Wer für die Automobilindustrie arbeitet,<br />
wird mit vielfältigen Herausforderungen<br />
konfrontiert: Hoher Kostendruck, Justin-T<strong>im</strong>e<br />
Liefertreue und größtmögliche<br />
Zuverlässigkeit. Es gilt, die in der Automobilindustrie<br />
geforderte 0-Fehler-Strategie<br />
wirksam umzusetzen. Um diese anspruchsvollen<br />
Anforderungen zu erfüllen,<br />
beschreitet Elmos innovative Wege und<br />
investiert in aufwändige Test- und Qualitätsmaßnahmen.<br />
Künstliche Alterung<br />
Dazu zählt auch der sog. Burn-in-Prozess.<br />
Dabei wird ein Board mit mehreren<br />
Chips bestückt und bei einer erhöhten<br />
Temperatur dynamisch betrieben, um<br />
eine künstliche Alterung – wie <strong>im</strong> Zeitraffer<br />
– herbeizuführen. Das ist deshalb<br />
sinnvoll, weil die Ausfallwahrscheinlichkeit<br />
eines Chips zu Beginn und zu Ende<br />
48 Inspect 4/2006<br />
Wie mit Bildverarbeitung Microchips getestet werden<br />
des Lebenszyklus höher ist. Durch die<br />
künstlich herbeigeführte Alterung wird<br />
der Beginn des Lebenszyklus s<strong>im</strong>uliert.<br />
Besteht ein Chip diesen Test, ist die Ausfallwahrscheinlichkeit<br />
über den geplanten<br />
Einsatzzeitraum <strong>im</strong> Fahrzeug<br />
äußerst gering.<br />
Allerdings: Wenn ein Fehler <strong>im</strong> elektrischen<br />
Test nach Burn In auftritt, muss<br />
das nicht unbedingt am Chip liegen. Deshalb<br />
werden bei Elmos die kompletten<br />
Bauteile auf den Burn-in-Boards zusätzlich<br />
optisch geprüft, bevor die künstliche<br />
Alterung eingeleitet wird. Dabei kommt<br />
es darauf an, dass jedes Element präzise<br />
in den vorgesehenen Sockel gesetzt<br />
wurde, dass die „Beinchen“ (Leads) –<br />
also die Anschlüsse des Chips – vollständig,<br />
unversehrt, richtig gebogen und ex-<br />
akt ausgerichtet sind und dass der<br />
Aufdruck auf dem Bauteil, das sog.<br />
Marking, korrekt ist.<br />
Augenscheinlich korrekt<br />
Abb. 2 + 3: Inboardprüfung mit Asentics Bildverarbeitungs-Systemen<br />
„Früher wurden diese Tests von Mitarbeitern<br />
visuell durchgeführt“, erklärt<br />
Thomas Lehner, der als Leiter Engineering<br />
Backend auch für die Null-Fehler-<br />
Qualität der Bauteile verantwortlich ist.<br />
„Aber dieses Verfahren erwies sich als zu<br />
unsicher, zu zeitaufwändig und zu<br />
teuer.“<br />
Als Alternative kam eine automatische<br />
Prüfung mit industrieller Bildverarbeitung<br />
in Betracht. „Allerdings braucht<br />
man dafür einen Anbieter, der eine<br />
Lösung konsequent anwenderspezifisch
Abb. 4: 6 Zoll Waferproduktion <strong>im</strong> Frontend<br />
(Reinraum)<br />
entwickeln kann, der Erfahrungen mit<br />
dem Sondermaschinenbau hat und der<br />
auch die Anforderungen der Halbleiter-<br />
Industrie gut kennt. Eine Standard-<br />
Applikation hätte uns hier nicht weitergeholfen.“<br />
Mit dem Siegener Bildverarbeitungs-<br />
Spezialisten Asentics habe man dann den<br />
idealen Partner gefunden. „Die verfügen<br />
nicht nur über Erfahrungen und entsprechende<br />
Referenzen in der Halbleiter-<br />
Industrie, sondern können auch anwenderspezifische<br />
Lösungen entwickeln.<br />
Außerdem hat Asentics das erforderliche<br />
Know-how, um die Bildverarbeitungs-<br />
Software nahtlos in die bereits bestehenden<br />
Steuerungs- und Datenbanksysteme<br />
von Elmos zu integrieren.“<br />
Die Bildverarbeitungs-Lösung<br />
Die von Asentics entwickelte Lösung besteht<br />
aus einem Prüfstand, der mit einem<br />
Codeleser, einer hochauflösenden Kamera<br />
und einer aufwändigen und besonders<br />
wirkungsvollen Pyramidenbeleuchtung<br />
ausgerüstet ist.<br />
Im Rahmen des Prüfvorgangs werden<br />
die bestückten und mit einem Barcode<br />
versehenen Boards vom Prüfstand aufgenommen.<br />
Der Codeleser BR 613 von<br />
Asentics identifiziert das Board anhand<br />
des Barcodes und gibt – wenn alle Daten<br />
st<strong>im</strong>men – der Kamera das „Go!“ Anhand<br />
des Codes sucht sich die Kamera ihre Referenzposition,<br />
bewegt sich in ihre Aufnahmestellung<br />
und erstellt von jedem<br />
einzelnen Bauteil in weniger als einer<br />
Sekunde drei verschiedene, opt<strong>im</strong>al ausgeleuchtete<br />
Bilder, die sämtliche Prüfauf-<br />
A u t o m A t i o n<br />
gaben abbilden. Darüber hinaus prüft<br />
das Bildverarbeitungs-System auch das<br />
korrekte Marking.<br />
Bei der Auswertung, die zeitgleich erfolgt,<br />
werden neben dem Marking die<br />
PIN 1-Position der Chips sowie die Anordnung<br />
und exakte Stellung der Leads<br />
blitzschnell vermessen und mit den Referenzbildern<br />
abgeglichen, die <strong>im</strong> System<br />
hinterlegt sind. Anschließend wird in einer<br />
Matrix angezeigt, welche Bauteile <strong>im</strong><br />
Board fehlerhaft sind und welche konkreten<br />
Fehler vorliegen. Anhand dieser<br />
Anzeige ist es möglich, an einem Nacharbeitsplatz<br />
manuell Korrekturen vorzunehmen,<br />
bevor das bestückte Board dem<br />
Burn-in-Prozess zugeführt wird.<br />
Schneller Rechner und modernes Software-Konzept<br />
für komplexe Aufgaben<br />
Gesteuert wird der komplizierte Prozess<br />
von dem Bildverarbeitungsrechner Videolab<br />
G 7-4, der ebenfalls von Asentics entwickelt<br />
wurde. Mit besonders schnellen<br />
Prozessoren und modernsten Schnittstellen<br />
ausgestattet, kann dieser die komplexen<br />
Aufgaben problemlos bewältigen.<br />
Darüber hinaus bietet das Software-<br />
Konzept eine weitere logische Ergänzung<br />
des Systems. Leichte Bedienbarkeit und<br />
intuitive Benutzerführung sind übersichtlich<br />
nach Sinnzusammenhängen geordnet<br />
und erleichtern dem Anwender so<br />
die Arbeit mit der gesamten Anlage.<br />
„Mit diesem System wird die geforderte<br />
optische Prüf-Aufgabe gelöst“,<br />
stellt Thomas Lehner zufrieden fest.<br />
„Man kann wirklich sagen, dass hier eine<br />
sehr gute Lösung entwickelt wurde, die<br />
es uns ermöglicht, die Bestückqualität<br />
der Bauteile auf den BI-Boards schnell,<br />
effizient und vor allen Dingen zuverlässig<br />
zu prüfen.“<br />
� Kontakt<br />
Axel Scharbert<br />
Asentics GmbH & Co. KG, Siegen<br />
tel.: 0271/30391-0<br />
Fax: 0271/30391-19<br />
a.scharbert@asentics.de<br />
www.asentics.de
A u t o m A t i o n<br />
Haptik optisch geprüft<br />
Louis Braille war drei Jahre alt, als er sein<br />
Augenlicht in Folge eines Unfalls in der<br />
väterlichen Schuhmacherwerkstatt verlor.<br />
Mit sechzehn Jahren hatte er die Blinden-<br />
schrift, heute als Braille-Schrift bekannt,<br />
fertig entwickelt. Die Braille-Schrift arbei-<br />
tet mit Punktemustern, die so in das Papier<br />
geprägt werden, dass sie als Erhöhungen<br />
mit den Fingerspitzen zu ertasten sind. Die<br />
automatische Qualitätskontrolle von<br />
Braille-Beschriftung, z. B. auf Medikamentenverpackungen,<br />
erfolgt optisch, also<br />
nicht tastend, da berührende Messungen<br />
das Messobjekt, den Braille-Punkt, verändern<br />
könnten und viel zu langsam sind. Als<br />
aussichtreichstes Verfahren, die geprägte<br />
Beschriftung trotz farbiger Aufdrucke eindeutig<br />
zu prüfen, erwies sich das Prinzip<br />
„Shape from Shading“. Dieses wurde von<br />
der in-situ GmbH konsequent zu einem<br />
industrietauglichen Produkt weiterentwickelt:<br />
DotScan.<br />
Gestalt durch Licht und Schatten<br />
Künstler wie Leonardo da Vinci und<br />
Rembrandt haben mit der Hell-Dunkel-<br />
Malerei die Illusion von Tiefe in zweid<strong>im</strong>ensionalen<br />
Bildern zu hoher Perfektion<br />
entwickelt (Abb. 1). Das optische Messverfahren<br />
„Shape from Shading“ (SfS)<br />
kehrt dieses Prinzip um. Ein einfaches<br />
Beispiel verdeutlicht dies: Wird eine<br />
weiße Marmorstatue von einer Seite beleuchtet,<br />
so erhalten wir durch die Schattierung,<br />
also die formabhängige Helligkeitsverteilung,<br />
einen dreid<strong>im</strong>ensionalen<br />
Eindruck. N<strong>im</strong>mt man diese Helligkeitsverteilung<br />
(Shading) eines Objektes mit<br />
einer Kamera auf, so kann daraus mit<br />
Abb. 2: Intensitätsprofile eines Würfels, der aus<br />
zwei unterschiedlichen Richtungen beleuchtet<br />
wurde.<br />
50 Inspect 4/2006<br />
Blindenschriftinspektion durch Shape-from-Shading<br />
Abb. 1: Dame mit dem Hermelin (1490) von<br />
Leonardo da Vinci<br />
den entsprechenden Algorithmen dessen<br />
3D-Form (Shape) berechnet werden.<br />
Abbildung 2 zeigt das Beispiel eines<br />
weißen Würfels, der ohne Änderung der<br />
Aufnahmeanordnung aus zwei verschiedenen<br />
Richtungen beleuchtet wird. Offenbar<br />
unterscheiden sich die Intensitätsprofile<br />
über eine Bildzeile (rote Linie)<br />
in den beiden Bildern sehr deutlich. Die<br />
Nutzung solcher charakteristischer Helligkeitsverteilungen<br />
zur Formbest<strong>im</strong>mung<br />
liegt nahe.<br />
Projektchronologie<br />
Zur Entwicklung des Blindenschrift-<br />
Inspektionssystems DotScan trafen einige<br />
günstige Umstände zusammen: Die<br />
richtigen Firmen und Hochschulen haben<br />
zur richtigen Zeit zusammengefunden,<br />
die Problematik war aktuell und es<br />
standen mittlerweile schnelle Rechner<br />
zur Verfügung, mit denen die zwar schon<br />
länger bekannten, aber doch recht rechenintensiven<br />
Algorithmen in annehmbarer<br />
Zeit ausgeführt werden konnten.<br />
Den Anstoß zur Entwicklung von<br />
DotScan gab die Firma Kroha GmbH, ein<br />
Hersteller von Faltschachteln für Medizinprodukte.<br />
Nachdem die Notwendigkeit<br />
zur Prüfung der Blindenschrift offenkundig<br />
war, suchte dieses innovative
Unternehmen einen Partner, der eine optische<br />
Lösung liefern konnte. Über die<br />
Fa. Wenzel Präzision, einem Hersteller<br />
von Koordinatenmessgeräten, wurde der<br />
Kontakt zu dem Bildverarbeitungsspezialisten<br />
in-situ GmbH aus Sauerlach bei<br />
München hergestellt. Danach wurde eine<br />
Studie bei Prof. Dr. Hartmut Ernst von<br />
der Fachhochschule Rosenhe<strong>im</strong> in Auftrag<br />
gegeben, den Stand der Technik hinsichtlich<br />
der Blindenschriftinspektion zu<br />
ermitteln und innovative Lösungsmöglichkeiten<br />
zu analysieren. Wichtige Kriterien<br />
waren<br />
�<br />
�<br />
�<br />
�<br />
�<br />
die Messgeschwindigkeit,<br />
die Messunsicherheiten in x-, y- und<br />
z-Richtung,<br />
ein einfacher Messaufbau,<br />
die Robustheit des Verfahrens,<br />
und natürlich ein konkurrenzfähiger<br />
Preis.<br />
Hierzu wurden neun verschiedene 3D-<br />
Messverfahren unter die Lupe genommen<br />
und auf Tauglichkeit überprüft.<br />
Letztendlich blieben drei Verfahren übrig:<br />
�<br />
�<br />
�<br />
Shape from Shading (SfS)<br />
Phasenshiftverfahren<br />
Laser- Lichtschnittverfahren<br />
Von diesen drei Verfahren hob sich SfS<br />
besonders ab, da es ohne scannende<br />
Mechanik und ohne aufwändige und<br />
teure Linienprojektoren auskommt. Damit<br />
sprachen neben der Messgeschwindigkeit<br />
und der zu erwartenden Messgenauigkeit<br />
auch die Kosten für SfS.<br />
Algorithmus zur Formbest<strong>im</strong>mung<br />
Das Verfahren zur Formbest<strong>im</strong>mung arbeitet<br />
in zwei Stufen: Zunächst werden<br />
aus den detektierten Grauwerten eines<br />
Objektes die Gradienten der Oberfläche<br />
in X- und Y-Richtung ermittelt. Die von<br />
einer Kamera aufgenommene Intensität<br />
hängt von folgenden Parametern ab: der<br />
Position der Kamera und deren Licht-<br />
Abb. 4: Funktionsprinzip<br />
von Shape from Shading:<br />
Die Beleuchtung mit dem<br />
Richtungsvektor s verursacht<br />
eine Helligkeitsintensität<br />
auf dem Oberflächenelement<br />
mit dem<br />
Normalenvektor n, die<br />
von der Kamera gemessen<br />
wird. Je nach der<br />
Ausrichtung der Oberflächenelemente<br />
ergibt sich<br />
so eine Schattierung, in<br />
der die Information der<br />
Oberflächenform steckt.<br />
Also lässt sich aus der<br />
Schattierung auf die<br />
Form der Oberfläche<br />
schließen.<br />
Abb. 3: Abbildung einer Faltschachtel mit Braille-<br />
Punkten und Aufdruck. Die hier angewandte<br />
seitliche Beleuchtung hebt die Braille-Punkte für<br />
dieses Bild bereits besser hervor.<br />
empfindlichkeit, der Richtung und der<br />
Intensität des eingestrahlten Lichtes, den<br />
material- und ortsabhängigen Reflexionskoeffizienten<br />
(also dem Aufdruck)<br />
sowie dem Winkel zwischen dem bekannten<br />
Richtungsvektor des einfallenden<br />
Lichts und der unbekannten<br />
Normalen des betrachteten Oberflächenelements<br />
(Abb. 4), aus der die gesuchten<br />
Gradienten folgen.<br />
Die Flächennormalen sind durch die<br />
X- und Y-Gradienten der zugehörigen<br />
Objektoberflächenelemente definiert,<br />
also durch die partiellen Ableitungen der<br />
Oberfläche z(x,y) nach x und y. Daher<br />
können diese Gradienten aus der aufgenommenen<br />
Intensität ermittelt werden.<br />
Zur Berechnung der beiden Gradienten<br />
und El<strong>im</strong>inierung der als Albedo (Produkt<br />
aus Kameraempfindlichkeit, Lichtintensität<br />
und Reflexionskoeffizienten für<br />
diffuse Reflektion) bezeichneten dritten<br />
Unbekannten sind jedoch mindestens<br />
drei Aufnahmen mit unterschiedlichen,<br />
bekannten Positionen der Lichtquelle erforderlich.<br />
Zur Erhöhung der Messgenauigkeit<br />
wird bei DotScan mit vier<br />
Aufnahmen gearbeitet. Im zweiten, rechnerisch<br />
aufwändigeren Schritt, wird<br />
dann durch Integration über die Gradienten<br />
eine Höhenkarte erstellt.<br />
Umsetzung in die Praxis<br />
A u t o m A t i o n<br />
Nun lag es bei in-situ, mit diesen Erkenntnissen<br />
ein industrietaugliches Gerät<br />
zu entwickeln. Der SfS-Algorithmus<br />
wurde nicht neu entwickelt, sondern in<br />
Zusammenarbeit mit der Fa. 3D-Shape,<br />
einem Spin-off der Uni Erlangen, an die<br />
Gegebenheiten angepasst und opt<strong>im</strong>iert.<br />
Außerdem mussten aufwändige Bildvorverarbeitungsfilter<br />
entwickelt werden.<br />
Schließlich sind die Faltschachteln bedruckt<br />
(Abb. 3), was jedem optischen<br />
Verfahren schnell die Grenzen des Möglichen<br />
aufzeigt. Die vorverarbeiteten Bilder<br />
wurden nun dem SfS-Algorithmus<br />
zugeführt, der einen 3D-Datensatz errechnet<br />
(Abb. 5). Durch Analyse dieser<br />
Punktewolken konnte dann die Position<br />
und Höhe der Braille-Punkte ermittelt<br />
werden. Unter anderem ist dabei eine<br />
Inspect 4/2006<br />
51
A u t o m A t i o n<br />
Abb. 5: 3D-Datensatz, aus dem die Blindenschrift-Punkte<br />
deutlich hervorstechen. Es ist<br />
leicht ersichtlich, dass über einen Höhenschwellwert<br />
zu niedrig geprägte Punkte sicher erkannt<br />
werden können.<br />
mögliche Wölbung der Faltschachtel zu<br />
erkennen und aus der Analyse zu el<strong>im</strong>inieren.<br />
Über ein Kalibrationsverfahren<br />
können die Punkthöhen mit einer Messsicherheit<br />
von einigen hundertstel Mill<strong>im</strong>etern<br />
best<strong>im</strong>mt werden.<br />
Im letzten Schritt müssen die Punkte<br />
den Braille-Zeichen zugeordnet werden.<br />
Hier hat sich der Zeichensatz „Marburg-<br />
Medium“ durchgesetzt, der Punktabstand,<br />
Zeichenabstand und Zeilenabstand<br />
definiert. Jedoch gibt es nicht nur<br />
Abweichungen von diesem Standard,<br />
sondern auch in der Punkteform: Die<br />
Punkte können pyramidenförmig, plateauartig<br />
abgeflacht oder rund sowie mit<br />
verschiedenen Durchmessern ausgeformt<br />
sein. Alle diese Punktformen werden<br />
erkannt. Der Braille-Definition gemäß<br />
werden die Punkte in einem Raster<br />
gesucht, das über die Blindenschrift gelegt<br />
wird, wobei diese auch leicht schräg<br />
präsentiert werden kann.<br />
Damit DotScan nicht am Bedarf der<br />
Faltschachtelindustrie vorbei entwickelt<br />
wurde, sind mehrere Präsentationszyklen<br />
bei der Fa. Kroha eingeplant worden.<br />
Zusätzlich hat Kroha zwei Mitbewerber,<br />
die Firmen August Faller KG und<br />
Theis GmbH & Co. KG eingeladen, damit<br />
möglichst alle relevanten Aspekte berücksichtigt<br />
werden. Schlussendlich waren<br />
alle drei Firmen äußerst zufrieden<br />
und sprachen eine Empfehlung zugunsten<br />
DotScan aus.<br />
Zu erwähnen ist noch, dass DotScan<br />
zwar zur 3D-Erfassung von Braille-Punkten<br />
entwickelt wurde, dass aber eine<br />
gleichzeitige Aufdruckkontrolle als Software-Erweiterung<br />
ohne Änderung der<br />
Hardware ebenfalls möglich ist.<br />
52 Inspect 4/2006<br />
Abb. 6: Blick in die Messkammer von DotScan. Man erkennt die vier telezentrischen Beleuchtungen, die<br />
das Messfeld gleichmäßig ausleuchten. Messfeld und Skaleneinheit befinden sich auf der Schublade.<br />
Zusätzlich können weitere kundenspezifischen<br />
Anpassungen an dem Basissystem<br />
vorgenommen werden, wie z. B.<br />
Bildfeldgrößenanpassungen, höher auflösende<br />
Kamera, mehrere Kameras, automatische<br />
Prüflingszuführungen (Feeder).<br />
Einschränkungen<br />
SfS liefert die 3D-Form des betrachteten<br />
Objekts, jedoch keine direkten absoluten<br />
Abstands- oder Höhenmaße, wie z. B. das<br />
Triangulationsverfahren. Informationen<br />
über die 3D-Form werden aus der Schattierung<br />
stetiger Oberflächen, d. h. weicher<br />
Konturen gewonnen. Auf steile<br />
Kanten und Hinterschneidungen, die<br />
Schatten werfen, ist der SfS-Algorithmus<br />
nicht ausgelegt. Braille-Punkte, aber<br />
auch andere Prägeschriften oder Schlagzahlen<br />
sind für dieses Verfahren opt<strong>im</strong>al<br />
geeignet.<br />
Außerdem benötigt auch SfS, genauso<br />
wie andere optische Verfahren, optisch<br />
gutmütige Oberflächen. Ungünstig sind<br />
transparente oder auch halbtransparente<br />
Medien (z. B. Milchglas) sowie stark<br />
spiegelnde Oberflächen, da in dem Verfahren<br />
nur diffuse Reflektion berücksichtigt<br />
wird. Es zeigte sich jedoch, dass die<br />
Blindenschrift auch auf metallischen Patrizen<br />
und spiegelnden Faltschachteln<br />
gut gelesen wird.<br />
Bildaufnahme und Bedienung<br />
DotScan besteht weitestgehend aus Standard-Komponenten,<br />
die in ein kompaktes<br />
19“-Rack integriert wurden. Im oberen<br />
Bereich des Racks ist ein Industrie-PC<br />
Abb. 7: Die grafische Oberfläche von DotScan<br />
wurde bewusst einfach gehalten. Die Bedienung<br />
ist entsprechend problemlos, insbesondere mit<br />
Hilfe der mitgelieferten Dokumentation.<br />
montiert und <strong>im</strong> unteren eine Schublade,<br />
in die die Prüflinge eingelegt werden.<br />
Dazwischen befindet sich der Messraum<br />
mit einer mittig positionierten hochauflösenden<br />
digitalen Kamera und vier symmetrisch<br />
angeordneten, telezentrischen<br />
LED-Leuchten. Nacheinander werden<br />
vier Bilder aufgenommen und <strong>im</strong> IPC gespeichert.<br />
Bei jeder Aufnahme ist eine<br />
der Leuchten eingeschaltet. Die Aufnahmezeit<br />
ist daher, verglichen mit scannenden<br />
Systemen, sehr kurz.<br />
Zur Reduktion störender spiegelnder<br />
Reflexe wird blaues Licht verwendet. Die<br />
vier Bilder werden nun, wie oben beschrieben,<br />
ausgewertet. Hervorzuheben<br />
ist ferner die Robustheit des Verfahrens<br />
und die mechanische Einfachheit, da<br />
keine beweglichen Teile erforderlich<br />
sind. In einer Messung kann ein Bildbereich<br />
mit einer Breite von bis zu 150 mm<br />
erfasst werden. Die Auswertezeit variiert<br />
mit der Breite des Bildbereichs; typische<br />
Werte sind ca. 300 ms.
Die Bedienung der grafischen<br />
Oberfläche (GUI) von<br />
DotScan (Abb. 7) wurde in enger<br />
Kooperation mit Vertretern<br />
der Faltschachtelindustrie,<br />
den Firmen Kroha, Faller<br />
und Theis, entwickelt. Deren<br />
Anregungen und Bedürfnisse<br />
wurden direkt umgesetzt. Im<br />
Vordergrund steht eine möglichst<br />
einfache Bedienung und<br />
100 %-ige Detektion fehlerhaft<br />
geprägter Blindenschrift-<br />
Punkte. Besonders wichtig ist<br />
es, die Faltschachteln in der<br />
Form zu prüfen, wie sie einem<br />
Blinden letztendlich vorliegen,<br />
also von oben.<br />
Zur Inspektion muss ein<br />
Prüfling in das Prüffeld der<br />
Schublade eingelegt werden.<br />
Geprüft wird <strong>im</strong> Vergleich mit<br />
einer das Sollmuster enthaltenden<br />
pdf-Datei oder einem<br />
Referenztext. Die Ergebnisse<br />
können in einem Prüfbericht<br />
dokumentiert und ausgedruckt<br />
oder als pdf-Datei abgespeichert<br />
werden. Nur den<br />
Inhalt des Blindenschrifttextes<br />
anzuzeigen ist natürlich<br />
ebenfalls möglich – und<br />
zwar auch bei den zur Prägung<br />
verwendeten Patrizen.<br />
Neben dem deutschen Braille-<br />
Schriftsatz können über einen<br />
Menüpunkt auch weitere internationale,<br />
Schriftsätze ausgewählt<br />
werden.<br />
Zusammenfassung und<br />
Ausblick<br />
Mit DotScan wurde ein robustes,<br />
schnelles, bedienerfreundliches<br />
aber auch preiswertes<br />
Inspektions- und<br />
Lesesystem für Blindenschriften<br />
(Braille-Code) auf<br />
bedruckten Faltschachteln<br />
entwickelt. Grundlage ist die<br />
3D-Formerfassung durch den<br />
Algorithmus „Shape from<br />
Shading“. Die Entwicklung<br />
des Systems wurde von Vertretern<br />
der Faltschachtelindustrie<br />
begleitet, so dass deren<br />
Bedürfnisse konsequent<br />
umgesetzt wurden.<br />
Die Einsatzmöglichkeiten<br />
dieser 3D-Formerfassung<br />
sind natürlich auch auf andere<br />
Aufgabenstellungen anwendbar,<br />
und zwar <strong>im</strong>mer<br />
dann, wenn es um stetige, erhabene<br />
Strukturen geht. Mög-<br />
liche Einsatzbereiche sind die<br />
Vermessung oder Lesung von<br />
Prägeschriften (z. B. von Symbolen<br />
und Schriften auf Reifenwänden)<br />
und Schlagzahlen.<br />
Aber auch exotischere<br />
Anwendungen wie etwa die<br />
Analyse der Knittermuster<br />
von Textilien oder Oberflächentexturen<br />
sowie die Beurteilung<br />
von Oberflächenfehlern,<br />
wie z. B. Riefen oder<br />
Kratzer auch auf glänzenden<br />
Materialien, sind möglich.<br />
� Kontakt<br />
Dipl.-Inf. Sandra Söll,<br />
in-situ GmbH & Co. KG<br />
Dr. Helge Moritz,<br />
in-situ GmbH & Co. KG<br />
Prof. Dr. Hartmut Ernst,<br />
Fachhochschule<br />
Rosenhe<strong>im</strong><br />
A u t o m A t i o n<br />
in-situ GmbH & Co. KG, Sauerlach<br />
tel.: 08104/6482-30<br />
Fax: 08104/6482-43<br />
vision@in-situ.de<br />
www.in-situ.de<br />
Fachhochschule Rosenhe<strong>im</strong>,<br />
Fachgebiete digitale Bildverarbeitung<br />
numerik und informatik,<br />
Rosenhe<strong>im</strong><br />
tel.: 08031/805-123<br />
Fax: 08031/805-122<br />
ernst@fh-rosenhe<strong>im</strong>.de<br />
www.fh-rosenhe<strong>im</strong>.de<br />
Inspect 4/2006<br />
53
A u t o m A t i o n<br />
Pfand,<br />
wem Pfand gebührt<br />
Zur Jahrtausendwende war die gängige Meinung, dass Bildverarbeitung zu teuer für ein<br />
Pfandsystem sei. Sechs Jahre später hat sie sich ökonomisch durchgesetzt und stellt<br />
das zentrale Element für eine sichere und zuverlässige Annahme von Einweggetränke<br />
verpackungen dar. Obwohl durch System und Vorgabenänderungen viele Hürden in kürzes<br />
ter Zeit zu nehmen waren, werden seit dem 1. Mai 2006 deutschlandweit Dosen und Mehr<br />
wegflaschen in einem einheitlichen Pfandsystem entgegengenommen. Mittendrin bei der<br />
Realisierung: Die Komponenten und das Knowhow der Matrix Vision GmbH.<br />
Die Aussage „in kürzester Zeit“ kann der<br />
eine oder andere auch zynisch auffassen.<br />
Immerhin ist durch die „Verordnung<br />
über die Vermeidung und Verwertung<br />
von Verpackungen“ von 1991 durch den<br />
damaligen Bundesumweltminister Klaus<br />
Töpfer aus ökologischen Gründen der<br />
Grundstein für das heutige Pfandsystem<br />
gelegt worden. In Folge dieser damaligen<br />
Best<strong>im</strong>mungen wurde seit dem 1. Januar<br />
2003 ein Pflichtpfand für Getränkeverpackungen<br />
erhoben, außerdem wurde<br />
der Wirtschaft neun Monate Zeit eingeräumt,<br />
um das System umzustellen. Da<br />
stellt sich doch die Frage, warum es bis<br />
2004 noch <strong>im</strong>mer kein einheitliches<br />
Pfandsystem gab?<br />
Abb. 1: Pfandlogo der Deutschen Pfandsystem<br />
GmbH<br />
54 Inspect 4/2006<br />
Intelligente Kamera validiert Einweggetränkeverpackungen<br />
Obgleich sich der Handel am 1. Oktober<br />
2003 zu einem einheitlichen System<br />
verpflichtete, verzögerte sich die Einführung<br />
dieses Systems. Eine Verfassungsbeschwerde<br />
und ein Urteil des<br />
Europäischen Gerichtshof (C463/01,<br />
14. Dezember 2004), welches das Dosenpfand<br />
bestätigte, aber den ausländischen<br />
Getränkeherstellern mehr Zeit einräumte,<br />
verhinderte eine schnelle Umsetzung<br />
des Pfandsystems und sorgte für<br />
sog. Insellösungen einzelner Handelsketten.<br />
Erst <strong>im</strong> Juni 2005 wurde die Deutsche<br />
Pfandsystem GmbH (kurz DPG) gegründet<br />
und mit der Aufgabe betraut, bis<br />
zum 1. Mai 2006 bundesweit ein einheitliches<br />
Pfandsystem für Einweggetränkeverpackungen<br />
zu schaffen.<br />
Neues Pfandlogo mit neuem Sicherheitsverfahren<br />
Als einziges Erkennungsmerkmal besaßen<br />
Einweggetränkeverpackungen bislang<br />
einen Barcode. Mit Pfandautomaten<br />
und industrieller Bildverarbeitung<br />
konnten so innerhalb der einzelnen<br />
Insellösungen Getränkeverpackungen<br />
klassifiziert und ohne Personal entgegengenommen<br />
werden. Die neue Verpackungsordnung<br />
verpflichtet nun die<br />
Händler mit einer Verkaufsfläche ab 200<br />
m², auch sämtliche Getränkeverpackungen,<br />
die sie selbst nicht in Verkehr gebracht<br />
haben, anzunehmen. Damit die<br />
Händler zwischen Verpackungen aus<br />
dem deutschen Pfandsystem und ausländischen<br />
Verpackungen unterscheiden<br />
können, hat die DPG mit dem Pfandlogo<br />
ein weiteres Erkennungsmerkmal eingeführt.<br />
Mit diesem Logo sind die Händler<br />
vor Pfandbetrugsversuchen sicher.<br />
Um das Pfandlogo fälschungssicher zu<br />
machen, wurde zunächst ein UVVerfahren<br />
getestet. Nachdem aber <strong>im</strong> November<br />
2005 das UVSicherheitsverfahren in<br />
einem Feldversuch überlistet wurde, entschied<br />
sich die DPG für ein Infrarot<br />
Sicherheitsverfahren. Mit Unterstützung<br />
von Matrix Vision und anderen Bildverarbeitern<br />
wurde das Sicherheitsverfahren<br />
definiert und ein eng gesteckter Zeitplan<br />
für eine Neuentwicklung eines<br />
Lesesystems für das Pfandlogo ausgearbeitet.<br />
Die Neuausrichtung des Sicherheitsverfahrens<br />
sechs Monate vor der<br />
Einführung hatte jedoch einen Nachteil:<br />
Die Hersteller von Rücknahmeautomaten<br />
konnten in der verbleibenden Zeit keine
Lesesysteme für ihre Automaten entwickeln,<br />
welche zusätzlich das Pfandlogo<br />
validieren können.<br />
Modulares Lesesystem für Rücknahmeautomaten<br />
Mit dem Security Mark Reader mvSMR<br />
hat Matrix Vision auf Basis der bewährten<br />
mvBlueLynx Technologie in kurzer<br />
Zeit ein modulares Lesesystem entwickelt.<br />
Die intelligente Kamera als<br />
Kameraeinheit bietet zwei wesentliche<br />
Vorteile: Sie kann zum einen die erfassten<br />
Bilder direkt auf der Kameraeinheit<br />
verarbeiten und zum anderen die unterschiedlichen<br />
Belichtungsfolgen der Beleuchtungseinheiten<br />
zum Erkennen des<br />
Pfandlogos steuern. Da der Rücknahmeautomat<br />
nur das positive oder negative<br />
Ergebnis von der Kameraeinheit er<br />
Abb. 2: Die intelligente Kamera mvBlueLYNX diente<br />
als Grundlage für die Entwicklung des mvSMR<br />
hält, muss kein Rücknahmeautomat neu<br />
entwickelt werden.<br />
Eine Nachrüstung mit dem mvSMR<br />
und ein Update der Firmware reichen<br />
für die Aktualisierung der Automaten<br />
aus. Für die Verarbeitung der Informationen<br />
besitzt die Kameraeinheit einen<br />
400 MHz starken Prozessor, der ausreichend<br />
Leistung für jetzige und zukünftige<br />
Aufgaben des Lesesystems zur Verfügung<br />
stellt. Des Weiteren gehört ein<br />
1280 x 1024 Pixel großer Sensor zur<br />
Kameraeinheit. Dieser Sensor ist nötig,<br />
da Einwegverpackungen beidseitig eingelegt<br />
werden können und dementsprechend<br />
ein größeres Sichtfeld von der<br />
Kameraeinheit abgedeckt werden muss.<br />
Der mvSMR unterstützt Verpackungsdurchmesser<br />
bis zu 120 mm und eine<br />
Rotationsgeschwindigkeit von bis zu 25 m/<br />
min. Der Erkennungsalgorithmus ist robust<br />
und zuverlässig und kann das Sicherheitskennzeichen<br />
auch auf leicht deformierten<br />
und verschmutzten Verpackungen<br />
identifizieren. Dessen ungeachtet weist<br />
die DPG darauf hin, auf den Zustand der<br />
Getränkeverpackungen zu achten. Das<br />
Pfandlogo und der Barcode dürfen weder<br />
beschädigt noch verschmutzt sein.<br />
Auf Grund seiner technischen Eigenschaften<br />
und des kompakten und modularen<br />
Aufbaus kann der mvSMR auf<br />
die jeweiligen Anforderungen der unterschiedlichen<br />
Hersteller von Zählzentren<br />
und Rücknahmeautomaten angepasst<br />
und nachgerüstet werden.<br />
Zukünftige Erweiterungen des Pfandsystems<br />
mit anderen oder zusätzlichen<br />
Sicherheitsprüfungen können durch<br />
Abb. 3: mvSMR in Aktion: Überprüfung einer<br />
Getränkeverpackung <strong>im</strong> Rücknahmeautomaten<br />
Onlineaktualisierung der Firmware bewerkstelligt<br />
werden. Damit ist das<br />
System neben möglichen Gesetzesänderungen<br />
auch für denkbare neue<br />
Vorgaben der Deutschen Pfandsystem<br />
GmbH gerüstet.<br />
Fazit<br />
Die fortschreitende Entwicklung der industriellen<br />
Bildverarbeitung ermöglicht<br />
dort den automatisierten Einsatz, wo bisher<br />
aus wirtschaftlichen oder technischen<br />
Gründen, nicht daran zu denken<br />
war. Inzwischen können durch leistungsfähigere<br />
Hardware und opt<strong>im</strong>ierte Softwarekomponenten<br />
binnen kürzester Zeit<br />
zuverlässige und kostengünstige Bildverarbeitungslösungen<br />
entwickelt werden.<br />
Mit dem diesjährigen Firmenjubiläum<br />
kann die Matrix Vision GmbH auf 20<br />
Jahre Erfahrung zurückgreifen und hat<br />
mit der Entwicklung des mvSMR bewiesen,<br />
dass sie ein verlässlicher Lieferant<br />
für Komponenten und Lösungen in<br />
Sachen industrielle Bildverarbeitung ist.<br />
� Kontakt<br />
Dipl.Inform. (FH) Ulli Lansche<br />
matrix Vision, oppenweiler<br />
tel.: 07191/9432-0<br />
Fax: 07191/9432-88<br />
info@matrix-vision.de<br />
www.matrix-vision.de<br />
A u t o m A t i o n<br />
Inspect 4/2006<br />
55
A u t o m A t i o n<br />
Makellose<br />
Außenhaut<br />
Die Bandgeschwindigkeiten in kontinuierlichen<br />
Feuerverzinkungsanlagen liegen je nach Band-<br />
dicke bei bis zu 180 m/min. Damit erreichen<br />
Feuerverzinkungsanlagen eine Tonnenleistung<br />
von über 1000 t pro Tag. Stahlbänder können in<br />
so guter Qualität feuerverzinkt werden, dass<br />
diese heute sogar in Automobilen für Außen-<br />
hautteile (Dach, Kotflügel, ...) eingesetzt wer-<br />
den. Damit rückt natürlich auch die automati-<br />
sierte Qualitätskontrolle an diesen Anlagen<br />
mehr und mehr in den Fokus. Durch Oberflä-<br />
cheninspektion und die anschließende Verar-<br />
beitung der Inspektions- zu Qualitätsdaten<br />
produzieren Stahlproduzenten deutlich höher-<br />
wertige Ware bei opt<strong>im</strong>aler Prozessführung.<br />
Oberflächeninspektionssysteme<br />
wie espresso SI der Parsytec<br />
AG (Aachen, Deutschland)<br />
stellen dem Produzenten<br />
von Stahlbändern verlässliche<br />
und umfassende Informationen<br />
über relevante<br />
Oberflächendefekte in fast allen<br />
Produktionsstufen bereit.<br />
Zusammen mit der Software-<br />
Plattform parsytec 5i ist das<br />
komfortable Erstellen von individuellen<br />
Anwendungen zur<br />
Steigerung der Oberflächenqualität<br />
sowie die Integration<br />
von Oberflächenqualitäts-<br />
daten mit Prozessdaten<br />
durchführbar.<br />
Komplette Steuerung nur<br />
durch Inspektionssysteme<br />
Die komplette und objektive<br />
Steuerung von Bandmaterialien<br />
einschließlich Defektdetektion<br />
und -klassifikation<br />
wird nur durch flexible und<br />
automatische Inspektionssysteme<br />
garantiert. Diese Flexibilität<br />
ist das Fundament der<br />
Parsytec Inspektionssysteme,<br />
die auf komplett Software-<br />
Abb. 2: Parsytecs espresso SI Inspektionssystem für Metalloberflächen<br />
56 Inspect 4/2006<br />
Surface Quality Yield Management in der Feuerverzinkung<br />
Abb. 1: Feuerbeschichtungsanlage<br />
bei Thyssen Krupp Steel AG in<br />
Dortmund mit Parsytec Inspektionssystem<br />
basierter Datenextraktion und<br />
-analyse für alle Arten galvanisierter<br />
Stahlbänder beruhen.<br />
Oberflächeninspektion an<br />
Feuerverzinkungslinien ersetzt<br />
nachfolgende Inspektionen,<br />
die ansonsten für die<br />
Qualitätssicherung unumgänglich<br />
wären. Zudem ist Oberflächeninspektion<br />
ein probates<br />
Werkzeug für die Defektdokumentation,<br />
da sie <strong>im</strong> Gegensatz<br />
zur manuellen Inspektion<br />
nicht von der Produktionsgeschwindigkeit<br />
abhängt, die gerade<br />
bei höheren Geschwindigkeiten<br />
nicht hinreichend<br />
konsistent ist. Letztendlich ist<br />
die Oberflächeninspektion<br />
nicht nur Fehlererkennung,<br />
sondern unterstützt insgesamt<br />
die Prozessentwicklung.<br />
Bestandteile des Inspektionssystems<br />
sind die Oberflä-<br />
chen-Sensoren mit Kameras<br />
und Beleuchtungen für die<br />
Untersuchung der Bandoberflächen,<br />
die mechanischen<br />
und elektrischen Komponenten<br />
für die Linienintegration<br />
und den Schutz gegen äußere<br />
Einflüsse, die Schnittstellen<br />
zu den Datenspeicherfunktionen,<br />
die Rechner für alle<br />
Verarbeitungsaufgaben und<br />
die Terminals für die Inspektion<br />
und das System-Tuning.<br />
Kernstück des Inspektionssystems<br />
ist natürlich die Software<br />
für die Defektdetektion<br />
und -klassifikation, für die<br />
Schnittstellen und Synchronisierung<br />
aller Hardware- und<br />
Software-Komponenten, sowie<br />
die Mensch-Maschine-<br />
Interaktion.<br />
Defekterkennung durch<br />
Paarbildung<br />
Das Oberflächen-Inspektionssystem<br />
tastet die gesamte<br />
Bandoberfläche mit kamerabasierten<br />
Sensoren ab. Es<br />
identifiziert und klassifiziert<br />
alle oberflächenrelevanten
Defekte und stellt die Ergebnisse<br />
auf einer Coil-Map oder<br />
in Form einer statistischen<br />
Übersicht einschließlich der<br />
Defektbilder bereit. Für die<br />
Suche nach Oberflächendefekten<br />
wird jedes Bild in viele<br />
Abschnitte unterteilt, aus denen<br />
Strukturinformationen<br />
extrahiert werden. Diese Informationen<br />
werden dann mit<br />
Prototypen von Hintergrundstrukturen<br />
verglichen. Wurde<br />
ein passendes Paar gefunden,<br />
dann muss es sich um das fehlerfreie<br />
Bild des Hintergrundes<br />
handeln. Der Prototyp wird<br />
anschließend mit diesen neuen<br />
Informationen aktualisiert,<br />
um sich adaptiv an Veränderungen<br />
der Hintergrundstruktur<br />
anzupassen.<br />
Kann die Strukturinformation<br />
jedoch nicht einem bereits<br />
vorhandenen Prototyp<br />
zugeordnet werden, dann enthält<br />
sie eine Anormalität, einen<br />
Defekt. Auf diese Weise<br />
können Parsytecs Inspektionssysteme<br />
verlässlich Materialien<br />
auch mit starken Hintergrundstrukturen<br />
wie z. B.<br />
galvanisierte Materialien, geschliffene<br />
Flächen oder streifige<br />
Oberflächen inspizieren.<br />
Mit der eingesetzten diffusen<br />
Beleuchtung werden selbst<br />
starke Oberflächenstrukturen<br />
beinahe komplett unterdrückt<br />
und Unterschiede zwischen<br />
dem Hintergrund und dem eigentlichen<br />
Defekt besonders<br />
hervorgehoben.<br />
Parsytecs neues Inspektionssystem<br />
espresso SI vereint<br />
alle sinnvollen Sensorarten<br />
mit verschiedenen<br />
Beleuchtungs- und Kameratypen<br />
(Flächen- und Zeilenkameras)<br />
und deckt somit das<br />
gesamte Anwendungsspektrum<br />
<strong>im</strong> Bereich der Metallinspektion<br />
ab.<br />
Intelligente Klassifizierung<br />
Mit Hilfe der Defektklassifikation,<br />
d. h. der Vergabe von<br />
branchenüblichen Namen für<br />
die gefundenen Defekte, wird<br />
ein unmittelbarer Überblick<br />
über die erzeugte Bandqualität<br />
gegeben. Diesen sehr anspruchsvollen<br />
Prozess leistet<br />
<strong>im</strong> Parsytec Inspektionssystem<br />
die „Intelligent Classifier<br />
Abb. 3: Fehlerbild eines Zinkstreifens<br />
Abb. 4: Screenshot einer mit parsytec<br />
5i generierten Anwendung<br />
zur Korrelation von Prozessparametern<br />
einer Verzinkungslinie mit dem<br />
Auftreten von Oberflächenfehlern.<br />
Technology“, ein hierarchisch<br />
aufgebauter Klassifikationsansatz<br />
über mehrere Stufen,<br />
der sowohl Basiswissen aus<br />
vergleichbaren Applikationen<br />
als auch das Know-how der<br />
Inspektoren und Kontextinformationen<br />
über die Fehlerposition<br />
und die Bandhistorie<br />
einbezieht. Trotz der hohen<br />
Komplexität ist dieser Prozess<br />
mit Hilfe von intuitiven Tools<br />
für den Stahlexperten einfach<br />
handelbar.<br />
Auch bei hoher Qualität<br />
der automatischen Klassifikation<br />
ist in einigen strittigen<br />
Fällen die Kontrolle durch<br />
den menschlichen Experten<br />
nach wie vor sinnvoll und gewünscht.<br />
Espresso SI unterstützt<br />
diesen Kundenwunsch<br />
A u t o m A t i o n<br />
wirkungsvoll durch den automatisierten<br />
und präzisen<br />
Bandstopp an von dem Operator<br />
elektronisch gekennzeichneten<br />
Stellen des Bandes.<br />
Je nach Linienaufbau hat der<br />
Operator nun für einige Minuten<br />
Zeit, eine Bandstelle nachzuinspizieren<br />
und eine eventuelle<br />
Reparatur einzuplanen.<br />
Produktionsopt<strong>im</strong>ierung<br />
durch Prozessdatenkorrelation<br />
Parsytec gibt heute mit parsytec<br />
5i dem Stahlhersteller<br />
leistungsfähige Software an<br />
die Hand, um bspw. Korrelationen<br />
zwischen dem Auftreten<br />
von Oberflächenfehlern<br />
und Prozessparametern herzustellen<br />
und daraus unmittelbar<br />
Korrekturen für die<br />
Prozessführung abzuleiten.<br />
Auf diese Weise lassen sich<br />
<strong>klar</strong> Schwankungen der Prozessgeschwindigkeit,<br />
dem<br />
Temperaturverlauf <strong>im</strong> Zinkpott,<br />
der Zugabezeitpunkt von<br />
Zinkbarren und den Strömungsverhältnissen<br />
<strong>im</strong> Zinkpott<br />
den Fehlerhäufungen<br />
von Zinkstreifen und Verunreinigungen<br />
(„Dross“) zuordnen<br />
und damit auch min<strong>im</strong>ieren.<br />
Mittlerweile trägt Parsytec<br />
mit weltweit 19 Inspektionssystemen<br />
an Feuerverzinkungslinien<br />
beträchtlich zur<br />
Produktionsopt<strong>im</strong>ierung bei.<br />
Jüngstes Beispiel hierfür ist<br />
der Auftrag für die Ausstattung<br />
der Feuerverzinkungslinien<br />
5 und 6 bei Posco in den<br />
Kwang-Yang Werken (Korea).<br />
Seit 1999 gab Posco 34 Inspektionssysteme<br />
bei Parsytec<br />
in Auftrag und unter diesen<br />
befanden sich auch sieben<br />
Feuerverzinkungslinien, die<br />
Poscos Vertrauen in Parsytecs<br />
führende Inspektionstechnologie<br />
und die daraus erwachsende<br />
Wertschöpfung nachhaltig<br />
dokumentieren.<br />
� Kontakt<br />
Dr. Steffen Burkhardt<br />
Elisa Jannasch<br />
Parsytec AG, Aachen<br />
tel.: 0241/9696-600<br />
Fax: 0241/9696-500<br />
jan@parsytec.de<br />
www.parsytec.de
A u T o m A T i o n<br />
Sauberer Schnitt<br />
24 % des Umsatzes der deutschenBildverarbeitungsunternehmen<br />
wurde <strong>im</strong> letzen Jahr<br />
mit nichtindustriellen Anwendungen<br />
erzielt. Man denkt an<br />
Postsortierung, Verkehrsüberwachungssysteme,Mikroskopie.<br />
Aber denken Sie auch an<br />
Weinberge?<br />
Die automatische Erkennung<br />
von Pfählen zur Unterscheidung<br />
von Rebstöcken <strong>im</strong> Weinberg<br />
ist einer von mittlerweile<br />
einer ganzen Reihe von Beiträgen,<br />
die die Bildverarbeitung<br />
zur Automatisierung der<br />
Landwirtschaft leistet.<br />
Der Winzer spart Zeit bei<br />
der Pflege seines Weinbergs,<br />
die er dann getrost in den<br />
Ausbau seiner Weine investieren<br />
kann. Das freut dann<br />
auch den Bildverarbeiter.<br />
Nach der Weinlese müssen<br />
die Rebstöcke für das nächste<br />
Jahr zurück geschnitten werden.<br />
Dazu fährt ein Traktor<br />
mit einem sog. Vorschneider<br />
die Reihen <strong>im</strong> Weinberg entlang<br />
und beschneidet die Rebstöcke<br />
<strong>im</strong> Vorbeifahren. Da<br />
zwischen den Rebstöcken in<br />
regelmäßigen Abständen<br />
Pfähle für die Spanndrähte<br />
gesetzt sind, muss der Fahrer<br />
das Schneidwerkzeug vor je-<br />
dem Pfahl per Knopfdruck<br />
öffnen. Das erfordert die ständige<br />
Aufmerksamkeit des<br />
Fahrers und ist nur in langsamer<br />
Fahrt möglich. WesentlichesUnterscheidungsmerkmal<br />
der Pfähle<br />
gegenüber dem Rebholz ist<br />
ihre gerade Form und ihr größerer<br />
Durchmesser.<br />
Mehr Speed durch Vision<br />
Abb. 2: Anordnung von Kamerabaugruppe und Reflektor<br />
58 Inspect 4/2006<br />
VisionSensor für die Automatisierung <strong>im</strong> Weinberg<br />
Abb. 1: Typische Prüfszene mit<br />
Holzpfählen<br />
Der Einsatz eines Vision-Sensors<br />
ermöglicht die automatische<br />
Unterscheidung des<br />
Rebstocks von den Rebpfählen.<br />
Dies erleichtert die Arbeit<br />
des Fahrers und beschleunigt<br />
so das Schneiden.<br />
Als Basis für das Bildverarbeitungssystem<br />
kommt die<br />
Platinenversion einer smart<br />
camera mit den Abmessungen<br />
60x60 mm zum Einsatz. Zusätzlich<br />
wurde eine Versorgungsplatine<br />
entwickelt, auf<br />
der die elektrischen Schnittstellen,<br />
die Beleuchtungssteuerung<br />
und die IRED-Beleuchtung<br />
selbst untergebracht<br />
sind. Die beiden Platinen sind<br />
in Sandwichbauweise in ein<br />
Schutzgehäuse integriert.<br />
Die Beleuchtung erfolgt in<br />
Kombination mit einer Retroreflektorfolie,<br />
die aus Kamerasicht<br />
hinter den Weinreben<br />
angebracht wird. Damit ist<br />
gewährleistet, dass <strong>im</strong>mer ein<br />
homogener heller Hintergrund<br />
vorliegt, die Szene<br />
entspricht quasi einer Durchlichtanordnung.Fremdlichteinflüsse<br />
können so ausgeschlossen<br />
werden, das System<br />
arbeitet robust bei wechselnden<br />
Lichtverhältnissen.<br />
Weitere wesentliche Bestandteile<br />
des Kameramoduls<br />
sind:<br />
� Netzteil mit weitem Eingangsspannungsbereich<br />
für Versorgung aus der<br />
Fahrzeugbatterie<br />
� Watchdog zur Überwa-<br />
�<br />
chung von Betriebsspannung<br />
und Kamera<br />
Heizung mit automatischer<br />
Temperaturüberwachung<br />
zum thermischen Schutz<br />
der Kamera <strong>im</strong> Arbeitstemperaturbereich<br />
-10 °C bis +45 °C<br />
von<br />
� 12-poliges Verbindungskabel<br />
zum Vorschneider mit<br />
allen Schnittstellen und<br />
�<br />
Signalen<br />
RS232-Schnittstelle für<br />
Servicearbeiten<br />
und Diagnose-<br />
Automatische Rebpfahlerkennung<br />
Das Bildverarbeitungssystem<br />
läuft <strong>im</strong> Betrieb frei und prüft<br />
fortlaufend den Sichtbereich<br />
vor der Kamera auf das Vorhandensein<br />
von Pfählen. Es<br />
erkennt während des Vorbeifahrens<br />
automatisch, ob<br />
Rebpfähle vorhanden sind<br />
und öffnet in diesem Fall<br />
selbsttätig den Vorschneider.<br />
Die Verarbeitung erfolgt<br />
mit 20 Auswertungen pro<br />
Sekunde. Das ergibt bei<br />
einer Überwachungsbreite<br />
von 25cm eine max<strong>im</strong>al mögliche<br />
Geschwindigkeit des<br />
Vorschneiders von 11 km/h,<br />
damit kein Pfahl übersehen<br />
wird. Dies liegt deutlich über<br />
den üblichen Fahrgeschwindigkeiten<br />
bis max<strong>im</strong>al 8km/h.<br />
Trotz der unterschiedlichen<br />
Gelände- und Witterungsbedingungen<br />
werden<br />
vorhandene Pfähle sicher erkannt.<br />
Angesichts der natürlichen<br />
Vielfalt der Rebstöcke,<br />
aber auch der Varianten der<br />
vorkommenden Pfahlarten<br />
eine herausragende Leistung<br />
des Systems. Neben unterschiedlichen<br />
Materialien –<br />
Pfähle aus Holz, Kunststoff,<br />
Metall oder Beton – mit ihren<br />
wechselnden Reflexionseigenschaften,<br />
Querschnitten<br />
und Farben müssen auch geneigte<br />
Pfähle sicher erkannt<br />
werden. Sogar die Erkennung<br />
von Pfählen, die mit Rebholz<br />
berankt sind, ist mit dem System<br />
gewährleistet.<br />
� Kontakt<br />
Bi-Ber Bilderkennungssysteme,<br />
Berlin<br />
Tel.: 030/5304-1253<br />
Fax: 030/5304-1254<br />
info@bilderkenung.de<br />
www.bilderkennung.de
A u T o m A T i o n<br />
Schnelle und genaue 3DInspektion<br />
RevXperts präsentiert auf der Euromold (Halle 6 Stand B78) den 3D<br />
Creator Dual – die logische Ergänzung des 3D Creators, um größere<br />
Messfelder mit hoher Genauigkeit aufbauen zu können. Der 3D<br />
Creator Dual erlaubt die Einrichtung eines Messraums von 6 m<br />
Länge, 3 m Breite und 2 m Höhe mit einer Messgenauigkeit von 0,5<br />
mm. Noch größere Ausmaße von bis zu 6 x 5 x 2 m sind möglich,<br />
wenn zwei Systeme synchronisiert werden. Das optisch-elektronische<br />
Messsystem besteht aus zwei Sensoreinheiten, zwei Kontrolleinheiten<br />
und einem freibeweglichen Messstift, dessen Bewegungsrichtung<br />
und Position über die Infrarotverbindungen mit den Kameras genau best<strong>im</strong>mt werden. Dabei<br />
werden aktive Infrarot-Leuchtdioden, die auf dem Messstift integriert sind, bis zu einer Entfernung von<br />
über 5 m mit den Kameras erfasst und die genauen X,Y,Z-Koordinaten sowie die Bewegungsvektoren<br />
der Messspitze best<strong>im</strong>mt.<br />
RevXperts • Tel.: 089/548420-80 • volker.huth@revxperts.de • www.revxperts.de<br />
Workshop für Bildverarbeitungsanbieter<br />
Gemeinsam mit der Messe Stuttgart bietet die Vision Academy während<br />
der Vision 2006 in Stuttgart eine neue Workshop-Reihe für Bildverarbeitungsanbieter<br />
und -anwender unter dem Motto „Methoden<br />
und Anwendungen in der Bildverarbeitung” an. Am 8. November<br />
2006 besteht die Gelegenheit zur Teilnahme am Workshop „Optische<br />
Messverfahren für die Geometrie- und Oberflächeninspektion”. Die<br />
Workshops werden thematisch von Vision Projekt Erfurt und dem CiS-<br />
Institut für Mikrosensorik begleitet. Die Workshop-Reihe stellt für Bildverarbeiter<br />
und Anwender praxisgeprüfte Erkenntnisse und Erfahrungen für die Einführung innovativer Verfahren<br />
bereit. Angemeldete Workshopbesucher erhalten ein kostenloses Messeticket. Alle weiteren Informationen,<br />
Downloads und Anmeldeformulare unter www.vision-academy.org bzw. www.messe-stuttgart.de.<br />
Vision Academy GmbH<br />
Tel.: 0361/42 62-187 • infopoint@vision-academy.org • www.vision-academy.org<br />
Zielgerichtete Partnerschaft<br />
Parsytec gibt die Partnerschaft mit der Maco Corporation bekannt. Diese Partnerschaft hat zum Ziel, Parsytecs<br />
Oberflächeninspektionslösungen auf dem indischen Markt durch zielgerichtete Prozessverbesserungen<br />
und Erzielung hoher Produktionsqualität zu etablieren. Maco Corporation (India) Pvt. Ltd. ist als<br />
Partner für <strong>im</strong>portierte Industrieanlagen, Ersatzteile und Verbrauchsgüter auf dem indischen Metallmarkt renommiert.<br />
Indiens wachsende Metallindustrie und viel versprechende Aussichten überzeugten Parsytec, den<br />
indischen Markt aktiv mit einem lokal ansässigen Partner zu erschließen. Das Unternehmen wird nicht nur<br />
die Vermarktung von Inspektionslösungen übernehmen, sondern auch qualifiziertes Projektmanagement<br />
und technische Beratung bieten.<br />
Parsytec AG • Tel.: 0241/9696-0 • info@parsytec.de • www.parsytec.de<br />
Prüfung von Druckerzeugnissen<br />
Die Hamburger Firma deltaE <strong>im</strong>aging entwickelte zwei neue Bilderfassungssysteme<br />
zur opt<strong>im</strong>alen Überprüfung qualitativ hochwertiger Druckerzeugnisse.<br />
Besonders interessant für die Druckereien der Pharma-, Lebensmittel-<br />
und Kosmetikindustrie ist der antares Quality Control, der<br />
Vorlagen bis zu einer Größe von DIN B1 erfasst. Dieses Prüfgerät scannt<br />
berührungslos, so dass strukturierte und empfindliche Vorlagen opt<strong>im</strong>al<br />
erfasst werden können. Der Schwerpunkt des atair Quality Control liegt<br />
auf der Wareneingangskontrolle und eignet sich für Vorlagen bis DIN A 2. Beide Geräte können Brailleschrift<br />
prüfen und überzeugen durch enorme Bildqualität, hohe Scangeschwindigkeit und einfache Bedienbarkeit.<br />
Durch die hohe Präzision können kleinste Abweichungen in Schriftbild, Größe oder Braillepunkten<br />
erkannt werden. Außerdem spricht ein fairer Preis für die Systeme der deltaE <strong>im</strong>aging.<br />
deltaE <strong>im</strong>aging GmbH • Tel.: 040/87971335 • info@deltae-<strong>im</strong>aging.de • www.deltae-<strong>im</strong>aging.de<br />
weitere Produkte unter www.PRo-4-PRo.com
A u T o m A T i o n<br />
NullFehlerFertigung <strong>im</strong> Fokus<br />
Das intelligente Kompaktkamerasystem SBOC-Q/<br />
SBOI-Q von Festo steht für 100 %ige Qualitätskontrolle<br />
– selbst bei enormer Typenvielfalt. Klein<br />
und robust lässt sich das flächenbasierte Prüfsystem<br />
einfach in Anlagen integrieren und hilft Herstellern,<br />
den steigenden Qualitätsanforderungen<br />
ihrer Kunden gerecht zu werden. Ob zur Orientierungsprüfung<br />
von Kleinteilen, zum Vermessen von<br />
Drehteilen, zur Feinpositionierung von Antrieben<br />
oder bei der Objektlokalisierung zur Steuerung von<br />
Handhabungseinrichtungen – die intelligente Kamera<br />
bietet zuverlässige Prüfergebnisse für ein<br />
breites Anwendungsspektrum. Sowohl gleichmäßig als auch unregelmäßig bewegte<br />
oder ruhende Teile lassen sich mit dem System kontrollieren.<br />
Festo AG & Co. KG<br />
Tel.: 0711/347-2141 • rso@de.festo.com • www.festo.com<br />
Für anspruchsvolle VisionEntwicklungen<br />
Für anspruchsvolle Aufgaben der Bildverarbeitung<br />
ist die Verkürzung der gesamten<br />
Engineeringszeit und die zügige Implementierung<br />
in den Automatisierungsprozess<br />
von zunehmend strategischer Bedeutung.<br />
Das schlüssige Verzahnen von<br />
Hard- und Software der Bildverarbeitung<br />
und die opt<strong>im</strong>ierte Einbindung in die Prozesssteuerung<br />
sowie Unternehmenskommunikation<br />
muss in <strong>im</strong>mer kürzeren Zeiten bewältigt werden. Mit der mächtigen<br />
Entwicklungsumgebung VisionPro Version 4.1 von Cognex erhält der Systemintegrator<br />
und Anwender ein effizientes bewährtes Werkzeug mit vielen neuen Leistungsmerkmalen.<br />
Komplexe PC-basierte Vision-Projekte mit mehreren Kameras oder auch<br />
zusätzlich kombiniert mit Vision-Sensoren können in gesteigerter Funktionssicherheit<br />
und -qualität beschleunigt durchgeführt und erhebliche Kosten eingespart werden.<br />
Cognex Germany, Inc.<br />
Tel.: 0721/6639-0 • torsten.zoeller@cognex.com • www.cognex.net<br />
Prüfung von komplexen 3DObjekten<br />
Auf der Hannover Messe 2006 präsentierte Viscom<br />
das robotergestützte Inspektionssystem S3012ROB.<br />
Mit Hilfe dieses Roboters können komplexe 3-D-<br />
Objekte rundum sicher geprüft werden. Zu den typischen<br />
Inspektionsaufgaben in der industriellen<br />
Praxis gehört oft die Rundum-Inspektion von montierten<br />
oder bearbeiteten Objekten. Das System von<br />
Viscom ist <strong>im</strong> opt<strong>im</strong>alen Fall mit starr montierten<br />
Kameras ausgestattet. Der Prüfling wird dabei von<br />
Robotern bewegt, so dass eine Prüfung aller sechs<br />
Seiten möglich ist. Die aufwändigere Kamerabewegung ist in besonderen Anwendungsfällen<br />
auch möglich. Besonderes Highlight ist die hochwertige Auslegung<br />
der Sensorik. Die Intensität, Lichtrichtung und die Kombination einzelner<br />
Beleuchtungskonzepte werden entsprechend der Prüfaufgabe variiert.<br />
Viscom AG • Tel.: 0511/94996-531 • info@viscom.de • www.viscom.de<br />
Neues Mehrkamerasystem<br />
Die für ihre optischen Qualitätssicherungssysteme<br />
bekannte Firma <strong>im</strong>ess hat auf der<br />
Control 2006 in Sinshe<strong>im</strong> das neue Mehrkamerasystem<br />
IML 100 zur IML-Kontrolle<br />
vorgestellt. Eine beispielhafte Prüfaufgabe<br />
für das IML 100 stellt die Kontrolle frisch<br />
gespritzter Kunststoffteile direkt nach der<br />
Entnahme dar. Typische Fehler sind dabei<br />
Unterspritzung sowie teilweise fehlende<br />
und versetzte Etiketten. Idealerweise wird bei dieser Anwendung die Kamerakontrolle<br />
in den Entladeprozess durch die vorhandenen Handlungsgeräte integriert.<br />
Das Ergebnis ist, dass die fehlerhaften Teile aussortiert werden. Die<br />
Steuer- und Auswerteeinheit besteht aus einem leistungsfähigen PC mit Schnittstellen<br />
zu den Kameras und zur Steuerung (Digital, TCP/IP oder Profibus). Pro<br />
PC sind vier anschließbare Kameras typisch, bei langsamen Prozessen acht oder<br />
mehr. Die Bildaufnahme- und Auswerterate liegt bei bis zu 10 Bildern pro Sekunde.<br />
<strong>im</strong>ess GmbH<br />
Tel.: 02302/96888-0 • feld@<strong>im</strong>ess.com. • www.<strong>im</strong>ess.com<br />
60 Inspect 4/2006 weitere Produkte unter www.PRo-4-PRo.com
Mehr ab Seite 62<br />
CONTROL<br />
MATERIALPRÜFUNG UND MESSGERÄTE<br />
Verborgene Gehe<strong>im</strong>nisse<br />
Hochgeschwindigkeits-Kamerasystem lässt nichts unentdeckt<br />
M A C H I N E V I S I O N • S U R F A C E I N S P E C T I O N • M I C R O S C O P Y<br />
OLYMPUS DEUTSCHLAND<br />
IN KÜRZE<br />
Olympus ist führender Hersteller von professionellen<br />
opto-digitalen Produkten und ein Pionier<br />
bei Schlüsseltechnologien in den Bereichen<br />
Bildgebungs- und Sprachprodukte, Endoskopie,<br />
Mikroskopie, Bioanalytik und Diagnostik.<br />
Die Marke Olympus steht für innovative optodigitale<br />
Technologie, herausragendes Design und<br />
höchste Qualität; intensive Kundenorientierung<br />
und schnelle Umsetzung von Kundenwünschen<br />
und Marktanforderungen sowie Kreativität und<br />
Originalität bei der Entwicklung von neuen Produkten<br />
und effi zienten Systemlösungen.<br />
i-Speed 2<br />
Die Weiterentwicklung des erfolgreichen Hochgeschwindigkeits-Kamerasystems<br />
i-Speed ermöglicht<br />
Bildspeicherung ohne PC, intuitiv,<br />
fl exibel und mobil – ebenso wie be<strong>im</strong> Vorgängermodell<br />
wird Benutzerfreundlichkeit groß<br />
geschrieben. Darüber hinaus bietet das neue<br />
System einen schnellen Mikroprozessor, MJPEG-<br />
Kompression, Bildbearbeitung per externer Kontrolleinheit<br />
für bestmögliche Bildeinstellung, bis<br />
33.000 fps, Aufl ösung 800 x 600 bei 1.000 fps,<br />
Monochrom- oder Farbkameras, Standard- oder<br />
High G-Version, Bilderdownload auf den PC via<br />
Compact Flash oder Ethernet, kontinuierliches<br />
Live Video Streaming über vier Ausgänge und die<br />
exklusive externe Kontrolleinheit (CDU).<br />
k o n t a k t<br />
Olympus Deutschland GmbH<br />
Industrie Endoskopie<br />
Wendenstr. 14–18<br />
20097 Hamburg<br />
Tel.: 040/23773-465<br />
Fax: 040/23773-654<br />
industrie@olympus.de<br />
www.olympus.de/industrie<br />
INSPECT 4/2006<br />
61
C o n t r o l<br />
Verborgene Gehe<strong>im</strong>nisse<br />
Hochgeschwindigkeits-Kamerasystem lässt nichts unentdeckt<br />
Wie oft fragt man sich, was<br />
wirklich hinter den Kulissen<br />
eines Prozesses steht, was in<br />
der Forschung & Entwicklung<br />
real passiert. Doch der<br />
Mensch kann mit seinen<br />
Augen nur eingeschränkt erfassen,<br />
was in schnellen Abläufen<br />
vor sich geht – und<br />
kann daher viele Fehlerquellen<br />
nicht nachvollziehen. Für<br />
Unternehmen wiederum<br />
kann dies zu einem kritischen<br />
Kostenfaktor werden, da<br />
ganze Produktionschargen<br />
durch Herstellungsfehler vernichtet<br />
werden könnten. Genau<br />
hier bietet Olympus mit<br />
dem Hochgeschwindigkeits-<br />
Kamerasystem i-Speed 2 eine<br />
einzigartige Möglichkeit, versteckte<br />
oder für das Auge<br />
nicht fassbare und unverständliche<br />
Qualitätsprobleme<br />
in der Produktion, Forschung<br />
& Entwicklung und in Testprojekten<br />
sichtbar zu machen.<br />
Die Fehlerdiagnose<br />
wird extrem vereinfacht.<br />
Rundum benutzerfreundlich<br />
Der Schlüssel zum Erfolg des<br />
i-Speed Hochgeschwindigkeits-Kamerasystems<br />
lag in<br />
der Benutzerfreundlichkeit.<br />
Diese wird nun <strong>im</strong> neuen<br />
62 Inspect 4/2006<br />
i-Speed 2 System fortgeführt,<br />
jedoch mit einem noch höheren<br />
Maß an Flexibilität und<br />
Komfort. Durch die intuitive<br />
Handhabung ist es auch einem<br />
unerfahrenen Anwender möglich,<br />
innerhalb kürzester Zeit<br />
mit dem System zu arbeiten.<br />
Vom Aufbau des Systems bis<br />
zur Erstellung des ersten Bildes<br />
vergehen max<strong>im</strong>al 20 Minuten.<br />
Weltweit einzigartig ist die<br />
externe Kontrolleinheit – die<br />
CDU (Control Display Unit).<br />
Sie bietet dem Anwender den<br />
großen Vorteil, Bilder anzusehen<br />
und direkt in der Kamera<br />
zu speichern – vorbei<br />
die Zeit, als man <strong>im</strong>mer und<br />
überall einen PC oder Laptop<br />
mit dem System zusammen<br />
Manchmal muss man Verborgenes sichtbar machen – vor diesem<br />
Dilemma standen schon Sherlock Holmes oder Marie Curie, aber<br />
auch der Arzt, der eine Diagnose erstellen muss, der Kr<strong>im</strong>inalbe-<br />
amte, der ein Verbrechen aufzuklären hat, oder die Mutter, die<br />
herauszufinden versucht, warum ihr Kind weint (oftmals hilft ein<br />
Windelwechsel…). Es gibt viele Dinge, die für unser Auge nicht<br />
fassbar sind. Aus diesem Grund hat Olympus das erfolgreiche<br />
Hochgeschwindigkeits-Kamerasystem i-Speed weiterentwickelt<br />
– das neue i-Speed 2 kann noch mehr Unentdecktes für das<br />
menschliche Auge sichtbar machen. Bildspeicherung ohne PC,<br />
intuitiv, flexibel und mobil – das und vieles mehr ist i-Speed 2.<br />
aufbauen musste! Die aufgenommenen<br />
Daten können<br />
nachträglich über eine Compact<br />
Flash Karte oder via<br />
Ethernet auf einen Rechner<br />
übertragen werden. Außerdem<br />
besteht die Möglichkeit,<br />
direkt vor Ort – über den Monitor<br />
der CDU – eine mögliche<br />
Fehlerdiagnose zu erstellen.<br />
Dadurch können u. U. wertvolle<br />
Zeit und auch Kosten<br />
gespart werden.<br />
Ein weiteres Feature des i-<br />
Speed 2 Kamerasystems ist<br />
die Möglichkeit, Bilddaten zu<br />
kompr<strong>im</strong>ieren. Die Aufnahmen<br />
können in der Originalgröße<br />
mit höherem Speicherbedarf<br />
oder in kompr<strong>im</strong>ierter<br />
Form in kleiner Dateigröße<br />
mit Farbreduzierung gespeichert<br />
werden. Durch die<br />
Kompr<strong>im</strong>ierung der Daten<br />
sind wesentlich kürzere<br />
Downloadzeiten zu erzielen.<br />
Die kompr<strong>im</strong>ierten Filmsequenzen<br />
können jetzt problemlos<br />
per E-Mail versandt<br />
werden. So bietet das System<br />
jedem Kunden eine opt<strong>im</strong>ale<br />
Lösung in Bezug auf Speichergeschwindigkeit,Dateigröße<br />
und Datenfluss.<br />
Einsatzmöglichkeiten en<br />
masse<br />
Es gibt unendlich viele Einsatzmöglichkeiten<br />
für i-<br />
Speed 2, denn das System ist<br />
flexibel einsetzbar – ob in<br />
der Steuerung und Überwachung<br />
von Prozessen<br />
(bspw. Leiterplattenbestückung),<br />
bei zerspanenden<br />
Vorgängen wie Drehen, Fräsen,<br />
Schneiden, ebenso in<br />
der Automobilindustrie bei<br />
Komponententests, der Untersuchung<br />
von Einspritzanlagen<br />
und Airbagtests.<br />
Weiterhin wird das System<br />
z. B. in der Biomechanik<br />
(u. a. Sportwissenschaften)<br />
eingesetzt, um Bewegungsabläufe<br />
zu untersuchen und<br />
zu analysieren.<br />
Auch in der Verpackungsmaschinen-Industrie<br />
sind<br />
Hochgeschwindigkeits-Kamerasysteme<br />
nicht mehr wegzu
Anfang oktober wurde die<br />
neue i-Speed 2 offiziell der<br />
Fachpresse vorgestellt. Dafür<br />
hatte man sich auch etwas<br />
ganz Besonderes einfallen<br />
lassen: Mit dem original-Bus<br />
von St. Pauli fuhr man gemeinsam zu einer Golfanlage. Unter dem<br />
Motto „Verborgenes entdecken“ (vielleicht auch verborgene talente?)<br />
wurde dann nicht nur geputtet und Abschläge geübt, was<br />
das Zeug hielt, sondern sehr zur Freude aller angehenden Golf-<br />
Champions kam auch die i-Speed 2 zum Einsatz, die mit bis zu<br />
33.000 Bildern pro Sekunde deutlich machte, wo das Verbesserungspotential<br />
jedes Einzelnen be<strong>im</strong> Abschlag lag – in gnadenloser<br />
Klarheit!<br />
denken, z. B. bei der Kontrolle<br />
von Etikettierungsvorgängen,<br />
Abfüllprozessen, Prozesse in<br />
Druckmaschinen und maschinellem<br />
Verpacken. Außerdem<br />
darf die Forschung und Ent-<br />
wicklung nicht außer Betracht<br />
gelassen werden. Diese<br />
Anwendungen finden sich in<br />
Life- und Material Science<br />
Branchen wieder:<br />
� Untersuchung der Bewegung<br />
von Fl<strong>im</strong>merhärchen<br />
� Münzerkennungsmechanismen<br />
in Automaten<br />
� Entwicklung von Leuchtmitteln<br />
(Halogenlampen,<br />
Gasentladungslampen,…)<br />
� Grundlagenforschung<br />
Universitäten<br />
in<br />
Tiefe Einblicke<br />
Das System i-Speed 2 wurde<br />
so konzipiert, dass ein Einsatz<br />
mit Industrie Endoskopen<br />
sowie Mikroskopen (über<br />
C-Mount adaptierbar) möglich<br />
ist. Diese Kombinationen<br />
ermöglichen es, noch tiefere<br />
Einblicke in Anwendungen zu<br />
nehmen und bisher nicht<br />
sichtbare Vorgänge darzustellen.<br />
Hier macht es keinen<br />
Unterschied, ob es sich um<br />
das Innenleben einer Abfüllmaschine,<br />
den Dreh von Werbespots<br />
oder die Bewegung<br />
C o n t r o l<br />
von Fl<strong>im</strong>merhärchen handelt.<br />
Das Wichtigste für eine innovative<br />
Zukunft in der Industrie<br />
ist der Dialog mit<br />
Kunden und den Anwendern<br />
der Geräte. So sind und werden<br />
die Systeme für die aktuellen<br />
und zukunftsorientierten<br />
Bedürfnisse und Anforderungen<br />
weiterentwickelt.<br />
Dialoge und Kommunikation,<br />
erfolgreicher Erfahrungsaustausch,<br />
Systemlösungen –<br />
Olympus – ein Partner für die<br />
industrielle Zukunft!<br />
� Kontakt<br />
Karin Volkmer<br />
olympus Deutschland GmbH<br />
Geschäftsbereich Industrie<br />
Endoskopie<br />
tel.: 040/23773-402<br />
Fax: 040/23773-654<br />
industrie@olympus.de<br />
www.olympus.de/industrie<br />
Inspect 4/2006<br />
63
C o n t r o l<br />
Wo gehobelt wird, da fallen Späne …<br />
Berührungslose Oberflächenanalyse von Wendeschneidplatten<br />
Zerspanung bezeichnet alle mechanischen Bearbeitungsverfahren, bei<br />
denen das Material in die gewünschte Form gebracht wird, indem es<br />
in Form von Spänen abgetragen wird. Das Grundprinzip des Spanens<br />
beruht auf dem Eindringen einer keilförmigen Werkzeugschneide in<br />
die Oberfläche des Werkstücks und anschließendem Abschälen einer<br />
dünnen Materialschicht, dem Span.<br />
Zerspaner stellen heute höchste Ansprüche an ihr Werkzeug. Gute<br />
Schneideigenschaften bei hohen Schnittgeschwindigkeiten und<br />
lange Standzeiten sind ausschlaggebend für die Qualität hochwer<br />
tiger Wendeschneidplatten. Schnittgeschwindigkeit und Lebens<br />
dauer der Hartmetallkomponenten hängen vor allem von der Ober<br />
flächengeometrie der Schneidkanten ab. Das optische Messgerät<br />
InfiniteFocus von Alicona Imaging ermöglicht die hochgenaue, be<br />
rührungslose Messung von Winkeln und Verrundungsradien einer<br />
Wendeschneidplatte.<br />
Qualitativ hochwertige Wendeschneidplatten,<br />
die eine lange Standzeit haben<br />
und bei hohen Schnittgeschwindigkeiten<br />
gute Schneideigenschaften aufweisen,<br />
sind in jeder Produktion und Fertigung<br />
für die spanende Bearbeitung von Metall<br />
unabdingbar. Die Oberflächenbeschaffenheit<br />
der einzelnen Schneidekanten ist<br />
ausschlaggebend für die opt<strong>im</strong>ale Zerspanung<br />
be<strong>im</strong> Bohren, Drehen und Fräsen.<br />
Radien und Winkel des Schneidkeils<br />
best<strong>im</strong>men die Standzeit und Schnittqualität<br />
der Werkzeuge. Ceratizit,<br />
Experte in Sachen<br />
Hartmetall und führender<br />
Hersteller<br />
von Wende<br />
Abb. 1: Das optische 3D Messgerät InfiniteFocus<br />
64 Inspect 4/2006<br />
schneidplatten, hat InfiniteFocus <strong>im</strong> Einsatz<br />
und kennt die stetig wachsenden<br />
Anforderungen an die Schneidstoffentwickler.<br />
Der Hersteller mit dem Slogan<br />
„where hard material matters“ legt viel<br />
Wert auf eine verlässliche Oberflächenkontrolle<br />
zur Qualitätssicherung seiner<br />
Produkte. „Bei der anspruchsvollen Fertigung<br />
müssen wir uns auf eine aussagekräftige<br />
Oberflächenprüfung verlassen<br />
können“, so der renommierte Hersteller.<br />
Herkömmliche Oberflächenanalyse<br />
durch taktile Messungen wird den Anforderungen<br />
an eine genaue Oberflächenkontrolle<br />
nicht gerecht. Die Ergebnisse<br />
einer taktilen Messung sind fehleranfällig<br />
und daher wenig aussagekräftig.<br />
Das Problem mit<br />
taktilen Messgeräten<br />
Jede Schneidkante<br />
weist best<strong>im</strong>mte<br />
Oberflächeneigenschaften<br />
auf, die<br />
<strong>im</strong> Vorfeld der<br />
Herstellung definiert<br />
wurden.<br />
Die meisten<br />
Schneidkeilgeometrien<br />
setzen sich aus verschiedenen Winkeln<br />
und Radien zwischen 10 µm und 100 µm<br />
zusammen. Mittels der Oberflächenanalyse<br />
wird festgestellt, welche Oberflächenmerkmale<br />
die Wendeschneidplatte<br />
nach der Herstellung aufweist und ob die<br />
Radien und Winkel mit den zuvor festgelegten<br />
D<strong>im</strong>ensionen übereinst<strong>im</strong>men.<br />
Taktile Messgeräte erfüllen diese Messanforderung<br />
nur bis zu einem best<strong>im</strong>mten<br />
Grad. Die Bewegung der Nadel über<br />
die Schneidkante ist keine verlässliche<br />
Messmethode zur Topografiebest<strong>im</strong>mung<br />
für gerundete Oberflächen, da die Haftung<br />
der Nadel an der Oberfläche nicht<br />
durchgehend gegeben ist. Zudem messen<br />
taktile Instrumente nur die Topografie<br />
der abgetasteten Spur, flächenhafte<br />
Messungen sind ausgeschlossen. Ungenauigkeiten<br />
und Messfehler sind die<br />
Folge.<br />
Hochgenaue und berührungslose<br />
Oberflächenanalyse<br />
InfiniteFocus erfüllt die Anforderungen<br />
einer genauen, einfachen, schnellen und<br />
komplexen Oberflächenanalyse in mehrerer<br />
Hinsicht. Krümmungsradien und<br />
Schneidewinkel werden zuverlässig und<br />
sehr benutzerfreundlich ermittelt. Die<br />
3D Messung wird direkt <strong>im</strong> optischen 2D<br />
Farbbild vorgenommen. Der Anwender<br />
definiert per Mausklick die Winkel und<br />
Radien, die gemessen werden sollen und<br />
erhält Ergebnisse mit einer vertikalen<br />
Auflösung von bis zu 20 nm. Die ständige<br />
direkte visuelle Korrelation zwischen<br />
dem Farbbild der Oberfläche und den<br />
Messergebnissen ermöglicht eine völlig<br />
neuartige Form der Qualitätskontrolle.
Abb. 2: Berührungslose Messung der Winkel und<br />
Verrundungsradien von Wendeschneidplatten<br />
Die Oberflächenmessung wird einfacher,<br />
zuverlässiger, flexibler und wesentlich<br />
genauer. InfiniteFocus berechnet nach<br />
Wahl Höhe, Volumen, Fläche oder, der<br />
EN ISO 4287 Norm entsprechend, die<br />
Rauheit einer Oberfläche. Als Instrument<br />
zur Qualitätssicherung bietet Infinite<br />
Focus zusätzliche Vorteile, da das Messgerät<br />
die Oberfläche der Schneidkante<br />
auch als 3D Modell visualisiert. Der Anwender<br />
kann durch die dreid<strong>im</strong>ensionale<br />
Ansicht von großen Gesichtsfeldern Rückschlüsse<br />
auf die Oberflächenbeschaffenheit<br />
<strong>im</strong> Bezug auf Glätte, Höhenunterschiede<br />
und Fremdkörper ziehen.<br />
Optisch Messen mit InfiniteFocus<br />
InfiniteFocus ist ein Messgerät zur optischen<br />
3DOberflächenerfassung. Das<br />
Abb. 3: 3D Modell der Wendeschneidplatte<br />
Funktionsprinzip basiert auf der geringen<br />
Schärfentiefe einer optischen Vergrößerung.<br />
Die Oberfläche einer Probe<br />
wird vertikal gescannt. Aufgrund dieser<br />
FokusVariation generiert das Messgerät<br />
sowohl die topographische als auch die<br />
registrierte Farbinformation einer Probenoberfläche.<br />
Der Anwender erhält einen<br />
einzelnen 3D Datensatz mit genauer<br />
topographischer Information, der von<br />
neuen, innovativen Algorithmen berechnet<br />
wird.<br />
Die vertikale Auflösung beträgt bis<br />
zu 20 nm, was das Instrument zu einem<br />
idealen Messsystem für die Tiefen<br />
C o n t r o l<br />
analyse von<br />
Oberflächen<br />
unterschiedlicher<br />
Struktur<br />
und Materialien<br />
macht. Rückführbare<br />
Kalibrierung<br />
ermöglicht die Verifikation<br />
der Messergebnisse.<br />
InfiniteFocus wird sowohl <strong>im</strong><br />
Labor als auch in produktionsnaher<br />
Umgebung eingesetzt. Eine Reihe von<br />
Funktionen und Analysen kann zusätzlich<br />
automatisiert werden. InfiniteFocus<br />
erfüllt sämtliche Anforderungen an ein<br />
genaues und schnelles Messinstrument<br />
für die 3D Tiefenanalyse und Oberflächeninspektion.<br />
� Kontakt<br />
Mag. Astrid Krenn<br />
Alicona Imaging, Grambach/Graz, Österreich<br />
tel.: +43 316 4000 742<br />
Fax: +43 316 4000 711<br />
inf@alicona.com<br />
www.alicona.com<br />
Inspect 4/2006<br />
65
C o n t r o l<br />
In Müllverbrennungsanlagen werden die<br />
angelieferten Abfälle üblicherweise in<br />
geschlossenen Bunkern zwischengelagert.<br />
Durch chemische Vorgänge <strong>im</strong> gelagerten<br />
Müll oder Fremdeintrag heißer Stoffe kön-<br />
nen Bunkerbrände entstehen, die hohe<br />
Risiken für Betreiber und Umwelt bergen.<br />
Durch eine kontinuierliche, automatisch<br />
ablaufende Temperaturmessung der Abfall-<br />
schüttung können Gl<strong>im</strong>mnester oder<br />
Schwelbrände frühzeitig detektiert und mit<br />
geeigneten Maßnahmen in kürzester Zeit<br />
vor Ausbruch eines Brandes beseitigt wer-<br />
den. Damit werden erhebliche Schäden und<br />
Anlagenstillstände vermieden sowie die<br />
Entstehung und Freisetzung toxischer Luft-<br />
schadstoffe wirksam verhindert.<br />
Firefighter <strong>im</strong> Bunker<br />
In Deutschland wird in der 17. Bundes-<br />
Immissionsschutzverordnung (BImSchV),<br />
die die Errichtung und den Betrieb von<br />
Verbrennungsanlagen für Abfälle regelt,<br />
gefordert, dass in den Bunkern oder geschlossenen<br />
Lagern „... Einrichtungen<br />
zur Erkennung und Bekämpfung von<br />
Bränden vorzusehen sind.“<br />
Das Landesumweltamt Nordrhein-<br />
Westfalen empfiehlt auf der Grundlage<br />
eigener Untersuchungen den Einsatz<br />
von Infrarot-Thermografiesystemen als<br />
wirksamste Präventionsmaßnahme. Ein<br />
automatisch arbeitendes Brandfrüher-<br />
Abb. 1: Bunker einer Müllverbrennungsanlage<br />
66 Inspect 4/2006<br />
Thermographiesystem für die Müllbunker-Brandfrüherkennung<br />
kennungssystem auf der Basis der Infrarot-Thermografie<br />
muss dabei folgende<br />
Funktionen erfüllen:<br />
� Erkennen und Lokalisieren warmer<br />
Stellen auf der Abfalloberfläche als<br />
Hinweis auf Gl<strong>im</strong>mnester oder andere<br />
Wärmeherde,<br />
� frühzeitiges Melden kritischer Temperaturzustände,<br />
� automatische Auswertung der gemessenen<br />
Temperaturen und Aufzeichnung<br />
kritischer Zustände,<br />
� Möglichkeit der Beobachtung eines<br />
Brandes, auch bei starker Verqualmung,<br />
zur Koordinierung der Brandbekämpfung.<br />
Waste-Scan – Brandfrüherkennungssystem<br />
Das automatische Brandfrüherkennungssystem<br />
Waste-Scan basiert auf dem Prinzip<br />
der Infrarot-Thermografie. Es misst<br />
über größere Entfernungen kontinuierlich<br />
und berührungslos die Temperaturen<br />
auf der Oberfläche einer Abfallschüttung.<br />
Tiefer liegende Gl<strong>im</strong>mnester,<br />
die sich durch den Wärmetransport zumindest<br />
unscharf <strong>im</strong> Temperaturbild der<br />
Oberfläche abzeichnen, können damit<br />
ebenfalls erkannt werden.<br />
Herzstück des Systems ist die mit<br />
einem ungekühlten Mikrobolometer-<br />
FPA-Detektor ausgestattete, hochauflösende<br />
Thermografiekamera VarioCAM<br />
head des deutschen Herstellers Jenoptik<br />
Laser, Optik, Systeme.<br />
Bei der thermografischen Brandfrüherkennung<br />
kommt es darauf an, kleinste<br />
überhitzte Objekte – sog. „Hot Spots“ –<br />
frühzeitig und sicher zu erkennen und<br />
deren Temperatur korrekt zu best<strong>im</strong>men.<br />
Die hohe geometrische Auflösung<br />
der eingesetzten Thermografiekamera,<br />
die durch 320 x 240 Pixel erreicht wird,<br />
bietet dafür die technischen Voraussetzungen.<br />
Die übliche Falschfarbendarstellung<br />
eines Thermografiebildes entspricht<br />
nicht der gewohnten Ansicht eines Videobildes,<br />
eine Orientierung ist jedoch<br />
gleichermaßen gut möglich. Voraussetzung<br />
ist allerdings eine gute Temperaturauflösung<br />
der eingesetzten Thermo-
Abb. 2: Überwachung des Müllbunkers mit einer<br />
Thermografiekamera (schematische Seitenansicht)<br />
grafiekamera. Die VarioCAM head liefert<br />
dafür kontrastreiche, rauscharme Thermografiebilder,<br />
in denen bei einem opt<strong>im</strong>alen<br />
Temperaturmaßstab bereits Temperaturunterschiede<br />
von 0,1 K erkennbar<br />
sind.<br />
Aufgrund der Arbeitsweise der Thermografiekamera<br />
<strong>im</strong> sog. langwelligen<br />
Spektralbereich von 8–14 µm können<br />
Hot Spots selbst in verstaubter oder verqualmter<br />
Umgebung lokalisiert werden.<br />
Im Unterschied zum Spektralbereich des<br />
sichtbaren Lichtes ist die Atmosphäre in<br />
diesem Wellenlängenbereich für die detektierte<br />
Infrarotstrahlung durchlässig.<br />
Ein nicht zu vernachlässigender Parameter<br />
ist die Bildfrequenz der Thermografiekamera.<br />
Eine schnelle Bildfolge ist<br />
vor allem dann erforderlich, wenn die<br />
Kamera während der Beräumung von<br />
Verdachtsstellen oder bei der Brandbekämpfung<br />
eingesetzt werden soll. Die<br />
VarioCAM head hat als Echtzeit-Kamera<br />
eine Infrarot-Bildfrequenz von 50 Hz und<br />
liefert damit Thermografiebilder in der<br />
gewohnten Video-Bildfrequenz.<br />
Überwachung des Bunkers<br />
C o n t r o l<br />
Die Thermografiekamera ist in einem<br />
robusten Schutzgehäuse mit einer Freiblaseinrichtung<br />
für das Kameraobjektiv<br />
Inspect 4/2006<br />
67
C o n t r o l<br />
Abb. 3: Montage des Kamerakopfes oberhalb des<br />
Kranführer-Leitstandes Abb. 4: Farbdisplays <strong>im</strong> Kranführer-Leitstand<br />
montiert und funktioniert dadurch auch<br />
unter widrigsten Umgebungsbedingungen.<br />
Für eine bessere visuelle Orientierung<br />
kann optional eine zusätzliche,<br />
lichtstarke Farb-CCD-Kamera in das<br />
Schutzgehäuse integriert werden.<br />
Durch Einsatz eines ferngesteuerten<br />
Schwenk-/ Neigekopfes können auch größere<br />
Müllbunker komplett mit einer einzelnen<br />
Thermografiekamera überwacht<br />
werden. Der Bunker wird dazu entsprechend<br />
seiner spezifischen Geometrie in<br />
beliebig viele Überwachungssektoren<br />
aufgeteilt, die zyklisch mit einer Positioniergenauigkeit<br />
von < 0,2 ° abgetastet<br />
werden. Die Umlaufzeit liegt unter zwei<br />
Minuten. Von der automatischen Abtastung<br />
der Überwachungssektoren kann<br />
<strong>im</strong> Fall eines Brandes oder bei der Beobachtung<br />
und Beräumung von Verdachtsstellen<br />
auf Handsteuerung umgeschaltet<br />
werden.<br />
Während des Automatikbetriebes<br />
werden die Thermografiekamera und<br />
der Schwenk-/Neigekopf laufend auf<br />
ihre Funktionsfähigkeit hin überwacht<br />
und <strong>im</strong> Störungsfall selbsttätig reinitialisiert.<br />
Während die Thermografiekamera<br />
funktionsbedingt über der zu überwachenden<br />
Bunkerfläche installiert werden<br />
muss, werden die Auswerteeinheiten des<br />
Systems in weniger staubbelasteten Räumen<br />
der Müllverbrennungsanlage untergebracht.<br />
Mit flexiblen Verkabelungstechnologien,<br />
z. B. durch Einsatz von<br />
Lichtwellenleitern, können dabei beliebig<br />
lange Übertragungsstrecken realisiert<br />
werden. Die Anzeige- und Bedieneinheiten,<br />
jeweils aus zwei TFT-Farbdisplays<br />
und einer Tastatur/Bedienkonsole<br />
bestehend, werden <strong>im</strong> Kranführer-Leitstand,<br />
der Leitzentrale bzw. an weiteren<br />
beliebigen Standorten installiert.<br />
Das automatische Brandfrüherkennungssystem<br />
Waste-Scan ist für einen<br />
Dauerbetrieb (24 h/Tag, 365 Tage/Jahr)<br />
ausgelegt. Die Systemwartung erfolgt an<br />
einer separaten Konsole <strong>im</strong> Schalt-<br />
68 Inspect 4/2006<br />
schrank oder optional über Fernwartung<br />
(remote control).<br />
Für den Benutzer <strong>im</strong> Bild<br />
Die Auswertung der aufgenommenen<br />
Thermografiebilder, die Hardwaresteuerung<br />
der Systemkomponenten sowie die<br />
Bedienung des Systems werden durch<br />
ein leistungsfähiges Softwarepaket vorgenommen,<br />
das unter den gängigen<br />
Betriebssystemen Windows 2000 und XP<br />
läuft.<br />
In der grafischen Anzeige- und Bedienoberfläche,<br />
die auf dem System-<br />
Monitor kontinuierlich dargestellt wird,<br />
werden den Bedienern alle relevanten<br />
Daten angezeigt. Dazu gehören die:<br />
� kontinuierliche Darstellung der aktuellen<br />
farbigen Thermografiebilder aller<br />
Sektoren,<br />
� Angabe der Max<strong>im</strong>al-, Min<strong>im</strong>al- und<br />
Durchschnittstemperaturen jedes Sektors,<br />
� grafische Darstellung der Temperatur-Zeit-Verläufe<br />
aller Sektoren,<br />
� Protokollierung des Betriebsablaufes<br />
sowie<br />
� Fenster mit Anzeigen des Kameraoder<br />
Systemstatus.<br />
Die kontinuierliche Anzeige der aktuellen<br />
Thermografiebilder aller Sektoren<br />
liefert dem Bediener jederzeit eine komplette<br />
Übersicht des Bunkers. Die Zuordnung<br />
der Temperaturmesswerte zu den<br />
Farben erfolgt über eine Farbskala. Die<br />
Spanne dieser Farbskala ist konfigurierbar,<br />
z. B. auf einen praktisch sinnvollen<br />
Bereich von –10 °C bis +90 °C, und kann<br />
durch den Bediener bei Bedarf an die aktuellen<br />
Bedingungen angepasst werden.<br />
Auf einem weiteren Monitor wird<br />
entweder das aktuelle Live-Bild der<br />
Thermografiekamera (als Graubild) oder<br />
das VIS-Bild der (optionalen) Farb-CCD-<br />
Kamera angezeigt. Zur besseren Übersicht<br />
können in dieses Live-Bild programmierbare<br />
Parameter wie z. B.<br />
Abb. 5: Bedienoberfläche mit Thermografiebildern,<br />
Temperaturwerten, Temperatur-Zeit-Verläufen<br />
aller Sektoren, Protokoll- und Statusfenstern<br />
Sektornummer, aktuelle Sektortemperatur<br />
oder Betriebszustand eingeblendet<br />
werden. Das VIS-Bild kann zudem durch<br />
die Hot Spots des zugehörigen Thermografiebilds<br />
überlagert werden.<br />
Die Kombination von Thermografie-<br />
und VIS-Bild ermöglicht, vor allem unter<br />
schwierigsten Umgebungsbedingungen,<br />
eine opt<strong>im</strong>ale Orientierung. Die Farb-<br />
CCD-Kamera stellt mit ihrer hohen<br />
Lichtempfindlichkeit die Struktur der<br />
Mülloberfläche bestmöglich dar, die<br />
Thermografiekamera lokalisiert darauf<br />
die Verdachtsstellen bzw. einen Brandherd.<br />
So wird z. B. bei der Beräumung<br />
von Verdachtsstellen oder eventuellen<br />
Löscharbeiten die Wirkung dieser Maßnahmen<br />
<strong>im</strong> überlagerten Live-Bild anhand<br />
der in Echtzeit dargestellten Veränderung<br />
der Hot Spots sofort sichtbar.<br />
Alarmgenerierung<br />
Bei Überschreitung kritischer Temperaturschwellen<br />
werden automatisch Alarmsignale<br />
generiert und zur Weiterverarbeitung<br />
ausgegeben. Dabei ist eine<br />
mehrstufige Alarmierung mit frei einstellbaren<br />
Warn- und Alarmschwellen<br />
vorgesehen. Neben der Beurteilung der<br />
gemessenen Temperaturen durch<br />
Schwellenwerte kann eine Auswertung<br />
des langfristigen Temperaturtrends mit<br />
einstellbarer Zeitbasis erfolgen.<br />
Zur späteren Rückverfolgung und Untersuchung<br />
der Brandentstehung erfolgt<br />
eine detaillierte Dokumentation von<br />
Alarmsituationen einschließlich Archivierung<br />
der aufgenommenen Bilddaten.<br />
� Kontakt<br />
Infratec GmbH, Dresden<br />
thermografie-Automation<br />
tel.: 0351/871-8610<br />
Fax: 0351/871-8727<br />
thermo@infratec.de<br />
www.infratec.de
3D-Messtechnik für die Produktion<br />
Schnell, berührungslos und hochpräzise<br />
Abb. 1: Gitterstruktur auf Platine<br />
Abb. 2: Schnitt A: Höhenprofil entlang Goldkontakt,<br />
Schnitt B: Höhenprofil senkrecht dazu,<br />
Schichthöhe ca. 21 µm.<br />
Das Weißlichtinterferometer Korad3D<br />
eignet sich auf Grund seines einfachen<br />
Aufbaus sowohl für hochpräzise Messungen<br />
unter Laborbedingungen, als auch<br />
für die Qualitätskontrolle unter industriellen<br />
Fertigungsbedingungen. Mit dem<br />
Messsystem können bei einer Genauigkeit<br />
<strong>im</strong> Sub-µm-Bereich Taktzeiten von 1,5 s<br />
erreicht werden. Damit ist das Gerät als<br />
Komponente für Prüfverfahren in der industriellen<br />
Fertigung durchaus geeignet.<br />
Anwendungen findet das Gerät bspw. bei<br />
der Ermittlung von Oberflächenparametern<br />
wie der Ebenheit und Rauhigkeit<br />
etwa an Dichtflächen und Komponenten<br />
von Einspritzsystemen. Darüber hinaus<br />
kann das System für die 3D-Vermessung<br />
an Fräs- und Bohrwerkzeugen verwendet<br />
werden, sowie zur Kontrolle werkzeugspezifischer<br />
Parameter und Abnutzungserscheinungen,<br />
z. B. an Wendeschneidplatten.<br />
Ein weiteres großes<br />
Anwendungsfeld stellt die Qualitätskontrolle<br />
von elektronischen Bauelementen<br />
dar, z. B. die Prüfung von Periodenlänge<br />
und Stufenhöhe von Kontakten.<br />
Weißlichtinterferometrie und phasenmes-<br />
sende Deflektrometrie: Das erinnert mich<br />
an mein Optik-Studium, klingt komplex und<br />
hochempfindlich. Sind das denn Verfahren,<br />
die sich eignen für die Qualitätskontrolle in<br />
der Produktion?<br />
Die 3D-Shape GmbH, ein Spin-Off des Insti-<br />
tuts für Optik, Information und Photonik<br />
der Friedrich-Alexander-Universität Nürn-<br />
berg-Erlangen, sagt ja und stellt die beiden<br />
3D-Sensoren vor.<br />
Abb. 3: Gemessener mittlerer Flächenbrechwert eines Gleitsichtglases und Schnitt durch die Krümmungskarte<br />
Nach einem völlig anderen Messverfahren<br />
– der Phasenmessenden Deflektometrie<br />
– arbeitet der SpecGage3D-Sensor.<br />
Damit steht dem Markt ein extrem<br />
schnelles und zuverlässiges 3D-Messgerät<br />
für spiegelnde Oberflächen zur Verfügung.<br />
Der Sensor deckt ein weites<br />
Spektrum von Messaufgaben ab: optische<br />
Flächen, blanke ästhetisch wirksame<br />
Oberflächen wie Kunststoffteile, Keramiken,<br />
Autoscheiben, Lack, Wafer (auch<br />
strukturiert) und Solarzellen sowie polierte<br />
Metallteile.<br />
Bei großen Brillenglasherstellern <strong>im</strong><br />
In- und Ausland (Zeiss, Rodenstock) hat<br />
sich der Sensor bereits bewährt. Bei<br />
Brillengläsern liegt die Messunsicherheit<br />
bei ± 2/100 dpt. Damit und durch die<br />
kurzen Prüfzeiten wird die vollflächige<br />
Kontrolle auch von asphärischen Gläsern<br />
ermöglicht.<br />
Der neue SpecGage3D-Sensor ist deutlich<br />
kompakter als sein Vorgänger. Durch<br />
die Integration von PC, Monitor und Tastatur<br />
konnte ein Stand-alone-Gerät geschaffen<br />
werden, das benutzerfreundlich<br />
die Vorteile der optischen 3D-Technik<br />
auch für die Prüfung auf kleinste Formabweichungen<br />
<strong>im</strong> Nanometerbereich anbietet.<br />
Obwohl also Genauigkeiten erreicht<br />
werden, die an die Genauigkeiten<br />
interferometrischer Verfahren heranreichen,<br />
ist das Gerät wesentlich robuster<br />
gegenüber Störeinflüssen. Der Hauptvorteil<br />
ist aber, dass nicht nur sphärische<br />
Flächen vermessen werden können, sondern<br />
auch Freiformflächen.<br />
� Kontakt<br />
Dr. Sabine Schiffer<br />
3D-Shape, Erlangen<br />
Tel.: 09131/977959-20<br />
Fax: 09131/977959-11<br />
schiffer@3d-shape.com<br />
www.3d-shape.com<br />
C o n T r o l<br />
Inspect 4/2006<br />
69
C o n t r o l<br />
Stolz auf Made in Germany<br />
Ergonomisches Video-Messmikroskop von Walter Uhl<br />
Die Optik ist die Kerntechnologie des<br />
21. Jahrhunderts. Unsere durch technischen<br />
Fortschritt geprägte Zeit bedarf<br />
innovativer kleiner und mittlerer Unternehmen,<br />
die flexibel auf die sich ständig<br />
verändernden Anforderungen des<br />
Marktes reagieren können. Die Firma<br />
Walter Uhl ist ein Unternehmen, das sich<br />
diesen Herausforderungen stellt.<br />
Schnell installiert – sofort einsatzbereit<br />
Der Aufbau eines Messplatzes n<strong>im</strong>mt in<br />
der Regel viel Zeit in Anspruch. Vor allem<br />
der Anschluss und die Konfiguration von<br />
Peripheriegeräten wie PC, Bildschirm,<br />
Kaltlichtquellen etc. avanciert oft zum Geduldsspiel.<br />
Mit dem Video-Messmikroskop<br />
VMS ergo ist nun Schluss damit.<br />
Mit nur wenigen Handgriffen ist das<br />
Gerät auf einem normalen Tisch in Betrieb<br />
genommen, denn das Video-Messmikroskop<br />
von Walter Uhl aus Aßlar<br />
(Hessen) integriert bereits alles, was man<br />
für die zweid<strong>im</strong>ensionale Vermessung<br />
von Erstmustern und Kleinserien in Labor-<br />
sowie Produktionsumgebungen benötigt.<br />
Nur das Netzkabel sowie eine<br />
Maus und Tastatur sind noch anzuschlie-<br />
70 Inspect 4/2006<br />
ßen, dann ist das VMS ergo gemäß einer<br />
echten Plug & Play-Philosophie bereit.<br />
Durchdachte Ergonomie<br />
Besonderes Augenmerk legte Walter Uhl<br />
aber nicht nur auf die schnelle Einsatzbereitschaft<br />
des Gerätes, sondern<br />
darüber hinaus auch auf ein ermüdungsfreies<br />
und damit konzentriertes Arbeiten<br />
des Anwenders. Beste Beweise für dieses<br />
durchdachte ergonomische Konzept sind<br />
der <strong>im</strong> Stativfuß integrierte Flachbildschirm<br />
sowie der Fokustrieb mit Grob-<br />
und Feinverstellung in opt<strong>im</strong>aler<br />
Handhabungshöhe. Der Stativfuß<br />
beherbergt ferner einen<br />
Embedded-PC. Die Intelligenz<br />
ist somit ebenfalls kompakt verpackt.<br />
All-in-One mit nur 35 kg Gewicht<br />
In leicht erreichbarer Griffweite,<br />
ebenfalls <strong>im</strong> Stativ,<br />
sind zudem die Bedienelemente<br />
für die Beleuchtung untergebracht<br />
– das VMS ergo integriert hier mit<br />
Durchlicht, koaxialem Auflicht und Ring-<br />
Die Fußball-WM ist jetzt bereits seit einigen<br />
Monaten vorbei. Nach der Euphorie, die das<br />
ganze Land ergriffen hatte, ist wieder der Alltag<br />
eingekehrt. Eins aber ist geblieben: Die Unge-<br />
zwungenheit <strong>im</strong> Umgang mit unserer deutschen<br />
Fahne. Vor vielen Häusern weht sie nach wie vor,<br />
Autofahrer fahren sie täglich spazieren, sogar<br />
Bettwäsche und Handtücher in schwarz-rot-gold<br />
sind <strong>im</strong>mer noch ein Renner. Das Sport-Spekta-<br />
kel hat etwas bewirkt, was weder Politik noch<br />
Ingenieurskunst in den letzten Dekaden ge-<br />
schafft hatte: Wir sind <strong>im</strong> eigenen Land wieder<br />
stolz auf Made in Germany.<br />
Abb. 1: Mit VMS ergo wird der Aufbau eines<br />
Messplatzes zur Min<strong>im</strong>alprozedur
Abb. 2: Der Flachbildschirm (Touchscreen) ist <strong>im</strong><br />
Stativfuß integriert, in dem sich ebenfalls der Fokussierbetrieb<br />
und ein Embedded-PC befinden.<br />
licht gleich drei Systeme. Auf der Rückseite<br />
des Stativs befindet sich ein USB-<br />
Anschluss für den Transfer der<br />
Messergebnisse auf einen Datenträger.<br />
Alles in allem dürfte dieses 35 kg leichte<br />
Video-Messmikroskop damit das wohl<br />
kleinste Gerät seiner Art sein.<br />
Schnell erlernbare Messsoftware<br />
Nicht nur die schnelle Installation und<br />
somit Inbetriebnahme des VMS ergo sind<br />
für den sofortigen Einsatz relevant. Auch<br />
an den Anwender hat Walter Uhl gedacht.<br />
Aus diesem Grund verwendet das<br />
Gerät die bewährte, leistungsfähige<br />
Optische Mess-Software OMS mit deutscher<br />
und englischer Benutzeroberfläche.<br />
Die vielfältigen Funktionen lassen<br />
sich intuitiv, also quasi <strong>im</strong> Zuge der aktuell<br />
anstehenden Messaufgaben, nutzen.<br />
Konkret bedeutet dies: Ein Messablauf<br />
lässt sich sehr einfach erlernen,<br />
wobei auch die Möglichkeit besteht, den<br />
Ablauf mit automatischer Kantenfindung<br />
zu programmieren. Alle Messpunkte<br />
können manuell mit der Maus direkt <strong>im</strong><br />
Videobild gesetzt werden. Äußerst hilfreich<br />
sind zudem die elementbezogenen<br />
Verknüpfungen der geometrischen Formen<br />
in einer Baumstruktur. Die Ergebnisse<br />
einer oder mehrerer Messungen<br />
lassen sich unmittelbar in einem farbigen<br />
Textprotokoll auf dem Bildschirm anzeigen.<br />
Werkzeuge intuitiv verwenden<br />
Darüber hinaus stellt OMS intuitiv verwendbare<br />
Werkzeuge zur Kantenantastung<br />
an Punkt, Gerade, Kreis und Kreissektor<br />
zur Verfügung. Zur schnellen<br />
visuellen Kontrolle hält die Software<br />
zudem Rechteck-, Kreis-, Gitter- und<br />
<strong>im</strong>portierbare Bildschirmmasken <strong>im</strong><br />
C o n t r o l<br />
Abb. 3: Die Optische Mess-Software (OMS) in<br />
deutscher und englischer Sprache ist schnell<br />
erlernt und ermöglicht einfaches Setzen der<br />
Messpunkte mit der Maus direkt <strong>im</strong> Videobild.<br />
Vektorformat als Maßverkörperung bereit.<br />
Last but not least bieten eine Vielzahl<br />
von Funktionen die Möglichkeit, bereits<br />
gemessene Geometrieelemente zu<br />
berechnen und zu verknüpfen.<br />
Alles „Made in Germany“<br />
In Kombination mit OMS vereint das<br />
Video-Messmikroskop VMS ergo die<br />
Stärken der auf einem Baukastensystem<br />
basierenden Messmikroskop-Serien MS<br />
und VMM von Walter Uhl. Sowohl die optischen<br />
und optoelektronischen Systeme<br />
der Serie MS, als auch die aus der Übernahme<br />
des Produktbereichs „Messmikroskopie“<br />
von Leica Microsystems hervorgegangene<br />
und von Walter Uhl<br />
opt<strong>im</strong>ierte VMM Gerätereihe, sind „Made<br />
in Germany“ und überzeugen wie das<br />
VMS ergo durch hochwertige Ausstattungsmerkmale<br />
und hohe Verarbeitungsqualität.<br />
� Kontakt<br />
Walter Uhl, technische Mikroskopie GmbH & Co.<br />
KG, Asslar<br />
tel.: 06441/88603<br />
Fax: 06441/85718<br />
mail@walteruhl.de<br />
www.walteruhl.de
C o n T r o l<br />
Dem Täter auf der Spur<br />
Ein nebliger Novembermorgen in Berlin-<br />
Adlershof. Kommissar Klein fröstelt es.<br />
Nicht nur wegen des Toten, der <strong>im</strong> frisch<br />
zertrampelten Gras vor ihm liegt. Der leh-<br />
mige Boden weist eine Reihe deutlich<br />
sichtbarer Spuren auf …<br />
Spätestens jetzt weiß der Kr<strong>im</strong>i-Kenner:<br />
Der Fall ist so gut wie gelöst. Die Spurensicherung<br />
wird die Schuhabdrücke aufnehmen,<br />
in eine gigantische Datenbank<br />
füttern und nach der einen oder anderen<br />
Verfolgungsjagd den Täter anhand seiner<br />
Schuhe identifizieren.<br />
Aber wie geht das eigentlich ?<br />
Spurensuche mit SCHARS<br />
Das geht schnell, sicher und gut dokumentiert<br />
mit der Bilddatenbank SCHARS,<br />
dem Schuhspur- und -muster- Archivierungs-<br />
und Retrieval-System. Dieses System<br />
wurde entwickelt für Aufnahme,<br />
Beschreibung und Wiederauffinden von<br />
bildlich vorliegenden Spuren, so wie sie<br />
vorwiegend <strong>im</strong> kr<strong>im</strong>inaltechnischen<br />
Umfeld und in Sicherheitsbereichen<br />
auftreten.<br />
SCHARS ist in direkten<br />
fachlichen Konsultationen<br />
und Beratungen<br />
mit Experten des<br />
Landeskr<strong>im</strong>inalamtes<br />
Brandenburg entstanden.<br />
Es ist in diversen<br />
Landeskr<strong>im</strong>inalämtern<br />
und Polizeipräsidien<br />
<strong>im</strong> Einsatz.<br />
Obwohl für Schuhspuren<br />
und Schuhsohlenmuster<br />
ausgelegt,<br />
kann<br />
72 Inspect 4/2006<br />
Bildverarbeitung für Polizei und Sicherheitsdienst<br />
das System aber mit den identischen<br />
Charakteristiken auch für Reifenspuren<br />
oder verwandte Bildklassen eingesetzt<br />
werden. Zur Bildgewinnung kann neben<br />
Flachbettscannern, insbesondere aufgrund<br />
der Reliefinformation in den realen<br />
Objekten, auch Kameratechnik mit<br />
Framegrabbern genutzt werden. Verbunden<br />
mit der bildlichen Charakteristik<br />
der Spur ist eine Vielzahl von alphanumerischen<br />
Informationen für den Anwender<br />
relevant, z. B. die Tatort- und<br />
Tatzeitbeschreibung. Diese Daten werden<br />
entsprechend mit bearbeitet bzw.<br />
ausgewertet.<br />
Dem Nutzer wird vom System sowohl<br />
für den Prozess der Kodierung, d. h. der<br />
Ablage seines Spur- und Vergleichsmaterials<br />
in einer Bilddatenbank, als auch für<br />
den Prozess der Suche in dieser Bilddatenbank<br />
eine automatisierte Unterstützung<br />
über indexierte Teilbilder bzw.<br />
Icons gegeben. Seinen Einsatz findet das<br />
System überall dort, wo die potentiell<br />
auftretende Bildmenge nach bildlichen<br />
Grundmustern und weiteren Regelmäßigkeiten<br />
in (möglichst kleine) Teilmengen<br />
sinnvoll klassifizierbar ist.<br />
Funktionsweise und Features<br />
SCHARS umfasst einen Kern, in<br />
dem die Daten, die Informationen,<br />
das Bildhandling und Abläufe,<br />
die sich innerhalb einer Nutzerklasse<br />
weitestgehend gleichen,<br />
enthalten sind. Die<br />
charakteristischen Informationen<br />
der einzelnen Nutzer,<br />
z. B. anwendungsabhängige<br />
Verwaltungsdaten oder fallspezifische<br />
Daten, sind in nutzerspezifischen<br />
Aufsätzen untergebracht.<br />
Diese Struktur erlaubt<br />
eine einfache Anpassung des Systems<br />
an neue Nutzerforderungen.<br />
Das System ist als<br />
Windows-Applikation<br />
in C++ programmiert<br />
und lässt die Bildakquisition<br />
über beliebigeEingabegeräte<br />
(Scanner,<br />
Kamera, Kamerascanner<br />
etc.) zu.<br />
Spezialhard<br />
Abb. 1: „SCHARS“ Schuhspur- und -muster-<br />
Archivierungs- und Retrieval-System“<br />
ware, bspw. Framegrabber mit eigenen<br />
Prozessoren für die Abarbeitung der<br />
bildspezifischen Prozeduren, kann je<br />
nach Anforderung integriert werden. Sowohl<br />
der Ergebnisausdruck bildlich vorliegender<br />
Daten als auch von vorgefertigten<br />
Textbausteinen in Form einer<br />
automatisierten Protokollierung werden<br />
unterstützt. Die Netzwerkfähigkeit ist gegeben,<br />
aktuelle Standards sind eingehalten.<br />
Als „features“ sind u. a. unterschiedliche<br />
Retrievalstrategien, Verknüpfungen<br />
und Ausschlüsse enthalten. Die effektive<br />
Inspektion größerer Bildmengen wird<br />
durch temporäre Klassenbildung unterstützt.<br />
Für die Ergebnisinspektion und<br />
die Bearbeitung der Bilder ist eine ganze<br />
Palette von Bildverarbeitungsfunktionen<br />
<strong>im</strong>plementiert. Neben einer Reihe nutzerfreundlicher<br />
Fensterfunktionen, z. B.<br />
Zooming, steht gleichfalls eine Messfunktion<br />
mit variabler Skalierungsmöglichkeit<br />
für die Kodierung zur Verfügung.<br />
Das SCHARS ist eine Bilddatenbank<br />
mit iconunterstützter Indexierung, ein<br />
Werkzeug, mit dem für den Kr<strong>im</strong>inalisten<br />
die Zeit für die operative Spurenauswertung<br />
sowohl bei der Kodierung von<br />
Schuhspuren und -mustern als auch bei<br />
der Recherche in den zugehörigen Datenbanken<br />
verkürzt wird.<br />
Täter gefasst.<br />
� Kontakt<br />
Dipl.-Inf. Christian Feist<br />
Dipl.-Inf. Ralf Knöfel<br />
Gesellschaft zur Förderung<br />
angewandter Informatik, Berlin<br />
Tel.: 030/6392-1608<br />
Fax: 030/6392-1661<br />
feist@gfai.de<br />
knoefel@gfai.de<br />
www.gfai.de
Haarscharf erkannt<br />
Unter Corning, dem Marktführer <strong>im</strong> Bereich<br />
der Glasfasern selbst, ist Corning<br />
Cable Systems eines der führenden globalen<br />
Unternehmen für Verkabelungssysteme<br />
und Glasfaser-Verbindungstechnik.<br />
Mit zwei neuen Geräten zum Spleißen<br />
von Einzelglasfasern und Faserbändchen<br />
erweitert CCS jetzt sein Produktspektrum<br />
um kamerageführte Spleißtechnik<br />
auf der Basis von Phytec-Modulen und<br />
adressiert damit auch den neuen Wachstumsmarkt<br />
FTTH (Fiber to the Home).<br />
Der Beitrag beschreibt die Entwicklungsgeschichte<br />
dieser neuen Produktfamilie<br />
sowie die Herausforderungen in Bezug<br />
auf Technik und T<strong>im</strong>e to Market, die zu<br />
meistern waren.<br />
Die wesentlichen Grundzüge der Geräte<br />
lassen sich wie folgt beschreiben:<br />
Zwei Kameras zur Lageerkennung der<br />
beiden Einzelfaser- oder Faserbändchenenden,<br />
Feinsteuerung zur Positionierung<br />
der Faserenden, Steuerung und Versorgung<br />
von Lichtbogengenerator und<br />
Schrumpfofen (zum Aufbringen eines<br />
Schrumpfschlauches zum Schutz der<br />
Spleißstelle), kompaktes, tragbares Design<br />
mit Akkubetrieb (bei einer Akku-Kapazität<br />
von 7,2 Ah), RoHS-konforme Ausführung<br />
und Einhaltung von EMV-Vorgaben,<br />
Kostenopt<strong>im</strong>ierung der Komponenten sowie<br />
der Montageaufwendungen.<br />
C o n t r o l<br />
Kamerageführte automatische Verbindung von Glasfasern<br />
Eine Standard-Glasfaser für die optische<br />
Übertragung von Sprache, Daten, Bildern<br />
hat einen Durchmesser von 125 µm. Sie<br />
besteht aus einem Mantel und einem Kern.<br />
Je nach Fasertyp und der zu übertragenden<br />
Wellenlänge des Lichtsignals ist der Durchmesser<br />
des Faserkerns unterschiedlich. Bei<br />
gängigen Standard-Einmodenfasern liegt<br />
er bei ca. 8 µm, somit etwa bei 1/10 der<br />
Dicke eines menschlichen Haars. Um die<br />
Datenübertragung über kilometerlange<br />
Strecken zu ermöglichen, müssen diese<br />
Fasern verlustarm miteinander verschweißt<br />
werden – automatisch und mit möglichst<br />
geringer Dämpfung an der Verbindungsstelle.<br />
Corning Cable Systems, vormals RXS<br />
Kabelgarnituren GmbH, eine 100 %ige<br />
Siemens Tochter, hat erste Lichtbogen-<br />
Spleißgeräte in den frühen 80er Jahren<br />
entwickelt und <strong>im</strong> Markt eingeführt.<br />
Um die Wettbewerbsvorteile bei der<br />
Erschließung des Marktes zu sichern,<br />
war ein enger Zeitrahmen einzuhalten:<br />
Erstellung eines Prototyps innerhalb von<br />
neun Monaten, Nullserienreife innerhalb<br />
von 12 Monaten. Aufgrund dieser Anforderungen<br />
musste die Hard- und<br />
Softwareentwicklung möglichst parallel<br />
durchgeführt werden.<br />
Lösungsansatz Modultechnik<br />
Corning Cable Systems hat sich zur Realisierung<br />
dieses Projektes für die Zusammenarbeit<br />
mit Phytec entschieden. Phytec<br />
bot mit dem Embedded Video Kit eine<br />
Hardware-/Softwarebasis, die einen sofortigen<br />
Start der Softwareentwicklung ermöglichte<br />
und die Realisierungszeit der<br />
Hardware entscheidend verkürzte, da<br />
zentrale Komponenten bereits serienreif<br />
zur Verfügung standen. Zentraler Rechenkern<br />
der fertigen Serienlösung ist entsprechend<br />
das PXA270 phyCore-Modul in exakt<br />
der Ausführung, wie es <strong>im</strong> Embedded<br />
Video Kit zur Verfügung steht. Weitere Lösungselemente<br />
konnten auf der Basis von<br />
Phytec-Schaltungsbibliotheken und -Softwaremodulen<br />
bereits zu Projektbeginn<br />
eingebracht werden. Die Modultechnik ermöglicht<br />
in einer frühen Phase des Projektes<br />
bereits die Entwicklung hardware-
74 Inspect 4/2006<br />
C o n t r o l<br />
Abb. 1: Anordnung der elektronischen Baugruppen <strong>im</strong> Spleißgerät<br />
Abb. 2: Datenstrom des PXA270 in Overlaydarstellung<br />
spezifischer Komponenten und auch die<br />
sofortige Realisierung der Softwarebasis<br />
für die Seriengeräte. Die Softwarebasis für<br />
die Gesamtlösung ist Linux.<br />
Kamerainterface zur Lageerkennung<br />
und Positionierung der Glasfaserenden<br />
Für die Positionserkennung der Glasfaserenden<br />
werden zwei Kameras am<br />
digitalen Kamerainterface des PXA270-<br />
Microcontrollers betrieben. Die Bilderfassung<br />
erfolgt mit CMOS-Sensoren, da<br />
diese direkt an den PXA270 angeschlossen<br />
werden können und damit zur Kostenreduktion<br />
durch Bauteile- und Platzmin<strong>im</strong>ierung<br />
beitragen. Phytec realisierte<br />
eine PLD-basierte Multiplexlösung, die<br />
bei min<strong>im</strong>alem Hardwareaufwand (ohne<br />
Änderung des phyCore-Moduls) beide<br />
Sensoren auf das vorhandene Interface<br />
„mapped“. Gleichzeitig gestattet eine Zusatzlogik<br />
die Steuerung der Beleuchtung<br />
derart, dass beide Sensorbilder ein<br />
eindeutiges Abbild der Lage der beiden<br />
Faserenden liefern.<br />
Die Vorpositionierung der beiden Glasfaserenden<br />
ist bereits besser als auf den<br />
Mill<strong>im</strong>eter genau. Dafür sorgt ein intelli-<br />
Abb. 3: OptiSplice: Vorserienausführung des<br />
entwickelten Spleißgerätes<br />
gentes, von Corning Cable Systems patentiertes,<br />
Verfahren. Die exakte Positionierung<br />
zum letztendlichen Verschweißen<br />
der Faserenden übern<strong>im</strong>mt danach vollautomatisch<br />
eine Motor-Steuerung unter<br />
ständiger Kontrolle der absoluten Position<br />
durch die beiden Kamerasensoren.<br />
Diese beiden Sensoren prüfen auch nach<br />
dem kompletten Produktionsablauf die<br />
Qualität der Faserverbindung, da bereits<br />
wenige Mikrometer Versatz zu einer nicht
„Statement Christian Heidler;<br />
Splice Equipment Development;<br />
Corning Cable Systems<br />
GmbH & Co. KG“<br />
Am Anfang der Entwicklung unserer<br />
neuen Spleißgerätefamilie für den FttP<br />
Markt stand die Anforderung, ein leistungsfähiges<br />
und gleichzeitig kostengünstiges<br />
Gerät in einer sehr kurzen Zeit zu<br />
entwickeln. Um dieses Ziel zu erreichen,<br />
nahmen wir Kontakt zu externen Dienstleistungsunternehmen<br />
auf, um mit Hilfe<br />
von deren Know-how das Projekt zu beschleunigen.<br />
Im Bereich der Elektronikentwicklung<br />
wandten wir uns an die Firma Phytec, die<br />
Erfahrung <strong>im</strong> Bereich Bildverarbeitung<br />
vorweisen konnte und deren PXA270<br />
Modul eine geeignete Basis für unser<br />
Projekt darstellte. Die Entscheidung, ein<br />
Prozessormodul anstelle einer Eigenentwicklung<br />
einzusetzen, verringerte den<br />
Entwicklungsaufwand für die Elektronik<br />
erheblich.<br />
Unsere kundenspezifische Hardware<br />
wurde an die standardisierten Schnittstellen<br />
des PXA Moduls angebunden, wodurch<br />
die Integration sehr einfach und<br />
mit min<strong>im</strong>alem treiberaufwand möglich<br />
war. Das Kamerainterface des PXA270<br />
wurde mit geringem Hardwareaufwand<br />
erweitert, so dass zwei Kameras angeschlossen<br />
werden können, um den Spleißprozess<br />
aus zwei Achsen zu betrachten.<br />
Ein verfügbares Evaluation Board und ein<br />
entsprechendes Board Support Package<br />
erlaubten einen frühzeitigen Start der<br />
Softwareentwicklung. Durch die Parallelisierung<br />
von Hard- und Softwareentwicklung<br />
konnte das Projekt zügig und termingerecht<br />
vorangetrieben werden.<br />
Besonders hervorzuheben ist die exzellente<br />
Zusammenarbeit mit Phytec. noch<br />
vor dem eigentlichen Beginn des Projektes<br />
hatten wir Gelegenheit, <strong>im</strong> rahmen<br />
eines von Phytec vorgeschlagenen Workshops<br />
den verantwortlichen Entwicklungsingenieuren<br />
unser Projekt vorzustellen<br />
und schon erste lösungsansätze zu<br />
diskutieren. Das Projekt wurde von Phytec<br />
mit sehr viel Engagement und Know-how<br />
vorangetrieben. Durch intensive lösungsorientierte<br />
Diskussionen wurden kostengünstige<br />
und innovative lösungen für unser<br />
FttP Spleißgerät gefunden, die u.a.<br />
auch eine hervorragende Basis für weitere<br />
Spleißgerätegenerationen von Corning<br />
Cable Systems darstellen.<br />
C o n t r o l<br />
Abb. 4: Der Blick in das geöffnete Gerät zeigt<br />
die mechanischen Herausforderungen bei der<br />
Elektronikentwicklung.<br />
tolerierbaren Signaldämpfung führen<br />
können. CCS sichert mit der automatischen<br />
Steuerung und nachfolgenden objektiven<br />
Qualitätsbeurteilung die Zuverlässigkeit<br />
der Glasfaseranbindung auf<br />
hohem technischem Niveau.<br />
Modultechnik und enge Kooperation<br />
Zentraler Kern des Gerätes ist das phy-<br />
Core PXA270-Modul. Die Ansteuerung<br />
aller zusätzlichen Komponenten wurde<br />
aus mechanischen Gründen auf insgesamt<br />
sechs Zusatzboards verteilt, die von<br />
Phytec in enger Zusammenarbeit mit<br />
CCS entwickelt wurden und die auch <strong>im</strong><br />
Hause Phytec in Serie produziert werden.<br />
Für den gewölbten Deckelbereich<br />
des Gerätes wird eine flexible Leiterplatte<br />
eingesetzt. Konstruktive Lösungen<br />
in Bezug auf die räumliche Anordnung<br />
der Platinen sichern einen extrem geringen<br />
Platzbedarf und gestatten trotzdem<br />
die kostengünstige Montage des Gesamtgerätes.<br />
Modultechnik und enge Kooperation<br />
zwischen CCS und Phytec waren maßgeblich<br />
für die Einhaltung des engen<br />
Zeitrahmens. Das jeweils spezifische<br />
Know-how beider Unternehmen führte<br />
zu einer innovativen Gesamtlösung. Derzeit<br />
befindet sich das Design in der<br />
abschließenden Opt<strong>im</strong>ierungs- und Zertifizierungsphase.<br />
Der Serieneinsatz erfolgt<br />
<strong>im</strong> 4. Quartal 2006.<br />
� Kontakt<br />
Christian Heidler,<br />
Splice Equipment Development<br />
Phytec Messtechnik GmbH, Mainz<br />
tel.: 06131/9221-0<br />
Fax: 06131/9221-33<br />
info@phytec.de<br />
www.phytec.de
PRO-4-PRO Charts<br />
01.09.2006–15.10.2006<br />
Welche Unternehmen, welche Produkte wurden am häufi gsten gesucht?<br />
Das zeigen Ihnen die PRO-4-PRO Charts.<br />
Kameras<br />
1. High-Speed Kamera RDT-Lightning<br />
Bfi Optilas<br />
2. Mikrokamera-Familie<br />
Kappa opto-electronics<br />
3. Multi-Megapixel-Kamera Oscar<br />
Allied Vision Technologies<br />
4. Ultra-hochempfi ndliche Kamera<br />
WAT-902H<br />
Herke Videotechnik<br />
5. ImagEM – Electron Multiplier CCD<br />
Camera<br />
Hamamatsu Photonics<br />
6. Robuste Miniatur-CCD-Kamera<br />
Intravision CC25<br />
K.H. Hinze Optoengineering<br />
7. Ultra-kleine Kompakt-Farbkameras:<br />
STC-P63 Serie<br />
Videor Technical<br />
8. High Speed Kamera CamRecord 800<br />
Optronis<br />
9. CMOS-Kamera Sondermodell VL450<br />
L.O.T.-Oriel<br />
10. Linux GigE Vision SDK<br />
Rauscher<br />
Komponenten<br />
1. Matrox Morphis QxT Framegrabber<br />
Rauscher<br />
2. Farb-Vision Sensor FA 45<br />
Sensopart Industriesensorik<br />
3. Profi lsensor ScanControl 2810<br />
Micro-Epsilon Messtechnik<br />
4. Kompakte Sensorfamilie VeriSens<br />
Baumer Electric<br />
5. Handbook of Machine Vision<br />
Wiley-VCH<br />
6. Framegrabber PC_Eye/Sec<br />
Eltec Elektronik<br />
7. Sondenobjektive für CCD-Kameras<br />
K.H. Hinze Optoengineering<br />
8. Vision-Sensoren DVT 515/ DVT 535<br />
Cognex Germany<br />
9. Kamerasensor für fl ächige<br />
Farberfassung<br />
Sick<br />
10. Barcode Scanner MS Quadrus<br />
Microscan Systems<br />
Abonnieren auch Sie den PRO-4-PRO Produktnewsletter unter www.pro-4-pro.com/msr<br />
Hier sehen Sie die aktuellen Charts der Online-Branchenplattform PRO-4-PRO.<br />
Die Erhebung erfolgte anhand der Zugriffe durch die PRO-4-PRO Besucher und ist auf den oben ausgewiesenen<br />
Zeitraum eingeschränkt. Die Charts stehen Ihnen auch online unter www.PRO-4-PRO.com zur Verfügung.<br />
CONTROL<br />
1. Mikroskop-Kameraserie Digital Sight<br />
Nikon<br />
2. Portable Infrarotkamera ThermaCam<br />
SC640<br />
Flir Systems<br />
3. Okularloses Inspektion Mantis Macro<br />
Vision Engineering<br />
4. Siscan-Sensor zur hochpräzise<br />
3D-Inspektion<br />
Siemens A&D<br />
5. Wärmebildkamera IR-FlexCam Serie<br />
Ti40<br />
Fluke Deutschland<br />
6. Interaktives 3D-System<br />
für die Mikroskopie<br />
Leica Microsystems<br />
7. Wärmebildkamera Thermal-Eye 4500AS<br />
Bfi Optilas<br />
8. Mikroskopie-Digitalkamera DP71<br />
Olympus Deutschland<br />
9. Röntgeninspektionssystem Nanotom<br />
Phoenix|x-ray<br />
10. ProgRes Capture Pro Software<br />
für Apple Macintosh<br />
Jenoptik
C o n t r o l<br />
Gekühlte Electron-Multiplier-Kameras<br />
Hamamatsu stellt mit der ImagEM eine in Leistung und Flexibilität<br />
unerreichte CCD-Kamera vor. Es ist eine universelle Kamera für<br />
Restlicht-Anwendungen <strong>im</strong> Bereich der Life Sciences, Fluoreszenz-<br />
und Lumineszenz-Imaging, physikalischen Messtechnik und industriellen<br />
Bildverarbeitung. ImagEM zeichnet sich durch geringsten<br />
Dunkelstrom, hohe Verstärkung und verbessertes Signal- zu Rauschverhältnis<br />
aus. Im CCD-Mode arbeit die Kamera wie übliche gekühlte<br />
CCD-Kameras, <strong>im</strong> EM-Mode wird ein zusätzlicher Verstärkungsfaktor<br />
eingeführt. Das ermöglicht die opt<strong>im</strong>ale Anpassung der<br />
Kameraeinstellungen an die jeweils geforderte Aufgabenstellung. Der Kamera Dunkelstrom von weniger als<br />
0.001 Elektronen/Pixel/Sekunde wird bei Kühlung auf unter -80 °C erreicht.<br />
Hamamatsu Photonics Deutschland GmbH<br />
Tel.: 08152/375-139 • kreutter@hamamatsu.de • www.hamamatsu.de<br />
Hochgeschwindigkeitskamera<br />
Die neue CamRecord 1000 Hochgeschwindigkeitskamera von Optronis ermöglicht es, selbst schnellste Vorgänge<br />
für das menschliche Auge sichtbar zu machen. Das portable und robuste Kamerasystem<br />
lässt sich einfach per FireWire Schnittstelle an ein Notebook oder PC<br />
anschließen und ist damit bestens für Einsatzzwecke geeignet, die eine hohe<br />
Mobilität voraussetzen. Eines der Haupteinsatzgebiete sind die Beobachtung<br />
und Analyse schneller Vorgänge in Produktion und<br />
Entwicklung. Damit bei länger dauernden Vorgängen keine Informationen<br />
verloren gehen, ist die Kamera mit einem großen<br />
internen Bildspeicher ausgestattet, der lange Aufnahmezeiten<br />
erlaubt. Mit einer Geschwindigkeit von 1000 Bildern/s bei einer<br />
Auflösung von 1280 x 1024 Pixel lassen sich selbst schnellste Prozesse beobachten.<br />
Optronis auf der Vision: Halle 4.0 Stand 017.<br />
Optronis GmbH • Tel.: 07851/9126-0 • info@optronis.com • www.optronis.com<br />
Universelle Mikroskop-Kameraserie<br />
Gleich fünf Digitalkameras umfasst Nikon’s Kameraserie Digital Sight für die Mikroskopie. Jede DS-Kamera<br />
besitzt individuell zugeschnittene Leistungsparameter für best<strong>im</strong>mte<br />
Anwendungsgebiete, wie bspw. hochauflösende Farbfotographie,<br />
Fluoreszenzmikroskopie und schnelle Live-Bilderfassung. In der Digital-Sight-Serie<br />
steckt das aktuellste Know-how von Nikon über die<br />
Digitalkameratechnolgie. Neu ist die hochauflösende 5-Megapixelkamera<br />
DS-Fi1 mit 12bit Farbtiefe für perfekte Bildergebnisse in Histologie,<br />
Pathologie, Phasenkontrast- und DIC-Mikroskopie an Zellen<br />
und Geweben, sowie bei der Qualitätskontrolle in der Industrie. Speziell<br />
für Fluoreszenzanwendungen bietet Nikon für hochauflösende<br />
Farbaufnahmen an mehrfach gefärbten Präparaten die 5-Megapixelkamera DS-5Mc, und für die schnelle Live-<br />
Bildaufnahme an vital-gefärbten Zellen <strong>im</strong> Monochrombetrieb die 2-Megapixel Kamera DS-2Mc an.<br />
Nikon GmbH • Tel.: 0211/9414217 • joerg.kukulies@nikon.de • www.nikon-instruments.com<br />
Forum MikroskopieTrends’06<br />
Welche Anforderungen an eine automatisierte Bildanalyse müssen moderne Mikroskope für den Anwender<br />
aus dem LifeScience-Labor oder der Industrie erfüllen? Wie können <strong>im</strong> Übergang von der reinen Bildgebung<br />
zur komplexen Messauswertung Auflösungsgrenze bzw. Geschwindigkeit weiter opt<strong>im</strong>iert und damit qualitativ<br />
hochwertige Bilder erzeugt werden? Und was findet bereits in derzeitigen Gerätekonzepten Berücksichtigung?<br />
Diese Fragen bilden die Grundlage für das anspruchsvolle Vortragsprogramm des Forums MikroskopieTrends<br />
’06, das am 07. Dezember in Göttingen stattfindet. Im Mittelpunkt stehen aktuelle<br />
Mess- und Manipulationsmethoden in verschiedenen Bereichen der LifeScience-Mikroskopie, vorgestellt von<br />
Anwendern aus Kliniken, universitären Forschungslaboren und dem Deutschen Krebsforschungszentrum.<br />
PhotonicNet GmbH • Tel.: 0551/3057-222 • www.photonicnet.de<br />
weitere Produkte unter www.Pro-4-Pro.com<br />
Inspect 4/2006<br />
77
Wir stellen aus: SPS/IPC/DRIVES in Halle 5, Stand 221<br />
C o n t r o l<br />
Sicherheit für die Druckluftversorgung<br />
Die stationären Drucktaupunkt-<br />
Messgeräte der Airsecure Baureihe<br />
ECO sind Regler und Warngerät<br />
zugleich. Das Gerät besitzt drei<br />
Ausgänge, wobei der erste Ausgang<br />
bei Überschreiten des eingestellten<br />
Regelungswertes den<br />
Trockner ansteuert und einen<br />
Trocknungszyklus einleitet. Ein<br />
weiterer Kontakt ist für den Voralarm<br />
und ein Kontakt für die Meldung des Hauptalarms vorgesehen.<br />
Über eine Signalleuchte und den akustischen Signalgeber wird der Alarm<br />
vor Ort signalisiert.<br />
Hygrosens Instruments GmbH • Tel.: 07669/921011<br />
info@hygrosense.com • www.hygrosense.com<br />
Digitalisieren mit Laserscannersystem<br />
Das handgeführte Laserscannersystem<br />
ModelMaker der Descam 3D Technolgies benötigt<br />
zur 3D-Formerfassung ungefähr ein<br />
Fünftel der Zeit einer klassischen Messmaschine.<br />
Insbesondere wenn sich das Objekt<br />
in einer Aufpassung komplett rundherum<br />
einscannen lässt oder nur Teilbereiche benötigt<br />
werden. Je komplexer die Teile sind und<br />
je mehr Freiformflächenanteil das Objekt hat,<br />
umso größer ist der Vorteil. Der größte Unterschied<br />
der beiden Messmethoden besteht<br />
darin: Auf der Messmaschine werden nur<br />
eine überschaubare Anzahl Koordinatenpunkte gemessen, be<strong>im</strong> Laserscannen<br />
wird jedoch die gesamte Oberfläche erfasst. Die Analyse kann also –<br />
auch nachträglich – beliebig erweitert werden. Auch in der Luft- und Raumfahrtbranche<br />
wird der Laserscanner eingesetzt. Aufgabenstellungen können<br />
dadurch schneller gelöst und die Arbeit effizienter gestaltet werden.<br />
Descam 3D Technolgies GmbH<br />
Tel.: 089/450286-0 • info@descam.de • www.descam.de<br />
Softwarepakete für manuelle und halbautomatische<br />
Röntgensysteme<br />
Viscom hat das neue Softwarepaket XMC auf den Markt gebracht, das dem<br />
Bediener manueller und halbautomatischer Röntgensysteme<br />
wesentliche Erleichterungen und Verbesserungen<br />
bringt. Eingebunden in die einheitliche<br />
Bedienoberfläche VVP (ViscomVisionPilot), mit<br />
der alle Inspektionssysteme von Viscom – auch<br />
die optischen – betrieben werden, ist XMC<br />
speziell an die Bedürfnisse der manuellen und<br />
halbautomatischen Röntgensysteme angepasst.<br />
Mit der Echtzeitbildverarbeitung werden<br />
die Inspektionsbilder verbessert und verzögerungsfrei<br />
<strong>im</strong> „Livebild“ dargestellt, ohne dass es zusätzlicher<br />
Tastatureingaben bedarf. Dies ist besonders für manuelle Röntgenuntersuchungen<br />
von Vorteil, damit der Bediener sich ganz auf seine Prüfaufgabe<br />
konzentrieren kann. (electronica Halle A1/Stand A1.550)<br />
Viscom AG<br />
Tel.: 0511/94996-0 • me@viscom.de • www.viscom.de<br />
78 Inspect 4/2006 weitere Produkte unter www.Pro-4-Pro.com
Turbinenschaufeln effizient messen<br />
Die Software Blade Pro von Zeiss macht das Messen von Turbinenschaufeln<br />
und die Datenauswertung am PC äußerst effektiv. Messvorgänge<br />
in Teilmessungen zu zerlegen, um die von vielen Parametern abhängigen<br />
Ergebnisse zu best<strong>im</strong>men,<br />
erübrigen sich. Durch Verwendung eines<br />
CAD-Kerns in der Messgeräte-Software<br />
können auch CAD-Modelle als Basis für<br />
ein Messprogramm dienen. Blade Pro<br />
gestattet die bestmögliche Ermittlung<br />
aller Kenngrößen einer Turbinenschaufel<br />
und den Profilvergleich auch bei unterschiedlichen<br />
Längen. Ein für Carl Zeiss<br />
patentierter Algorithmus berücksichtigt überproportionale Längenfehler.<br />
Erst damit ist die aussagekräftige Auswertung funktionskritischer Bereiche<br />
wie der Eintritts- bzw. Austrittskante bei Turbinenschaufeln sichergestellt.<br />
Die mathematische Besteinpassung lässt keine Wünsche offen.<br />
Carl Zeiss Industrielle Messtechnik<br />
Tel.: 07364/20-3539 • lindmayer@zeiss.de • www.zeiss.de<br />
Neues Video-Mess-Mikroskop<br />
Vision Engineering präsentiert mit dem neuen Video-Messsystem Merlin rechtzeitig<br />
zu den wichtigen Herbstmessen eine Produktinnovation für den industriellen<br />
Bereich. Auf der Basis des erfolgreichen Messmikroskops Kestrel wurde<br />
der robuste und bewährte Vision-Messtisch mit der neuen QC-300 Auswertungs-Einheit<br />
zu einem System aus einem Guss vereint. Mit einfacher, logischer<br />
Bedienung fügt es sich in das Benutzerkonzept von Vision Engineering ein. In<br />
der Darstellung des Prüflings mittels Video-Livebild werden genaue Messungen<br />
von Strecken, Radien und Abständen mittels Fadenkreuz oder Kantenerkennung<br />
vorgenommen. Die gefundenen Ergebnisse können auf einfache Weise<br />
miteinander geometrisch verknüpft werden. Alle wichtigen Schnittstellen zu<br />
Drucker oder PC stehen für die Dokumentation der Ergebnisse zur Verfügung.<br />
Optional kann auch das Videobild gespeichert werden.<br />
Vision Engineering Ltd.<br />
Tel.: 08141/40167-0 • summer@visioneng.de • www.visioneng.de<br />
Intelligente Messtechniklösung<br />
µPhase smartgage von Fisba Optik ist die ideale<br />
Messtechniklösung zur Qualitätskontrolle in der<br />
Massenproduktion kleiner optischer Komponenten.<br />
Dieses einzigartige Messgerät wurde speziell für den<br />
Einsatz in der Produktionsumgebung entwickelt. Die<br />
innovative Technologie des Messinstruments gewährleistet<br />
den wirtschaftlichen Einsatz in der Produktion<br />
und trägt dort zu verbesserten Ergebnissen<br />
bei. µPhase smartgage ermöglicht auf Knopfdruck<br />
eine präzise digitale Analyse der Oberflächenabweichungen<br />
planer, sphärischer und leicht asphärischer<br />
Oberflächen, z. B. bei Kamaraobjektiven von Mobiltelefonen<br />
oder Digitalkamaras. Es ermöglicht eine effiziente Qualitätsprüfung und<br />
Analyse der PV-, RMS- und ISO-Werte und liefert zuverlässige Messergebnisse. Die<br />
Messung erfolgt auf einfachen Knopfdruck oder durch Berührung des Touchscreens.<br />
Die Ergebnisse werden innerhalb von Sekunden auf dem Bildschirm dargestellt.<br />
Fisba Optik AG<br />
Tel.: +41 71 282 31 79 • barbara.ras@fisba.ch • www.fisba.ch<br />
Schnelle und komfortable Spektralmessung<br />
Das Spektralmesssystem spec‘3 ermöglicht die<br />
schnelle Messung von spektralen Verteilungen<br />
vom UV bis zum NIR. Als Nachfolger des über<br />
lange Jahre bewährten Systems spec2000 basiert<br />
spec’3 auf einer Detektorzeile mit deutlich<br />
höherer Auflösung. Die Ansteuer- und Auswertesoftware<br />
wurde komplett neu entwickelt und<br />
bietet eine Vielzahl von Auswertemöglichkeiten.<br />
Im sichtbaren Spektralbereich werden<br />
die farbmetrischen Größen gemäß CIE direkt<br />
ausgegeben. Die Ausgabe kann <strong>im</strong> Live-Modus<br />
kontinuierlich erfolgen, was die Beobachtung<br />
zeitlicher Änderungen einfach ermöglicht oder auch Einstellaufgaben sinnvoll<br />
unterstützt. Farbtoleranzbereiche können in der Auswertesoftware definiert<br />
werden, um einen schnellen Test gegen Prüfvorschriften durchzuführen. Die<br />
Farbwiedergabewerte nach CIE werden <strong>im</strong> Live-Modus permanent aktualisiert.<br />
Opsira GmbH • Tel.: 0751/561-890 • www.opsira.de<br />
C o n t r o l
I N D E x + I M P R E S S U M<br />
Firma Seite<br />
3D Shape 69<br />
alicona Imaging 64, 67<br />
Allied Vision Technologies 39<br />
Artray 59<br />
Asentics 48<br />
Axiomtek Deutschland 44<br />
Baumer Optronic 47<br />
Bi-Ber Bilderkennungs-Systeme 58<br />
Chromasens 40<br />
Cognex Germany 60<br />
DeltaE <strong>im</strong>aging 59<br />
Descam 3D Techn. 78<br />
eMVA 34<br />
Festo GB Cybernetic 60<br />
FH Darmstadt 16<br />
Fisba Optik 39, 79<br />
Framos Electronic 39<br />
Fujinon Europe 7<br />
GFaI Ges. zur Förderung angewandter Informatik 72<br />
Hamamatsu Photonics 77<br />
Hygrosens Instruments 78<br />
iB/E Ing.-Büro K. Eckerl 39<br />
IDS 30, 38, 49<br />
Imagic Bildverarbeitung 71<br />
Imess 60<br />
In-situ 50<br />
InfraTec 66<br />
Kappa 79<br />
Laser 2000 73<br />
Leica Microsysteme Vertrieb 65<br />
Leutron Vision 20, 57<br />
Linos Photeonics 25<br />
matrix Vision 35, 54<br />
MaxxVision 28, 2.US<br />
Messe München 37<br />
Mitutoyo Messgeräte 63<br />
MVTec Software 38<br />
National Instruments 24<br />
NET New Electronic Technology Vertriebsges. 5<br />
Herausgeber<br />
<strong>GIT</strong> VERLAG GmbH & Co. KG<br />
Objektleitung<br />
Dr. Peter Ebert<br />
Tel.: 06151/8090-162<br />
p.ebert@gitverlag.com<br />
redaktion<br />
Gabriele Jansen (Chefredakteurin)<br />
Tel.: 06151/8090-153<br />
g.jansen@gitverlag.com<br />
Angela Seibert-Weck<br />
Tel.: 06151/8090-131<br />
a.weck@gitverlag.com<br />
Andreas Grösslein<br />
Tel.: 06151/8090-163<br />
a.groesslein@gitverlag.com<br />
redaktionsassistenz<br />
Lana Feldmann<br />
Tel.: 06151/8090-194<br />
l.feldmann@gitverlag.com<br />
Wissenschaftlicher Beirat<br />
Prof. Dr. Christoph Heckenkamp<br />
Darmstadt University of Applied Sciences<br />
80 Inspect 4/2006<br />
anzeigenvertretungen<br />
Manfred Höring<br />
Tel.: 06159/5055<br />
media-kontakt@t-online.de<br />
Claudia Brandstetter<br />
Tel.: 089/43749678<br />
claudia.brandst@t-online.de<br />
Dr. Michael Leising<br />
Tel.: 03603/893112<br />
leising@leising-marketing.de<br />
Herstellung<br />
<strong>GIT</strong> VERLAG GmbH & Co. KG<br />
Dietmar Edhofer (Leitung)<br />
Bernd Happel (Redaktion)<br />
Claudia Vogel (Anzeigen)<br />
Sandra Rauch (Layout)<br />
Elke Palzer, Ramona Rehbein (Litho)<br />
Bankkonten<br />
Dresdner Bank Darmstadt<br />
Konto-Nr. 01.715.501/00, BLZ 50880050<br />
Zur Zeit gilt die Anzeigenpreisliste<br />
vom 1. Oktober 2006<br />
Firma Seite<br />
NeuroCheck 17<br />
Nikon 77<br />
Olympus Deutschland 62<br />
Omron Electronics Titelseite<br />
Opsira 79<br />
Optometron 40<br />
Optronis 77<br />
Panasonic Electric Works 40<br />
Panasonic Marketing Europe Beilage<br />
Parsytec 56, 59<br />
PCO 77<br />
Pentax Europe 29, 40<br />
PhotonicNet 77<br />
Phytec Messtechnik 36, 73<br />
PMDTechnologies 22<br />
POG Präzisionsoptik Gera 78<br />
Point Grey Deutschland 19, 21<br />
Polytec 39<br />
rauscher 1, 26, 40<br />
Schäfer Technologie 74<br />
Schäfter + Kirchhoff 75<br />
Jos. Schneider Optische Werke 44<br />
SensoPart Industriesensorik 35<br />
Sick 43<br />
Siemens 11<br />
Silicon Software 31<br />
Sony Deutschland 38<br />
Stemmer Imaging 42, 53<br />
tamron Europe 24<br />
TechnoTeam Bildverarbeitung 60<br />
Walter Uhl Techn.-Mikrosk. 70<br />
Videor Techn. 3<br />
Videor Technical Marketing Service 32<br />
Viscom 60, 78<br />
Vision & Control 38, 78<br />
Vision Academy 59<br />
Vision Components 40, 4.US<br />
Vision Engineering 79<br />
Vision Tools Bildanalyse- Systeme 14<br />
Carl Zeiss 79<br />
2006 erscheinen 4 Ausgaben<br />
„Inspect“<br />
Druckauflage: 15.000<br />
abonnement<br />
4 Ausgaben EUR 25,– ZZgl. 7 % MWSt<br />
Einzelheft EUR 13,–, zuzüglich MWSt+Porto<br />
Schüler und Studenten erhalten unter Vorlage einer<br />
gültigen Bescheinigung 50 % Rabatt.<br />
Abonnement-Bestellungen gelten bis auf Widerruf;<br />
Kündigungen 6 Wochen vor Jahresende. Abonnement-<br />
Bestellungen können innerhalb einer Woche<br />
schriftlich widerrufen werden, Versandreklamationen<br />
sind nur innerhalb von 4 Wochen nach Erscheinen<br />
möglich.<br />
Originalarbeiten<br />
Die namentlich gekennzeichneten Beiträge stehen in<br />
der Verantwortung des Autors. Nachdruck, auch<br />
auszugsweise, nur mit Genehmigung der Redaktion<br />
und mit Quellenangabe gestattet. Für unaufgefordert<br />
eingesandte Manuskripte und Abbildungen übern<strong>im</strong>mt<br />
der <strong>Verlag</strong> keine Haftung.<br />
Dem <strong>Verlag</strong> ist das ausschließliche, räumlich, zeitlich<br />
und inhaltlich eingeschränkte Recht eingeräumt, das<br />
Werk/den redaktionellen Beitrag in unveränderter<br />
Form oder bearbeiteter Form für alle Zwecke beliebig<br />
oft selbst zu nutzen oder Unternehmen, zu denen<br />
gesellschaftsrechtliche Beteiligungen bestehen, so<br />
wie Dritten zur Nutzung zu übertragen. Dieses<br />
Nutzungsrecht bezieht sich sowohl auf Print- wie<br />
elektronische Medien unter Einschluss des Internets<br />
wie auch auf Datenbanken/ Datenträgern aller Art.<br />
Alle etwaig in dieser Ausgabe genannten und/ oder<br />
gezeigten Namen, Bezeichnungen oder Zeichen<br />
können Marken oder eingetragene Marken ihrer<br />
jeweiligen Eigentümer sein.<br />
Druck<br />
Frotscher Druck<br />
Riedstr. 8, 64295 Darmstadt<br />
Printed in Germany<br />
ISSN 1616-5284<br />
I M P R E S S U M