Aufrufe
vor 5 Jahren

Messe Vision 2018 - Stuttgart Tag 3

  • Text
  • Bildverarbeitung
  • Software
  • Imaging
  • Embedded
  • Optics
  • Kamera
Die Messezeitung zur Fachmesse Vision zum Thema Bildverarbeitung und vielem mehr, Tag 3

Seite 12 Exhibition

Seite 12 Exhibition Highlights in Englisch Ace U camera Easy implementation Smart cameras No more frame grabbers or external hardware In the performance segment, Basler shows an approach that addresses the availability of new interfaces and new sensor generations while meeting the market demand for higher resolution and higher frame rates. sensor. In the higher-resolution segment, four 20 MP ace U models based on the IMX183 sensor from Sony‘s Exmor R series will be introduced. Another highlight is the new Embedded Vision Development Kit consisting of Qualcomm‘s ARMbased SoC with integrated ISP Contrast introduces its 4 K smart camera line with customizable Software Development Kit: The VIA 1-sensor development platform, the Arc 2-sensor real-time HDR video camera, and the Lux 3-sensor live HDR camera system. The ’s Via 1-sensor camera is a FPGA-based development platform that eliminates the need for frame grabbers and external hardware. The camera utilizes the Elan processing engine, which allows users to tailor the system to suit their needs. For projects that require more data, the patented 2-sensor camera system, the Arc, provides real-time High-Dynamic Range (HDR) video that expands contrast ratios and deepens color palettes. Capturing up to 13 stops of dynamic range, the Arc streams live, HDR video that can be used to enhance all imaging applications. Even better than live HDR video by capturing more data and details is the Lux HDR camera system. It is equipped with the same patented HDR technology as the Arc, but with three sensors. It captures up to 18 stops of dynamic range on demand. This unprecedented data range makes the camera the ideal imaging solution for a wide range of industries and applications, providing great detail even in the most demanding lighting conditions. Contrast, Hall 1, Booth J76 The combination of cameras and compatible frame grabbers is a decisive benefit for the customer. Visitors can also look forward to new models from the ace series. The manufacturer shows its new ace U camera that enables a 1:1 replacement of cameras featuring Sony‘s discontinued ICX618 CCD Please visit us at Vision Hall 1, Both D31 (Image Signal Processor), the Snapdragon 820, the dart 5 MP camera module with BCON for Mipi interface and the pylon Camera Software Suite for Linux operating system. A sophisticated live presentation, implemented with the Time-of-Flight camera, demonstrates a large and cost-optimized system integration with embedded vision. In addition, visitors will see new accessories and a concept in the field of lighting, centered on maximizing customer value. They benefit from easy integration and optimized total system costs. The presence at the Vision 2018 will be rounded off by presentations at the exhibitor forum. Basler, Hall 1, Booth E42 Lenses High pointing stability even after shock and vibration Edmund Optics (EO) introduces the addition of the Techspec HPI (High Performance Instrumentation) Series for instrumentation imaging applications and the HPR (High Performance Ruggedized) Series of stability ruggedized lenses. These two additions combine high resolution optics with robust, ruggedized mechanics. The HPR Series Fixed Focal Length Lenses feature up to 9 MP resolution. These lenses are stability ruggedized to maintain pointing stability, even after shock and vibration. Designed for high machine vision performance, all of the individual optics are glued into place to reduce pixel shift on the image. The lenses feature robust mechanical components with a simplified focus and a stainless steel locking C-Mount clamp. These durable lenses are optimal for calibrated imaging systems, such as measurement and gauging, 3D stereo vision, robotics and sensing, autonomous vehicles and object tracking. All of the new lenses offer working distances from 100 mm to infinity and are available for immediate delivery. Edmund Optics, Hall 1, Booth D42 Camera Deep learning for more accurate decisions The Firefly camera family is a deep learning inference-enabled machine vision camera which integrates the Intel Movidius Myriad 2 Vision Processing Unit (VPU). It is designed for image analysis professionals using deep learning for more accurate decisions. While traditional rules-based software is ideal for straightforward tasks such as barcode reading or checking a manufactured part, Flir Systems‘ Firefly can address complex and subjective problems such as recognizing faces or classifying the quality of a solar panel. It leverages the Intel Movidius Myriad 2 VPU’s advanced capabilities in a compact and low-power camera, ideal for embedded and handheld systems. Machine makers can load their trained neural networks directly onto the Firefly’s integrated VPU. Additionally, Intel Movidius Neural Compute Stick users can easily deploy their existing networks directly onto the camera. This design reduces system size and improves speed, reliability, power efficiency, and security. Flir Systems, Hall 1, Booth B42 3D vision This camera can calculate 3D point clouds itself The vision app based industrial camera platform by IDS is expanded by the IDS NXT rio & rome product families and is offered with additional sensors and communication interfaces. In some models, the company integrates neural networks with selflearning algorithms. In the field of 3D vision, the company presents Ensenso XR, the first stereo camera of the series that can calculate 3D point clouds itself. Novel focusable USB 3.1 Gen 1 board level industrial cameras with liquid lens control are on show, together with prototypes of extra fast 10 Gigabit Ethernet cameras, Ueye concept studies with polarization sensors and numerous live demonstrations. The NXT rio & rome families are designed as intelligent cameras in the housing of standard industrial cameras. This approach combines the capabilities of both worlds: customers can use them as fully-fledged standard industrial cameras, or take advantage of extended, individually designed applications based on vision apps and on-camera neural networks. For greater flexibility regarding 3D vision applications, the company presents a prototype of the new Ensenso XR series with on-board processing. Unlike the cameras of the N- and X-series, which require a host computer to calculate 3D point clouds, this model can calculate them itself and transmit the data via Ethernet or Wifi. The advantages include faster generation of these 3D point clouds, less strain on network bandwidth due to transmitting results and a reduced computing load on the host PC. This allows faster clock rates for bin picking, for example. IDS Imaging Development Systems, Hall 1, Booth F72

Bildverarbeitung in der Nahrungsmittel- und Getränkeindustrie Blick ins Apfelinnere auf vielen Wellenlängen Bei der Qualitätskontrolle von Lebensmitteln ist Bildverarbeitung ein wichtiges Werkzeug – mit einem breiten Spektrum an Einsatzgebieten. Die entsprechenden Systeme finden mittlerweile nicht nur Fehler auf der Oberfläche. Dank Hyperspektral-Technik machen sie auch das Innere von Schokoriegeln oder Äpfeln sichtbar. Von der Kontrolle der Rohstoffe bis zur Verpackung der Produkte – Vision-Systeme kommen entlang des gesamten Prozesses in der Lebensmittelproduktion zum Einsatz. Sie ermöglichen eine 100-%-Kontrolle und trotzen dabei auch extremen Temperaturen. Und sie sind mittlerweile auch in der Lage, die chemische Struktur von Objekten zu analysieren. Möglich wird dies durch die Hyperspektral-Technik, bei der Bilder von vielen beieinanderliegenden Wellenlängen gemacht werden. Vor allem in der Lebensmittelindustrie können die entsprechenden Systeme ihre Stärken ausspielen. „Die Hyperspektral-Technologie erkennt unterschiedliche Molekülenschwingungen und kann anhand dieser verschiedene Materialien identifizieren“, erklärt Manfred Pail, Mitbegründer von Perception Park (Halle 1, Stand D56) – einem Software-Anbieter, der auf Hyperspektral-Technik spezialisiert ist. Objekte hinterlassen aufgrund ihrer chemischen Eigenschaften quasi eine hyperspektrale Signatur, die von entsprechenden Kameras aufgefangen wird. Chemische Signatur verrät Plastik im Schokoriegel Hyperspektral funktioniere mit großen Molekülketten, so Pail. Und diese gibt es in der Regel in organischen Stoffen – wie eben Lebensmitteln. So lassen sich mit entsprechenden Systemen etwa Fremdkörper entdecken – zum Beispiel Plastikteile in Schokoriegeln. „Anhand seiner chemischen Signatur kann man den Kunststoff etwa ganz klar von Nüssen unterscheiden“, so Pail. Immer dann, wenn die Verschiedenartigkeit von Objekten von außen nur schwer zu erkennen ist, trumpft die Hyperspektral- Technologie auf – etwa auch bei der Kartoffelverarbeitung: Rein optisch lassen sich hier mitgelieferte Steine nur schwer von Kar- Durch unterschiedliche Spektralbereiche wird die chemische Struktur von Lebensmitteln sichtbar Bild: Fraunhofer IPMS toffeln unterscheiden. Zudem ist in der Lebensmittelindustrie das Sortiergut häufig einem Veränderungsprozess unterworfen. Äpfel oder andere Objekte verändern ihren Reifegrad oder fangen an zu schimmeln. Auch das sind typische Anwendungsfälle für Hyperspektral-Systeme Künstliche Intelligenz könnte die Systeme sogar noch optimieren. Denn bei den Messungen wird eine enorme Zahl an Messwerten erzeugt. Und die kann den menschlichen Anwender überfordern. Wissenschaftler wie etwa vom Fraunhofer Institut für Fabrikbetrieb und -automatisierung (IFF) arbeiten daher daran, mithilfe von selbstlernenden Systeme, die Messergebnisse aus Hyperspektral-Anwendungen zu analysieren. Basierend auf systematisch erhobenen Beispieldaten werden Modelle generiert, die die Bearbeitung der Spektraldaten in Echtzeit im Produktionsprozess ermöglichen. Das System, das vom Institut entwickelt wurde, lässt sich auf verschiedene Zielwerte trainieren und ist in der Lage, Materialidentität ebenso zu erkennen wie chemische Zusammensetzungen. Eine Beispielanwendung ist die Qualitätssicherung bei der Röstung von hochwertigem Kaffee. Die Technologie kann dabei zum kontinuierlichen Prüfen der Qualität des zu verarbeitenden Rohkaffees sowie zum kontinuierlichen Monitoring des gerösteten Kaffees zum Einsatz kommen. Die Hyperspektralkamera macht zum Beispiel Aufnahmen von Rohkaffee auf einem Förderband. Dank der Kombination von Hyperspektraltechnik und künstlicher Intelligenz ist das System in der Lage zwischen den beiden Sorten Arabic und Robusta zu unterscheiden – obwohl die optischen Unterschiede nur minimal sind. Andere Fraunhofer Wissenschaftler beschäftigen sich mit der Optimierung von multispektralen Technologien. Das Fraunhofer Institut für Photonische Mikrosysteme IPMS (Halle 1, Stand G42) hat dafür ein spezielles Kamerasystem entwickelt. Laut den Forschern müssen in der Regel mindestens zwei unterschiedlichen Kamerasysteme eingesetzt werden, wenn die Spektralbereiche in einer Anwendung weit auseinander liegen. Das habe zum einen erhöhte Kosten zur Folge. Zum anderen entstehe bei einer zeitgleichen Aufnahme eines Objekts mit zwei Kameras aufgrund der unterschiedlichen Aufnahmewinkel ein Parallaxenfehler, der nachträglich korrigiert werden muss. Spiegel verhindern Farbfehler Fokusthema auf der Messe Da Bildverarbeitungstechnologien in der Food-&-Beverage-Industrie zunehmend an Bedeutung gewinnen, bildet dieses Thema einen Schwerpunkt auf der diesjährigen Messe Vision. Die Stände der Aussteller, die eine besondere Kompetenz für die Lebensmittel- und Getränke-Branche nachweisen können, sind mit dem Mit dem System des Fraunhofer IPMS lassen sich dagegen Bilder in unterschiedlichen Spektralbereichen simultan mit nur einem Objektiv parallaxenfrei aufnehmen. Der Ansatz basiert auf einem speziellen Spiegelobjektiv. Im Gegensatz zu Linsen können Spiegel über mehrere spektrale Bereiche hinweg eingesetzt werden. Darüber hinaus entstehen in derartigen Systemen keine für die Bildqualität nachteiligen Farbfehler. Das Kamerasystem besteht neben dem Spiegelobjektiv aus zwei Bildsensoren mit entsprechender Elektronik. Die Strahlung wird im Objektiv mit einem Strahlteiler in die gewünschten Spektralbereiche aufgeteilt und anschließend auf den jeweiligen Bildsensor gelenkt. Die Anordnung von Spiegel und Strahlteiler ist dabei so gewählt, dass eine Parallaxe zwischen den Teilstrahlengängen vermieden den und eine simultane Bildaufnahme ohne nachträgliche Parallaxenkorrektur ermöglicht wird. Markus Strehlitz entsprechenden Logo gekennzeichnet. Organisiert wird die Initiative von der Fachzeitschrift dei – die ernährungsindustrie. Alle teilnehmenden Firmen sind auch über den Suchbegriff „Food & Beverage“ im Online-Ausstellerverzeichnis zu finden: www.messe-stuttgart.de/vision

Quality Engineering

© 2018 by Yumpu