The Imaging Source Blog

VISION 2018: ix Industrial®, 3D, Embedded Vision und mehr

Veröffentlicht am 6. September 2018

Im Zuge der "VISION 2018" präsentiert der Industriekamera-Hersteller "The Imaging Source" seine neusten Produktentwicklungen (Halle 1, Stand D51). So erscheinen die High-End Kameras mit Sony Pregius 8.9MP und 12.3MP Global Shutter Sensoren erstmals mit der neuen robusten ix Industrial® Ethernet Schnittstelle, der kleineren und stabileren und somit industrietauglicheren RJ45 Alternative.

Besuchen Sie uns auf der Weltleitmesse für industrielle Bildverarbeitung: <strong>VISION 2018.</strong>

Das Zoomkamera-Portfolio wird dieses Jahr ebenfalls um eine neue Linie ergänzt, die neben einer neuen 22-fach Zoom-Optik mit Sony Pregius Global Shutter Sensorik (IMX252 3MP) ausgestattet ist.

Im Bereich Autofokus-Kameras wird die Sensor-Palette erweitert um den Sony STARVIS IMX178 6MP Rolling Shutter Sensor und rundet somit das Portfolio ab.

Auch im Bereich Embedded-Vision positioniert sich The Imaging Source mit Komplettlösungen und Anwendungen, unter anderem basierend auf NVidias Tegra Platform.

Die VISION 2018 findet vom 6. bis 8. November in der Messe Stuttgart statt. Der Stand (Halle 1 Stand D51) wird von technischen Vertriebs- und Software-Experten aus unseren Büros in Deutschland, USA und Asien besetzt, die technische Fragen beantworten und Sie bei der Auswahl der am besten geeigneten Lösungen für Ihre Anwendung beraten. Bitte kontaktierent Sie den Vertrieb, wenn Sie Messekarten möchten.

Sony Pregius Global Shutter CMOS Sensorik als CCD Ersatz

Veröffentlicht am 25. Juni 2018

2015 hat Sony sämtliche CCD Sensoren mit dem Hinweis abgekündigt, dass mit den neuen Pregius Global Shutter CMOS Sensoren eine deutlich bessere Sensor Technologie bezüglich Bildqualität, Empfindlichkeit und Performance zur Verfügung steht.

New CMOS Cameras Bei den Sony CCD Sensoren handelt es sich um Global Shutter Sensoren mit Auflösungen zwischen 0.3 MP und 12 MP.

Für jeden einzelnen CCD Sensor hat Sony inzwischen einen Pregius Global Shutter Sensor mit besseren Eigenschaften zu geringeren Kosten im Angebot.

The Imaging Source bietet Kameras mit Pregius Sensoren von 0.4 MP bis 12 MP mit Gigabit Ethernet, USB 3.0 oder USB 3.1 (gen. 1) interface.

Pregius Sensor Auflösung MP Sensorgröße Pixelgröße fps
IMX287 728×544 0.4 MP 1/2.9 inch 6.9 µm 539
IMX273 1456×1088 1.6 MP 1/2.9 inch 3.45 µm 238
IMX252 2048×1536 3.2 MP 1/1.8 inch 3.45 µm 120
IMX265 2048×1536 3.2 MP 1/1.8 inch 3.45 µm 60
IMX250 2448×2048 5.1 MP 2/3 inch 3.45 µm 75
IMX264 2448×2048 5.1 MP 2/3 inch 3.45 µm 38
IMX255 4096×2160 8.9 MP 1 inch 3.45 µm 42
IMX267 4096×2160 8.9 MP 1 inch 3.45 µm 35
IMX253 4096×3000 12.3 MP 1.1 inch 3.45 µm 30
IMX304 4096×3000 12.3 MP 1.1 inch 3.45 µm 26

Wir möchten Ihnen dringend empfehlen den Übergang von CCD nach CMOS rechtzeitig zu planen und die neuen CMOS Kameras in Ihrer Umgebung zu testen. Unter anderem können sich Pixelgröße und Formfaktor unterscheiden.

Wir beraten Sie gerne.

The Imaging Source Messen: Juni - November 2018

Veröffentlicht am 6. Juni 2018

Holen Sie sich Ideen und Antworten auf Ihre Fragen zum Thema industrielle Bildverarbeitung in dem Sie The Imaging Source auf einer der vielen kommenden Messen im Sommer und Herbst besuchen. The Imaging Source und seine Wiederverkäufer präsentieren eine Reihe von Bildverarbeitungs-Hardware- und Bildverarbeitungslösungen, darunter die neuen USB3 Vision-kompatiblen USB 3.1 (gen.1) Platinen- und Industriekameras sowie das Stereo-3D-System, IC 3D.

The Imaging Source Reseller-Messen

Besuchen Sie uns an unserem Stand, wir freuen uns Sie persönlich zu informieren und zu beraten. Natürlich können Sie uns auch jederzeit telefonisch oder per E-Mail kontaktieren.

High-Dynamic-Range Imaging in modernen Industriekameras

Veröffentlicht am 7. Mai 2018

Detail, Kontrast und brillante natürliche Farben: Beispiel eines HDR-Bildes mit Mehrfachbelichtung und Bildverarbeitung über IC Measure.

Während klassischer Weise bei der Wahl einer geeigneten Industriekamera das Augenmerk meist zunächst der Auflösung und der Geschwindigkeit (Framerate) galt, so rücken Lichtempfindlichkeit und Dynamikbereich, insbesondere auch im Zuge des Kameraeinsatzes im Automotive Bereich, immer mehr in den Vordergrund. Insbesondere in beleuchtungstechnisch unkontrollierten Situation, wie es beispielsweise bei Autofahrten der Fall ist, ist ein großer Dynamikbereich des Sensors von Vorteil. Man stelle sich nur die klassische Fahrt aus einem Tunnel heraus ins Tageslicht vor. Sensoren mit geringem Dynamikumfang liefern hier meist Bilder, die in großen Teilen unter- bzw. überbelichtet sind und somit in diesen Bereichen keine Details erkennen lassen. Sollen sich aber Fahrassistenzsysteme auf diese Daten verlassen, so kann dies fatal sein. Hier ist es zwingend notwendig, einen größtmöglichen Dynamikumfang zu realisieren, um auch in sehr hellen und sehr dunklen Bereichen noch wichtige Details erkennen zu können.

Erhöhung des Dynamikbereichs: Zwei Ansätze

Grundsätzlich gibt es zwei Ansätze, den Dynamikbereich des finalen Bildes zu erhöhen: Eine hardwareseitige Verbesserung des Dynamikbereichs des Sensors und eine softwareseitige algorithmische Herangehensweise.

Der Dynamikbereich eines CMOS Sensors hängt dabei von der maximalen Anzahl an Elektronen, die ein Sensorpixel vorhalten kann, bis dieser saturiert ist (Sättigungskapazität), und dem Dunkelrauschen des Pixels, d.h. dem Rauschen das beim Auslesen der Ladung auftritt, ab. Soll also der Dynamikbereich gesteigert werden, so kann entweder versucht werden, das Dunkelrauschen weiter zu verringern, oder die Sättigungskapazität zu erhöhen. Das Dunkelrauschen ist dabei abhängig von der Sensorelektronik. Eine Erhöhung der Sättigungskapazität der Pixel kann zum einen durch größere Pixel erreicht werden, da eine größere Pixelfläche auch gleichzeitig mehr Photonen ausgesetzt ist und somit eine größere Ladung generiert, oder aber durch einen verbesserten Pixelaufbau an sich. Insbesondere Sony hat mit seiner Pregius Sensorik in den letzten Jahren eindrucksvoll bewiesen, wie bei gleichbleibender Pixelgröße und Verbesserungen des Pixeldesigns und gleichzeitiger Reduktion des Dunkelrauschens der Dynamikbereich enorm vergrößert werden kann. So erreicht beispielsweise ein Sony IMX 265 Pregius Sensor einen Dynamikbereich von 70.5 dB bei einer Pixelgröße von 3.45um. Die Konsequenz einer höheren Sättigungskapazität ist ein vergrößerter Messbereich, der durch einen Pixel abgedeckt wird. Um diesen größeren Bereich geeignet zu quantisieren, sind in der Regel bei modernen CMOS Sensoren mehr als 8 Bit notwendig. So liefert z.B. der Sony IMX 264 Sensor ein mit 12 Bit quantisiertes Signal.

Verbesserungen im Dynamikbereich durch Algorithmen

Neben der Verbesserung der Sensorik kann der Dynamikbereich auch algorithmisch vergrößert werden. Grundlage sind dabei Bilddaten, die mit verschiedenen Belichtungszeiten akquiriert wurden. Das wohl prominenteste Verfahren in dieser Familie nutzt eine Belichtungsreihe (time varying exposure), d.h. mehrere komplette Bilder, die mit unterschiedlichen Belichtungszeiten akquiriert wurden, als Datengrundlage. Diese Methode wird mittlerweile von vielen Smartphones und gängigen Bildbearbeitungsprogrammen, unter anderem auch in der Photographie, angeboten und ist daher einem weitreichenden Publikum auch außerhalb des Machine-Vision Marktes bekannt.

Grundannahme ist, dass die finalen Pixelwerte eines Sensor in etwa linear von der einfallenden Lichtmenge und der Belichtungszeit abhängig sind, so dass für eine bekannte Belichtungszeit also, falls der Pixel nicht gesättigt ist, die zugrundeliegende einfallende Lichtmenge (bzw. eine dazu proportionale Größe) bestimmt werden. Im Falle gesättigter Pixel greift man auf die entsprechenden Pixelwerte bei kürzeren Belichtungszeiten zurück. Auf diese Weise kann die einfallende Lichtmenge für einen größeren Bereich bestimmt werden, als es nur bei einer Belichtungszeit der Fall gewesen wäre. Die Belichtungsreihe birgt den Vorteil, dass man durch sie ohne ortsbezogenen Auflösungsverlust die Luminanz über einen vergrößerten Bereich bestimmten kann. Nichtsdestotrotz gilt es zu bedenken, dass Aufnahmen mit mehreren Belichtungszeiten notwendig sind, was insbesondere im Falle bewegter Objekte zu unerwünschten Artefakten führen kann (Ghosting).

Moderne CMOS Sensorik, z.B. Sony Pregius, verfügt in der Regel über Multi-Exposure Funktionalitäten um nativ Bilder mit unterschiedlichen Belichtungszeiten aufzunehmen, ohne zwischen den Aufnahmen manuell die Belichtungszeit ändern zu müssen.

Spatially Varying Exposure

Um die Entstehung von Artefakten durch Belichtungsreihen zu vermeiden, bieten moderne Sensoren die "Spatially Varying Expsoure" Technologie an. Dabei werden bestimmte Pixelgruppen auf dem Sensor mit unterschiedlichen Belichtungszeiten belichtet. Eine gängige Variante belichtet beispielsweise immer jeweils zwei Bildzeilen im Wechsel mit unterschiedlichen Belichtungszeiten. Da die Belichtungen gleichzeitig starten, werden Artefakte, die durch Bewegungen in der Szene auftreten, minimiert. Allerdings gibt es in diesem Falle keine 1:1 Korrespondenz unterschiedlich belichteter Pixel und die Pixel des finalen HDR Bildes müssen durch Interpolation berechnet werden. Dieser Vorgang führt notgedrungen zu einem Auflösungsverlust und kann zu Artefakten insbesondere an Kantenstrukturen führen. Ferner ist die Berechnung des finalen Bildes durch die notwendige Interpolation rechenintensiver als die Berechnung aus den Daten der Belichtungsreihe.

Abbildung 1: Unterschiedliche Vorgehensweisen erlauben das Errechnen eines HDR Bildes. (a) Time varying exposure: Zwei Aufnahmen mit unterschiedlichen Belichtungszeiten. (b) Spatially varying exposure: Unterschiedliche Pixel besitzen unterschiedliche Belichtungszeiten, hier zwei. (c) Spatially varying exposure: Eine weitere Variante, bei der vier verschiedene Belichtungszeiten genutzt werden.

Anzeige von HDR-Bildern und Tone Mapping

Bei der Anzeige von HDR Bildern ist man in der Regel direkt mit dem im Vergleich zum menschlichen Wahrnehmungssystem kleinen Dynamikbereich der Anzeigegeräte konfrontiert. Während zwar mittlerweile HDR-Displays mit einem größeren Dynamikbereich verfügbar sind, so sind diese bei weitem noch nicht durchgehend verbreitet. Soll ein HDR-Bild auf einem Anzeigegerät mit geringerem Dynamikumfang dargestellt werden, so muss es wieder in seinem Dynamikumfang reduziert werden. Diesen Reduktionsvorgang bezeichnet man als Tone-Mapping. Wie die Reduktion zu erfolgen hat, ist nicht klar definiert sondern abhängig von dem Ziel, das es zu erreichen gilt. Dieses kann eine bestmögliche Approximation der tatsächlichen Szeneneigenschaften sein oder aber das Erreichen einer bestimmten subjektiven, künstlerischen Qualität. Grundsätzlich wird zwischen globalen und lokalen Tone-Mapping Algorithmen unterschieden. Im Falle globaler Algorithmen wird für alle Pixel, unabhängig vom Ort, die gleiche Transformation durchgeführt. Diese Algorithmen sind sehr effizient und erlauben eine Echtzeitverarbeitung der Daten. Lokale Algorithmen agieren in lokalen Pixelnachbarschaften und versuchen beispielsweise in diesen Nachbarschaften den Kontrast bestmöglich zu erhalten. Sie sind rechenintensiver, liefern aber in der Regel kontrastreichere Bilder.

Abbildung 2: Beispiel einer Belichtungsreihe bestehend aus zwei Aufnahmen mit kurzer (a) und langer (b) Belichtungszeit. (c) Aus der Belichtungsreihe errechnetes und durch Tone-mapping visualisiertes HDR Bild.

The Imaging Source hat die Notwendigkeit eines maximalen Dynamikumfangs im Machine-Vision Umfeld schon früh erkannt und bietet in seinen End-User Softwareprodukten und den Programmierschnittstellen die Möglichkeit an, sowohl HDR-Bilddaten zu akquirieren, als auch entsprechend durch Tone-Mapping zu visualisieren oder zu speichern. Viel Aufwand wurde dabei in die Benutzerfreundlichkeit der Algorithmen investiert. So gibt es für die Algorithmen entsprechende Automatikmodi, die sämtliche Parameter automatisch an die Szene adaptieren und kein Eingreifen des Benutzers erfordern. Das Ergebnis sind von Haus aus kontrastreiche Aufnahmen mit brillanten natürlichen Farben. Insbesondere die End-Eser Software IC Measure nutzt mittlerweile standardmäßig, sofern von der Kamera unterstützt, die HDR Funktionalitäten und präsentiert dem Nutzer HDR Bilder.

Abbildung 3: The Imaging Source unterstützt in IC Measure nativ, sofern vom Sensor angeboten, Belichtungsreihen und die Visualisierung von HDR Bilder durch Tonemapping.

Der obige Artikel, verfasst von Dr. Oliver Fleischmann (Projektmanager bei The Imaging Source), wurde in der April 2018-Ausgabe der Zeitschrift inspect unter dem Titel, "High-Dynamic-Range Imaging in modernen Industriekamerasveröffentlicht."

Girls' and Boys' Day 2018

Veröffentlicht am 4. Mai 2018

Wenn Sie zufällig am 26. April in einem Geschäft waren, sind Sie vielleicht auf Gruppen von jungen Leuten gestoßen, die durch die Räumlichkeiten streiften. Am vierten Donnerstag im April findet immer der Girls' and Boys' Day statt. Diese Bildungsinitiative bietet jungen Schülern die Möglichkeit, verschiedene Berufbilder kennenzulernen und direkte Erfahrungen mit Fachleuten und Spezialisten in ihrem Arbeitsumfeld zu sammeln.

<strong>Girls’ and Boys’ Day 2018 bei The Imaging Source:</strong> Machine Vision, 3D und Virtual-Reality entdecken.

Vier Mädchen und zwei Jungen kamen zu The Imaging Source zum Girls' and Boys' Day 2018. Ingenieure führten die Schüler in die industrielle Bildverarbeitung, ihre Anwendungen sowie deren Auswirkungen im Alltag ein. Vorgestellt wurden u. a. ein 3D-Stereo System und ein Studentenprojekt zum Thema virtuelle Realität. Ein Besuch in der Produktion, wo die Schüler sich in der Kameraproduktion und beim Kameratest versuchten, rundete den Tag ab.

Suchen Sie ältere Einträge?

Wir bloggen seit 2007. Sämtliche Posts können im Archiv sowie in den Tagclouds gefunden werden.

Über The Imaging Source

Seit der Gründung im Jahre 1990 gehört The Imaging Source zu den führenden Herstellern von Industriekameras, Frame Grabbern und Videokonvertern für die Automatisierungstechnik, Qualitätskontrolle, Logistik, Medizin, Wissenschaft und Sicherheitssysteme.

Unser umfassendes Kamerasortiment beinhaltet USB 3.1, USB 3.0, USB 2.0, GigE, FireWire 400 & 800 Schnittstellen sowie weitere Bildverarbeitungsprodukte, die weltweit für ihre hohe Qualität und Erfüllung der Leistungsanforderung anspruchsvoller Applikationen bekannt sind.

Automated Imaging Association ISO 9001:2015 zertifiziert

Kontaktieren Sie uns