Anzeige

In die Tiefe

Neuer Sony ToF-Sensor für On-Board-Processing-Kamera

Der neue DepthSense-Sensor von Sony bietet in Kombination mit dem On-Board Prozessing der Time-of-Flight-Kamera Helios neue 3D-Möglichkeiten und ist sehr robust gegenüber ungünstigen Lichtverhältnissen.

Bild: Lucid Vision Labs IncBild: Lucid Vision Labs Inc
Bild 1 | Der neue DepthSense-Sensor IMX556PLR von Sony bietet eine Auflösung von 640x480 Pixeln. Live werden bis zu 60fps erfasst. Der Sensor ist in der Helios ToF-3D-Kamera von Lucid integriert, die in drei Arbeitsabständen betrieben werden kann.

3D-Bildgebungssysteme können generell in aktive und passive Systeme unterteilt werden. In den passiven Systemen wird zur Beleuchtung des Objekts entweder das Umgebungslicht oder eine feste Beleuchtungsquelle verwendet.

Bild: Lucid Vision Labs IncBild: Lucid Vision Labs Inc
Bild 2 | Die Helios ToF-Kamera erkennt Objekte zwischen 0,3 bis 6m zuverlässig. Bei 100MHz wird eine Genauigkeit von 5mm ab 1,5m Objektentfernung erreicht.

Die sogenannten aktiven Systeme nutzen dagegen verschiedene Verfahren mittels räumlicher oder zeitlicher Modulation von Licht, z.B. Laserlinienabtastung, Projektion von Punkt- oder Streifenmustern sowie Lichtpulsen. Ein Time-of-Flight (ToF) System vermisst die Laufzeit, die ein von der Kamera ausgestrahlter Lichtpuls benötigt, um auf dem Objekt zu reflektieren und zum Sensor zurückzukehren. Die zurückgegebene Information enthält sowohl die Reflektionseigenschaften des Objekts als auch die Zeitverzögerungsinformationen, die zur Berechnung der Tiefe verwendet werden. Mit herkömmlichen Laserscannern wird bei kurzen Arbeitsabständen eine Oberflächenauflösung von kleiner 10m erreicht. Viele Anwendungen wie Navigation, Personenüberwachung, Hindernisvermeidung oder mobile Roboter erfordern aber eine Reichweite von mehreren Metern. Dort ist es notwendig zu sehen, ob ein Objekt vorhanden ist, um dann dessen Lage und Abmessung auf wenige Zentimeter genau zu bestimmen. Andere Anwendungen wie automatisierte Handhabungssysteme (Robotik) arbeiten in mittleren Abständen von 1 bis 3m und benötigen eine Messgenauigkeit von etwa 1 bis 5mm. Für diese Anwendungen kann das ToF-Prinzip eine konkurrenzfähige Lösung sein. Bei allen 3D-Systemen wird das reflektierte Licht von dem beleuchteten Objekt mit einer CMOS-Kamera erfasst. Die Bilddaten werden dann rechnerisch in eine Tiefeninformation und falls erforderlich, in ein 3D-Modell des Objekts umgerechnet. ToF-Kameras verwenden grundsätzlich nur eine von zwei möglichen Techniken. Die Impulsmodulation (direktes ToF) oder Dauermodulation. Direktes ToF beinhaltet das Aussenden eines kurzen Lichtpulses und das Ausmessen der Zeit, die erforderlich ist, um über die Reflektion zur Kamera zurückzukehren. Bei der Dauermodulation wird ein Signal ausgesendet und die Phasendifferenz zwischen den emittierten und zurückkommenden Lichtwellen berechnet. Diese Verschiebung ist proportional zur Entfernung des Objektes.

Lucid Vision Labs Inc

Dieser Artikel erscheint in inVISION 1 2019 - 20.03.19.
Für weitere Artikel besuchen Sie www.invision-news.de