Alles im Blick
Embedded Multi-ToF-Plattform mit 3D-Rundumsicht
Im Bereich der mobilen Robotik ergeben sich Anforderungen an Time-of-Flight (ToF)-Systeme, die sich mit einzelnen Industriekameras nur bedingt abdecken lassen. Zum einen der Wunsch alles im Blick zu behalten, d.h. Öffnungswinkel von idealerweise 360°, sowie die Kombination mit zusätzlichen Informationen wie z.B. eine Sensorfusion der 3D-Daten mit Farbinformationen oder IR-Bildern. Mit einer neuen Multi-ToF-Plattform lassen sich diese Wünsche nun erfüllen.
Das System wird als Embedded Vision System für eine nahtlose Integration in das Produkt oder die Anwendung ausgelegt und bringt die nötige Rechenkapazität mit, um komplexe Applikationen mit mehreren Sensoren bei geringer Latenz auszuführen. Die Multi-ToF-Plattform ist ein neues Ökosystem für mehrere parallel laufende Kameramodule und einer zentralen Recheneinheit, basierend auf einem Nvidia Prozessor. Die Kameramodule werden über ein einzelnes Kabel an die Recheneinheit angebunden. Die Plattform ermöglicht es verschiedene Sensoren auf einfache Weise zu integrieren und in unterschiedlichen Konstellationen zu kombinieren. Dabei liegt der Fokus auf der ToF-Technologie, die je nach Anwendung mit entsprechenden Auflösungen, Öffnungswinkel und Reichweiten angeboten wird, im Prinzip kann aber jegliche bildgebende Sensorik integriert werden. Die Plattform bietet Integratoren, Softwareanbietern und Produktentwicklern ein System, um Nahe am Endprodukt zu arbeiten.
360° Sicht für Cobots
Das erste verfügbare ToF-Sensor-Frontend für die Plattform ist ein kompaktes Modul (55x55mm) für die Erfassung des Nahbereichs. Es verfügt über eine 110° Weitwinkel-Optik und einen Sensor mit 320x240 Pixeln Auflösung. Die integrierte 850nm Laserbeleuchtung ist auf einen Bereich von wenigen Zentimetern bis ca. 2m ausgelegt. Die Anbindung an den Hub erfolgt mittels FPD-Link III - entweder über ein Coax- oder STP-Kabel (Shielded Twisted Pair), über das auch die Spannungsversorgung des Frontends erfolgt. Es können auch Kabellängen von mehreren Metern realisiert werden. Typische Anwendungen für das Modul sind die Mensch-Maschine-Interaktion für Terminals oder kollaborative Roboter bis hin zur Hinderniserfassung und Rundum-Sicht für autonome Systeme. Die kompakten Frontends ermöglichen eine Integration in Leichtbauroboter oder Greifer. Bei entsprechender Anordnung lässt sich so eine 360° Sicht mit 70° vertikalem Öffnungswinkel realisieren. Im Bereich der selbstfahrenden Transportsysteme werden durch diverse Öffnungswinkel verschiedene Szenarien im Feld abgedeckt. Module mit kleinem Öffnungswinkel und hoher Reichweite für Pfadplanung und Hinderniserkennung werden mit Weitwinkelmodulen für die Umfeldüberwachung, das Scannen von Regalen oder Manipulatoren kombiniert.
Hub mit Nvidia-Modul
Alle Datenströme laufen im Hub zusammen, er kümmert sich um die Versorgung, die Ansteuerung der Frontends, führt die Berechnung der Tiefenbilder bzw. der Punktwolken durch und deckt die Kalibrierung und Kompensation ab. Die Synchronisierung der bis zu vier Frontends kann über Software- oder Hardwaretrigger vom Hub aus erfolgen. Gerade bei aktiven Sensoren ist die Synchronisierung mehrerer Sensoren mit überlappenden Sichtbereich nötig, nicht nur um das Überlagern der Punktwolken zu erleichtern, sondern auch um Interferenzen zu verhindern. Herzstück des Hubs ist das Jetson TX2 Modul von Nvidia, das die benötigte Rechenleistung bereitstellt, um auch für zukünftige Sensor Frontends sowie komplexe Algorithmen und Applikationen (Deep Learning) gerüstet zu sein. Bei vier QVGA-Frontends und 30fps werden bereits an die zehn Millionen 3D-Punkte/sec verarbeitet. Dazu stehen am Modul sechs ARM Kerne (Dual-Core Nvidia Denver 2 sowie Quad-Core ARM Cortex-A57), eine Pascal GPU mit 256 CUDA Kernen und 8GB RAM zur Verfügung. Die Daten werden per Ethernet vom Hub übertragen und Host-seitig stehen APIs für Windows, Linux (x86, ARM) sowie Unterstützung für Matlab zur Einbindung der Multi-ToF-Platform als Kamera zur Verfügung. Für die Embedded Programmierung kann auf das Nvidia Ökosystem, inklusive deren Deep Learning Tools, zurückgegriffen werden.
www.bluetechnix.com
Im Bereich der mobilen Robotik ergeben sich Anforderungen an Time-of-Flight (ToF)-Systeme, die sich mit einzelnen Industriekameras nur bedingt abdecken lassen. Zum einen der Wunsch alles im Blick zu behalten, d.h. Öffnungswinkel von idealerweise 360°, sowie die Kombination mit zusätzlichen Informationen wie z.B. eine Sensorfusion der 3D-Daten mit Farbinformationen oder IR-Bildern. Mit einer neuen Multi-ToF-Plattform lassen sich diese Wünsche nun erfüllen.
Das System wird als Embedded Vision System für eine nahtlose Integration in das Produkt oder die Anwendung ausgelegt und bringt die nötige Rechenkapazität mit, um komplexe Applikationen mit mehreren Sensoren bei geringer Latenz auszuführen. Die Multi-ToF-Plattform ist ein neues Ökosystem für mehrere parallel laufende Kameramodule und einer zentralen Recheneinheit, basierend auf einem Nvidia Prozessor. Die Kameramodule werden über ein einzelnes Kabel an die Recheneinheit angebunden. Die Plattform ermöglicht es verschiedene Sensoren auf einfache Weise zu integrieren und in unterschiedlichen Konstellationen zu kombinieren. Dabei liegt der Fokus auf der ToF-Technologie, die je nach Anwendung mit entsprechenden Auflösungen, Öffnungswinkel und Reichweiten angeboten wird, im Prinzip kann aber jegliche bildgebende Sensorik integriert werden. Die Plattform bietet Integratoren, Softwareanbietern und Produktentwicklern ein System, um Nahe am Endprodukt zu arbeiten.
BECOM BLUETECHNIX GmbH
Dieser Artikel erschien in inVISION 3 2018 - 05.06.18.Für weitere Artikel besuchen Sie www.invision-news.de