Anzeige

Deep Learning bringt Machine Vision auf das nächste Level

Wie können Entwickler aus dem Bereich des rechnergestützten Sehens von dieser Technologie profitieren?

Bier: Tiefe neuronale Netze liefern in vielen Bereichen der visuellen Erkennung exzellente Ergebnisse, z.B. bei der Erkennung von Gesichtern und Objekten oder auch beim Thema optischer Fluss. Selbst sehr anspruchsvolle Aufgabenstellungen wie das Lesen von Lippen führen beim Einsatz solcher Algorithmen zu vielversprechenden Ergebnissen. Aus diesen Gründen sollten Entwickler, die sich mit der Lösung schwieriger Bilderkennungsaufgaben befassen, Techniken aus dem Bereich der tiefen neuronalen Netze als mögliche Basis für ihre Arbeit unbedingt in Betracht ziehen.

Welche Applikationen oder Systeme können dazu führen, dass die Nutzung von Deep Learning-Technologien neue Märkte für das rechnergestützte Sehen erschließt?

Bier: Bisher war das rechnergestützte Sehen vor allem bei Anwendungen wie der Inspektion von Produkten während der Herstellung erfolgreich, wo die Rahmenbedingungen für die Bilderfassung kontrolliert und die Kriterien für Gut-/Schlecht-Entscheidungen relativ einfach quantifiziert werden können. Es gibt jedoch zahllose Einsatzfälle für das rechnergestützte Sehen, wo die Rahmenbedingungen für die Bilderfassung nicht kontrolliert werden können und wo die Prüfobjekte große Variationen aufweisen. Tiefe neuronale Netze sind speziell in diesen Fällen sehr hilfreich. Für den Menschen ist es beispielsweise sehr einfach, Erdbeeren von anderen Früchten zu unterscheiden. Für einen Algorithmus ist diese Aufgabe bei weitem nicht trivial, wenn man bedenkt, wie stark die Größen und Formen von Erdbeeren variieren können. Das Problem verschärft sich noch, wenn man Variationen der Kameraansicht, der Beleuchtung oder benachbarter Objekte mit einbezieht. Auf ähnliche Weise stellt das Erkennen von Fußgängern für ein Kfz-Sicherheitssystem eine sehr große Herausforderung dar, da ja die Menschen unterschiedlich groß sind, verschiedenste Kleidung tragen können und sich völlig unterschiedlich bewegen.

Embedded Vision Alliance

Dieser Artikel erschien in Embedded Design 5 2017 - 18.09.17.
Für weitere Artikel besuchen Sie www.embedded-design.net