Deep Learning ist einer der Schwerpunkte der Vision 2018
Trainieren statt programmieren
Vorbericht Vision 2018: Deep Learning im Fokus
Angetrieben von immer schnellerer Rechenleistung hat sich Deep Learning in der Bildverarbeitungsbranche zu einem Megatrend entwickelt, der auch die Vision 2018 (6. bis 8. November in Stuttgart) prägen wird.
Deep-Learning-Systeme, als Teilbereich von Machine Learning und Künstlicher Intelligenz, haben einen anderen technologischen Ansatz als die derzeitige Bildverarbeitungstechnik. Die neuen Systeme zeichnen sich dadurch aus, "dass große Mengen an digitalen Bilddaten analysiert und damit Modelle von bestimmten, zu erkennenden Objekten trainiert werden", so Dr. Olaf Munkelt, Geschäftsführer MVTec (www.mvtec.com): "Mit Hilfe dieser Trainingsdaten lernt der Klassifikator dann, zwischen den eingegebenen Klassen zu unterscheiden".
Flexible Entscheidungen
"Die Stärke von Deep Learning liegt darin, dass ein solcher Ansatz flexibler entscheiden kann, als ein Satz vorgegebener Regeln in konventionellen Bildverarbeitungs-Systemen", betont Volker Gimple, Gruppenleiter Bildverarbeitung bei Stemmer Imaging (www.stemmer-imaging.de). Dr. Klaus-Henning Noffz, Geschäftsführer Silicon Software (https://silicon.software), ergänzt: "Deep Learning punktet immer dann, wenn Prüfobjekte große Variationen aufweisen und schwer mathematisch modellierbar sind." Deep Learning kann somit überall dort eine Alternative sein, wo konventionelle Bildverarbeitungssysteme an ihre Grenzen stoßen: "Deren größte Herausforderungen sind ein sich veränderndes optisches Umfeld, die immer größere Produktvielfalt sowie die Komplexität des Bildes selbst", so Hanjun Kim, Marketing Manager bei Sualab (www.sualab.com): "Auch in Bereichen, wo Bildverarbeitung bereits implementiert ist, kann der zusätzliche Einsatz von Deep Learning Genauigkeit und Geschwindigkeit des Prüfvorgangs drastisch beschleunigen."
Vielfältige Anwendungen
Eingesetzt wird Deep Learning heute bereits in Anwendungen, wo Bildverarbeitung eine Klassifizierung des untersuchten Objekts vornimmt. Dr. Noffz beschreibt eine Anwendung aus dem Automobilbau: "Selbstlernende Algorithmen erkennen hier beispielsweise winzige Lackfehler, die mit bloßem Auge nicht sichtbar sind". Auch die Nahrungsmittel- und Getränkeindustrie profitiert von Deep-Learning. "So können z.B. minderwertige Früchte und Gemüse präzise identifiziert und inspiziert werden, bevor sie verpackt oder weiterverarbeitet werden", erläutert Dr. Munkelt. Auch Dr. Christopher Scheubel, Head of IP & Business Development bei Framos (www.framos.com), beschreibt eine Anwendung, bei der mit Deep Learning Gebinde für einen Lebensmitteleinzelhändler sortiert und klassifiziert werden. Deepsense (www.deepsense.ai) stellt auf der Vision eine Lösung zur visuellen Qualitätskontrolle vor, die sich ohne langwierige Programmierung zur Inspektion von Objekten mit komplexen Mustern wie etwa Holz oder Textilien eignet. Robert Bogucki, Chief Science Officer bei Deepsense, sieht zudem zukünftige Anwendungschancen im Bereich Healthcare.
Hybride Systeme
Auch wenn bei der Anwendung von Deep Learning Herausforderungen bleiben, wie etwa die Ausführungszeiten und der Trainingsaufwand für die neuronalen Netze, ist man sich bei Framos sicher, dass alle klassifizierenden Ansätze z.B. bei der Qualitätsüberwachung oder beim Sortieren mittelfristig von Deep Learning dominiert werden. Auch Dr. Noffz ist überzeugt: "Mit dem Ansatz ´Trainieren statt programmieren' kann Deep Learning eine sehr hohe Verbreitung erzielen. So sind Klassifikationsaufgaben wesentlich einfacher zu lösen, als mit den existierenden algorithmischen Methoden. Für viele weitere Aufgabestellungen qualifizieren sich neuronale Netze ganz besonders, wie etwa für reflektierende Oberflächen, schlecht ausgeleuchtete Umgebungen, bewegende Objekte, Robotik und 3D." Auch beim portugiesischen Aussteller Neadvance (www.neadvance.com) teilt man diese Überzeugung: "Anwendungsbereiche, bei denen Objekterkennung oder -klassifizierung das Primärziel sind, werden sich eindeutig von traditionellen Ansätzen hin zu Deep Learning bewegen, etwa bei Texturanalysen, Template Matching, OCR, Lagebestimmungen, Analyse von urbanen Szenen und Handschriftenerkennung." Nichtsdestotrotz kann eine Kombination mit klassischer Bildverarbeitung sinnvoll sein, um eine 100-Prozent-Klassifizierung zu gewährleisten, erläutert Vassilis Tsagaris, CEO von Irida Labs (www.iridalabs.gr): "Es wird nicht lange dauern, bis wir mehr und mehr hybride Systeme sehen werden, da oftmals neben Deep Learning auch Computer-Vision-Algorithmen benötigt werden." Volker Gimple ist ebenfalls überzeugt, dass viele Bereiche bleiben, in denen sich konventionelle Methoden behaupten können, weil diese ein entscheidendes Merkmal bieten, das Machine-Learning-Ansätzen in der Regel fehlt: "Die Nachvollziehbarkeit von Entscheidungen und Fehlentscheidungen".
Embedded Devices
Deep-Learning-Anwendungen können auch auf Embedded-Vision-Geräten ausgeführt werden. "Auf dem weit verbreiteten Embedded-Board Nvidia Jetson TX2 läuft auch die Deep-Learning-Inferenz von Halcon", so Dr. Munkelt. So entstünde gerade im dezentralen Computing-Ansatz von Industrie 4.0 vermehrt Bedarf an Embedded Vision mit Deep-Learning-Lösungen, bei denen kleine Bildverarbeitungseinheiten oder intelligente Kameras anspruchsvolle Teilaufgaben übernehmen können. Silicon Software plant demnächst die Vorstellung seiner Deep-Learning-Lösung unter Visual Applets auf einem FPGA. Auch Irida Labs wird eine solche Verknüpfung auf der Vision präsentieren. Ihr DeepAPI-Framework ist eine Bibliothek zur Implementierung von Deep Learning an jedem Embedded-Gerät, das mit einer begrenzten Bilderzahl bereits zur Qualitätsprüfung eingesetzt werden kann.
Angetrieben von immer schnellerer Rechenleistung hat sich Deep Learning in der Bildverarbeitungsbranche zu einem Megatrend entwickelt, der auch die Vision 2018 (6. bis 8. November in Stuttgart) prägen wird.
Deep-Learning-Systeme, als Teilbereich von Machine Learning und Künstlicher Intelligenz, haben einen anderen technologischen Ansatz als die derzeitige Bildverarbeitungstechnik. Die neuen Systeme zeichnen sich dadurch aus, "dass große Mengen an digitalen Bilddaten analysiert und damit Modelle von bestimmten, zu erkennenden Objekten trainiert werden", so Dr. Olaf Munkelt, Geschäftsführer MVTec (www.mvtec.com): "Mit Hilfe dieser Trainingsdaten lernt der Klassifikator dann, zwischen den eingegebenen Klassen zu unterscheiden".
Landesmesse Stuttgart GmbH
Dieser Artikel erschien in inVISION 4 2018 - 13.09.18.Für weitere Artikel besuchen Sie www.invision-news.de