Anzeige

Kognitive Selbstlernprozesse Der Weg der Künstlichen Intelligenz in die industrielle Produktion

Bild: http://www.techthisoutnews.com/win-friends-influence-people-using-robots/Bild: http://www.techthisoutnews.com/win-friends-influence-people-using-robots/

Bild: National Instruments Germany GmbHBild: National Instruments Germany GmbH

Bild: National Instruments Germany GmbHBild: National Instruments Germany GmbH

Bild: National Instruments Germany GmbHBild: National Instruments Germany GmbH

Alle reden über Deep Learning, dabei ist das Thema doch bereits seit einigen Jahren auf dem Markt?

Rahman Jamal: Sie haben recht, das Konzept an sich ist nicht neu. Aber der Zeitpunkt für seine Wiederbelebung ist nicht zufällig. Die Komplexität einer IIoT-Anwendung sowie die Vernetzung solcher Applikationen führt zu einer Unmenge von Daten (Stichwort: Big Analog Data) und schreit regelrecht nach Deep-Learning-Methoden. Wobei mit IIoT-Anwendungen nicht nur Smart-Factory-bezogene I4.0-Applikationen gemeint sind, sondern jegliche smarte Applikationen (Cyber-physical Systems, CPS), wie Smart Grid, Smart Health und Smart Transportation etc. Solche CPS analysieren ihre Umgebung und erkennen auf Grundlage ihrer Beobachtungen Muster und Zusammenhänge, müssen also extrem lern- und anpassungsfähig sein. Seit Maschinen in der Lage sind, sich Zusammenhänge zu erschließen und Neues zu erlernen, werden immer mehr solcher intelligenten Systeme auch im Fertigungsprozess eingesetzt, besonders bei der Zustandsüberwachung, Bildverarbeitung oder Predictive Maintenance. Die Fertigung auf Grundlage vorhandener Daten zu optimieren, ist eines der Kernziele von I4.0. Deep Learning eignet sich hier ideal zur automatisierten Analyse von Big Analog Data auf Basis intelligenter Algorithmen und spielt daher eine große Rolle für den Maschinen- und Anlagenbau sowie die Smart Factory, also die intelligente Fabrik der Zukunft.

Wie kann Deep Learning dem Anwender helfen, Aufgaben besser zu lösen?

Jamal: In den Deep Learning zugrundeliegenden neuronalen Netzen setzt - ähnlich wie bei Kleinkindern - ein kognitiver Selbstlernprozess ein, in dem eigenständig sich wiederholende Merkmale, Strukturen, Muster und Zusammenhänge erkannt werden. Daraufhin werden Synapsen gebildet, auf deren Grundlage der Algorithmus lernt und Bilder verarbeitet. Daher ist bei I4.0 eine Maschine oder Fertigungsstraße in der Lage, eine Vielzahl verschiedener Variationen zu handhaben, auch dann, wenn sich die Umgebungsbedingungen ändern. Dies sorgt für eine zuverlässige Produktion ohne Qualitätsverlust. Durch die Cloud, die die Vernetzung der in einem Unternehmen weltweit eingesetzten Maschinen gestattet, ist es möglich, innerhalb kurzer Zeit eine große Menge an Daten zu generieren, die erforderlich sind, um aussagekräftige Ergebnisse zu erhalten. Gerade für die Bildverarbeitung oder das Erkennen von Mustern in großen Mengen an Messdaten bieten neuronale Netze interessante Ansätze, die bisherige Konzepte nicht lösen konnten. Cogito Instruments hat hierzu ein spannendes Produkt herausgebracht. Beim CI9120 handelt es sich um ein C-Serien-Modul für die NI-Plattform CompactRIO. Es enthält 1.024 Neuronen, die dem System die Fähigkeit verleihen, bis zu 1.024 Muster zu erlernen, zu erkennen und zu klassifizieren. Die Mustererkennung und -klassifizierung erfolgt innerhalb von 10µs. Eine API erlaubt es, Signale einer Kamera, eines Sensors oder über einen Host übertragene Daten innerhalb des CompactRIO-Systems zu erfassen sowie Erkennungsmerkmale zu extrahieren, die Daten in 256Byte große Vektoren umzuwandeln und diese an das CI9120 zu senden. Anhand von Referenzvektoren kann dem Neuron ein Vektor beigebracht werden, dem der Anwender eine Kategorie zuweist. So weiß das Neuron, was es lernen soll. Mit Erlernen eines jeden neuen Vektors vertiefen die Neuronen automatisch ihr Wissen. Das Modul antwortet, ob es den Vektor erkannt hat oder nicht. Falls ja, wird es die damit verbundene Kategorie (Klasse) des Vektors ausgeben. In manchen Fällen, wenn mehrere Kategorien infrage kämen, wird gemeldet, dass es unklar ist, ob ein Vektor wiedererkannt wurde. In diesem Fall lässt sich überprüfen, wie viele Neuronen im Erkennungsprozess einer jeden Kategorie beteiligt waren und es kann eine Messung mit Distanz für jedes Neuron durchgeführt werden, wodurch sich herausfinden lässt, welches das aussagekräftigste Ergebnis ist. Dies gestattet eine Verfeinerung der entsprechenden Kriterien, wobei der Lernprozess noch während der Ausführung stattfindet. Ist die Lernphase abgeschlossen und erkennt das System alle übertragenen Vektoren, kann das interne Wissen auf andere Systeme übertragen und somit repliziert werden.

Welche bisher unlösbaren Aufgaben lassen sich mit Deep Learning lösen?

Jamal: Zum einen kann die sehr schnelle Erkennung von Mustern realisiert werden. Zum anderen lassen sich aber auch das Charakterisieren bewerkstelligen sowie Trends erahnen, selbst dann, wenn das Muster nicht 1:1 eingelernt wurde. Vor allem für den Bereich der Bilderkennung, insbesondere für Big Data in komplexeren intelligenteren Routinen zur Entscheidungsfindung, ist Deep Learning interessant. Im Umfeld der Automatisierung ist Deep Learning besonders dort nützlich, wo Prozesse effektiver verlaufen als ursprünglich geplant oder nicht exakt vorherzusehen sind. Zudem ermöglicht es Anlagen und Robotern, eigenständig fundierte Entscheidungen zu fällen. Dabei gilt es nicht nur, eine solche zu treffen, sondern im Anschluss auch ein Ergebnis zu präsentieren. Im Bereich der industriellen Bildverarbeitung ist es z.B. erforderlich, dass ein System nicht nur eine gut/schlecht-Entscheidung trifft. Es muss ein Bild nicht nur verifizieren, sondern auch das Gesehene verarbeiten und daraufhin intelligente Schritte in die Wege leiten. Dies erfordert eine stetige Erfassung und Auswertung von Daten, ohne die ein solch eigenständiges und zuverlässiges Handeln des Systems nicht möglich wäre. Dadurch wird der gesamte Fertigungsprozess optimiert

.

Verwenden Sie bereits Deep-Learning-

Ansätze in NI-Produkten?

Jamal: Beispiele wie die oben geschilderte Implementierung bei Cogito Instruments gibt es mittlerweile einige. Ein weiteres Beispiel ist das Deep Learning Toolkit for Labview von Ngene LLC, das Labview die Möglichkeiten der Deep-Learning-Infrastruktur verleiht und der Community der Labview-Entwickler Zugang zu Machine-Learning-Anwendungen wie Bild-, Objekt- oder Spracherkennung ermöglicht. Das komplett in Labview verwirklichte Toolkit vereinfacht den Prozess der Gestaltung, Erstellung, Konfigurierung, Schulung und Visualisierung komplexer neuronaler Netze in Labview. Da die Funktionsfähigkeit des Toolkits nicht von einer externen Bibliothek oder Engine abhängt, gestaltet sich der Prozess der Implementierung trainierter Systeme auf Embedded-Ziele nahtlos. Ebenso steht eine kleine kostenfreie Library in der Community zum Download zur Verfügung. Hierbei handelt es sich um ein Toolkit, das für einfache neuronale Netzwerk-Anwendungen konzipiert ist. Es ist also nicht für anspruchsvollere Anwendungen im Bereich der künstlichen Intelligenz geeignet, sondern dient als Startpunkt, zur Evaluierung oder als Proof of Concept für die Weiterentwicklung.

Besteht nicht die Gefahr, dass wir nicht länger kontrollieren können, wie es zu gewissen Entscheidungen gekommen ist?

Jamal: Definitiv! Nutzt man z.B. Deep Learning, um Aufsätze zu korrigieren und zu bewerten, erhält man meist sehr gute Ergebnisse, die fast der menschlichen Leistung entsprechen. Das Problem ist aber: Man erfährt nicht, warum die Bewertung so ausgefallen ist. Mathematisch könnte man natürlich herausfinden, welche Knoten eines komplexen neuronalen Netzes aktiviert wurden. Doch was die Neuronen genau machen sollten und vor allem, was die einzelnen Neuronenschichten im Kollektiv taten, bleibt uns verborgen. So können wir die Entscheidungsfindung nicht nachvollziehen. Anders beim Machine Learning: Durch die wie Entscheidungsbäume strukturierten Algorithmen sehen wir exakt, warum etwas wie entschieden wurde. Nun mag man vielleicht sagen, dass es nicht ganz so tragisch ist, wenn man nicht nachvollziehen kann, wie die Bewertung eines Aufsatzes vonstattenging. Auch wenn Deep Learning z.B. bei Amazon fehlschlägt und der Kunde beim Kauf eines Produkts die falschen ergänzenden Produkte vorgeschlagen bekommt, kann er die Vorschläge einfach nicht zur Kenntnis nehmen. In anderen Fällen jedoch kann ein Mangel an Entscheidungsgründen enorme Probleme mit sich bringen. Im Finanzwesen etwa ist es unabdingbar, dass Entscheidungen nachvollziehbar sind. Immerhin hat der Kunde ein Recht darauf zu erfahren, warum ihm z.B. ein Kredit verwehrt wird. Kritiker weisen darauf hin, dass die Vorhersagen heutiger Algorithmen zu lediglich 90 Prozent korrekt sind. Eine Trefferquote von 100 Prozent ist schlichtweg nicht möglich. Bei dem Amazon-Beispiel ist das nicht so schlimm. Verrechnet sich der Algorithmus jedoch bei einer Finanzierung, dann ist es durchaus tragisch, denn dies bedeutet, dass zehn Prozent der Kunden, die einen Kredit beantragen, aufgrund eines Systemfehlers abgelehnt werden. In manchen Fällen kann dies existenzgefährdend sein. Wird Deep Learning allerdings in Anwendungen wie etwa in ADAS-Systemen eingesetzt, bei denen es um Leib und Leben geht, dann ist eine 90-prozentige Trefferquote absolut nicht akzeptabel.

Wie lange wird es noch dauern, bis Deep Learning in der Industrie und realen Anwendungen angekommen ist?

Jamal: Bereits heute sind erste Lösungen realisiert, teilweise sogar mit NI-Produkten. So implementierte die Beuth Hochschule für Technik in Berlin neuronale Netze mit Labview und Labview FPGA. Hierbei ging es darum, den Greifvorgangs eines Modells einer menschlichen Hand auf Basis eines künstlichen neuronalen Netzes für die Merkmalserkennung nachzubilden. Ein Bildverarbeitungsalgorithmus wird zum visuellen Erfassen der Greifszene genutzt. Im weiteren Verlauf des Greifvorganges werden die Signale der an dem Handmodell befindlichen taktilen Sensoren mittels neuronaler Netzstrukturen mit Labview ausgewertet. Der auf einem PC-System entworfene Programmcode konnte mit wenigen Änderungen auch auf einem FPGA ausgeführt werden. Ein weiteres Beispiel ist die Implementierung eines echtzeitfähigen Regelungssystems für das Spritzgießen von Kunststoffen, die von der Deutschen Forschungsgemeinschaft (DFG) im Rahmen des Exzellenzclusters ´Integrative Produktionstechnik für Hochlohnländer´ an der RWTH Aachen finanziell gefördert wurde. Das bisher eingesetzte Regelungssystem war auf einem Rechner mit Windows XP implementiert, das kein deterministisches Verhalten der ausgeführten Software garantierte. Daher war es nicht möglich, die für eine gewisse Rechenoperation benötigte Rechenzeit vorherzusagen und somit harte Echtzeitanforderungen zu erfüllen. Eine Regelung unter Echtzeitbedingungen stellt jedoch sicher, dass das Regelungssystem zuverlässig und unmittelbar auf Änderungen im Prozessgeschehen reagiert und keine Verzögerungen des Regeltakts auftreten, die die Prozess- und Produktqualität beeinträchtigen oder zu Beschädigungen an Spritzgießmaschine/-werkzeug führen. Das mittels Labview Real-Time, dem FGPA-basierten Multifunktions-I/O-Gerät NI PXI-7842R, verschiedenen I/O-Modulen der C-Serie sowie dem Real-Time Execution Trace Toolkit neu implementierte Regelungssystem ist in der Lage, harte Echtzeitbedingungen zu erfüllen, und erlaubt bei der Ausführung der Regelalgorithmen zeitlichen Determinismus. Darüber hinaus gestattet es durch die Parallelisierung der Algorithmen eine Steigerung der Rechengeschwindigkeit verglichen mit der bisher verfügbaren Windows-basierten Variante. Aktuell ist auch das DARPA-Projekt (Defense Advanced Research Projects Agency). Dort möchte man der Herausforderung der begrenzten Mobilfunkfrequenzen mit einem flexiblen Ansatz begegnen. Im Rahmen der Zusammenarbeit stellen wir die Hauptinfrastruktur für ein zukunftsweisendes Channel Emulations Testbed namens Colosseum zur Verfügung. Dabei werden USRP-SDRs (Software Defined Radios) eingesetzt, die eine große Bandbreite an Open-Source-, aber auch proprietären Werkzeugen wie GNU Radio, RFNoC und Labview unterstützen. Das Testbed unterstützt bis 256x256-Echtzeitkanalemulation und die Berechnung von mehr als 65.000 Kanalinteraktionen bei bis zu 80MHz Echtzeitbandbreite pro Kanal. Das Collosseum, das am Johns Hopkins University Applied Physics Laboratory aufgebaut ist, wird in der so genannten DARPA Spectrum Collaboration Challenge eine zentrale Rolle spielen, die die hellsten Köpfe im Bereich der kognitiven Funksysteme und Machine Learning zusammenbringt. Diese Initiative soll sicherstellen, dass die exponentiell wachsende Anzahl an drahtlosen Geräten vollen Zugang auf das immer mehr ausgelastete elektromagnetische Spektrum haben.

National Instruments Germany GmbH

Dieser Artikel erschien in Industrie 4.0 - 18 2017 - 21.09.17.
Für weitere Artikel besuchen Sie www.i40-magazin.de