Anzeige

Blick in die Black Box

Heatmap ermöglicht mehr Deep-Learning-Transparenz

Deep-Learning-Netze sind noch weitgehend eine Black Box. Anwender können die Entscheidung des Klassifikators während des Inspektionsprozesses oft nicht direkt nachvollziehen. Anhand einer Heatmap lässt sich jetzt erkennen, welche Bereiche eines Bildes starken Einfluss auf die Zuordnung des abgebildeten Objekts zu einer bestimmten Klasse haben.

Bild: MVTec Software GmbHBild: MVTec Software GmbH
Bild 1 | Ein fehlerhafter Trainingsprozess beim Deep Learning führt zu falschen Erkennungsergebnissen. So wurde ein Braunbär, der auf einer Eisfläche stand, von den Algorithmen als Eisbär klassifiziert.

Moderne Bildverarbeitungssysteme nutzen seit geraumer Zeit Verfahren, die auf künstlicher Intelligenz (KI) beruhen, wie etwa Deep Learning. Durch das Training mittels Bilddaten lernt die Technologie eigenständig Merkmale, die typisch für eine bestimmte Objektklasse sind. Dies erleichtert die automatische Zuweisung der Bildinformationen zur jeweiligen Klasse und sorgt für wesentlich robustere Erkennungsraten. Auf diese Weise lassen sich sowohl Objekte als auch Defekte präziser identifizieren und lokalisieren. Der Trainingsvorgang läuft jedoch weitgehend im Dunkeln ab. Nutzer können nicht nachvollziehen, was das Deep-Learning-Netzwerk aus den Daten lernt. Im Falle einer falschen Klassifikation lässt sich der Fehler daher nur sehr schwer aufdecken und debuggen. Ein Beispiel aus einem Praxistest: Ein Braunbär, der auf einer Eisfläche stand, wurde von den Deep-Learning-Algorithmen als Eisbär klassifiziert. Die Software konnte aufgrund eines fehlgeleiteten Trainingsprozesses nicht zwischen dem Hintergrund und dem zu erkennenden Objekt unterscheiden. Aufgrund des mangelnden Einblicks in die Deep-Learning-Black-Box lässt sich der Fehler nicht eindeutig eingrenzen, was die zweifelsfreie Erkennung behindert.

MVTec Software GmbH

Dieser Artikel erschien in inVISION 3 (Juni) 2020 - 02.06.20.
Für weitere Artikel besuchen Sie www.invision-news.de