Anzeige

Machine Learning und Big Data im Dienst der Qualitätssicherung

Innovative Produkte erfordern oft komplexe Fertigungsprozesse am Rand des technisch Machbaren. Vollprüfungen und hohe Ausschussraten sind häufige Folgen. Mit prädiktiver Qualitätssicherung auf Basis von Prozess- und Betriebsdaten lassen sich die anfallenden Kosten reduzieren. Dazu wird im Produktionstakt vorausschauend quasi in Echtzeit auf die Qualität der gefertigten Produkte geschlossen und so die Qualitätsregelschleife verkürzt. Am Beispiel eines Spritzgussprozesses für schwierige Bauteile lässt sich darlegen, welche Vorgehen, welche Architekturen und Werkzeuge zum Erfolg führen.

Bild: Salt Solutions AGBild: Salt Solutions AG
Big Data Architektur für die vorausschauende Qualitätssicherung

Jeder Fertigungsprozess wird so stabil wie möglich eingerichtet, um Ausschuss und Nachprüfungen zu vermeiden. Trotzdem geht die Gleichung in vielen Fällen nicht auf. Zwar bewegen sich alle Prozessparameter innerhalb der Toleranzen, aber Nacharbeit und Verwurf kommen trotzdem immer wieder vor. Und mehr noch: Die Prozesszusammenhänge sind oft komplex und die Zahl der möglichen Einflussparameter hoch. Hier können selbst die Prozessexperten häufig nicht eindeutig klären, welche Parameter verändert werden müssen, um dem Ziel näherzukommen. Ein typisches Beispiel für solche Fertigungsszenarien ist der Spritzguss großer und transparenter oder halbtransparenter Bauteile, die ohne Transparenzfehler und mit makellosen Oberflächen gefertigt werden müssen. Manuelle Selektionsprüfungen an allen gefertigten Teilen sind in diesem Szenario kaum zu umgehen.

SALT Solutions GmbH

Dieser Artikel erschien in MES Wissen Kompakt 2018 - 07.04.18.
Für weitere Artikel besuchen Sie www.it-production.com