Maschinelles Lernen zur Optimierung der Materialflussprozesse
Der Wert des Datenmodells
Maschinelles Lernen ist die Fähigkeit, einen Computer neues Wissen aus Erfahrung erlernen zu lassen, ohne dass man ihn für genau dieses Wissen vorher ausdrücklich programmiert hat. Die Grundlage dafür bilden Algorithmen, die sich selbstständig an neue Daten anpassen. Maschinelles Lernen ist damit ein Teilgebiet der künstlichen Intelligenz.
Bereits vorhandene Daten lassen sich für die Verbesserung des Materialflusses nutzen. Auch wenn sie aus verschiedenen Quellen stammen und in verschiedenen Qualitäten vorkommen, ist es möglich, sie zu einem ganzheitlichen und aussagefähigen Datenmodell zusammenzufügen. Das Ziel lautet also: Big Data automatisch zu verarbeiten und für den Menschen und andere Systeme nutzbar zu machen.
Vorteile und Nutzen des KI-Einsatzes im Materialfluss
Die typischen Ergebnisse einer Optimierung des Materialflusses mit KI-Datenmodellen sind:
? Verkürzte Durchlaufzeiten
? Ausgleichen von Störungen in der Fabrik
? Erhöhung des Durchsatzes in der Fabrik
? Zeit- und qualitätsgerechte Auslieferung
? Kostensenkung und Fehlerreduktion
Definierte Datengruppen
Man unterscheidet dabei fünf Gruppen von von Fabrikdaten, mit denen man das KI-Modell aufbaut:
- • Zielgrößen: Die Größen, die optimiert werden sollen.
- • Abhängige Größen: Sie bilden sich in Abhängigkeit der regelbaren Größen und der Störgrößen und repräsentieren das Zeitverhalten der Prozesse.
- • Unkontrollierbare Größen oder Störgrößen: Alle Größen, auf die der Anwender keinen Einfluss hat.
- • (Rand-) Bedingungen und Vorgaben: Parameter, die dem Prozess aufgezwungen werden.
- • Regelbare oder kontrollierbare Größen: Alles, was sich in der Fabrik direkt einstellen lässt.
Neuronale Netze für industrielle Systeme
Industrielle Daten entstehen selten durch Zufall. Sehr häufig sind sie bestimmt durch kausale Zusammenhänge, also durch Ursachen und Wirkungen. Um Datenmodelle für solche deterministische Systeme aufzustellen, eignen sich neuronale Netze. Sie finden selbstständig den Algorithmus, der aus den vielen Eingangsdaten die vielen Ausgangsdaten berechnet. Das funktioniert so:
- • Das neuronale Netz wird mit einem Teil historischer Daten trainiert und angelernt. (Offline-Learning)
- • Nach dem Anlernen wird mit einem anderen Teil der historischen Daten überprüft, wie gut das neuronale Netz Ergebnisse aus bisher nicht bekannten Daten selbstständig berechnen kann.
- • Um mit ganz neuen, aktuellen Daten kontinuierlich weiterzulernen (Online-Learning), wird das Modell implementiert. Dann passt das es den Algorithmus weiterhin selbstständig an.
Input und den Output für das Datenmodell
Das Datenmodell bildet die Grundlage. Seine erste Aufgabe ist es, das, was in der Vergangenheit bereits passiert ist, noch einmal nachzubilden. Anschließend wird es für die eigentliche Optimierung benutzt. Dabei ist es wichtig, genau zu beschreiben, was man tatsächlich verbessern will. Eine Optimierung mit künstlicher Intelligenz besteht immer aus der Kombination eines Datenmodells mit einer Zielfunktion. Das Datenmodell wird dabei aus den fünf Datengruppen zusammengesetzt. Dabei sind die Zielgrößen die Ergebnisse (Output). Die anderen vier Gruppen liefern die Eingangsdaten (Input). Ein Datenmodell rein aus Inputs und Outputs ist ein empirisches Modell, weil es ohne vorherige Annahmen entsteht. Es wird häufig als Black-Box bezeichnet, da selbst die Fachleute, die das Datenmodell aufbauen, oft nicht genau wissen, wie es tatsächlich funktioniert. Es muss also durch empirische Tests und statistische Auswertungen untermauert werden, dass die Aussagen des Datenmodells auch zur Realität passen und genau genug sind. Deswegen wird für das Training des Modells nur ein Teil der historischen Daten verwendet. Der Rest wird zurückbehalten, um zu überprüfen, wie gut das Modell das Ergebnis vorhersagt. Zu genau sollte das Modell nicht sein, damit es nicht nur auswendig lernt. Es soll schließlich auch für ähnliche Fälle, die es so noch nicht exakt gab, eine gute Vorhersage berechnen. Zudem haben die in der Realität gemessenen Daten immer gewisse Unschärfen oder Messfehler, so dass das Modell ohnehin durch die Toleranz seiner Eingaben beschränkt ist.
Fertiges Datenmodell
Sobald das Datenmodell ausreichend genau ist, beginnt die eigentliche Optimierung. Dabei soll das Modell für eine gewünschte Zielgröße die besten Einstellgrößen in der Fabrik selbstständig ermitteln und vorschlagen. Das Modell wird mathematisch sozusagen auf Links gedreht. Dafür ist es wichtig, die Input-Gruppen "Regelbare" und "Unkontrollierbare" sauber zu unterscheiden. Es werden am Ende ja nur die Einstellgrößen gesucht, die sich in der Fabrik auch tatsächlich beeinflussen lassen. Die nicht beeinflussbaren, unkontrollierbaren Größen sind aber Störgrößen für das Gesamtsystem. Deswegen wird diese Gruppe separat beschrieben und kann gemeinsam mit den Abhängigen als Einfluss auf das System berücksichtigt werden. Ob das Optimierungsmodell tatsächlich funktioniert, kann man leicht an den historischen Daten überprüfen. So kennt man z.B. aus der Vergangenheit Situationen, in denen man schon einmal beste Ergebnisse in der Fabrik erreicht hat. Vergleicht man die damaligen Einstellungen mit denen, die das Modell nachträglich vorschlägt, kann man sofort erkennen, wie gut die Qualität des Modells ist. Sind die Vorschläge des Modells plausibel, wird man diese Optimierungsrechnung natürlich anschließend auch mit Echtzeitdaten durchführen wollen. Dafür wird das Modell an die lebenden Daten der Fabrik angeschlossen. Funktioniert die Optimierung für die Vergangenheit, funktioniert sie auch für die Zukunft. Falls sich zwischen Modellerstellung und Implementierung Daten geändert haben, werden diese zunächst noch einmal nachtrainiert, um das Modell zu aktualisieren. Danach lernt das Neuronale Netz stetig weiter mit den Daten, die nun kontinuierlich dazu kommen.
Offline- und Online-Phase
Es hat sich bewährt, zwei Phasen zu unterscheiden: Die Offline-Phase, in der mit historischen Daten gearbeitet wird, und die Online-Phase, in der das Modell implementiert und damit an die tatsächliche Datenwelt angeschlossen wird. In der Offline-Phase kann man mit dem Datenmodell experimentieren, ohne irgendeinen Schaden in der Anlage anzurichten. Sind die Ergebnisse überzeugend, bringt man das Modell in die Online-Phase und setzt es der Realität aus. So kann man es ausführlich testen und auf seine Robustheit hin prüfen, bevor man es operativ einsetzt. In der Testphase kann man auch direkt sehen, ob die erwünschten Verbesserungen tatsächlich eintreten.
Maschinelles Lernen im Materialfluss
Im Materialfluss sind die Daten der fünf Gruppen üblicherweise bekannt und liegen in verschiedenen Systemen vor. Schlechte Datenqualität verursacht hier Aufwand, denn die Informationen müssen für das maschinelle Lernen vorbearbeitet werden (Preprocessing bzw. Data Polishing). Das macht ungefähr 80 Prozent der menschlichen Arbeit beim Erstellen des Datenmodells aus. Das eigentliche maschinelle Lernen geht anschließend fast automatisch. Sind die Daten gut vorbereitet, wird das Datenmodell aufgebaut. Liegen keine historischen Daten vor, muss zunächst ein zentrales Archiv aufgebaut werden. Am einfachsten wäre die Datenaufnahme, wenn die Daten zentral an einer einzigen Stelle vorliegen würden. Allerdings sind die Datenquellen häufig dezentral, gerade im Materialfluss. Denn einerseits sind die einzelnen Fertigungsstationen heute meistens mit Vorort-Steuerungen automatisiert. Andererseits wird die IIoT-Technik immer schneller und leistungsfähiger. Es werden mehr und mehr smarte und mobile Sensoren eingesetzt, um Bewegung und Position von Gütern in der Fabrik zu verfolgen oder ihren Status im Fertigungsablauf zu kontrollieren. All diese Daten müssen gesammelt und für die maschinelle Verarbeitung aufbereitet werden können. Wenn man alle Arbeiten für Datenaustausch, Datenmodellierung und Informationsausgabe zusammennimmt, erhält man den digitalen Zwilling als Abbild der realen Fabrik. Digitale Zwillinge können alle möglichen Formen und Detailgrade annehmen - ihr Umfang hängt von der Aufgabe ab, die man mit ihnen erfüllen will. Um den Materialfluss zu optimieren, soll der digitaler Zwilling die verschiedenen Daten an allen gewünschten Stellen der Fabrik aufnehmen und zusammenführen.
Nebenwirkungen und Transparenz
In einer Fabrik existieren oft sowohl das Pull- als auch das Push-Prinzip nebeneinander. Übergeordnet herrscht Push, wenn die gesamte Produktionsmenge prognostiziert und vorgeplant wird. Zwischen den einzelnen Fertigungsstationen jedoch herrscht meistens Pull. Die Stationen ziehen ihre Aufträge aus der vorgelagerten Station, um Materialbestände in der Fabrik zu reduzieren, Störgrößen selbstständig auszuregeln und die Auftragsdurchlaufzeit möglichst kurz zu halten. In der Vergangenheit war dies die beste Methode, die Fabrik zu organisieren, weil sich dadurch kurze, selbstorganisierte Regelkreise einstellten. Im Zeitalter von KI aber lässt sich das übergreifend optimieren, weil die KI die vielen kleinen Regelkreise ersetzt. Der Einsatz eines durchgängigen Datenmodells hat allerdings auch Nebenwirkungen: Er bringt eine bisher nicht gekannte Transparenz der Fabrikprozesse mit sich. Diese Transparenz kann mit der gelebten Fehlerkultur des Unternehmens kollidieren. Jedem datenbasierten Optimierungsverfahren wohnt also auch ein Akzeptanzrisiko inne. Dem kommt man am besten bei, indem man alle Beteiligten und Betroffenen für die gemeinsame Zielfindung und die Durchführung in das Projekt mit einbezieht. Das mag kurzfristig nach mehr Aufwand aussehen, macht sich aber langfristig bezahlt, weil alle verstehen, wie das Vorgehen und das Datenmodell funktionieren.
Materialflussoptimierung in der Praxis
Wenn das Modell implementiert wird, bildet es einen intelligenten Regler, und zwar in einem offenen Regelkreis. Das bedeutet, dass zwischen den Vorschlägen des Modells und den Maßnahmen noch ein menschliches Betriebsteam über die Umsetzung entscheidet. Der Regelkreis für die Optimierung mit maschinellem Lernen funktioniert so:
- • Die Daten aus der Anlage werden als Messwerte in den digitalen Zwilling eingespeist.
- • Im digitalen Zwilling passieren die Modellierung und die Optimierungsrechnung.
- • Das Ergebnis sind Vorschläge für die besten Maßnahmen.
- • Die Vorschläge kommen über einen Bildschirm (oder andere Endgeräte) an das Betriebsteam.
- • Das Betriebsteam entscheidet über deren Umsetzung.
- • Wenn die Vorschläge umgesetzt werden, steigt die Profitabilität der Anlage.
Zukunft der KI in der Fabrik
Das Training des neuronalen Netzes erfordert Spezialisten und eine gewisse Rechenkapazität. Daran wird sich in absehbarer Zeit nichts ändern. Trotzdem ist es möglich, das fertige Optimierungsmodell direkt auf einem Server in der Anlage einzusetzen, denn es erfordert im laufenden Betrieb keine hohe Computerleistung. Viele Unternehmen entscheiden sich aus Sicherheitsgründen für eine Implementierung in der Anlage (On Premise). Andererseits bewerben viele Anbieter eine Cloud-Anbindung, weil sie dort die Software und die Rechnerleistung einfacher skalieren können. Beide Varianten funktionieren, so dass man sich als Unternehmen nicht einschränken sollte, um flexibel zwischen On-Premise, Cloud oder hybriden Zwischenlösungen wechseln zu können.
Maschinelles Lernen ist die Fähigkeit, einen Computer neues Wissen aus Erfahrung erlernen zu lassen, ohne dass man ihn für genau dieses Wissen vorher ausdrücklich programmiert hat. Die Grundlage dafür bilden Algorithmen, die sich selbstständig an neue Daten anpassen. Maschinelles Lernen ist damit ein Teilgebiet der künstlichen Intelligenz.
Bereits vorhandene Daten lassen sich für die Verbesserung des Materialflusses nutzen. Auch wenn sie aus verschiedenen Quellen stammen und in verschiedenen Qualitäten vorkommen, ist es möglich, sie zu einem ganzheitlichen und aussagefähigen Datenmodell zusammenzufügen. Das Ziel lautet also: Big Data automatisch zu verarbeiten und für den Menschen und andere Systeme nutzbar zu machen.
Vorteile und Nutzen des KI-Einsatzes im Materialfluss
Die typischen Ergebnisse einer Optimierung des Materialflusses mit KI-Datenmodellen sind:
? Verkürzte Durchlaufzeiten
? Ausgleichen von Störungen in der Fabrik
? Erhöhung des Durchsatzes in der Fabrik
? Zeit- und qualitätsgerechte Auslieferung
? Kostensenkung und Fehlerreduktion
Definierte Datengruppen
Man unterscheidet dabei fünf Gruppen von von Fabrikdaten, mit denen man das KI-Modell aufbaut:
- • Zielgrößen: Die Größen, die optimiert werden sollen.
- • Abhängige Größen: Sie bilden sich in Abhängigkeit der regelbaren Größen und der Störgrößen und repräsentieren das Zeitverhalten der Prozesse.
- • Unkontrollierbare Größen oder Störgrößen: Alle Größen, auf die der Anwender keinen Einfluss hat.
- • (Rand-) Bedingungen und Vorgaben: Parameter, die dem Prozess aufgezwungen werden.
- • Regelbare oder kontrollierbare Größen: Alles, was sich in der Fabrik direkt einstellen lässt.
- 1
- 2
- 3
- 4
- 5
- 6
- 7
Ahorner & Innovators GmbH
Dieser Artikel erschien in INDUSTRIAL COMMUNICATION JOURNAL 2 2019 - 15.05.19.Für weitere Artikel besuchen Sie www.sps-magazin.de