Anzeige

ChatGPTs Brüder

Keine Technologie wird aktuell so hoch als Game Changer für die gesamte Gesellschaft gehandelt wie generative KI. Speziell Large Language Models (LLM) wie ChatGPT oder Dall-E haben im letzten Jahr große Aufmerksamkeit erzeugt. Das SPS-MAGAZIN hat in der Branche nachgehorcht, welches Potenzial LLMs für die Automatisierung bieten, welche Probleme sie mitbringen und wie weit die großen Namen der Branche bereits bei eigenen Entwicklungen sind.

Bild: Rockwell AutomationBild: Rockwell Automation
Mit LLMs ist es sogar machbar, die Widerstandsfähigkeit von Systemen gegen Sicherheitsbedrohungen zu erhöhen.

Bild: Phoenix ContactBild: Phoenix Contact
LLMs eröffnen eine Möglichkeit, Produktionsdaten Struktur und Standards zu verleihen.

Bild: WagoBild: Wago
LLMs scheinen prädestiniert für den Einsatz als Schnittstelle zwischen Mensch und Maschine.

Bild: Beckhoff AutomationBild: Beckhoff Automation
Eine für die Automatisierung derzeit zentrale Herausforderung ist das Halluzinieren von LLMs.

In welchen Bereichen der Automatisierung sehen Sie das meiste Potenzial für LLMs?

Rainer Duda, Wago: Diese Frage ist nicht einfach zu beantworten, da sich das Potenzial von LLMs in immer kürzeren Zeitabständen deutlich erweitert und sich damit neue Möglichkeiten auftun. LLMs scheinen prädestiniert für den Einsatz als Schnittstelle zwischen Mensch und Maschine bzw. System. Scada-Systeme könnten durch die Integration von LLMs effizienter bedient werden, insbesondere mit Hilfe von Speech-to-Text-Fähigkeiten. Neben der reinen Benutzerinteraktion kann das LLM auch als persönlicher Agent zwischen Bediener, System und anderen Datenquellen fungieren. Konkret können z.B. benötigte Sensorwerte auf Abruf abgefragt und Ergebnisse fortgeschrittener Analysetätigkeiten automatisiert in Diagrammen dargestellt oder per Kommando in Berichte umgewandelt werden. Das Prinzip lässt sich auch auf die Planungsebene für MES-Systeme übertragen oder auf Edge Devices herunterbrechen, mit denen vor Ort durch autorisiertes Personal effiziente Diagnosen sowie Wartungen durchgeführt werden können.

Jannis Doppmeier, Beckhoff: LLMs können das Engineering um ein Vielfaches beschleunigen, indem sie z.B. Applikationscode zumindest in Teilen automatisch erzeugen bzw. vervollständigen. Daneben ist mit unserer Lösung zudem die Erstellung eines HMI-Projekts per Chatbot möglich. Darüber hinaus kann man sich von LLMs Tutorials erstellen lassen und bei aufkommenden Problemen gezielt nach Lösungen fragen. Ein weiterer Vorteil ist die Möglichkeit, Richtlinien und Best Practices im Automatisierungsbereich umzusetzen und einzuhalten.

Nicola Iovine, Rockwell: LLMs ermöglichen es Usern, mit einem System sprachlich zu interagieren. Bei der Wartung und Instandhaltung können LLMs virtuelle Unterstützung bei der effizienten Lösung von Problemen bieten. In der Dokumentation verbessern LLM-Funktionen zur Erstellung von Reportings und Protokollen das Datenmanagement. Zudem können LLMs große Datensätze analysieren und Betreiber unterstützen, fundierte Entscheidungen zu treffen. Bei der Beachtung gesetzlicher Vorgaben spielen LLMs ebenfalls eine Rolle, indem sie die Einhaltung entsprechender Vorschriften in automatisierten Systemen sicherstellen. Darüber hinaus ist es mit LLMs sogar machbar, die Widerstandsfähigkeit automatisierter Systeme gegen Sicherheitsbedrohungen zu erhöhen.

Hans Michael Krause, Rexroth: Wir sehen das Potenzial in der Code-Erstellung: Dort steigern LLMs die Geschwindigkeit, erhöhen Qualität sowie Konsistenz und ermöglichen eine fortlaufende Verbesserung. Zudem fördert die KI-Integration intuitive Benutzeroberflächen und eine nahtlose Systemintegration. Außerdem bieten generative KI und Foundation Models die Möglichkeit, synthetische Bilder zu erzeugen, um Lösungen für die optische Inspektion zu entwickeln, zu skalieren oder zu verbessern.

Jan Henze, Phoenix Contact: Large Language Modelle bieten sich insbesondere für kreativ generierenden Aufgaben wie das Zusammenfassen von Texten sowie die Erstellung von Programmcode an. Als solches eignen sie sich als Assistenzsysteme, um die Effizienz von Mitarbeitenden zu erhöhen. In der Produktion und Automatisierung fallen oft unstrukturierte und nicht standardisierte Daten an. LLMs eröffnen eine Möglichkeit, diesen Daten Struktur und Standards zu verleihen, was sonst ein aufwendiger manueller oder programmiertechnischer Prozess wäre.

Franz Menzl, Siemens: Bei Siemens setzen wir bereits heute auf KI-Tools wie ChatGPT, die natürliche Sprache verstehen, um eine neuartige Form der Zusammenarbeit für Mitarbeitende zu ermöglichen und Innovation voranzutreiben. Unser Ziel ist es, die menschlichen Fähigkeiten zu unterstützen und zu stärken - hier sehen wir das meiste Potenzial für LLM.

Welche Herausforderungen sind beim Einsatz von LLMs in der Automatisierung zu meistern?

Hans Michael Krause, Rexroth: Die automatische Erstellung von SPS-Applikationen durch KI birgt auch Risiken. Ein unkritisches Vertrauen kann zu unerwartetem Maschinenverhalten und Sicherheitsrisiken führen. Die Intransparenz automatisch generierter Applikationen kann die Fehlerbehebung erschweren und zu längeren Ausfallzeiten führen. Sicherheitsrisiken, insbesondere im Hinblick auf den von KI generierten Code, müssen sorgfältig abgewogen werden. Unternehmen müssen in der Lage sein, diesen Code zu verstehen, zu überprüfen und sicherzustellen, dass er zuverlässig funktioniert.

Jan Henze, Phoenix Contact: Eine große Herausforderung stellt die inhärente Halluzination von LLMs dar, also die Generierung von nicht faktisch gestützten oder sogar inkorrekten Aussagen. Sie sind auf den ersten Blick durch korrekte Ausformulierung schlüssig und nur schwer zu erkennen. Also müssen Mechanismen zur Qualitätsüberprüfung implementiert sowie der Wahrheitsgehalt kritisch betrachtet werden. Als solches sollten LLMs hauptsächlich als unterstützendes System verwendet werden oder in Anwendungsfällen, in denen hohe Genauigkeit lediglich eine untergeordnete Rolle spielt. Eine weitere Herausforderung ergibt sich aus der Größenordnung solcher Modelle. LLMs setzen sich aus mehreren Milliarden Parametern zusammen und sind in der Nutzung sowie im Training sehr kostspielig.

Jannis Doppmeier, Beckhoff: Nach wie vor gibt es noch einige technische Unklarheiten. Das ist aber nicht weiter verwunderlich, wenn man sich die aktuell sehr hohe Entwicklungsgeschwindigkeit vor Augen führt. Eine wichtige und für die Automatisierungsbranche derzeit zentrale Herausforderung ist das Halluzinieren von LLMs. Manchmal generieren sie Informationen, die nicht auf Fakten basieren oder falsch sind - insbesondere in Situationen, in denen sie unsichere oder unvollständige Daten interpretieren müssen. So haben wir in der frühen Entwicklungsphase eigener Lösungen bei generiertem SPS-Code auch Motion-Funktionen vorgefunden, die es gar nicht gibt - zumindest nicht in Twincat. Aber das sind Themen die adressierbar sind und sich mit der Zeit deutlich verbessern werden.

Rainer Duda, Wago: Zentral ist - unabhängig vom Anwendungsfall - die Klärung, wie Transparenz, Nachvollziehbarkeit, Fairness und insbesondere Sicherheitsaspekte im Umgang mit anwendungs- bzw. prozessbezogenen Daten und den verwendeten Sprachmodellen effizient umgesetzt werden können. Der Einsatz von LLMs erfordert das Vertrauen und die Akzeptanz der Nutzer. Seitens der Sicherheitsaspekte ist darauf zu achten, dass die rechtlichen Vorgaben umgesetzt und die im jeweiligen Anwendungsgebiet geltenden Regularien berücksichtigt werden. Man sollte sich bereits bei der Planung mit den Anforderungen z.B. des Data Governance Act, des AI Act und des Data Act auseinandersetzen.

Nicola Iovine, Rockwell: Für den erfolgreichen LLM-Einsatz ist ein umfassender Ansatz entscheidend: Zunächst gilt es, die Integration in automatisierte Prozesse in Bezug auf Datenqualität, Bias und Diskriminierung sorgfältig zu prüfen. Eine nahtlose Integration erfordert dann eine exakte Planung, um Unterbrechungen auszuschließen. Strategien zur Risikominderung sind unerlässlich, um Ungenauigkeiten zu vermeiden und sensible Informationen zu schützen. Ethische Überlegungen, wie etwa zum verantwortungsvollen Einsatz von KI und Transparenz, sind notwendig, um unbeabsichtigte Folgen oder juristische Probleme zu vermeiden.

Franz Menzl, Siemens: Der erfolgreiche Einsatz von KI-Tools in der Fabrik hängt von verschiedenen Faktoren ab, darunter die Qualität der Daten, die Komplexität der Anwendung, die Skalierbarkeit und die nahtlose Integration in bestehende Systeme. Wir bei Siemens setzen stark auf frühzeitige Zusammenarbeit in einem Ökosystem, um potenzielle Anwendungsfälle von Kunden und Partnern zu verstehen und zu erproben.

TeDo Verlag GmbH

Dieser Artikel erschien in SPS-MAGAZIN 1 (Februar) 2024 - 09.02.24.
Für weitere Artikel besuchen Sie www.sps-magazin.de