Auf dem Weg zum Cloud-Historian
Wenn Grenzen verwischen
Im Zeitalter der vernetzten Technologien rückt das Thema Cloud in den Mittelpunkt vieler Gespräche. Was zunächst nicht ebenso spannend klingt, aber dennoch ein wichtiges Element im IIoT-Puzzle ist, ist der Prozessdaten-Historian. In der Diskussion um das IIoT kann man es sich nicht erlauben, ihn nicht mit einzubeziehen, da er eine wichtige Rolle auf dem Weg zum Erfolg spielt.
Um zu verstehen, welche Auswirkungen die Cloud auf Historian-Systeme hat, ist es wichtig, die Hauptgründe hinter der Cloud-Einführung zu verstehen. Mit der Verbreitung von intelligenten Geräten wird mehr Speicherkapazität benötigt, und die Cloud als Lösung liegt daher nahe. Cloud-Technologien sind besser skalierbar und in der Lage, große und komplexe Datensätze durch Big Data (einem Schlüsselelement des IIoT) besser zu nutzen. Tatsächlich geht aus einer jüngsten Befragung unter 200 Führungskräften der verarbeitenden Industrie hervor, dass zwei von drei Unternehmen bereits in Datenanalytik investieren und die Mehrzahl der Unternehmen plant, diese Investitionen zu erhöhen. Und obwohl viele Unternehmen gezwungen sind, Budgets zu kürzen, nehmen Investitionen in die Cloud zu. Der Grund hierfür ist deutlich erkennbar: Flexibilität und Skalierbarkeit sind wesentlich höher, Betriebskosten sind aufgrund von Skaleneffekten mit der Cloud geringer. Bestehende Systeme können zur Abdeckung von Kundenanforderungen kurzfristig erweitert werden, im Gegensatz zur einer kompletten Neuinstallation von Systemen.
Vorteile der Cloud
Einer der offensichtlichen Vorteile ist, dass ein Cloud-Modell Rechenressourcen aus den Anlagen und Rechenzentren der Kunden zu einem Cloud-Anbieter verlagert und dadurch Infrastrukturanforderungen reduziert. Der Cloud-Anbieter kann dabei größere Skaleneffekte nutzen und dadurch attraktive Preise anbieten. Der tatsächliche Wert der Cloud liegt jedoch in der Fähigkeit, eine bessere Lösung für die Verwaltung und Nutzung historischer Daten zu bieten. Heutzutage konzentrieren sich Unternehmen darauf, mehr Daten zu erfassen und verfügbar zu machen, jedoch sind aktuelle Historian-Systeme in ihrer Skalierbarkeit oft eingeschränkt. Mit der Cloud können jetzt zwei bis dreimal mehr Tags bei sehr viel höheren Frequenzen erfasst werden, als dies mit Anlagen mit traditionellen Methoden der Prozessdatenerfassung in Minuten-Intervallen möglich war. Cloud-Technologien unterstützen eine erheblich bessere Skalierbarkeit als aktuelle Historian-Architekturen, welche von einzelnen Servern abhängen. Dies gilt sowohl im Hinblick auf den Datendurchsatz als auch in Bezug auf die Speicherkapazität. Cloud-Technologien verwenden darüber hinaus Clustering und Lastverteilung sowie neue Speichermöglichkeiten, um praktisch unbegrenzte Skalierbarkeit sicherzustellen. Mit den Möglichkeiten zur Skalierung werden auch Strategien mit verteilten Standorten unterstützt. Heutzutage haben einzelne Standorte innerhalb eines Unternehmens zumeist ihr eigenes Historian-System, was eine standortübergreifende Analyse und Fehlerbehebung (z. B. durch Unternehmenskompetenzzentren) schwierig macht. Mit der Cloud ist es möglich, Daten von allen Standorten in einer gemeinsamen Umgebung zu integrieren und auf Unternehmensebene allen Beteiligten in gleichem Umfang zugänglich zu machen. Außerdem zeichnet sich die Cloud-Technologie durch Unterstützung von Big-Data-Analytik aus. Technologien wie Hadoop, R, Python usw. unterstützen komplexe Prozessdatenanalysen in Kombination mit anderen Datentypen, um zu Erkenntnissen zu gelangen, die mit bestehenden Archivierungstools nicht gewonnen werden können. Die Industrie nutzt unterschiedliche Konzepte, um Prozessdaten in Cloudbasierte Lösungen zu übertragen. Der vorherrschende Ansatz dabei ist, entweder den Prozessdatenhistorian zu virtualisieren oder die Prozessdaten in einem sogenannten Data Lake zu integrieren.
Virtualisierung in der Cloud
Der logische Schritt zur Verringerung von standortbezogener Hardwareinfrastruktur ist, Server in der Cloud zu virtualisieren. Die meisten Prozessdaten-Historian unterstützen - wie die Cloud selbst auch - Virtualisierung durch VMWare, Microsoft Hyper-V usw. zur vereinfachten und flexibleren Serververwaltung. Hersteller haben bereits mit der Virtualisierung von Serverkomponenten in der Cloud begonnen, wozu auch ihre Prozessdaten-Historian-Systeme gehören. Dieser Ansatz wird auch von Anbietern von Historian-Systemen als erster Schritt hin zu Cloud-Applikationen angeboten. An die Stelle von Kunden, die ihre Server selbst virtualisieren, treten vorkonfigurierte Cloud-Technologien, die von Herstellern angeboten werden. Dieser Ansatz bietet eine bessere Skalierbarkeit, da virtuelle Images im Vergleich zu physischen Computern eine einfachere Skalierung und eine bessere Nutzung der gemeinsamen Serverfarmressourcen erlauben. Die Skalierbarkeit ist jedoch weiterhin aufgrund der traditionellen Architektur des Historian limitiert. Durch diese Einschränkung kann trotz Cloud-Virtualisierung keine neue Cloud-Technologie genutzt werden und eine Skalierung in vollem Umfang und ohne Unterbrechung des Betriebes, wie mit aktuellen Cloud-Technologien heutzutage machbar, ist ebenfalls nicht möglich. Letztendlich bietet dieser Ansatz lediglich einen Historian in der Cloud anstatt in der Serverfarm des Kunden. Damit sind keine neuen Technologien oder neuen Funktionsmerkmale verbunden. Einer der wesentlichen Gründe für diesen Ansatz liegt in der Reduzierung der Hardware-Infrastruktur und der Betriebskosten.
Der Data-Lake-Ansatz
Viele Anwender und Hersteller beschäftigen sich mit Big-Data-Technologien, um eine höhere Wertschöpfung aus Prozessdaten zu erzielen. Ob es sich dabei um Hadoop, Data-Lake-Technologien, spaltenorientierte Datenbanken oder um andere Konzepte handelt: das Ziel besteht grundsätzlich darin, große Mengen von Prozessdaten zur Unterstützung von Analysen in diese Systeme zu übertragen. Meist findet noch ein Bewertungsprozess seitens der Anwender und Hersteller statt, was die Fähigkeit von Daten und Tools als Unterstützung bei Vorhersageanalysen oder anderer wertschöpfender Ergebnisse betrifft. Teilweise werden Datenbanken befüllt, ohne dass die weitere Vorgehensweise bekannt ist. Ein Beispiel ist, dass Rohdaten allein nicht ausreichen. Trotz der Beteuerungen mancher Hersteller ist es unrealistisch "die Tools auf die Daten loszulassen", um aussagekräftige Ergebnisse zu erhalten. Prozessdaten sind kaum strukturiert, was ein Zusammenführen und einen Vergleich von Daten schwierig macht. Ein hilfreicher Schritt wäre die Einordnung der Daten nach einem Asset-Modell, um die Prozesswerte in Kontext zu setzen und einen einfachen Vergleich mit ähnlichen Assets, wie z.B. Kompressoren und Wärmetauschern, zu erlauben. Vielfach ist es erforderlich, diese Daten anderen Quellen wie z.B. Wartungsaufzeichnungen zuzuordnen und so Ausfälle zu identifizieren, oder die Daten mit anderen Zeiträumen, die von Interesse sind, in Beziehung zu setzen. Der Vorgang des Übertragens, Organisierens und Verarbeitens der Rohdaten - häufig als Data Wrangling bezeichnet - kann bis zu 80 Prozent des Aufwands eines Analyseprojekts ausmachen, welcher in der Regel vor einer aussagekräftigen Analyse stattfindet. Eine Lösung, die diese Wrangling-Problematik auf systematische Weise behandelt, ermöglicht eine schnellere Wertschöpfung für die vorliegende Analyseart. Ein weiteres Merkmal von typischen Big-Data-Tools ist, dass Zeitreihen nicht von anderen Datentypen unterschieden werden. Dies ist nicht von ausschlaggebender Bedeutung für Offline-Analysen, allerdings kann es mit diesen Tools - insbesondere bei Aggregationsanforderungen und Leistung - zu Problemen mit interaktiven Zeitreihen-Abfragen kommen, die typisch in der Prozessindustrie sind. Eine passende Lösung würde spezialisierte Zeitreihen zur Unterstützung von betrieblichen Erfordernissen enthalten (schnelle Abfragen, Tools zur Fehlerdiagnose oder Mustererkennung von Zeitreihen) und gleichzeitig Teil des Big-Data-Analyse-Frameworks sein.
Der Prozessdaten-Historian der nächsten Generation
Mit der Weiterentwicklung des IIoT werden die Grenzen zwischen Prozess- und Unternehmens-Historian schließlich verwischen, wenn nicht sogar vollständig verschwinden. Die Migration in die Cloud ist dabei einer der wichtigsten Gründe für diesen Wandel. Die folgenden vier Hauptaspekte muss der Cloud-Historian unterstützen:
- • Traditionelle Zeitreihen-, Alarm- und Ereignisdaten usw.; Nutzung von traditionellen Tools zur Visualisierung und Analyse von Daten. Die Mehrzahl der Analysen sowie die Ursachenerkennung bei Problemen kann durch eine Visualisierung von Zeitreihen und mit entsprechenden Anomalien der Prozessvariablen nach wie vor effizienter durchgeführt werden.
- • Data Lake für große Datentyp-Analysen: Der Schlüsselfaktor für mittelständische bis große Unternehmen, wenn es um Cloud-Technologien geht. Alle Anlagen- und Standortdaten sollten in diese Umgebung übertragen werden, damit neue fortschrittliche Tools zum Erkennen schwer zu findender Zusammenhänge genutzt werden können.
- • Weiter gefasste Datentypen: Alle relevanten Daten sind im Data Lake gespeichert. Auf diesen lassen sich Tools anwenden, ohne dass weitere Zugriffe notwendig werden - ein Plus in Bezug auf Einfachheit und auch Leistung. Abgesehen von Zeitreihendaten sollte der Data Lake folgendes umfassen: Alarme und Ereignisse, Produktionsdaten, Transaktionsdaten, Anwendungsdaten, Geografische Standortdaten, komplexe Daten, Internetdaten wie Wetter, Preisgestaltung in Echtzeit usw.
- • Enterprise-Asset-Kontextdaten: Im Umgang mit umfangreichen Datensätzen ist es sehr schwierig, wenn nicht unmöglich, genaue Analysen ohne Asset-Kontext durchzuführen. Tagnamen sind überwiegend nur Prozesstechnikern und -bedienern bekannt. Nachdem die Daten in die Cloud übertragen und im Unternehmen zur Verfügung gestellt worden sind, benötigen die Anwender zum Verständnis und zum Nachvollziehen entsprechender Zusammenhänge (entweder zwischen Anlagen- und Standortdaten oder zwischen ähnlichen Assets im Unternehmen) einen Datenkontext, der relevant und brauchbar ist.
Der Cloudbasierte Prozessdaten-Historian der nächsten Generation muss mehr sein als ein traditionelles Archivsystem, das in der Cloud virtualisiert bzw. für die Cloud entwickelt wurde. Es muss mehr sein als ein Data Lake unstrukturierter Daten. Der Cloud-Historian der Zukunft muss beides vereinen und noch mehr. Der Cloud-Historian der Zukunft muss die Datenplattform für alle Applikationen in der Cloud und für alle Applikationen vor Ort mit Cloud-Anbindung sein.
Im Zeitalter der vernetzten Technologien rückt das Thema Cloud in den Mittelpunkt vieler Gespräche. Was zunächst nicht ebenso spannend klingt, aber dennoch ein wichtiges Element im IIoT-Puzzle ist, ist der Prozessdaten-Historian. In der Diskussion um das IIoT kann man es sich nicht erlauben, ihn nicht mit einzubeziehen, da er eine wichtige Rolle auf dem Weg zum Erfolg spielt.
Um zu verstehen, welche Auswirkungen die Cloud auf Historian-Systeme hat, ist es wichtig, die Hauptgründe hinter der Cloud-Einführung zu verstehen. Mit der Verbreitung von intelligenten Geräten wird mehr Speicherkapazität benötigt, und die Cloud als Lösung liegt daher nahe. Cloud-Technologien sind besser skalierbar und in der Lage, große und komplexe Datensätze durch Big Data (einem Schlüsselelement des IIoT) besser zu nutzen. Tatsächlich geht aus einer jüngsten Befragung unter 200 Führungskräften der verarbeitenden Industrie hervor, dass zwei von drei Unternehmen bereits in Datenanalytik investieren und die Mehrzahl der Unternehmen plant, diese Investitionen zu erhöhen. Und obwohl viele Unternehmen gezwungen sind, Budgets zu kürzen, nehmen Investitionen in die Cloud zu. Der Grund hierfür ist deutlich erkennbar: Flexibilität und Skalierbarkeit sind wesentlich höher, Betriebskosten sind aufgrund von Skaleneffekten mit der Cloud geringer. Bestehende Systeme können zur Abdeckung von Kundenanforderungen kurzfristig erweitert werden, im Gegensatz zur einer kompletten Neuinstallation von Systemen.
Honeywell Building Solutions GmbH
Dieser Artikel erschien in Industrial Communication Journal 4 2017 - 08.12.17.Für weitere Artikel besuchen Sie www.sps-magazin.de