Kommunikation bei Industrie 4.0
Folgen für die Automatisierungstechnik aus Sicht der industriellen Datenkommunikation
Der gezielte Einsatz von aktuell verfügbaren Ressourcen und Technologien zur Sicherung des Produktionsstandortes Deutschland könnte auch 'CIM 2.0' heißen. Maßgeblich daran beteiligt ist eine heutzutage wesentlich leistungsfähigere Automatisierungstechnik. Diese überwindet schon jetzt, im Verbund mit modernen Informations- und Kommunikationssystemen (IKT), schnellen Datennetzen und schier endlosen Speicherkapazitäten, die althergebrachten System- und Organisationsgrenzen. Damit ist der Wandel von der Automatisierungs-Pyramide zur Automatisierungs-Cloud mit Cyber-Physical-System-basierten Automatisierungssystemen eingeläutet. Wer sich diese Vorgehensweise bereits zunutze macht, hat jetzt einen patenten Begriff dafür: Industrie 4.0.
Real hat diese Entwicklung spätestens mit der Verfügbarkeit des Internets als Abkehr von der Punkt-zu-Punkt-Verbindung begonnen. Beschäftigen wird uns dieser Trend vermutlich noch ein oder zwei Jahrzehnte; in jedem Fall solange, bis Bestandsgeräte im Feld ersetzt sind und flächendeckend eine homogene, daten- und ausfallsichere Infrastruktur verfügbar ist. Welche Anforderungen ergeben sich nun auf diesem Weg in die cyberphysische Zukunft aus Sicht der industriellen Datenkommunikation und welchen Beitrag kann sie leisten?
Omnipräsenz der Automatisierungstechnik
Industrie 4.0 ist deutlich mehr als die Smart Factory, wo Vertrieb, Produktion und Logistik weltweit als Cyber-Physical Systems (CPS) vernetzt werden, um sowohl Massenartikel als auch individuelle Einzelstücke rentabel zu produzieren. Automatisierungstechnik, zu Recht auch als 'Hidden Technology' bezeichnet, ist allgegenwärtig in Gebäuden (Aufzug, Klima), in Infrastrukturen (Smart Grid, Verkehr) und in der Umwelttechnik (Grundwassersanierung), um nur einige zu nennen. Allen gleich ist der Qualitätsanspruch 'Industrietauglichkeit' an die Datenkommunikation.
Distanzen qualitätsgesichert überwinden
Es ist die originäre Aufgabe der Datenkommunikation, Distanzen zu überwinden - egal wie weit die Kommunikationspartner voneinander entfernt sind: Effizienz- und produktivitätssteigernd ist sowohl die Überwindung von wenigen Zentimetern per Near Field Communication (NFC) als auch die Datenübertragung rund um den Globus durch verschiedene Netze; nicht zu vergessen: Teleservices zur Unterstützung bei Inbetriebnahmen, zum Remote Debugging und zum Fernwirken. Die Qualitätsanforderungen an Kommunikationsnetze (wired und wireless) sind:
- • hochverfügbare, homogene Netze
- • garantierte Bandbreiten für die sehr unterschiedlichen Anwendungen (Bild 1)
- • verbindliche Dienstgüte (Quality of Service, QoS) [1]
- • standardisierte Dienste (z.B. mobilfunkproviderübergreifende SMS-Bestätigung).
Sicherheit über größte Entfernungen
Arbeitsprozesse und Infrastrukturen werden zusammen wachsen. Das bedeutet auch, 'dass immer mehr gesellschaftlicher Wert hinter diesen Anlagen steht'. [2] Während aber die Anlagensicherheit (Safety) schon lange einen sehr hohen Stellenwert hat, erwächst die Bedeutung der Daten- und Angriffssicherheit (Security) offensichtlich erst mit zunehmender Bedrohung, der Öffnung der Produktionsnetze in Richtung Bürowelt und Internet. Zu Modemzeiten war die Sicherheit systemimmanent: Die kleinste geschlossene Benutzergruppe waren zwei Kommunikationspartner. In Datennetzen (LAN und WAN) ist jeder für seine Sicherheit selbst verantwortlich! Die Anforderungen an die Datensicherheit (Security), die funktionale Sicherheit (Safety) und den Schutz persönlicher Daten werden umso komplexer, je mehr Teilnehmer Daten austauschen oder speichern. Die paradiesische Fülle von IPv6-Adressen ergibt eine unvorstellbar große Menge an potentiellen Kommunikationspartnern, welche das Sicherheits- und Risikomanagement als ganzheitlichen und kontinuierlichen Prozess (Governance, Risk & Compliance, GRC) herausfordern wird. 'State of the art' sind sichere Verbindungen mit dem 'richtigen' Kommunikationspartner über virtuelle private Netzwerke (VPN) und zertifikatsbasierte Authentifizierung. Wem das zu aufwändig und zu mühevoll erscheint, sei an skalierbare VPN-Dienste erinnert, die auf inländischen Servern laufen. Das Anlegen der Teilnehmer und Benutzergruppen, die Konfiguration der Geräte (bis hin zur IP-Adresse) und der Steuerung des Verbindungsaufbaus, erfolgen bequem über sichere Portale. Neben den genannten Vorteilen ergeben sich praktische Nutzen, denn der Dienst erzeugt und speichert die Zertifikate in einer sicheren Umgebung und kann sie Geräten, die sich neu anmelden, zum Schnellstart über eine sichere Verbindung hinunter laden. Die VPN-Clients nutzen ausnahmslos ausgehende Verbindungen und sind damit 'Admin- und Firewall friendly'. Sowohl das Bundesamt für Sicherheit in der Informationstechnik (BSI) und der Bundesverband der Energie- und Wasserwirtschaft e.V. (BDEW) [3] als auch die ISO-Reihe 27000 halten ausreichend Regelwerke für die Sicherheit der Industrial Control Systems (ICS) bereit. Die Herausforderungen in diesem Bereich liegen eher in der konsequenten Umsetzung (Sensibilität, Zeit, Kosten, Usability) als in der Verfügbarkeit probater Maßnahmen.
Open Source
Die zum Gelingen notwendige Standardisierung wird weder vor proprietären Lösungen haltmachen, noch geheime Softwarecodes dulden. Der Grund liegt auf der Hand: Nur OpenSource-Lösungen - wie z.B. OpenVPN für viurtuelle private Netzwerke - sind faktisch durch Unabhängige (Kunden, Spezialisten) überprüf- und kontrollierbar. Das, was 2013 als 'PRISM-Skandal' gehandelt wurde, ist nicht neu: Microsoft fiel schon 1999 mit versteckten Schlüsseln im Betriebssystem auf. [4] Gefordert sind transparente Codes, deren Sicherheit verifizierbar ist.
Bring your own device: Fernwartung von Maschinen im Steuerungsnetz
Hersteller und Dienstleister benötigen externe Zugänge ins Steuerungsnetz zur Inbetriebnahmeunterstützung, zur Fehlersuche bei Störungen und zur Wartung. Das bringt die IT-Administratoren schon heute an die Grenzen des Verantwortbaren und wirft - genauso wie private Notebooks von Mitarbeitern - die Frage des 'Bring your own device' (BYOD) auf. Sind diese Zugänge nicht oder unzureichend beschränkt (Firewall, DMZ), können über einen Wartungszugang für ein bestimmtes System weitere Systeme oder Netze kompromittiert werden (Verwundbarkeit). Schlimmer noch: Wenn nicht-autorisierte Zugriffe auf diese Systeme möglich sind, können Leib und Leben der Bediener bedroht sein (Safety-Problem). Abhilfe kann eine hinreichend granulare Segmentierung der Netze zur Minimierung der 'Reichweite' von Fernzugängen schaffen. Der Problematik von unkontrollierten Backdoors in Teleservicezugängen wird man nur mit rigoroser Null-Toleranz begegnen können.
Dezentrale Zentralen
Automatisierungssysteme sollen sich dynamisch anpassen und autonom entscheiden. Dies erfordert mehr dezentrale Intelligenz, was durchaus zur Folge haben kann, dass weniger leistungsfähige Zentralen und weniger Datenkommunikation notwendig sind sowie Meldungen gezielter versandt werden. Die Herausforderung liegt in der klugen Verteilung von zentraler und dezentraler Steuerungstechnik, intelligenter Router und der barrierefreien Datenkommunikation zwischen meist (noch) inhomogenen Systemen. Die Fähigkeit zur nahtlosen Zusammenarbeit (Interoperabilität) fordert maschinenverwertbare Daten.
Mehrwert-Router als Datenlogger, Datenanalysten und Störmelder
Eine hervorragende Lösung für im Feld verteilte Intelligenz stellen programmierbare Router dar, denn vor allem zur Fernwartung und zum Fernwirken eingesetzte M2M-Router 'langweilen' sich in der Regel. Ihre Leistungsfähigkeit ist darauf ausgelegt, dass die Geräte schnelle WAN-Anbindungen wie DSL, HSPA oder LAN-Verbindungen nutzen und darüber verschlüsselte VPN-Tunnel 'fahren' können. Die dafür benötigte hohe Leistungsfähigkeit wird aber nicht ständig abgerufen. Die Geräte könnten zusätzliche Aufgaben übernehmen, für die ansonsten zusätzliche Hardware angeschafft und installiert werden müsste. Die Lösung sind Apps (Skripte, Programme), die eine im Router integrierte Sandbox nutzen und Funktionen bereitstellen, die bisher externe Hardware (Datenlogger, kleine Industrie-PCs etc.) oder zusätzliche Software (Datenanalyse, Protokollwandlung, FTP etc.) erforderte.
Echtzeit ist nicht gleich Echtzeit
Internetanschlüsse und Mobilfunknetze stellen die Verbindung bis ans sprichwörtliche 'Ende der Welt' her. Sie sind die Basis für innovative Lösungen wie das Energieeffizienzmanagement von Liegenschaften oder das weltumspannende Condition Monitoring von Maschinen. Beachtlich sind neue Geschäftsmodelle für Servicedienstleistungen wie die weltweite Überwachung und Steuerung von unbemannten Kleinrechenzentren. [5] Im Gegensatz zu Echtzeitanforderungen in der laufenden Produktion von <1ms, ist 'Echtzeit' bei diesen Beispielen im Bereich von <1s. Jede Anwendung fordert die Einhaltung der ihr eigenen 'Echtzeit'-Bedingungen und benötigt geeignete Tarifmodelle.
Informationsinseln
Historisch gewachsene (Tele-)Kommunikationsstandards, ein breites Spektrum an Steckverbindungen sowie eine illustre Schar von Protokollen und (Feld-)Bus-Systemen verwehren den wachsenden Datenmengen die freie Fahrt. Das schnelle Ende dieser Hemmnisse ist nicht absehbar, denn es gibt entweder gute Gründe oder sehr lange Investitionszyklen - in der kommunalen Wasserversorgung oder Signalanlagentechnik sind das durchaus schon einmal 20 oder 30 Jahre. Das heißt: "Die vierte Revolution muss wohl noch warten", wie die dpa in einem Bericht nach der Hannover Messe 2013 titelte. In dieser Übergangszeit werden, wie bisher auch, Protokollkonverter, Pegelwandler und Feldbuskonverter zum Einsatz kommen. Für zeitkritische Steuerungsaufgaben ergeben sich daraus nicht zu lösende Timingprobleme: Die für Konvertierung benötigte oder in langsameren Teilnetzen verlorene Zeit kann an keiner anderen Stelle im System wieder aufgeholt werden!
Impulsgeber 'Energie- und Ressourceneffizienz'
Innovationstreiber für die nächsten drei Jahre wird wohl nicht die digitale Fabrik sein, sondern die Einsparung von Energie-, Material- und Personalkosten, wie die GMA-Mitgliederumfrage 2012 aufzeigte. [6] Auf die Frage "Welche technischen bzw. sozio-ökonomischen Entwicklungen und Erfordernisse werden der Mess- und Automatisierungstechnik in den nächsten drei Jahren die größten Impulse geben?" standen an erster Stelle (von 20) die 'Energie- und Ressourceneffizienz' (44,8%) und an zweiter Stelle die 'Zunehmende Vernetzung/Cyber Physical Systems' (38,3%). Erst Platz 14 ging an die 'Digitale Fabrik' (14,8%) und auf Platz 17 landeten die 'Manufacturing Execution Systems (MES)' (8,4%). Soll heißen, die Mess- und Automatisierungstechnik wird sich weniger mit der Perfektionierung des Perfekten befassen, sondern die reichlichen Potentiale des Energieeffizienzmanagements schöpfen.
Mensch und Maschine
Die steigende Komplexität bringt komfortable Lösungen wie die Früherkennung von Störungen, erfordert aber weitere Qualifizierungsmaßnahmen für derzeitige Mitarbeiter sowie leistungsfähige Studien- und Ausbildungseinrichtungen für den Nachwuchs. Die Mitarbeiter werden ihrerseits benutzbare Benutzerschnittstellen einfordern und damit die Entwickler von Human Machine Interfaces (HMI) herausfordern. Bleibt die Frage: Wer wird der Steve Jobs der HMI? n
Verweise
[1] QoS wie Mindestbandbreite, Fehlerrate, Verfügbarkeit, Delay (Latenz, Round trip time)
[2] Prof. Gordon Rohrmeier, Hochschule Augsburg BR kontrovers, ab Min. 8:00; http://www.youtube.com/watch?feature=player_embedded&v=tGtEGB-FC58
[3] BSI: Industrial Control System Security, Top 10 Bedrohungen; BDEW: Whitepaper- Anforderungen an sichere Steuerungs- und Telekommunikationssysteme; http://www.insys-icom.de/Regelwerke
[4] heise: Peinlicher Fehler deckt die Unterwanderung von Windows durch die NSA auf, Duncan Campbell, 09.09.1999, http://www.heise.de/tp/artikel/5/5274/1.html
[5] Condition Monitoring und Steuerung von Rechenzentren durch schnelle VPN-Verbindungen über ADSL und HSPA; vgl. http://www.insys-icom.de/AN153
[6] VDI/VDE-Gesellschaft Mess- und Automatisierungstechnik (GMA), Automation 2020, 2. Auflage, Bedeutung und Entwicklung der Automation bis zum Jahr 2020, Ausgabe Januar 2013, S. 15, Bild 8
Der gezielte Einsatz von aktuell verfügbaren Ressourcen und Technologien zur Sicherung des Produktionsstandortes Deutschland könnte auch 'CIM 2.0' heißen. Maßgeblich daran beteiligt ist eine heutzutage wesentlich leistungsfähigere Automatisierungstechnik. Diese überwindet schon jetzt, im Verbund mit modernen Informations- und Kommunikationssystemen (IKT), schnellen Datennetzen und schier endlosen Speicherkapazitäten, die althergebrachten System- und Organisationsgrenzen. Damit ist der Wandel von der Automatisierungs-Pyramide zur Automatisierungs-Cloud mit Cyber-Physical-System-basierten Automatisierungssystemen eingeläutet. Wer sich diese Vorgehensweise bereits zunutze macht, hat jetzt einen patenten Begriff dafür: Industrie 4.0.
Real hat diese Entwicklung spätestens mit der Verfügbarkeit des Internets als Abkehr von der Punkt-zu-Punkt-Verbindung begonnen. Beschäftigen wird uns dieser Trend vermutlich noch ein oder zwei Jahrzehnte; in jedem Fall solange, bis Bestandsgeräte im Feld ersetzt sind und flächendeckend eine homogene, daten- und ausfallsichere Infrastruktur verfügbar ist. Welche Anforderungen ergeben sich nun auf diesem Weg in die cyberphysische Zukunft aus Sicht der industriellen Datenkommunikation und welchen Beitrag kann sie leisten?
Omnipräsenz der Automatisierungstechnik
Industrie 4.0 ist deutlich mehr als die Smart Factory, wo Vertrieb, Produktion und Logistik weltweit als Cyber-Physical Systems (CPS) vernetzt werden, um sowohl Massenartikel als auch individuelle Einzelstücke rentabel zu produzieren. Automatisierungstechnik, zu Recht auch als 'Hidden Technology' bezeichnet, ist allgegenwärtig in Gebäuden (Aufzug, Klima), in Infrastrukturen (Smart Grid, Verkehr) und in der Umwelttechnik (Grundwassersanierung), um nur einige zu nennen. Allen gleich ist der Qualitätsanspruch 'Industrietauglichkeit' an die Datenkommunikation.
INSYS Microelectronics GmbH
Dieser Artikel erschien in SPS-MAGAZIN 4 2014 - 19.03.14.Für weitere Artikel besuchen Sie www.sps-magazin.de