Systemarchitektur der Social-Media-Giganten Cloudbasierter Ansatz ist ungeeignet
Social-Media-Plattformen bieten ein Publikum mit täglich 2,9 Milliarden aktiven Nutzern, die Fotos und Videos mit ihren Freunden teilen, liken und kommentieren. Täglich kommen mehr als eine Million Nutzer hinzu, die primär mit ihrem mobilen Endgerät kommunizieren. Alleine Facebook verzeichnet in seinem globalen Rechenzentrum Hive einen eingehenden Datenstrom von ca. 600.000 GB pro Tag, was ca. 600 handelsüblichen 1TB-Festplatten entspricht. In der Größenordnung von 10 bis 100TB liegt der tägliche Bedarf der Netzwerke Instagram, Line, Snapchat, Tencent, VKontakte, WeChat und WhatsApp.
Technisch gesehen besteht die Herausforderung jedoch nicht in der Handhabung des eingehenden Datenstroms, sondern in seiner Verteilung und Synchronisation mit Followern auf der ganzen Welt. Damit die Inhalte weltweit sofort verfügbar sind, haben Unternehmen wie Google, Microsoft, Facebook und Amazon in eine eigene Glasfaser-Infrastruktur (Projekt Marea) investiert und betreiben lokale Rechenzentren in bis zu 18 geografisch verteilten Regionen, um ihre Daten zu replizieren. Die Synchronisation der lokalen Rechenzentren verbraucht dabei einer Studie der Firma Infinera zufolge mehr als 50 Prozent der weltweit verfügbaren Internetbandbreite.
Verzögerungen reduzieren
In einer Welt des Internets der Dinge liegt die Herausforderung weniger in der Verteilung und Synchronisierung der Daten sondern vielmehr in der verzögerungs- und unterbrechungsfreien Kommunikation. Der zentrale, cloudbasierte Systemarchitekturansatz der Social- Media-Konzerne ist dafür jedoch ungeeignet. Selbst wenn man in der Lage wäre, die globale Infrastruktur flächendeckend durch Glasfaserkabel (200.000km/s) zu ersetzen, würde es immer noch 91ms dauern, bis ein Datenpaket von Berlin in das 9.105km entfernte San Francisco hin- und zurückgesendet wird. Für IoT Anwendungen im Bereich Home Automation oder Wearables stellt diese Verzögerung kein Problem dar. Im Kontext von industriellen Anwendungen sind 91ms eine beachtliche Zeitspanne. Ein selbstfahrendes Auto würde bei einer Geschwindigkeit von 50km/h eine Distanz von 1,25m zurücklegen - eine nicht unerhebliche Wegstrecke, die manchmal über Leben und Tod entscheiden kann. Die selbstfahrenden Autos der Zukunft sind daher mit eigener Rechenkapazität und Speicher ausgestattet, um die großen Datenmengen der optischen Sensorsystem lokal verarbeiten zu können. Das Warten auf die Antwort aus der Cloud ist also keine Option für das Industrial Internet of Things. Im Vergleich zur IoT-Welt bedeutet IIoT eine um eine Zehnerpotenz größere Datenmenge und die Notwendigkeit eine um zwei Zehnerpotenzen höhere Datenverarbeitungsgeschwindigkeit zu erzielen.
Große Datenmengen
Neben dem selbstfahrenden Auto finden sich typische IIoT-Anwendungen z.B. bei Predictive- Maintenance-Lösungen, die eine vorbeugende Instandhaltung von Maschinenkomponenten ermöglichen sollen. Oftmals stellt die dabei generierte Datenmenge die IT-Infrastruktur der produzierenden Unternehmen vor eine Herausforderung. Haupttreiber der Datenmenge ist die hohe Abtastrate (z.B. 1.000Hz) und die Notwendigkeit Messergebnisse möglichst exakt speichern (z.B. als 16-stellige Gleitkommazahl (8 Byte) zu können. Stattet man z.B. eine Werkzeugmaschine mit 60 Sensoren zur Zustandsüberwachung von Temperatur, Vibration und Zustand des Schmierstoffs aus, werden bei einer Abtastrate von 0,1ms in einem Zweischichtbetrieb (16h) pro Maschine bis zu 27GB an Rohdaten generiert. "Wenn die IT-Infrastruktur Ihres Unternehmens einen theoretischen Datenupload von 100MBit ermöglicht und 60 Prozent der Bandbreite für Sicherheits- und Overhead-Kommunikation reserviert ist, können Sie max. zehn Werkzeugmaschinen mit Predictive-Maintenance-Funktion anbinden, bis Ihre Netzwerkkapazität erschöpft ist", sagte Dr. Markus Obdenbusch, Oberingenieur, WZL RWTH Aachen.
Hybride Systemarchitektur
Eine neue hybride IT-Systemarchitektur, die die Vorteile der Cloud mit physischer Hardware vor Ort, wo die Daten entstehen (On-premise Edge Device) kombiniert, bietet dabei eine Lösung. Die Aufgabe der Cloud wird sich in Zukunft verändern. Sie wird weniger zentraler Entscheidungsträger sein, sondern als Backup und zur Optimierung von Machine-Learning-Algorithmen genutzt werden. Kostengünstige Hardware an den Ecken des Netzwerkes werden für die lokale Entscheidungsfindung verantwortlich sein und eine Datenvorverarbeitung übernehmen. Dadurch muss nur noch ein Bruchteil der Daten in die Cloud gesendet werden. Probleme der Latenz und mangelnde Bandbreite werden der Vergangenheit angehören. Diese Beispiele verdeutlichen wie wichtig es ist, als Chief Information Officer (CIO) über die Enterprise IT-Architektur der Zukunft nachzudenken, um der stetig wachsenden Datenmenge gerecht zu werden und damit die Grundlagen für die digitalen Mehrwertdienste der Zukunft zu legen.
Social-Media-Plattformen bieten ein Publikum mit täglich 2,9 Milliarden aktiven Nutzern, die Fotos und Videos mit ihren Freunden teilen, liken und kommentieren. Täglich kommen mehr als eine Million Nutzer hinzu, die primär mit ihrem mobilen Endgerät kommunizieren. Alleine Facebook verzeichnet in seinem globalen Rechenzentrum Hive einen eingehenden Datenstrom von ca. 600.000 GB pro Tag, was ca. 600 handelsüblichen 1TB-Festplatten entspricht. In der Größenordnung von 10 bis 100TB liegt der tägliche Bedarf der Netzwerke Instagram, Line, Snapchat, Tencent, VKontakte, WeChat und WhatsApp.
Technisch gesehen besteht die Herausforderung jedoch nicht in der Handhabung des eingehenden Datenstroms, sondern in seiner Verteilung und Synchronisation mit Followern auf der ganzen Welt. Damit die Inhalte weltweit sofort verfügbar sind, haben Unternehmen wie Google, Microsoft, Facebook und Amazon in eine eigene Glasfaser-Infrastruktur (Projekt Marea) investiert und betreiben lokale Rechenzentren in bis zu 18 geografisch verteilten Regionen, um ihre Daten zu replizieren. Die Synchronisation der lokalen Rechenzentren verbraucht dabei einer Studie der Firma Infinera zufolge mehr als 50 Prozent der weltweit verfügbaren Internetbandbreite.
Verzögerungen reduzieren
In einer Welt des Internets der Dinge liegt die Herausforderung weniger in der Verteilung und Synchronisierung der Daten sondern vielmehr in der verzögerungs- und unterbrechungsfreien Kommunikation. Der zentrale, cloudbasierte Systemarchitekturansatz der Social- Media-Konzerne ist dafür jedoch ungeeignet. Selbst wenn man in der Lage wäre, die globale Infrastruktur flächendeckend durch Glasfaserkabel (200.000km/s) zu ersetzen, würde es immer noch 91ms dauern, bis ein Datenpaket von Berlin in das 9.105km entfernte San Francisco hin- und zurückgesendet wird. Für IoT Anwendungen im Bereich Home Automation oder Wearables stellt diese Verzögerung kein Problem dar. Im Kontext von industriellen Anwendungen sind 91ms eine beachtliche Zeitspanne. Ein selbstfahrendes Auto würde bei einer Geschwindigkeit von 50km/h eine Distanz von 1,25m zurücklegen - eine nicht unerhebliche Wegstrecke, die manchmal über Leben und Tod entscheiden kann. Die selbstfahrenden Autos der Zukunft sind daher mit eigener Rechenkapazität und Speicher ausgestattet, um die großen Datenmengen der optischen Sensorsystem lokal verarbeiten zu können. Das Warten auf die Antwort aus der Cloud ist also keine Option für das Industrial Internet of Things. Im Vergleich zur IoT-Welt bedeutet IIoT eine um eine Zehnerpotenz größere Datenmenge und die Notwendigkeit eine um zwei Zehnerpotenzen höhere Datenverarbeitungsgeschwindigkeit zu erzielen.
BCG Digital Ventures
Dieser Artikel erschien in Industrie 4.0 Magazin (I40) 04 2018 - 22.02.18.Für weitere Artikel besuchen Sie www.i40-magazin.de