Leistung und Latenzen einer Distributed Cloud
Eine Cloud mit vielen Clouds
Die Cloud hat sich zu einer beinahe alltäglichen Technologie entwickelt. Jedoch stoßen klassische Ansätze zuweilen an ihre Grenzen, wenn größerere Datenmengen in Echtzeit verarbeitet und ausgewertet werden sollen. Der Griff zu einer sogenannten Distributed Cloud könnte dieses Problem lösen.
Mit neuen Technologiekonzepten müssen sich auch die verwendeten Infrastrukturen und Netzwerke weiterentwickeln, um auf dem neuesten Stand zu bleiben. Bestehende Systeme stoßen hinsichtlich Latenzgarantien und dedizierten Bandbreiten bereits an ihre Grenzen. Durch Zukunftskonzepte wie Smart Cities oder autonome Fabriken nehmen erforderliche Rechenleistung und entstehende Datenmengen noch zu. Ein Beispiel ist das selbstfahrende Auto, für das auf verschiedene Services zugegriffen wird. Diese verarbeiten die von verschiedenen Fahrzeugsensoren erfassten Daten und melden die Ergebnisse an die Fahrzeuge zurück, um in den jeweiligen Fahrsituationen richtig zu reagieren. Aufgrund der Latenz wäre die Kommunikation mit einem Cloudserver auf Basis der klassischen Cloudtechnologien ineffizient.
Dezentralisierte Services
Zum Einsatz kommen in diesem Bereich stattdessen sogenannte Distributed Clouds. Diese stellt ihre Ressourcen nicht mehr nur zentral zur Verfügung, sondern bieten dezentralisierte Services mit geringerer Distanz zwischen Service-Quelle und Service-Nutzer. Sie berechnet, speichert und vernetzt Teilnehmer im Rahmen einer Mikrocloud außerhalb der zentralisierten Cloud, etwa beim Multi-Access Edge Computing (MEC) und Fog oder Edge Computing.
Weiterentwicklung der Cloud
Distributed-Cloud-Computing stellt somit eine Weiterentwicklung des Cloud Computings dar. Die Idee dahinter: Ein flexibleres System, das aus einer zentralen Cloud, aber auch aus kleineren regionalen Clouds oder Edge Clouds in vielen Regionen besteht. Durch Letztere lassen sich die Daten, der Speicher und die Berechnung näher an den Benutzer heranbringen, sprich zum Rand des Netzwerks - und zwar wann immer dies sinnvoll ist. Jeder Knoten ist mit allen anderen Knoten, also anderen Mikroclouds, der zentralen Cloud oder Edge Clouds verbunden.
Beispiel Produktion: In der Produktion geht es oft darum, Daten möglichst schnell zu verarbeiten, um beispielsweise auf ein Problem an einer Maschine zu reagieren. Eine Distributed Cloud kann Netzwerkverbindungen mit geringer Latenz zwischen Geräten und Analyseendpunkten herstellen und Real-Time-Anwendungen ermöglichen. Schließlich ist aufgrund der Nähe des Benutzers zum Edge-Server auch die Latenz des Netzwerks sehr gering.
Mehrere Standorte verbinden
Eine Distributed Cloud ermöglicht also, dass Daten sowohl in Echtzeit erfasst als auch verarbeitet werden können und darüber hinaus keine Abhängigkeiten von zentralen Cloudkomponenten entstehen. Zudem können Daten und Anwendungen von mehreren geografischen Standorten miteinander verbunden werden. Gleiches gilt für große Infrastruktureinrichtungen wie beispielsweise Flughäfen oder Bahnhöfe.
Kosten der verteilten Cloud
Die anfänglichen Kosten für den Einsatz einer Distributet Cloud erscheinen zunächst hoch. Jedoch entfallen durch Cloud Computing die Anschaffungskosten für Hardware und Software sowie deren Wartung und Lizenzierung. Zu Buche schlägt auch die Tatsache, dass sich durch die verteilte Cloudarchitektur die Bedürfnisse der User besser als in einer zentralen Cloud abbilden lassen. Das trifft auch auf die Skalierbarkeit der Netzwerk-Performance und die Services selbst zu. Nicht zuletzt verfügen verteilte Clouds über standardisierte und buchbare Automatisierungsmechanismen zur Datensicherung wie Backups, Disaster Recovery, Loss Prevention oder Business Continuity. Und auch die Pflege des Rechenzentrums übernimmt der jeweilige Anbieter.
Herausforderungen bewältigen
Neben den Vorteilen müssen jedoch auch Herausforderungen angegangen werden. Im Falle der Distributed Cloud zählt dazu vor allem die Komplexität, da sie aus vielen, verteilten Clouds in verschiedenen Regionen besteht. Dadurch gestaltet sich die Implementierung einer solchen Infrastruktur als schwierig. Zudem entsteht ein heterogenes Umfeld, das es zu verwalten gilt. Das betrifft allerdings hauptsächlich die Cloudanbieter und nicht die Unternehmen selbst. Darüber hinaus benötigen verteilte Cloudinfrastrukturen eine ständige Internetverbindung, um den Zugriff auf die Ressourcen zu ermöglichen. Ein Ausfall der Internetverbindung bedeutet daher auch Ausfallzeiten der Cloud. Mit dem Anbieter sollte daher ein Service-Level-Agreement (SLAs) vereinbart werden. Zudem kommt es auf einen hohen Grad an Automatisierung an, da innerhalb des Netzwerks mehrere Milliarden Devices miteinander interagieren. Zusätzlicher Aufwand sollte dadurch reduziet werden. Damit es an dieser Stelle gelingt, ein automatisiertes Lebenszyklus-Management zu schaffen, spielen Gateways und Proxy-Server eine wichtige Rolle. Zwar lassen sich Aktualisierungen und neue Releases recht einfach verfolgen, Migrationslösungen wie etwa Apiida API-Gateway-Manager können jedoch dabei helfen, die Aktualisierungen von den Entwicklungsumgebungen bis zur Produktion zuverlässig ausrollen.
Ablösung in Sicht
Alles, was vernetzt werden kann, wird auch vernetzt werden. Die Voraussetzung dafür ist, dass die Datenmengen erfasst, verarbeitet und weitergeleitet werden - für viele Services und Dienste in Echtzeit. In vielen dieser Fälle dürften verteilte Cloudstrukturen die klassischen Cloudarchitekturen als Lösungsansatz ablösen, da erst sie die passende Leistung und Latenzen mitbringen.
Die Cloud hat sich zu einer beinahe alltäglichen Technologie entwickelt. Jedoch stoßen klassische Ansätze zuweilen an ihre Grenzen, wenn größerere Datenmengen in Echtzeit verarbeitet und ausgewertet werden sollen. Der Griff zu einer sogenannten Distributed Cloud könnte dieses Problem lösen.
Mit neuen Technologiekonzepten müssen sich auch die verwendeten Infrastrukturen und Netzwerke weiterentwickeln, um auf dem neuesten Stand zu bleiben. Bestehende Systeme stoßen hinsichtlich Latenzgarantien und dedizierten Bandbreiten bereits an ihre Grenzen. Durch Zukunftskonzepte wie Smart Cities oder autonome Fabriken nehmen erforderliche Rechenleistung und entstehende Datenmengen noch zu. Ein Beispiel ist das selbstfahrende Auto, für das auf verschiedene Services zugegriffen wird. Diese verarbeiten die von verschiedenen Fahrzeugsensoren erfassten Daten und melden die Ergebnisse an die Fahrzeuge zurück, um in den jeweiligen Fahrsituationen richtig zu reagieren. Aufgrund der Latenz wäre die Kommunikation mit einem Cloudserver auf Basis der klassischen Cloudtechnologien ineffizient.
APIIDA AG
Dieser Artikel erschien in IT&Production November 2019 - 08.11.19.Für weitere Artikel besuchen Sie www.it-production.com