On Premise- und Cloud-Lösungen haben aus Sicht der Nutzer unterschiedliche Vor- und Nachteile. Eine Public Cloud bietet den Vorteil nahtloser und scheinbar unbegrenzter Skalierbarkeit. Trotzdem bevorzugen viele Unternehmen aus Sicherheits- und Compliancegründen das Verwalten und Speichern kritischer Daten und Arbeitslasten vor Ort, das heißt im unternehmenseigenen Rechenzentrum oder einer Private Cloud. Aufgrund von hohen Investitionskosten und langen Amortisationszeiten für On-Premise-Hardware und -Infrastruktur sind in vielen Unternehmen hybride Ansätze entstanden, mit denen weniger kritische Daten und Workloads in die Cloud ausgelagert werden, um interne Kapazitäten für kritische Aufgaben freizusetzen. Wenn plötzlich mehr Kapazität vor Ort oder in der privaten Cloud benötigt wird, bieten solche Szenarien jedoch keine Lösung. Bei einem sprunghaften Anstieg der Nachfrage auf der Unternehmenswebsite aufgrund einer Marketingkampagne oder erhöhten Kapazitätsanforderungen durch eine interne Big-Data-Analyse, stoßen die Kapazitäten an ihre Grenzen. Die Lösung ist Cloud Bursting – die dynamische Skalierung (oder das „Bursting“) von IT-Ressourcen von On-Premise in die Cloud zur Bewältigung vorübergehender Spitzen des Datenverkehrs oder in der Datenverarbeitung.
Cloud Bursting unterscheidet sich in wichtigen Aspekten von Standard-Hybrid-Cloud-Szenarien. Erstens wird Cloud Bursting ohne eine sorgfältige Planung der Netzwerkkapazitäten nicht effektiv funktionieren und zweitens müssen Herausforderungen in Bezug auf Latenz, Interoperabilität und Cloud-Egress-Kosten bewältigt werden. Richtig implementiert lohnt sich Cloud Bursting insbesondere als On-Demand-Praxis zu Spitzenzeiten, da nur tatsächlich genutzte zusätzliche Ressourcen Kosten verursachen. Alternativ haben Unternehmen zwei Ansätze zur Wahl: Entweder in eine On-Premise-Infrastruktur zu investieren, die auch für die größten Spitzenlasten eines Unternehmens ausgelegt ist (ein sehr kostspieliges Unterfangen), oder alle Ressourcen bereits in der Cloud zu haben und die Cloud nach Bedarf zu skalieren. Nicht jedes Unternehmen ist dazu bereit.
1. Wie entsteht eine Verbindung zur Cloud mit ausreichend geringer Latenz?
Cloud Bursting kann je nach Anwendungsfall manuell oder automatisch eingerichtet werden. Bei einer automatischen Verlagerung entscheidet ein Schwellenwert darüber, ob die zusätzlichen Ressourcen in der öffentlichen Cloud genutzt werden oder nicht. Sobald sich der Datenverkehr wieder normalisiert hat, können die zusätzlichen Ressourcen in der Cloud manuell oder automatisiert deaktiviert werden. Arbeitslasten kehren in ihre normale On-Prem- oder Private-Cloud-Umgebung zurück.
Im Vorfeld einer Marketingkampagne einer E-Commerce-Plattform sollte das Bursting beispielsweise manuell im Vorfeld durchgeführt werden, da mit einer erhöhten Nachfrage zu rechnen ist. In diesem Beispielsfall ist es möglich, die Webschnittstelle von der Anwendungslogik und der Datenbank zu trennen und nur die weniger geschäftskritischen Bereiche in die Cloud zu verlagern. Die Herausforderung besteht darin, eine gute Performance der Anwendung zu gewährleisten, da die Cloud mit möglichst geringer Latenz auf die On-Prem-Daten zugreifen muss.
Wie sich Unternehmen mit den von ihnen gewählten Clouds verbinden, wird bei der Konzeption einer Cloud-Strategie leider oft vernachlässigt. Beim Cloud-Bursting ist dies aber nicht akzeptabel, da es niedrige Latenzzeiten und hohe Bandbreiten erfordert. Daten können somit nicht den Weg über das öffentliche Internet nehmen. Daher sollte man die Unternehmensinfrastruktur direkt – und mit ausreichend dimensionierter Netzkapazität – an die betreffenden Clouds anschließen. Cloud-Betreiber bieten dafür private Konnektivitätslösungen an, die aber bei der Verwendung mehrerer Clouds durch ein Unternehmen nicht effizient genug sind. Stattdessen sollten Unternehmen auf die Vorteile einer Interconnection-Plattform oder eines Cloud Exchange zurückgreifen. Das Ergebnis ist eine dedizierte Cloud-Konnektivität mit garantierter Kapazität, die auch die Sicherheit der übertragenen Daten gewährleistet. Um sicherzustellen, dass die Bandbreite je nach Bedarf skaliert werden kann, müssen nicht nur die Netzwerkkapazität, sondern auch die Hardware und die Konnektoren zwischen den beiden Netzwerken entsprechend dimensioniert werden.
Wenn eine Verbindung mit niedriger Latenz und hoher Bandbreite zur Verfügung steht, können weitere Anwendungsfälle für Cloud Bursting ins Spiel kommen. Dazu gehören Datenanalysen von sensiblen (Live-)Daten, die lokal gespeichert sind. Diese Analysen benötigen in der Regel die zusätzlichen Rechenressourcen der Cloud und erfordern einen Echtzeitzugang auf die Unternehmensdaten. Da solche Analysen in der Regel nicht kontinuierlich, sondern eher sporadisch über das Jahr verteilt durchgeführt werden, reduziert die Nutzung von On-Demand-Ressourcen den Aufwand im Vergleich zur permanenten Vorhaltung solcher Cloud-Ressourcen erheblich. Ebenso kann das operationalisierte Training von KI-Modellen auf monatlicher oder vierteljährlicher Basis implementiert werden, wobei die stetig wachsenden Datenmengen aus der On-Prem-Infrastruktur genutzt werden. Diese Taktik kann auch für gelegentliche Stresstests mit realen Datenmengen oder -lasten vor der Einführung von Software genutzt werden.
2. Wie lassen sich Cloud-Egress-Gebühren beim Cloud Bursting senken?
Es gibt einige Anwendungsfälle für Cloud Bursting, bei denen es sinnvoll wäre, ganze Workloads in die Cloud zu verlagern, weil sie unabhängig von der Infrastrukturumgebung operieren können. Ihre Verlagerung kann jedoch eine enorme Bandbreite erfordern. Workloads können beispielsweise im Falle eines Ausfalls des Rechenzentrums als partielles Failover in die Cloud verlagert werden, bis der normale Betrieb wieder beginnt. Allerdings müssen alle neuen Transaktionsdaten, die von den Anwendungen erfasst werden, oder alle Statusänderungen, die während des Bursts auftreten, wieder in die Master-Workloads integriert werden, sobald der Betrieb wieder normal läuft.
Die Migration von Daten in die Cloud ist dabei relativ einfach. Doch das Zurückholen von Daten aus der Cloud, wenn Ergebnisse abgerufen werden oder die Cloud außer Betrieb genommen wird, kann zu einem deutlichen Anstieg der Cloud-Egress-Gebühren führen. Dies gilt auch für Bursting-Anwendungen, bei denen viel mehr Daten gesendet als empfangen werden, insbesondere wenn die Daten das öffentliche Internet durchqueren müssen.
Für solche Szenarien kommt wiederum die private Konnektivitätslösung des Cloud-Anbieters ins Spiel, da die Preise für den Cloud-Egress über direkte Konnektivitätsdienste deutlich niedriger sind als über das öffentliche Internet. Der private Konnektivitätsdienst rentiert sich bereits bei einem Datenverkehr von mehr als 25 Mbit/s.
3. Wie lässt sich reibungslose Interoperabilität zwischen privaten und öffentlichen Clouds schaffen?
Direkte Konnektivität ist jedoch nur ein Teil der Lösung, um erfolgreich Cloud Bursting zu betreiben. Leider werden Clouds nicht für Interoperabilität entworfen. Private Clouds oder andere On-Premise-Infrastrukturen können daher nicht ohne Weiteres mit den öffentlichen Clouds interagieren. Einige Cloud-Anbieter bieten auch private Clouds mit integrierter Interoperabilität mit ihrer eigenen öffentlichen Cloud an, doch das Unternehmen bindet sich so an diesen Anbieter.
Eine flexiblere Möglichkeit besteht darin, eine vermittelnde Ebene zwischen den verschiedenen Infrastrukturen in Form eines Cloud-Routers einzubauen. Dabei kann es sich um separate Hardware handeln, die an der Schnittstelle zwischen der Unternehmensinfrastruktur und dem privaten Konnektivitätsdienst installiert wird, oder um einen softwarebasierten Cloud-Routing-Dienst, wie er von einigen Cloud-Exchanges angeboten wird. Dies gewährleistet die Interoperabilität auf Netzwerkebene und ermöglicht einen nahtlosen Übergang zwischen der unternehmenseigenen und der öffentlichen Cloud-Infrastruktur – eine Voraussetzung für erfolgreiches Cloud Bursting. Bei der Auswahl eines Cloud-Routers oder Cloud-Routing-Dienstes sollte die potenziell benötigte Bandbreitenkapazität im Auge behalten werden – andernfalls kann er zu einem Engpass werden, der sich negativ auf die Latenz der Verbindung auswirkt.
Fazit
Cloud Bursting ermöglicht die dynamische Skalierung von IT-Ressourcen von On-Prem-Servern auf die öffentliche Cloud, um temporäre Spitzen im Datenverkehr sowie von Nutzer-Zugriffen zu bewältigen oder rechenintensive Aufgaben durchzuführen. Die gängigen Vorurteile beim Cloud-Bursting, wie hohe Latenzzeiten, mangelnde Interoperabilität und lähmende Cloud-Egress-Kosten, können aufgeräumt werden.
Unternehmen müssen nur für die zusätzlichen Ressourcen zahlen, die sie in Spitzenzeiten tatsächlich nutzen. Hohe Latenzen bei der Anbindung an die öffentliche Cloud werden durch die Nutzung von privaten Konnektivitätslösungen der verschiedenen Cloud-Anbietern über einen Cloud Exchange vermieden. Auch die Cloud-Egress-Kosten, also die Gebühren für den Rücktransport von Daten aus der Cloud, werden durch solche privaten Konnektivitätslösungen erheblich reduziert. Darüber hinaus löst ein Cloud-Routing-Dienst die Herausforderung der Interoperabilität zwischen privater Infrastruktur und öffentlichen Clouds auf der Netzwerkebene.
Insgesamt ist Cloud Bursting eine wertvolle Lösung für Unternehmen, die eine flexible Ressourcenskalierung für Spitzenlasten benötigen, ohne ihr Budget zu sprengen. Es ermöglicht die optimale Nutzung von Cloud-Ressourcen nach Bedarf und den Zugriff auf sensible, lokal gespeicherte Daten unter Einhaltung von Sicherheits- und Compliance-Richtlinien. Sie vereinfacht das Management plötzlich steigender Kundennachfrage, das Stresstesting neuer Software vor der Einführung, die regelmäßige Analyse sensibler Daten und das operationalisierte Training von Machine-Learning-Modellen. Cloud Bursting öffnet Unternehmen die Tür zu allen Vorteilen der Cloud, solange sie – abgeschirmt vom öffentlichen Internet – ausreichend dimensionierten, direkten und privaten Konnektivitätslösungen den Vorrang geben.