Cloud Repatriation und Data Gravity 11.02.2020, 09:15 Uhr

Rein in die Cloud – raus aus der Cloud

Firmen stehen vor der Herausforderung, den richtigen Mix aus Public Cloud, eigenem Data-Center und Hybrid Cloud zu finden. Dazu sollten alle beteiligten Bereiche detailliert geprüft werden.
(Quelle: Vlad Kochelaevskiy / shutterstock.com)
Service-Provider, Beratungshäuser, aber auch Unternehmen kennen meist nur eine Richtung: rein in die Cloud. Wer keine Cloud-first-Strategie vorzuweisen hat, gilt als antiquiert. Richtig ist, dass Public-Cloud-Dienste zum IT-Portfolio der meisten Unternehmen zählen. Das gilt nicht nur für die Angebote der Hyperscaler wie Amazon Web Services (AWS), Microsoft, Google und IBM. Auch hiesige Provider und Systemhäuser wie die Deutsche Telekom, Cancom, QSC und Bechtle forcieren die Cloud, häufig in Zusammenarbeit mit Partnern wie SAP, Microsoft oder Oracle.
Wie stark Public-Cloud-Services an Boden gewinnen, belegt die Studie «Data Age 2025», die das Marktforschungsunternehmen IDC im Auftrag von Seagate erstellt hat. Demnach steigt der weltweite Datenbestand von 33 Zettabyte im Jahr 2018 bis 2025 auf 175 Zettabyte. Darin eingeschlossen sind Daten von Unternehmen und privaten Nutzern. Von diesen 175 ZByte soll rund die Hälfte (49 Prozent) in Public-Cloud-Data-Centern lagern.
Doch es häufen sich Stimmen, die zu einer nüchternen Bestandsaufnahme raten, bevor ein Unternehmen Ressourcen wie Server, Storage-Kapazitäten und Applikationen aus einer Public Cloud bezieht. So haben nach Angaben des Marktforschungsinstituts Enter­prise Strategy Group rund 77 Prozent der Nutzer von Public-Cloud-Diensten mehrfach Workloads wieder in das eigene Rechenzentrum zurückverlagert. An die 23 Prozent taten dies schon viele Male, vor allem Unternehmen, die eine Cloud-first-Strategie verfolgen.
In einer weltweiten IDC-Studie vom vergangenen Jahr zum Thema Repatriation von Work­loads aus Public-Cloud-Rechenzentren in hauseigene Data-Center oder in Hybrid Clouds gaben sogar 81 Prozent der befragten Unternehmen an, dass sie 2018 Workloads aus einer Public Cloud zurückverlagert haben - vorzugsweise in eine Hosted Private Cloud (41 Prozent) oder eine Private Cloud in eigenen Rechenzentren (38 Prozent). Für 2019 erwartete IDC sogar, dass 85 Prozent der befragten Firmen Cloud-Services zurückholen. Als Gründe führen die Unternehmen Sicherheitsbedenken (19 Prozent) und Probleme mit der Performance der Cloud-Services (14 Prozent) an. Jeweils 12 Prozent sind mit den Kosten und den mangelnden Kontrollmöglichkeiten unzufrieden.
Vorbereitung
Voraussetzungen für Cloud-Portabilität
Nach Einschätzung von Hermann Gouverneur, CTO von Atos Deutschland, gibt es keine «einfachen Lösungen», um die Porta­bilität von Workloads in Cloud-Umgebungen sicherzustellen. Portabilität von Cloud-Workloads ist Atos zufolge eine Eigenschaft, die als solche designt, gebaut und regelmässig gewartet werden muss. Eine wichtige Rolle spielen dabei sechs Prinzipien:
  1. Kapselung, beispielsweise durch den Einsatz von Container-Technologien wie Docker und Kubernetes.
  2. «Bring Your Own Trust», Stichwort Trusted Computing: Jeder Kompromiss in Bezug auf die Sicherheit von Workloads gefährdet deren Portabilität. Daher ist ein einheitliches und vertrauenswürdiges Sicherheitsniveau unverzichtbar.
  3. Datenflüssen und Standortfragen mit einer Ressourcenplanung und einem Cluster-Management begegnen.
  4. Friktionen minimieren, etwa durch Nutzung von Dependency Injection. Der Begriff stammt aus der objektorientierten Programmierung. Im Rahmen von Dependency Injection werden die Beziehungen zwischen Komponenten und Objekten beschrieben und auf das notwendige Minimum reduziert.
  5. Vorschriften reduzieren: Das Ziel ist, bei Workloads eine möglichst grosse Formbarkeit, nicht Starrheit zu erreichen.
  6. Auf Open Source beziehungsweise Open Standards setzen.
Wichtig ist zudem, den Umfang der Portabilität zu de­finieren:
  • Ist volle Portabilität erforderlich oder nur die Möglichkeit, zwischen Public und Private Cloud zu wechseln?
  • Gibt es andere Kombinationen?
  • Gelten unterschiedliche Ansätze für verschiedene Gruppen oder Kategorien der Applikationslandschaft?
Die Antworten auf diese Fragen zeigen auf, mit welchen Kompromissen bei einer Portabilität von Workloads in die Cloud zu rechnen ist und wie stringent die Gestaltungsprinzipien auf einen bestimmten Workload anzuwenden sind.

Keine Cloud-Flucht

«Ein Grossteil der Unternehmen hat anfangs in starkem Mass auf Public-Cloud-Dienste gesetzt. Doch nicht in jedem Fall ist das der beste und vor allem kostengünstigste Weg. Das zeigt sich allerdings in vielen Fällen erst nach einiger Zeit», erklärt auch Sridhar Iyengar, Managing Director bei Zoho Europe. Das Unternehmen ist selbst Anbieter von Geschäftsanwendungen und Entwicklungsplattformen, die als Cloud-Service verfügbar sind. Allerdings regis­triert Iyengar keine Fluchtbewegung von Unternehmen aus der Public Cloud: «Zoho sieht keine Tendenz, dass Unternehmen Cloud-Services misstrauischer als früher gegenüberstehen», so der Manager.
“Ein Großteil der Unternehmen hat anfangs in starkem Maß auf ­Public-Cloud-Dienste gesetzt. Doch nicht in jedem Fall ist das der beste und vor allem kostengünstigste Weg.„
Sridhar Iyengar, Managing Director bei Zoho Europe
Das bestätigt Markus Hahn, Director Data Center beim IT-Dienstleister Logicalis: «Unsere Kunden sind nach wie vor auf dem Weg in die Cloud. Und das gilt allgemein für Unternehmen in Deutschland.» Seiner Erfahrung konzentrieren sich deutsche Firmen mittlerweile stärker auf Anwendungsfälle und den Geschäftsnutzen, wenn sie den Einsatz von Cloud-Services planen. «Dabei ist der reine Kostenvergleich zwischen On-Premise- und Cloud-Ressourcen meist nicht ausschlaggebend, sondern eine umfassende Betrachtung der Gesamtkosten, inklusive aller cloudspezifischen Mehrwerte», so Hahn. Diese «Hausaufgaben» müssten Unternehmen machen, denn: «Wenn diese TCO-Betrachtung vor Start eines Cloud-Projekts korrekt umgesetzt wurde, gibt es keinen unangenehmen Überraschungseffekt bei den Kosten.»
High-Speed-Connectivity-Optionen für Public Clouds (Auswahl)
Anbieter Lösung Beschreibung
Alibaba Express Connect, Express Cloud Connect (Beta-Version) Verbindung von Unternehmensstandorten über Netzwerk von Alibaba; Zugang zu Public-Cloud-Services von Alibaba via Express Cloud Connect; Bandbreite: 1 GBit/s, 10, 40 und 100 GBit/s; Preise: zwischen 210 Dollar (1 GBit) und 11.700 Dollar (100 GBit) monatlich; weitere Kosten: Gebühren für externe Service-Provider und Bereitstellung des Services
Amazon Web Services AWS Direct Connect Dedizierte Netzwerkverbindung zwischen Kundennetzwerk und einem Direct-Connect-Standort; Verbindung kann in mehrere virtuelle Links aufgeteilt werden; Anbindung an Amazon Virtual Private Cloud (VPC) möglich; Bandbreiten von 1 GBit/s und 10 GBit/s; Preise: 0,30 Dollar pro Stunde bei 1 GBit/s, 2,25 Dollar bei 10 GBit; hinzu kommen 0,02 Dollar pro GByte übertragener Daten
Google Google Cloud Interconnect, Cloud VPN, Cloud Peering Direktanbindung von Firmennetz an Google Cloud Platform über eigenes Netzwerk von Google; Bandbreite (Cloud Interconnect): von Google 10 GBit/s für 1700 Dollar monatlich und 100 GBit/s für 13.000 Dollar monatlich; über Partner ab 50 MBit/s bis 10 GBit/s: bei Nutzung von Infrastruktur der Partner von Google keine eigenen Router oder Switches im Co-Location-Rechenzentrum nötig
IBM IBM Cloud Direct Link Direkter Zugang Firmennetzwerk zu IBM-Cloud-Backbone-Netz; Bandbreiten: 50 MBit/s, zudem 100, 200 und 500 MBit/s, 1 GBit/s , 5 und 10 GBit/s; vier unterschiedliche Versionen für Single- und Multi-Cloud-Umgebungen; Preisbeispiel: Direct Link Connect mit 50 MBit/s für 110 Dollar pro Monat; 1 GBit/s für rund 1300 Dollar monatlich
Ionos Cloud Connect Anbindung von Firmennetzwerk an Ionos Enterprise Cloud (IaaS); Bandbreite bis 80 GBit/s je nach Standort und Cloud-Rechenzentrum; Einsatz von Software-defined Networking und Infiniband; Preis: 1 GByte Datenvolumen (ausgehender Verkehr) 6 Euro-Cent pro Stunde
Microsoft ExpressRoute Private Leitung zur Microsoft-Cloud-Plattform Azure; Bandbreite bis zu 100 GBit/s; Zugang über spezielle ExpressRoute-Zugangspunkte oder das Enterprise WAN des Nutzers; Preis für Link mit 50 MBit/s und Daten-Flatrate (ein- und ausgehend): 253 Euro monatlich; Premium-Version (mit Office 365, erhöhte Verbindungszahl) ab 316 Euro pro Monat
Oracle Oracle Cloud Infrastructure FastConnect Dedizierte Netzwerkverbindung zwischen Kundennetzwerk und Oracle Public Cloud; Bandbreiten: 1 GBit/s und 10 GBit/s; Preise: 0,19 Euro pro Stunde und Port (1 GBit/s); rund 1,15 Euro für 10 GBit/s; keine Zusatzgebühren für Datenvolumen
Salesforce Salesforce Express Connect Verfügbar über Partner (Service-Provider) wie AT&T, BT, Equinix, Orange, NTT; Bandbreiten und Preise je nach Provider
SAP Keine eigene Breitband-Anbindung an SAP Cloud Platform SAP kooperiert mit AWS, Google und Microsoft und ermöglicht über deren High-Speed-Verbindungen Zugriff auf SAP Cloud
High-Speed-Connectivity-Optionen für Public Clouds (Auswahl)
Anbieter Lösung Beschreibung
Alibaba Express Connect, Express Cloud Connect (Beta-Version) Verbindung von Unternehmensstandorten über Netzwerk von Alibaba; Zugang zu Public-Cloud-Services von Alibaba via Express Cloud Connect; Bandbreite: 1 GBit/s, 10, 40 und 100 GBit/s; Preise: zwischen 210 Dollar (1 GBit) und 11.700 Dollar (100 GBit) monatlich; weitere Kosten: Gebühren für externe Service-Provider und Bereitstellung des Services
Amazon Web Services AWS Direct Connect Dedizierte Netzwerkverbindung zwischen Kundennetzwerk und einem Direct-Connect-Standort; Verbindung kann in mehrere virtuelle Links aufgeteilt werden; Anbindung an Amazon Virtual Private Cloud (VPC) möglich; Bandbreiten von 1 GBit/s und 10 GBit/s; Preise: 0,30 Dollar pro Stunde bei 1 GBit/s, 2,25 Dollar bei 10 GBit; hinzu kommen 0,02 Dollar pro GByte übertragener Daten
Google Google Cloud Interconnect, Cloud VPN, Cloud Peering Direktanbindung von Firmennetz an Google Cloud Platform über eigenes Netzwerk von Google; Bandbreite (Cloud Interconnect): von Google 10 GBit/s für 1700 Dollar monatlich und 100 GBit/s für 13.000 Dollar monatlich; über Partner ab 50 MBit/s bis 10 GBit/s: bei Nutzung von Infrastruktur der Partner von Google keine eigenen Router oder Switches im Co-Location-Rechenzentrum nötig
IBM IBM Cloud Direct Link Direkter Zugang Firmennetzwerk zu IBM-Cloud-Backbone-Netz; Bandbreiten: 50 MBit/s, zudem 100, 200 und 500 MBit/s, 1 GBit/s , 5 und 10 GBit/s; vier unterschiedliche Versionen für Single- und Multi-Cloud-Umgebungen; Preisbeispiel: Direct Link Connect mit 50 MBit/s für 110 Dollar pro Monat; 1 GBit/s für rund 1300 Dollar monatlich
Ionos Cloud Connect Anbindung von Firmennetzwerk an Ionos Enterprise Cloud (IaaS); Bandbreite bis 80 GBit/s je nach Standort und Cloud-Rechenzentrum; Einsatz von Software-defined Networking und Infiniband; Preis: 1 GByte Datenvolumen (ausgehender Verkehr) 6 Euro-Cent pro Stunde
Microsoft ExpressRoute Private Leitung zur Microsoft-Cloud-Plattform Azure; Bandbreite bis zu 100 GBit/s; Zugang über spezielle ExpressRoute-Zugangspunkte oder das Enterprise WAN des Nutzers; Preis für Link mit 50 MBit/s und Daten-Flatrate (ein- und ausgehend): 253 Euro monatlich; Premium-Version (mit Office 365, erhöhte Verbindungszahl) ab 316 Euro pro Monat
Oracle Oracle Cloud Infrastructure FastConnect Dedizierte Netzwerkverbindung zwischen Kundennetzwerk und Oracle Public Cloud; Bandbreiten: 1 GBit/s und 10 GBit/s; Preise: 0,19 Euro pro Stunde und Port (1 GBit/s); rund 1,15 Euro für 10 GBit/s; keine Zusatzgebühren für Datenvolumen
Salesforce Salesforce Express Connect Verfügbar über Partner (Service-Provider) wie AT&T, BT, Equinix, Orange, NTT; Bandbreiten und Preise je nach Provider
SAP Keine eigene Breitband-Anbindung an SAP Cloud Platform SAP kooperiert mit AWS, Google und Microsoft und ermöglicht über deren High-Speed-Verbindungen Zugriff auf SAP Cloud
(Quelle: NMG )

Data Gravity erschwert Wechsel

Wenn ein Unternehmen Anwendungen auf die Cloud-Plattformen von AWS, Microsoft, Google & Co. verlagern oder von dort wieder in das eigene Rechenzentrum zurückholen möchte, muss es jedoch mehrere Hürden nehmen. Eine ist die sogenannte Data Gravity. Dieser Effekt tritt auf, wenn immer mehr Anwendungen und Daten in eine Cloud transferiert werden: Je mehr Applikationen eines Cloud-Anbieters eine Firma nutzt, desto mehr Daten wandern in die Cloud. Das wiederum führt dazu, dass weitere Services beim Provider gebucht werden, um diese Datenbestände zu nutzen. Das kann zur Abhängigkeit von einem Cloud-Anbieter führen.
«Eine App kann durch die Verwendung von standardisierten Containern einfach von einer Cloud in eine andere verschoben werden», erläutert beispielsweise Karsten Stöhr, Solutions Engineer beim Datenbank- und Datenmanagement-Spezialisten DataStax. «Für Daten gilt das nicht. Sie von einer Cloud in eine andere oder auch auf eine interne Datenbank zu verschieben, ist schwierig, zeitaufwendig und teuer.» Die Folge ist laut Stöhr, dass Unternehmen Gefahr laufen, Daten­silos zu schaffen. Die erschwerten es, den Cloud-Anbieter zu wechseln. «Und diese Gefahr wird mit steigenden Datenmengen und der wachsenden Anzahl an Applikationen, die diese Daten nutzen, immer grösser», so der Fachmann weiter.
Deshalb muss ein Unternehmen Vorkehrungen treffen, dass seine Daten cloudübergreifend nutzbar sind - in einer Private Cloud ebenso wie auf Plattformen unterschiedlicher Cloud-Service-Provider.
Ein erster Schritt besteht darin, die Datenmengen zu reduzieren: «Intelligente Speichersysteme helfen dabei, indem sie die Daten deduplizieren oder komprimieren. Dadurch dämmen sie die Auswirkungen der steigenden Datenmengen ein, denn die physisch benötigte Kapazität, also der Bedarf an Speichermedien, wächst so deutlich langsamer als die tatsächliche Datenmenge», sagt Peter Wüst, Vice President Cloud Infrastructure Business EMEA bei NetApp, Anbieter von Storage-Lösungen und hyperkonvergenten Infrastruktur-Systemen (HCI).
“Intelligente Speicher-systeme helfen gegen Data Gravity, indem sie die ­Daten deduplizieren oder komprimieren. „
Peter Wüst, Vice President Cloud ­Infrastructure Business EMEA bei NetApp
Ein weiterer Lösungsansatz zielt auf die Synchronisierung der Daten. «Wenn der Nutzer kontinuierlich in einer anderen Cloud eine Datenkopie semisynchron vorhält, dann muss er im Bedarfsfall nicht plötzlich mehrere Terabyte an Daten kopieren», so Wüst. «Es genügt, lediglich ein paar Byte des gesamten Datenvolumens in Synchronisierung zu bringen. Die Redundanz der Daten ist dadurch sichergestellt. Das wiederum ermöglicht beispielsweise die Nutzung der Daten mit den Tools eines anderen Cloud-Providers.»

Flexibilität dank Containern

Raus aus der öffentlichen Cloud: Ein beträchtlicher Teil der Unternehmen weltweit hat bereits Workloads aus Public Clouds zurückgeholt.
Quelle: IDC, "Cloud and AI Adoption Survey", 2018 (n = 400)
Dennoch lassen sich nicht alle Daten und Anwendungen gleichermassen zwischen Private und Public Clouds bewegen, so Hermann Gouverneur, Chief Technology Officer beim IT-Dienstleister Atos Deutschland: «Workloads, die für eine Portabilität nicht infrage kommen, zeichnen sich durch vorhersehbare und kurze Lebenszyklen und eigenständige Architekturen aus.» Er plädiert daher für den Einsatz von Container-Technologien wie Docker und Kubernetes: «Sie bilden das Herz der Portabilität in Cloud-Umgebungen. Container stellen eine Kapselungsschicht dar, die auf traditionellen Umgebungen, physisch wie virtuell, den zusätzlichen Aufwand für die Zielumgebung gering hält.» Ein weiterer Vorteil ist, dass Unternehmen mit Hilfe von Containern für ihre Work­loads eine saubere Trennung zwischen Dev und Ops (Development/Entwicklung und Operations/IT-Betrieb) durchführen können.
Auch Markus Hahn von Logicalis sieht in Containern eine Option, um Workloads zwischen Public- und Private-Cloud-Diensten zu migrieren: «Container sind in der Regel zustandslos, also ‚stateless‘, und damit vollständig unabhängig von den darunterliegenden Systemen oder der Infrastruktur. Sie lassen sich dadurch gut portieren und skalieren.» Logicalis hat beispielsweise für ein internes Entwicklungsprojekt eine CI/CD-Pipeline (Continuous Integration/Continuous Delivery) aufgesetzt, bei der eine Phase mit Hilfe einer Container-Plattform in der Cloud umgesetzt wurde. Für Tests, die Qualitätssicherung und die Produktion wird die Lösung auf eine Container-Infrastruktur im hauseigenen Rechenzentrum übertragen. «Das ist mit den heute verfügbaren Tools relativ einfach», erklärt Hahn.

Nicht alles lässt sich schieben

Nicht praktikabel ist dagegen das dynamische Verschieben von Workloads im Bereich Infrastruktur (IaaS, Infrastructure as a Service) zwischen On-Premise- und Public-Cloud-Plattformen. Der Grund ist, dass in Public Clouds meist andere Virtualisierungs-Plattformen zum Einsatz kommen als in den Pri­vate Clouds von Unternehmen. Daher werden solche Applikationen und Daten bei der Migration an die Standard­lösung des Providers angepasst und nötigenfalls konvertiert. Ein Zurück ins Unternehmens-Data-Center ist somit laut Hahn nicht so einfach möglich. Dies gilt seiner Einschätzung nach auch für Cloud-Dienste, die Software oder Plattformen «as a Service» bereitstellen, Stichwort SaaS beziehungsweise PaaS. «Bei ihnen ist das Hin- und Herschieben von Workloads nicht vorgesehen», sagt Markus Hahn. Der Grund ist, dass der Provider den gesamten Software-Stack bereitstellt. Beispiele für solche Services sind die CRM- und ERP-Angebote von Salesforce oder Exchange Online und Middleware-Services.
Hybrid-Optionen für Clouds (Auswahl)
Anbieter Lösung Beschreibung
Cisco Cisco HyperFlex HCI-Lösung (Hyper-Converged Infrastructure); Kombination von UCS-Servern, Software-defined Storage mit der HyperFlex-HX-Data-Plattform und Software-defined Networking (SDN) auf Basis der Cisco Unified Fabric; Unterstützung von Hyper-V, VMware vSphere und Docker-Containern; Bereitstellung von Workloads in Private, Hybrid und Public Clouds
Dell Dell Cloud, VMware Cloud Foundation on VxRail, VMware Cloud on Dell EMC VMware Cloud Foundation on VxRail: HCI mit Cloud-Software von VMware; VMware Cloud on Dell EMC: Data-Center-as-a-Service-Angebot; Nutzer können IT-Infrastruktur ähnlich wie ein Public-Cloud-Angebot nutzen, allerdings im eigenen Data-Center; Anbindung an Public-Cloud-Dienste; Portabilität von Daten und Anwendungen von und zu Private/Public Clouds
Microsoft Azure Stack, Azure Stack Edge, Azure Stack HCI, Azure Stack Hub Cloud-Lösung, die sich als Private Clound (ohne Anbindung an Azure) und mit Nutzung von Microsofts Cloud-Plattform einsetzen lässt; Azure-Cloud-Dienste können lokal genutzt werden (Azure Stack Hub); über Hyper-Converged-Infrastructure-Lösungen Anbindung an Azure-Cloud-Dienste; neue Version für Edge-Computing (Azure Stack Edge) mit Server, Storage und KI-gestützten Datenanalyse-Funktionen
NetApp NetApp Hybrid Cloud Infrastructure HCI-System mit der Option, Rechenleistung und Storage separat zu skalieren; integrierte Data Fabric für Datenmanagement in Public, Private und Multi-Clouds; sensible Daten lassen sich in Private-Cloud-Umgebung speichern; Workloads lassen sich zwischen Clouds hin und her bewegen; Kooperation mit Public-Cloud-Service-Providern wie AWS, Google und Microsoft
Nutanix Nutanix Enterprise Cloud Softwarebasierte Enterprise-Cloud auf Basis von Hyperkonvergenz-Technologie; arbeitet unabhängig von Infrastrukturkomponenten und Hypervisoren; Bereitstellung von Workloads wie Virtual Desktops, Datenbanken, Analytics-Anwendungen in Private oder Public Cloud; automatisierte Migration von Workloads zwischen Clouds
VMware VMware Cloud on AWS, Azure VMware Solutions, VMware Cloud Foundation Lösungen für den Aufbau von Hybrid Clouds und Software-defined Data Centers (SDDC) in eigenen Rechenzentren und Public Clouds; verfügbar für Public Clouds von AWS und Microsoft (Azure); Migration von Workloads von Private in Public Cloud und umgekehrt; Voraussetzung: Nutzung der Virtualisierungslösungen von VMware; künftig auch über Managed Services Provider verfügbar
Oracle Oracle Cloud Infrastructure FastConnect Dedizierte Netzwerkverbindung zwischen Kundennetzwerk und Oracle Public Cloud; Bandbreiten: 1 GBit/s und 10 GBit/s; Preise: 0,19 Euro pro Stunde und Port (1 GBit/s); rund 1,15 Euro für 10 GBit/s; keine Zusatzgebühren für Datenvolumen
Salesforce Salesforce Express Connect Verfügbar über Partner (Service-Provider) wie AT&T, BT, Equinix, Orange, NTT; Bandbreiten und Preise je nach Provider
SAP Keine eigene Breitband-Anbindung an SAP Cloud Platform SAP kooperiert mit AWS, Google und Microsoft und ermöglicht über deren High-Speed-Verbindungen Zugriff auf SAP Cloud
Hybrid-Optionen für Clouds (Auswahl)
Anbieter Lösung Beschreibung
Cisco Cisco HyperFlex HCI-Lösung (Hyper-Converged Infrastructure); Kombination von UCS-Servern, Software-defined Storage mit der HyperFlex-HX-Data-Plattform und Software-defined Networking (SDN) auf Basis der Cisco Unified Fabric; Unterstützung von Hyper-V, VMware vSphere und Docker-Containern; Bereitstellung von Workloads in Private, Hybrid und Public Clouds
Dell Dell Cloud, VMware Cloud Foundation on VxRail, VMware Cloud on Dell EMC VMware Cloud Foundation on VxRail: HCI mit Cloud-Software von VMware; VMware Cloud on Dell EMC: Data-Center-as-a-Service-Angebot; Nutzer können IT-Infrastruktur ähnlich wie ein Public-Cloud-Angebot nutzen, allerdings im eigenen Data-Center; Anbindung an Public-Cloud-Dienste; Portabilität von Daten und Anwendungen von und zu Private/Public Clouds
Microsoft Azure Stack, Azure Stack Edge, Azure Stack HCI, Azure Stack Hub Cloud-Lösung, die sich als Private Clound (ohne Anbindung an Azure) und mit Nutzung von Microsofts Cloud-Plattform einsetzen lässt; Azure-Cloud-Dienste können lokal genutzt werden (Azure Stack Hub); über Hyper-Converged-Infrastructure-Lösungen Anbindung an Azure-Cloud-Dienste; neue Version für Edge-Computing (Azure Stack Edge) mit Server, Storage und KI-gestützten Datenanalyse-Funktionen
NetApp NetApp Hybrid Cloud Infrastructure HCI-System mit der Option, Rechenleistung und Storage separat zu skalieren; integrierte Data Fabric für Datenmanagement in Public, Private und Multi-Clouds; sensible Daten lassen sich in Private-Cloud-Umgebung speichern; Workloads lassen sich zwischen Clouds hin und her bewegen; Kooperation mit Public-Cloud-Service-Providern wie AWS, Google und Microsoft
Nutanix Nutanix Enterprise Cloud Softwarebasierte Enterprise-Cloud auf Basis von Hyperkonvergenz-Technologie; arbeitet unabhängig von Infrastrukturkomponenten und Hypervisoren; Bereitstellung von Workloads wie Virtual Desktops, Datenbanken, Analytics-Anwendungen in Private oder Public Cloud; automatisierte Migration von Workloads zwischen Clouds
VMware VMware Cloud on AWS, Azure VMware Solutions, VMware Cloud Foundation Lösungen für den Aufbau von Hybrid Clouds und Software-defined Data Centers (SDDC) in eigenen Rechenzentren und Public Clouds; verfügbar für Public Clouds von AWS und Microsoft (Azure); Migration von Workloads von Private in Public Cloud und umgekehrt; Voraussetzung: Nutzung der Virtualisierungslösungen von VMware; künftig auch über Managed Services Provider verfügbar
Oracle Oracle Cloud Infrastructure FastConnect Dedizierte Netzwerkverbindung zwischen Kundennetzwerk und Oracle Public Cloud; Bandbreiten: 1 GBit/s und 10 GBit/s; Preise: 0,19 Euro pro Stunde und Port (1 GBit/s); rund 1,15 Euro für 10 GBit/s; keine Zusatzgebühren für Datenvolumen
Salesforce Salesforce Express Connect Verfügbar über Partner (Service-Provider) wie AT&T, BT, Equinix, Orange, NTT; Bandbreiten und Preise je nach Provider
SAP Keine eigene Breitband-Anbindung an SAP Cloud Platform SAP kooperiert mit AWS, Google und Microsoft und ermöglicht über deren High-Speed-Verbindungen Zugriff auf SAP Cloud
(Quelle: NMG )

Private Cloud mit Public-Draht

Quelle: IDC
Doch mittlerweile sind neben Containern weitere Technologien verfügbar, die den Transfer von Workloads zwischen unterschiedlichen Clouds zumindest erleichtern sollen. Eine Option sind Datenmanagement-Lösungen und Datenbanken wie DataStax Enterprise. Dieses Angebot basiert auf der Open-Source-Datenbank Apache Cassandra, die wiederum für Private, Hybrid und Public Clouds in Betracht kommt. Nutzer können ein Database-Cluster aufsetzen, auf das Clouds unterschiedlicher Anbieter und Systeme im Unternehmensrechenzentrum zugreifen können. «Die Datenbank funktioniert auf jeder Plattform. Dadurch werden Anwender unabhängig vom Cloud-Anbieter», hebt Kasten Stöhr von DataStax hervor. Der Nutzer behält zudem die Kontrolle über seine Datenbestände.
Eine weitere Möglichkeit, die Portabilität von Workloads zu erhöhen, ist der Einsatz von speziellen Hyper-Converged-In­frastructure-Systemen. Ein Beispiel ist die Hybrid Cloud In­frastructure (HCI) von NetApp. Im Gegensatz zu klassischen Hyper-Converged Infrastructures, die ebenfalls als HCI bezeichnet werden, lassen sich bei NetApps Version Storage- und Server-Ressourcen separat erweitern. Bei traditionellen HCIs erfolgt der Ausbau immer im Gleichschritt, indem weitere HCI-Knoten hinzugefügt werden. «Die NetApp-HCI-Plattform kann als Erweiterung der Public Cloud in das eigene Rechenzentrum betrachtet werden», so NetApp-VP Peter Wüst. Die Orchestrierung von Kubernetes und weiteren cloudnativen Apps findet in der Cloud statt - in einem Serviceportal. Dort wird festgelegt, ob die Services auf Azure, AWS oder auf der Google Cloud Platform laufen sollen oder auf dem eigenen HCI-System. «Damit wird die Multi-Cloud Realität, die Grenzen zwischen Cloud und Rechenzentrum verschwimmen», ergänzt Wüst. Das gilt auch für Daten und Anwendungen.

Unabhängigkeit

Einen ähnlichen Ansatz verfolgt der HCI-Pionier Nutanix mit seiner Enterprise Cloud. Mit dieser Software kann ein Nutzer eine Private Cloud einrichten, und das unabhängig von den eingesetzten Infrastruktur-Komponenten und Hypervisoren. Über Schnittstellen (APIs) lässt sich diese In­fra­struktur mit Public Clouds koppeln, beispielsweise IaaS-Plattformen und Online-Storage-Diensten wie Amazon S3. «Auch die Migration von Workloads in die Public Cloud und zurück ist möglich, und zwar auf Basis geschäftlicher Überlegungen», erläutert Markus Pleier, Director Systems Engineering Central Europe bei Nutanix.
“Ein einfacher Weg zur Migration von Workloads zwischen Cloud-Services hat sich durch Container ergeben, egal ob dabei Private oder Public Clouds involviert sind. „
Markus Hahn, Director Data Center bei Logicalis
Aber auch Pleier räumt ein, dass die Cloud-Portabilität Grenzen hat. Wenn Unternehmen IaaS-Dienste als Basis für Workloads nutzen, ist es mit Lösungen wie Nutanix Enterprise Cloud machbar, diese Anwendungen und Daten in eine Private Cloud zurückzuverlagern. Bei Software-as-a-Service-Angeboten ist das problematisch. Das heisst, Firmen müssen sehr genau überlegen, welche Applikationen sie as a Service nutzen wollen. Denn ein Wechsel des Public-Cloud-Service-Providers oder eine Cloud Repatriation ins eigene Data-Center kosten Zeit und Geld.
Für Unternehmen, die Virtualisierungslösungen von VMware einsetzen, kommen zudem Angebote wie VMware Cloud on AWS oder Azure VMware Solutions in Betracht. Damit können Firmen eine Private Cloud auf Basis von VMware in Richtung Public Clouds von AWS und Microsoft erweitern. Nach Angaben des Herstellers ist dabei die Portabilität von Workloads zwischen den hausinternen und Public Clouds sichergestellt. VMware hat im November auf der «VMworld Europe 2019» angekündigt, dass VMware Cloud on AWS künftig auch über Anbieter von Managed Services (MSPs) verfügbar sein wird. Sie können Kunden somit bei der Migration von Workloads in die Public Cloud von AWS unterstützen.

Express-Weg in die Cloud

Auch für Unternehmen, die wegen zu hoher Latenzzeiten und Performance-Problemen über einen Rückzug aus Public Clouds nachdenken, gibt es eine Option. Sie können besonders schnelle Datenverbindungen nutzen, die die Cloud-Service-Provider anbieten. Alle führenden An­bieter stellen solche Express-Wege bereit, etwa Microsoft mit ExpressRoute oder AWS mit Direct Connect. Je nach Anbieter sind Verbindungen ab 50 MBit/s verfügbar. Die Obergrenze beträgt derzeit 100 GBit/s. Die Provider nutzen für die Datenübertragung ihre eigene Netzwerk-Infrastruktur. Eine Klippe lässt sich jedoch auch mit Hilfe solcher Breitbandverbindungen nicht umschiffen: Wenn zwischen dem Firmenrechenzentrum und dem nächstgelegenen Zugangspunkt (Point of Presence) zum Netz des Providers lahme Internetverbindungen vorhanden sind, hilft auch eine Gigabit-Leitung nicht weiter.

Wohin mit den Workloads?

Public Cloud - oder doch besser eine hybride oder Private-Cloud-Umgebung? Die Frage, welche Daten wo am besten aufgehoben sind, ist nicht so einfach zu beantworten. Wo Anwendungen, Daten und Workloads platziert werden sollten, hängt nach Einschätzung des IT-Beratungshauses David-Kenneth Group von einer Vielzahl von Faktoren ab. Die Berater haben hierfür eine Checkliste erarbeitet:
Prozesse prüfen: Auch die beste Cloud-Plattform verrichtet keine Wunderdinge, wenn Geschäftsprozesse und Abläufe nicht stimmen. Daher sollte zunächst eine Analyse der Prozesse durchgeführt und zudem geprüft werden, welche Prozeduren automatisiert werden können.
Die Unternehmensstrategie gibt den Ausschlag: Geschäftsleitung, Fachabteilungen und IT-Fachleute sollten ermitteln, auf welche Weise Cloud-Ressourcen dazu beitragen können, die Unternehmensstrategie umzusetzen. Unterliegt ein Unternehmen beispielsweise verschärften Compliance- und Datenschutzvorgaben, ist eine Public Cloud nicht unbedingt die beste Wahl. Dasselbe gilt, wenn viele Legacy-Anwendungen vorhanden sind, die weiterhin genutzt werden sollen. Wer dagegen schnell neue (digitale) Produkte auf den Markt bringen will, sollte eine Public Cloud ins Auge fassen.
Balance zwischen Agilität und Risiko finden: Ist eine hohe Agilität gefragt, kommt eher eine Cloud in Betracht. Steht die Zuverlässigkeit einer Applikation an erster Stelle, eignet sich gegebenenfalls ein On-Premise- oder Private-Cloud-Ansatz. Zu bedenken ist zudem, dass viele Public-Cloud-Rechenzentren eine höhere Ausfallsicherheit und bessere Schutzmassnahmen vor Angriffen bieten als Unternehmens-Data-Center.
Wachstumsstrategie berücksichtigen und Ausstiegsszenarien prüfen: Workloads sollten in Abstimmung mit der Wachstumsstrategie des Unternehmens platziert werden. Start-ups und Firmen, deren Angebote und Kundenzahl stark zunimmt, fahren besser mit skalierbaren Public-Cloud-Services. Unternehmen aus weniger dynamischen Branchen sind eventuell mit einer Private Cloud besser beraten. Wichtig ist, dass Unternehmen Vorkehrungen dafür treffen, nötigenfalls Daten und Applikationen aus einer Public Cloud zurückzutransferieren.
IT-Ressourcen auf Marktanforderungen abstimmen: Durch die Digitalisierung wächst der Druck, Angebote schnell auf neue Marktentwicklungen abzustimmen. Der IT-Servicekatalog muss daher permanent daraufhin überprüft werden, ob und wie schnell sich neue IT-Dienste und die entsprechende Infrastruktur aufsetzen lassen. Um von kurzfristigen Markttrends zu profitieren, ist es gegebenenfalls besser, auf Public-Cloud-Ressourcen zu setzen. In jedem Fall sollten Kernanwendungen in einer Umgebung platziert werden, in der sie nötigenfalls ohne hohen Aufwand erweitert werden können.
Das grosse Ganze im Blick behalten: Dabei sind laut David-Kenneth Group fünf Aspekte zu berücksichtigen:
Die Plattform-Strategie, etwa ob im eigenen Haus flexible und ausbaufähige IT-Plattformen vorhanden sind.
Anwendungsstrategie: Gibt es einen Plan, Anwendungen in eine Cloud zu verlagern? Welche Funktionen verlieren die Applikationen durch eine solche Migration beziehungsweise welche gewinnen sie hinzu?
Sourcing-Strategie: Checken, welche Applikationen im eigenen Data-Center, einer Private oder Public Cloud oder einem Co-Location-Rechenzentrum vorgehalten werden sollten. Dabei die Preise, die Netzwerkanbindung an die externen Rechenzentren sowie deren Erfahrung mit ähnlich gelagerten Projekten prüfen.
Backup- und Disaster-Recovery-Massnahmen prüfen, etwa welche Recovery Time Objectives (RTO) und Recovery Point Objectives (RPO) der Service-Provider anbietet.
IT-Sicherheit und Compliance: Provider sollten Vorgaben wie die Datenschutz-Grundverordnung oder Compliance-Regeln wie HIPAA einhalten.
“Workloads, die für eine Portabilität nicht infrage kommen, zeichnen sich durch vorhersehbare und kurze Lebenszyklen und relativ eigenständige Architekturen aus. „
Hermann Gouverneur, Chief Technology Officer bei Atos Deutschland
Datentypen und Datenkontrolle berücksichtigen:
Betriebsdaten: Wichtig ist, Informationen über den Betrieb der IT- und Cloud-Umgebung zu sammeln und auszuwerten. Dazu zählen Performance-Informationen und die Kosten, die ein Provider für Leistungsmerkmale in Rechnung stellt. Dadurch kann die IT-Abteilung ermitteln, welche Quality of Service eine Anwendung benötigt.
Strategische Daten: Das Unternehmen muss jederzeit die volle Kontrolle über Geschäftsdaten und Kundeninforma­tionen haben. Um das sicherzustellen, muss permanent überprüft werden, welche (Cloud-)Applikationen welche Daten wo speichern und wie diese geschützt sind.
Migrationsplan erstellen: Vor dem Umzug von Daten und Apps in eine Cloud sollten mehrere Faktoren Beachtung finden:
Infrastruktur und Anwendungen: Bei Nutzung einer Public Cloud sind Tools hilfreich, mit denen der Nutzer die Kosten und den Nutzungsgrad der Cloud-Ressourcen überprüfen kann. Ausserdem sollte die IT-Abteilung prüfen, inwieweit und mit welchen Werkzeugen sie die Cloud-Ressourcen konfigurieren und anpassen kann. Auch die Netzwerkanbindung der Cloud gilt es zu berücksichtigen.
Modernisierung von Anwendungen: Vor der Migration sollte geprüft werden, ob durch die Verlagerung in die Cloud neue Funktionen für Anwendungen bereitstehen, etwa für eine KI-gestützte Datenanalyse.
Sourcing und Hosting: Dabei sind Faktoren wie Hochverfügbarkeit zu beachten. Service-Provider bieten gerne Disaster-Recovery-Dienste an. Doch diese haben ihren Preis. Daher ist eine Bestandsaufnahme wichtig. Sie gibt Aufschluss, welche Anwendungen und Datenbestände jederzeit verfügbar sein müssen und was für Ausfallzeiten tolerabel sind.
Data Gravity und Datenschutz: Speziell in der europäischen Union dürfen personenbezogene Daten nicht einfach so in ein x-beliebiges Cloud-Data-Center verlagert werden. Es muss sichergestellt sein, dass sensible Informationen in Rechenzentren eines Landes gespeichert werden, das die DSGVO einhält. Unternehmen sollten zudem berücksichtigen, wie sich die Datenvolumina in Verbindung mit bestimmten Anwendungen entwickeln (Data Gravity). Werden etwa grosse Datenbestände in einer Cloud abgelegt, kann dies höhere Kosten beim Enterprise WAN mit sich bringen.

Fazit

Ein «Raus aus der Cloud» dürfte für viele Unternehmen nicht in Betracht kommen. Denn mit Public-Cloud-Diensten können sie durchaus ihre Agilität erhöhen. Aus diesem Grund sollten Geschäftsführung, Fachbereiche und IT-Abteilung detailliert prüfen, welche Workloads in einer Private Cloud besser aufgehoben sind und wo Public-Cloud-Services Vorteile bringen.
Eine praktikable Lösung ist daher eine Hybrid Cloud. Denn im Nachhinein Cloud-Anwendungen ins eigene Data-Center zurückzuholen, ist alles andere als ein leichtes Unterfangen.

Im Gespräch mit Markus Pleier von Nutanix

Dr. Markus Pleier: Director Systems Engineering Central Europe bei Nutanix
Quelle: Nutanix
Unternehmen wollen alles: eine Private Cloud im eigenen Data-Center verwenden, inklusive der vollen Kontrolle über Daten und Anwendungen. Gleichzeitig möchten sie aber auch Public-Cloud-Dienste nutzen. Markus Pleier, Director Systems Engineering Central Europe bei Nutanix, erklärt, wie das zu bewerkstelligen ist.
Computerworld: Herr Dr. Pleier, laut Markt­forschern verlagern Unternehmen einen Teil ihrer Workloads aus Public Clouds wieder zurück in eigene Data-Center. Weshalb ist das so?
Markus Pleier: Hier sind sicherlich die bekannten Gründe wie Sicherheitsbedenken und Compliance-Anforderungen zu nennen. Hinzu kommen jedoch immer stärker finanzielle Überlegungen. Nicht immer rechnet sich der Betrieb von Workloads in der Public Cloud. Hier haben die Anwender dazugelernt. Doch mindestens ebenso wichtig ist die Tatsache, dass Software für die Hyper-Converged Infrastructure (HCI) einen Paradigmenwechsel in den Rechenzentren eingeleitet hat und dadurch erst die Möglichkeit schafft, Workloads technisch und betriebswirtschaftlich sinnvoll aus der Public Cloud in die Private Cloud zurückzuholen.
Computerworld: Können Sie das näher erläutern?
Pleier: Dank einer HCI-Software erhalten private Cloud-Umgebungen in den Rechenzentren alle wesentlichen Eigenschaften der Public Cloud. Dazu gehören Agilität, Elastizität, lineare Skalierbarkeit, ein hoher Automatisierungsgrad und stark vereinfachte Updates. Eine solche Software macht den Infrastrukturanteil der privaten Cloud praktisch genauso unsichtbar, wie die Anwender es von der Public Cloud gewohnt sind. Darüber hinaus verschafft eine HCI-Software mehr Wahlfreiheit, als es in der Public Cloud und älteren Private-Cloud-Ansätzen möglich ist.
Mit Hilfe einer solchen Lösung holen Kunden nicht nur die Cloud ins eigene Rechenzentrum, sondern gewinnen zusätzlich Freiheitsgrade bei der Wahl der Hardware, aber auch der Hypervisoren.
Computerworld: Sie sprechen von älteren Private-Cloud-Ansätzen. Wie unterscheiden sich diese von neueren Modellen?
Pleier: Klassische Private-Cloud-Lösungen auf Basis von 3-Tier-Schichtenmodellen unterscheiden sich stark vom Modus Operandi der Public Cloud. Das gilt für die Administration der einzelnen Komponenten, von Storage, Netzwerk oder Hypervisoren bis hinauf auf die Ebene der Managementkonsolen und Change-Management-Prozesse. Eine HCI-Software als Basis für private Cloud-Umgebungen, die sich an das Modell der Public Clouds anlehnt, abstrahiert alle Infrastrukturkomponenten, einschliesslich der Hypervisoren. Eine solche Lösung erlaubt ein einheitliches, zentrales Management der gesamten IT-Umgebung. Damit erhalten die Kunden einen Technologie-Stack, der die Public Cloud nicht nur simuliert, sondern ihr gleicht.
Computerworld: Und was bringt das den Nutzern?
Pleier: Erst auf dieser neuen Basis lässt sich eine Public Cloud nahtlos mit den privaten Cloud-Umgebungen in den Rechenzen­tren der Unternehmen verbinden, und zwar mit Hilfe von Application Programming Interfaces. Die Einsatzfelder reichen dabei von Infrastructure-as-a-Service-Ressourcen über die Integration von S3-Instanzen bis hin zur Migration von Workloads in die Public Cloud und zurück.
Computerworld: Bedeutet dies, dass die Entwicklung letztlich in Richtung Hybrid Cloud geht?
Pleier: Die Cloud ist das Paradigma für die IT-Infrastruktur generell und setzt sich nun auch in den Rechenzentren der Unternehmen durch. Denn die Entscheider haben verstanden, dass die digitale Transformation nach einer moderneren Infrastruktur verlangt. Die Digitalisierung ist aber im Grunde kein technisches, sondern ein geschäftliches Thema. Das bedeutet, dass moderne Rechenzen­tren den Unternehmen die Möglichkeit verschaffen müssen, Work­loads, Use Cases und Services dort zu betreiben, wo es betriebswirtschaftlich am sinnvollsten ist. Die Verschmelzung von Public Cloud und Private Cloud in einer Hybrid Cloud wird deshalb schon bald zum Standard in den Rechenzentren der Unternehmen werden. Und bei Public Cloud meine ich kein einzelnes Angebot, sondern verschiedene Cloud-Services, deren simultane Nutzung als Multi-Cloud bezeichnet wird. Hybrid Cloud ist also die Verbindung von Multi-Cloud und privaten Cloud-Umgebungen. Eine solche Lösung ermöglicht nicht nur das zentrale Management einer solchen komplexen Hybrid-Cloud-Umgebung auf der technischen Ebene, sondern auch auf der Ebene der Kostenanalyse. Das verschafft den Unternehmen die Möglichkeit, auf Basis von Kennzahlen die für sie optimale Mischung von Workloads in der Public wie der Private Cloud zu implementieren.
Computerworld: Nehmen wir aber einmal an, ein Unternehmen möchte einen Workload aus einer Public Cloud in seine private Cloud-Umgebung zurückverlagern. Wie aufwendig ist dies?
Pleier: Das hängt von dem Workload und dem Betriebsmodell ab. Bei Workloads, die als Software as a Service (SaaS) genutzt werden, wird es sehr schwierig. Denn hier gehört der Workload ja sozusagen dem Anbieter. Nutzen Unternehmen hingegen die Public Cloud nur als Infrastrukturservice (IaaS) für eigene Workloads, funktioniert eine solche Rückholaktion mit der passenden HCI- und Management-Software für die private und hybride Cloud wesentlich einfacher. In jedem Fall aber ist es wichtig, eine fundierte Entscheidungsgrundlage zu haben, auf welcher Seite der hybriden Cloud - ob privat oder öffentlich - die Anwendung am besten betrieben werden kann. Dann lässt sich beispielsweise bestimmen, ob ein SaaS-Angebot durch einen Service in der privaten Cloud-Umgebung ersetzt werden soll. Auch hier kann die richtige HCI- und Management-Software für Hybrid Clouds helfen.



Das könnte Sie auch interessieren