- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

Cloud-Repatriation eine Realität


Cloud-Repatriation - Warum migrieren Unternehmen aus der Public Cloud zurück?
Das lokale Rechenzentrum hat sich zu einer Cloud-fähigen Infrastruktur entwickelt

- Anzeigen -





Von Guntram Alffen, Avi Networks

Unternehmen nutzen vermehrt die Hybrid Cloud um Daten und Anwendungen in alle Umgebungen verschieben zu können. Dies macht das Zurückholen von Daten und Anwendungen ins eigene Rechenzentrum offiziell zu einem Trend. Noch vor wenigen Jahren glaubten wir, dass die Public Cloud die Zukunft der IT ist und früher oder später, physische Rechenzentren ersetzen würde. Tatsächlich ist der Trend Daten und Workloads in Public Clouds zu migrieren seit langem ungebrochen stark und es ist kein Ende dieser Entwicklung auszumachen. Doch trotz dieses generell anhaltenden Trends in Richtung Public Cloud ist Cloud-Repatriation, also die entgegengesetzte Entscheidung, Daten und Workloads zurück nach Hause ins eigene Rechenzentrum zu holen, in letzter Zeit zur Realität geworden. Was treibt diese Entwicklung an?

Die Grundvoraussetzung dieser Entwicklung ist die vermehrte Nutzung der Hybrid Cloud. Für viele Unternehmen, ist sie bereits der Standard und hat so die Sichtweise der Cloud Computing-Nutzung an sich dramatisch verändert: Von einem Paradigma, dass die Public Cloud der beste Ort für alles ist, hin zu einer Strategie, Anwendungen dort zu platzieren, wo sie tatsächlich am besten passen. Und wer dank einer Hybrid Cloud die Wahl hat, kann dann von Fall zu Fall entscheiden. Aber was verursacht den Trend zur Cloud-Repatriation von Workloads und Daten aus Public Clouds in Private Clouds im Detail? Tatsächlich gibt es eine ziemlich überzeugende Liste von Faktoren.

1. Das lokale Rechenzentrum hat sich zu einer Cloud-fähigen Infrastruktur entwickelt.
Voraussetzung für den Trend ist die Verfügbarkeit von Cloud-fähigen Technologien außerhalb der Public Cloud. Diese Technologien hatten ihren Ursprung in der Public Cloud, werden jedoch mittlerweile auch im Rechenzentrum eingesetzt. Mit ihnen begannen Unternehmen hybride Clouds und Infrastruktur in ihrem Rechenzentrum zu nutzen, die "Cloud-ready" ist. So haben diese Unternehmen generell die Wahl, wo sie ihre Daten und Workloads platzieren möchten. Public-Cloud-Anbieter lösten diese Entwicklung einst durch den Aufbau von softwaredefinierten oder automatisierten IT-Services aus, indem sie eine sehr attraktive Schnittstelle für Entwickler schafften.

Diese großen softwaredefinierten Fortschritte sind seitdem nicht mehr nur in der Public Cloud zu finden, sondern im gesamten IT-Spektrum: in Private Clouds, am Rande der Infrastruktur (Edge Computing), im Distributed Core oder sogar als SaaS oder Managed Services. Und da die Cloud keine Infrastruktur-, sondern eine Applikationsstrategie ist, haben Unternehmen begonnen, Cloud-fähige Technologien auf vielen Ebenen ihrer Rechenzentren einzusetzen, um die Cloud zu Hause zu emulieren. Die Einführung von Azure Stack und Amazon Outpost scheint zu bestätigen, dass die Nachfrage nach Public Cloud-Technologien im Rechenzentrum steigt. Das Rechenzentrum hat die Public Cloud technologisch eingeholt, inklusive konsumbasierter Geschäftsmodelle, Elastizität durch softwaredefinierte Speicherung und agile Entwicklung mit Containern.

2. Data Gravity
Data Gravity ist ein weiterer Faktor, der sich vor allem auf die Datenspeicherung vor Ort und die damit verbundenen Kosten und Verwaltung auswirkt. Anwendungen und Daten werden voneinander angezogen, je mehr Daten es gibt, desto größer ist die gegenseitige Anziehungskraft von Anwendungen und Diensten, die mit diesen Daten verknüpft werden können. Es gibt eine lange Liste von Faktoren, die das Phänomen Data Gravity beeinflussen können, insbesondere jedoch zwei Faktoren: Netzwerkbandbreite und Netzwerklatenz.

Man kann dies auch im Hinblick auf die Netzwerkeffekte weiter gefasst betrachten: Eine große Menge von Daten zieht tendenziell immer mehr Dienste an, die diese Daten nutzen. Daten gehorchen den Regeln der Physik, genauso wie Masse. Diese Realität muss bei der Planung von IoT oder anderen Systemen, die mit großen Datenmengen arbeiten, berücksichtigt werden. Auch die Dichte von Speicherlaufwerken wächst exponentiell, aber die Übertragung von Daten in die Cloud wird immer schwieriger, da die Kapazität der übertragenden Kabel nicht genauso exponentiell wächst.

Es ist schwer zu verallgemeinern, wie viele Daten zu viel sind, um sie noch sinnvoll zu bewegen. Die Kosten für Speicherung und Übertragung von Daten sind komplex und hängen von vielen Faktoren ab. Das Senden von 2 PB über Netzwerkverbindungen in die Public Cloud, scheint bereits heute sehr teuer. Die Kosten für 5PB in einem Jahr zu übertragen werden wohl noch unerschwinglicher und 10 bis 15 PB in zwei Jahren wird wohl jeden finanziell sinnvollen Rahmen sprengen. Selbst mit Glasfasernetzwerken würde es Jahre dauern, große Datensätze an einen anderen Ort zu migrieren. Dies führt dazu, dass Unternehmen begonnen haben ihre Daten mit Edge Computing dort zu verarbeiten, wo sie entstehen, weil sie einfach nicht mehr bewegt werden können.

3. Kontrolle, Sicherheit und Compliance
Ein weiterer Hauptgrund für Unternehmen, bestimmte Arten von Daten und Workloads aus der Public Cloud zu holen, ist Sicherheit. Zu Beginn des Trends zur Migration in die Public Cloud herrschte das Missverständnis vor, dass Daten in der Public Cloud zu 100 Prozent geschützt und sicher sind. In Wirklichkeit sind die Daten von Unternehmen in der Public Cloud stark gefährdet, wenn diese nicht die richtigen Sicherheits- und Datenschutzlösungen einsetzen.

Unternehmen verstehen heute mehr darüber, was die Public Cloud bietet und was ihr fehlt. Die Rückführung von Daten und Workloads in das Unternehmen kann eine bessere Transparenz darüber bieten, was genau passiert, und die Kontrolle über Sicherheit und Compliance ermöglichen. GDPR zum Beispiel hat Organisationen einen Grund gegeben, ihre Daten als Maß für die Datenhoheit in der Nähe und unter ihrer Kontrolle zu speichern.

4. Kosten
Einer der ersten Gründe, für die Übertragung von Daten in die Public Cloud, war eine bessere Kosteneffizienz, insbesondere bei großen Datenmengen für Backup und Archivierung. Da jedoch immer mehr Cloud-fähige Technologien im Rechenzentrum verfügbar sind, hat sich die Kluft zwischen beiden verringert, was wiederum die Kostenvorteile der Public Cloud reduziert. In einigen Anwendungsfällen sind Lösungen im Rechenzentrum für die meisten Workloads heute bereits kostengünstiger als die Public Cloud.

Fazit
Die hybride Cloud gibt Unternehmen die Möglichkeit, ihre Daten und Workloads dort zu platzieren, wo sie am besten passen - auch in ihren eigenen Rechenzentren. Diese Möglichkeit, gepaart mit steigenden Problemen über aktuelle Ausfälle, hohe Kosten, Latenzprobleme und Fragen zu Kontrolle, Sicherheit und Compliance, führt zu einem neuen Trend der Repatriation von Workloads und Daten, aus Public Clouds in Private Clouds. Ein weiterer großer Treiber hierfür, ist das zunehmende Problem der Data Gravity, das die Übertragung großer Datenmengen in Zukunft, aufgrund der steigenden Kosten für Netzwerkübertragung, verhindern wird.

Vor allem aber sind Unternehmen, auf der Suche nach Flexibilität bei der Einrichtung von Lösungen und Services, die so flexibel sind, dass sie mit ihrem Unternehmen wachsen können. Diese Unternehmen, werden sich ungern auf eine der beiden Seiten festlegen wollen. Wenn Unternehmen die beste IT-Infrastruktur für ihre Workloads bewerten, wird eine hybride IT, mit einem Mix aus Public Cloud, Private Cloud und lokalen Lösungen, wohl zur Normalität werden. Da "Cloud-ready"-Anwendungen über hybride Cloud-Umgebungen verteilt sind, werden IT-Teams zukünftig Technologien, wie ein Service Mesh einsetzen müssen, das Anwendungen mit den benötigten Diensten verbindet, wo auch immer sie sich befinden.
(Avi Networks: ra)

eingetragen: 24.05.19
Newsletterlauf: 01.07.19

Avi Networks: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • DevOps werden zunehmend datengetrieben

    DevOps haben sich in der Software-Entwicklung in den vergangenen Jahren immer weiter durchgesetzt. Die effizientere und effektivere Zusammenarbeit von Entwicklung und IT-Betrieb bringt allen Beteiligten zahlreiche Vorteile: So steigt nicht nur die Qualität der Software, sondern auch die Geschwindigkeit, mit der neue Lösungen entwickelt und ausgeliefert werden. In 2019 haben wir gesehen, dass Automatisierung, künstliche Intelligenz und AIOps immer häufiger eingesetzt und von der DevOps-Gemeinschaft erforscht werden. Container und Functions as a Service nahmen weiter zu, so dass Entwickler und Betriebsteams ihre Anwendungen und Infrastruktur besser kontrollieren konnten, ohne die Geschwindigkeit zu beeinträchtigen. Doch wohin geht die Reise jetzt?

  • Cloud Computing-Daten schützen

    Mit wachsenden digitalen Geschäftsanforderungen investieren Unternehmen massiv in die Erweiterung ihrer Netzwerkverbindungsfähigkeiten, um sicherzustellen, dass ihre Daten den richtigen Personen zur richtigen Zeit zur Verfügung stehen. Insbesondere für Cloud-basierte, hochgradig vernetzte und agile Geschäftsmodelle ist die Gewährleistung eines ordnungsgemäßen Zugriffs auf Daten und Systeme unerlässlich. Zusammen mit der Konnektivität in immer komplexeren Infrastrukturen wachsen auch die Anforderungen an Netzwerk- und Datensicherheit. Wenn nicht die richtigen Schutzvorkehrungen getroffen werden, können Bedrohungen, die von Datenlecks und Fehlkonfigurationen bis hin zu Risiken durch Insider reichen, in jedem komplexen Cloud- und Netzwerkökosystem ihr Schadenspotenzial entfalten.

  • Durchsetzung von Cloud-Sicherheitsrichtlinien

    Cloud Computing-Services bieten Unternehmen heute eine kostengünstige und flexible Alternative zu teurer, lokal implementierter Hardware. Vorteile wie hohe Skalierbarkeit, Leistung und Effizienz sowie reduzierte Kosten liegen auf der Hand, sodass immer mehr Unternehmen ihre Anwendungen und Daten in die Cloud migrieren. Sensible Daten wie personenbezogene Informationen, Geschäftsgeheimnisse oder geistiges Eigentum sind jedoch neuen Risiken ausgesetzt. Denn in der Cloud gespeicherte Daten liegen außerhalb der Reichweite vieler lokaler Sicherheitsvorkehrungen. Unternehmen müssen deshalb zusätzliche Maßnahmen ergreifen, um ihre Daten in der Cloud, über den teils rudimentären Schutz der Anbieter hinaus, gegen Cyberangriffe und Datenlecks abzusichern. Allgemein sind Public-Cloud-Provider für die physische Sicherheit, globale und regionale Konnektivität sowie die Stromversorgung und Kühlung ihrer eigenen Rechenzentren zuständig. Dies ermöglicht Unternehmen eine flexible Skalierbarkeit und entlastet sie davon, eine eigene Infrastruktur wie ein Rechenzentrum oder Server-Hardware bereitzustellen. Zugleich liegt es in der Verantwortung der Unternehmen, all ihre in die Cloud migrierten Daten und Anwendung selbst auf gewünschte Weise zu schützen.

  • Redundante SaaS-Anwendungen ermittetteln

    Die Software-as-a-Service (SaaS)-Landschaft wächst und wächst. Wer bis jetzt noch nicht auf Wolken geht, plant in absehbarer Zeit himmelwärts zu wandern. Für den IT-Betrieb bringt die Cloud bei allen Vorteilen jedoch auch Herausforderungen mit. Das gilt insbesondere bei der Verwaltung von SaaS-Ausgaben. Auf den ersten Blick steht die Inventarisierung und Konsolidierung von SaaS mit Recht ganz unten auf der Prioritätenliste von IT-Abteilung. Bei den unzähligen täglichen Aufgaben und den Herausforderungen im Zuge der digitalen Transformation, wird das "Ausmisten" im IT-Haushalt gerne auf die lange Bank geschoben. Das kann sich auf lange Sicht jedoch zu einem kostspieligen Fehler auswachsen, denn die Ausgaben für die Cloud (22 Prozent) liegen mittlerweile nur noch knapp hinter den Ausgaben für On-Premise (23 Prozent). Dazu gehört auch Software-as-a-Service (SaaS), Infrastructure-as-a-Service (IaaS) und Platform-as-a-Service (PaaS). Über 80 Prozent der befragten Unternehmen planen die Ausgaben für SaaS und IaaS/PaaS im nächsten Jahr weiter zu erhöhen.

  • CLOUD Act auch für europäische Cloud-Provider?

    Nahezu zeitgleich mit der DSGVO ist der US-amerikanische CLOUD Act in Kraft getreten. In der Praxis geraten damit zwei Rechtsauffassungen unvereinbar miteinander in Konflikt. Nicht nur für Cloud-Anbieter, sondern auch für Unternehmen, die Cloud Computing-Anwendungen nutzen, könnte dies rechtliche Schwierigkeiten mit sich bringen. Anliegen des "Clarifying Lawful Overseas Use of Data" (CLOUD) Act ist es, die US-amerikanische Strafverfolgung zu erleichtern, indem der Zugriff auf im Ausland gespeicherte Kommunikationsdaten von Verdächtigen vereinfacht wird. Was bislang im Rahmen von Rechtshilfeabkommen zwischen den Regierungsbehörden verschiedener Länder im Laufe mehrerer Monate abgewickelt wurde, soll nun schneller möglich sein.

  • Cloud-Repatriation eine Realität

    Unternehmen nutzen vermehrt die Hybrid Cloud um Daten und Anwendungen in alle Umgebungen verschieben zu können. Dies macht das Zurückholen von Daten und Anwendungen ins eigene Rechenzentrum offiziell zu einem Trend. Noch vor wenigen Jahren glaubten wir, dass die Public Cloud die Zukunft der IT ist und früher oder später, physische Rechenzentren ersetzen würde. Tatsächlich ist der Trend Daten und Workloads in Public Clouds zu migrieren seit langem ungebrochen stark und es ist kein Ende dieser Entwicklung auszumachen. Doch trotz dieses generell anhaltenden Trends in Richtung Public Cloud ist Cloud-Repatriation, also die entgegengesetzte Entscheidung, Daten und Workloads zurück nach Hause ins eigene Rechenzentrum zu holen, in letzter Zeit zur Realität geworden. Was treibt diese Entwicklung an?

  • So hilft die KI bei der Datenanalyse

    Die Elektromobilität wird dazu führen, dass Fahrzeuge und Infrastrukturen riesige Datenströme generieren. In dieser Daten-Goldgrube verstecken sich viele Hinweise darauf, wie Unternehmen ihre Angebote und Produkte verbessern, aber auch die Kundenzufriedenheit steigern können. Wer den Datenschatz heben möchte, benötigt eine übergreifende Datenplattform und KI-Lösungen mit Maschine Learning-Komponenten. In den Medien generiert das Thema Elektromobilität derzeit interessante Schlagzeilen. Daimler kündigte an, ab 2021 mit der Produktion von autonom fahrenden Taxis zu starten. Auch Volkswagen steht unter Strom, denn die Wolfsburger wollen in den kommenden zehn Jahren 70 neue vollelektrische Elektrofahrzeuge entwickeln. Dazu meldet nun auch Lidl, dass der Lebensmitteldiscounter auf seinen Parkplätzen künftig Ladestationen für Elektrofahrzeuge installieren wird, wie es schon andere Handelsketten, beispielsweise Aldi, Rewe und Ikea, vormachen. Und im nächsten James Bond-Film wird der Superagent vermutlich mit einem Elektrofahrzeug von Aston Martin auf Gangsterjagd gehen.

  • Funktionierende DevOps-Kultur zu etablieren

    DevOps mit grundlegender IT-Modernisierung verbinden: Weitreichende Veränderungen wie die digitale Transformation oder neue Regularien wie die DSGVO wurden von vielen Unternehmen zum Anlass genommen, die eigene IT-Architektur von Grund auf zu überdenken. Die Ziele dabei waren und sind im Prinzip immer eine flexiblere IT, die schnell auf sich ändernde Umstände reagieren kann - eine der Kernkompetenzen von DevOps. Es ist also überaus sinnvoll, DevOps als eine der zentralen Säulen der neuen IT zu etablieren und sich dadurch kürzere Softwareentwicklungs- und Bereitstellungszyklen zu sichern.

  • Cloud-Big Data-Projekte: Exponentielles Wachstum

    Für IT-Verantwortliche wird es immer wichtiger, mit der Cloud den Einsatz innovativer Technologien zu unterstützen. Cloud Cpmputing-Services für Machine Learning, Künstliche Intelligenz, Blockchain oder Serverless Computing sind heute mit wenigen Mausklicks abrufbar. Damit beschleunigt sich die Umsetzung neuer Geschäftsmodelle ebenso wie die Produktentwicklung. Warum ein organisationsweites Datenmanagement für den Cloud-Erfolg wichtig ist, zeigt der folgende Beitrag. In der Studie "Multi-Cloud in deutschen Unternehmen" berichten die Analysten von IDC, dass 68 Prozent der Unternehmen bereits Cloud Computing-Services und -Technologien für mehrere Workloads verwenden.

  • Multiple Clouds nicht gleich Multi-Cloud

    Multi-Cloud ist derzeit einer der heißesten Trends für Unternehmen. Die Verwendung mehrerer Clouds gleichzeitig, kann viele Vorteile bieten. Richtig eingesetzt kann man mit der richtigen Kombination von Clouds unter anderem die Kosten für Infrastruktur senken, die Präsenz von Daten und Workloads in verschiedenen Regionen verbessern oder die Herstellerbindung an Cloud Computing-Anbieter vermeiden. Unternehmen, die den Ansatz Multi-Cloud hingegen falsch verstanden haben, kann dieses Missverständnis viel Geld kosten. Denn eine fehlgeleitete Multi-Cloud-Strategie hat das Potenzial, Anwendungen, Teams und Budgets unnötig aufzusplitten.