- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

Zwischen Utopie und Realität: Die dynamische Cloud


Das dynamische Verteilen von Workloads zwischen diversen Cloud Computing-Plattformen ist die logische Konsequenz, um die Vorteile der Technologie vollständig nutzen zu können

- Anzeigen -





Von Marcus Busch, Leaseweb

Die Auswahl an Produkten, Funktionalitäten und Preisstaffelungen verschiedener Cloud-Plattformen ist vielfältig. Unternehmen können aus den Angeboten von Hyperscalern sowie zahlreicher mittelständischer Anbieter, die über spezifische Cloud-Portfolios inklusive Bare Metal und Dedicated Compute verfügen, wählen. In der Regel nutzen Organisationen mehr oder weniger flexible hybride Cloud Computing-Infrastrukturen, indem sie die Public Clouds der Hyperscaler mit ihrer eigenen Infrastruktur verbinden.

Innerhalb einer Hybrid Cloud wünschen sich Kunden vor allem ein hohes Maß an Flexibilität, inklusive der Möglichkeit, einzelne Bestandteile der Cloud-Infrastruktur mühelos auf andere Anbieter übertragen zu können. Eine dynamische Cloud ist im Prinzip eine Multi-Cloud-Umgebung, in der sich Workloads und Daten zwischen den einzelnen Clouds verschieben lassen. Dies kann die jeweils effektivste Mischung und Skalierung ermöglichen, indem freie Instanzen in einem Umfeld von Multi-Cloud-Providern identifiziert und genutzt werden.

Dies würde Kunden erlauben, die Vorteile der Cloud bestmöglich abzuschöpfen. Darüber hinaus könnte es die Konkurrenz zwischen den Anbietern im Markt fördern und Innovationen steigern. In der Praxis ist eine solche Cloudumgebung jedoch noch Zukunftsmusik, weil sich zwar die Angebote ähneln, die darunter liegenden Technologien jedoch sehr verschieden sind.

Keine Cloud ist wie die andere
Wären alle Cloudumgebungen zumindest bis zu einem gewissen Grad untereinander kompatibel, wäre es einfach, eine entsprechende Abstraktionsschicht zu entwickeln, mit der sich verschiedene Clouds dynamisch unter einer Oberfläche vereinen lassen. Und tatsächlich gibt es bereits Cloud-Orchestrierungs-Tools, die zumindest theoretisch das Potenzial haben, dies zu ermöglichen. Sie bieten eine einzige Bedienoberfläche, mit der sich Performance einzelner Clouds messen, Preise vergleichen und Workloads basierend auf den Anforderungen verschieben lassen. Diese geben auf dem Papier große Hoffnung für künftige dynamische Cloud-Infrastrukturen, praxistauglich sind sie gegenwärtig jedoch noch nicht.

Denn obwohl sämtliche Cloud-Anbieter, allen voran die Hyperscaler, im Grunde das gleiche Produkt liefern, unterscheiden sie sich doch in vielen Details, insbesondere bei den Oberflächen und vor allem bei den APIs. Dies hat zur Folge, dass selbst simple Migrationen zwischen Clouds sich nur mit hohem Aufwand durchführen lassen. Und da die verschiedenen Anbieter ihre Cloudservices kontinuierlich weiterentwickeln, wird die Erstellung, Aktualisierung und Verwaltung potenzieller Cloud-Orchestrierungstools entsprechend komplex – und in der Praxis fast unmöglich.

Virtualisierungsplattformen in der Cloud: Eine Scheinlösung
Um ihre Nutzer bei der Migration zwischen Cloudumgebungen zu unterstützen, bieten Hyperscaler seit einiger Zeit den Betrieb ihre Virtualisierungsplattformen in der Cloud an. So wurde der Betrieb von VMware in der Amazon-Cloud in den letzten Monaten stark beworben. Doch dieses Konzept führt die eigentliche Intention der Cloud ad absurdum. Denn obwohl so das Migrationsproblem für einen Teil der Workloads gelöst werden kann, bezahlen die Unternehmen im Gegenzug für die Nutzung ihrer in der Cloud virtualisierten Umgebung sehr hohe Public-Cloud-Preise. Für etwas, das sie beispielsweise auf Bare Metal Infrastruktur zu einem Bruchteil der Kosten erreichen könnten.

Das Problem der fehlenden Kompatibilität der Hyperscaler ist prinzipieller Natur. Denn für die Cloud-Anbieter bringt es kaum Vorteile, ihre Clouds kompatibel mit anderen Angeboten zu machen. Neben den proprietären Formaten erkennt man das auch sehr einfach daran, dass die Preise für Up- und Downlink verdächtig differieren. Daten in die Cloud zu schicken ist günstig – sie wieder herauszuholen ist jedoch überproportional teuer. Selten war der Versuch der Herstellerbindung offensichtlicher. Und es ist unwahrscheinlich, dass die derzeit führenden Hyperscaler diese Strategie in naher Zukunft ändern und von sich aus für mehr Kompatibilität - und damit Dynamik - sorgen werden.

Gaia-X bringt die dynamische Cloud in Reichweite
Dass es auch anders geht, zeigt Gaia-X, die europäische Initiative Cloudangebote zu vereinheitlichen und ein Gegengewicht zu den amerikanischen Anbietern von Cloud-Lösungen zu bilden. Diese Partnerschaft europäischer Industriepartner soll Datenmobilität über ein offenes, föderiertes und sicheres Cloud-Setup bieten. Die Realisierung nicht nur einheitlicher APIs, sondern auch eindeutiger Dienstbeschreibungen und Funktionalitäten würde definitiv dazu beitragen, die Infrastruktur tatsächlich mobil und damit dynamisch zu machen.

Die dynamische Hybrid Cloud hat Zukunftschancen
Wir können feststellen, dass die Cloud noch nicht so "dynamisch" ist, wie wir es uns wünschen würden. Gaia-X bietet allerdings eine hoffnungsvolle Zukunftsperspektive. Das bedeutet jedoch nicht, dass Unternehmen ihre hybriden Clouds nicht bereits heute sehr dynamisch verwalten können. Die Kombination aus Angeboten der Hyperscaler und kleinerer Anbieter verspricht bereits heute hohe Flexibilität. Kunden können aus den breiten Portfolios mittelständischer Cloudanbieter beispielsweise aus potenziell Hunderten von verschiedenen Modellen und Spezifikationen wählen, die genau auf die optimale Leistung eines Workloads zugeschnitten werden können. Dies kann dabei helfen, einen effizienten Cloud-Mix zu erstellen, der jeden Workload in der für ihn richtigen Cloud platziert.

Bis es soweit ist, dass Cloud-Orchestrierungslösungen oder Ansätze wie Gaia-X für mehr dynamische Verwaltungsmöglichkeiten sorgen, müssen Unternehmen sorgfältig darüber nachdenken, wie sie ihre benötigten Cloud-Services kombinieren und wie sie ihre Infrastruktur entsprechend einrichten, um Vendor lock-in und hohe Kosten zu vermeiden.
(Leaseweb: ra)

eingetragen: 23.03.21
Newsletterlauf: 28.05.21

LeaseWeb: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • Zwischen Utopie und Realität: Die dynamische Cloud

    Die Auswahl an Produkten, Funktionalitäten und Preisstaffelungen verschiedener Cloud-Plattformen ist vielfältig. Unternehmen können aus den Angeboten von Hyperscalern sowie zahlreicher mittelständischer Anbieter, die über spezifische Cloud-Portfolios inklusive Bare Metal und Dedicated Compute verfügen, wählen. In der Regel nutzen Organisationen mehr oder weniger flexible hybride Cloud Computing-Infrastrukturen, indem sie die Public Clouds der Hyperscaler mit ihrer eigenen Infrastruktur verbinden. Innerhalb einer Hybrid Cloud wünschen sich Kunden vor allem ein hohes Maß an Flexibilität, inklusive der Möglichkeit, einzelne Bestandteile der Cloud-Infrastruktur mühelos auf andere Anbieter übertragen zu können. Eine dynamische Cloud ist im Prinzip eine Multi-Cloud-Umgebung, in der sich Workloads und Daten zwischen den einzelnen Clouds verschieben lassen. Dies kann die jeweils effektivste Mischung und Skalierung ermöglichen, indem freie Instanzen in einem Umfeld von Multi-Cloud-Providern identifiziert und genutzt werden.

  • Datenzentrierte Sicherheit in der Multi-Cloud

    Datenzentrierung ist ein Faktor, der maßgeblich die Cloud- und IT-Security-Strategie in Unternehmen mitbestimmt. Je nach regulatorischen Vorgaben werden diverse Datenprozesse in geeigneter Weise abgesichert. Mit der wachsenden Cloud-Nutzung in den vergangenen Jahren entstehen in Unternehmen auch mehr und mehr Multi-Cloud-Umgebungen. Für diese spricht vor allem der Vorteil hoher Effizienz: Prozesse können zu den jeweils geringsten Kosten zu den am besten geeigneten Anbietern ausgelagert werden. Weitere Nebeneffekte für Unternehmen sind eine höhere Ausfallsicherheit, Skalierbarkeit und Stabilität der IT-Prozesse. Eigenschaften, die vor allem für den Remote-Betrieb in jüngster Vergangenheit überaus gefragt waren.

  • Das Datengedächtnis des Unternehmens sichern

    Sie besitzen sicherlich seit Jahren oder Jahrzehnten eine beachtliche Anzahl an Versicherungen. Doch spätestens bei der Durchsicht der eigenen Unterlagen zum Jahresabschluss beschleicht Sie in Anbetracht der vielen Abschlüsse und deren Kosten der Gedanke, warum Sie eigentlich diese Versicherungen Jahr für Jahr bezahlen, ohne sie ein einziges Mal in Anspruch genommen zu haben. Sie fackeln nicht lange und kündigen einige davon, unter anderem die Hausratversicherung. Doch kurz darauf ruiniert eine Rohrverstopfung mit Folgewasserschaden die Elektrik Ihrer sündhaft teuren Heimkinoanlage, den Edelteppich und die eben erst neu beschaffte Wohnzimmereinrichtung gleich mit dazu. Für den Schaden will niemand haften. Sie bleiben darauf und auf den hohen Folgekosten sitzen. Übertragen auf die Unternehmenspraxis wird sofort klar, warum eine klare Backup- und Recovery-Strategie zusammen mit einer zuverlässigen Backup-Lösung großen Ärger, lange Betriebsausfälle und hohe Umsatzverluste ersparen kann. Daher sollen im Folgenden drei Aspekte der Notwendigkeit einer funktionierenden Datensicherung und Datenwiederherstellung beleuchtet werden.

  • Kompromittierungsversuche von Cybersicherheit

    Cloud-Sicherheit war bis vor nicht allzu langer Zeit für die meisten Unternehmen zweitrangig. Das hat sich längst geändert, denn auf der Suche nach dem nächsten Ziel machen Cyberkriminelle sich bevorzugt Schwachstellen und Sicherheitslücken bei Cloud Computing-Diensten zunutze. Unternehmen können mit virtuellen privaten Netzwerken und Antivirensystemen zwar eine Menge tun, um Systeme sicherer zu machen. Einer der kritischsten und gerne übersehenen Aspekte ist allerdings nicht computerbezogen. Tatsächlich gehen 95 Prozent der Cyber-Sicherheitsverletzungen auf menschliches Versagen zurück. Dazu kommt, dass sich die meisten Cyberangriffe, auf kleinere Unternehmen konzentrieren, die sich im Gegensatz zu Großunternehmen keine teuren Sicherheitsteams leisten können. Für diese Firmen ist es nicht ganz leicht eventuelle Schwachstellen aufzufinden. Hier konzentrieren wir uns auf die Top 3 der Sicherheitsbedrohungen und was man dagegen tun kann.

  • SD-WAN bringt Stabilität ins Unternehmensnetzwerk

    Geringere Betriebskosten, effiziente Bandbreitennutzung, verbesserte User-Experience - Marktforscher attestieren dem Software-Defined Wide Area Network (SD-WAN) eine goldene Zukunft im Unternehmens-Backbone. Tatsächlich aber steht und fällt der Erfolg von SD-WAN mitdem Management von Netzwerkdiensten wie DNS, DHCP und IP-Adressverwaltung (DDI) in der Cloud. SD-WAN steht bei Netzwerkadministratoren derzeit hoch im Kurs.Gefragt sind entsprechende Technologien vor allem im Zusammenhang mit Migrationen in die Multi- beziehungsweise Hybrid-Cloud oder der Umsetzung von Software-as-a-Service (SaaS)-Strategien. Der Grund: Ein Umstieg in die Welt der dezentralen Datenverarbeitung bringt klassische Netzwerkinfrastrukturen - und deren Nutzer - rasch an die Belastungsgrenze. Hier wirken sich technische Herausforderungen wie hohe Latenzen oder Bandbreitenengpässe, etwa beim Einsatz ressourcenhungriger Anwendungspakete wie Microsoft Office 365, besonders negativ aus. Hinzu kommt, dass mit der IT aus der Wolke Netzwerk- und Security-Architekturen mehr und mehr zusammenwachsen. Anders ausgedrückt: Mit Cloud-First-Strategien wird die Administration traditioneller Netzwerke schnell zur Sisyphusarbeit.

  • DevOps werden zunehmend datengetrieben

    DevOps haben sich in der Software-Entwicklung in den vergangenen Jahren immer weiter durchgesetzt. Die effizientere und effektivere Zusammenarbeit von Entwicklung und IT-Betrieb bringt allen Beteiligten zahlreiche Vorteile: So steigt nicht nur die Qualität der Software, sondern auch die Geschwindigkeit, mit der neue Lösungen entwickelt und ausgeliefert werden. In 2019 haben wir gesehen, dass Automatisierung, künstliche Intelligenz und AIOps immer häufiger eingesetzt und von der DevOps-Gemeinschaft erforscht werden. Container und Functions as a Service nahmen weiter zu, so dass Entwickler und Betriebsteams ihre Anwendungen und Infrastruktur besser kontrollieren konnten, ohne die Geschwindigkeit zu beeinträchtigen. Doch wohin geht die Reise jetzt?

  • Cloud Computing-Daten schützen

    Mit wachsenden digitalen Geschäftsanforderungen investieren Unternehmen massiv in die Erweiterung ihrer Netzwerkverbindungsfähigkeiten, um sicherzustellen, dass ihre Daten den richtigen Personen zur richtigen Zeit zur Verfügung stehen. Insbesondere für Cloud-basierte, hochgradig vernetzte und agile Geschäftsmodelle ist die Gewährleistung eines ordnungsgemäßen Zugriffs auf Daten und Systeme unerlässlich. Zusammen mit der Konnektivität in immer komplexeren Infrastrukturen wachsen auch die Anforderungen an Netzwerk- und Datensicherheit. Wenn nicht die richtigen Schutzvorkehrungen getroffen werden, können Bedrohungen, die von Datenlecks und Fehlkonfigurationen bis hin zu Risiken durch Insider reichen, in jedem komplexen Cloud- und Netzwerkökosystem ihr Schadenspotenzial entfalten.

  • Durchsetzung von Cloud-Sicherheitsrichtlinien

    Cloud Computing-Services bieten Unternehmen heute eine kostengünstige und flexible Alternative zu teurer, lokal implementierter Hardware. Vorteile wie hohe Skalierbarkeit, Leistung und Effizienz sowie reduzierte Kosten liegen auf der Hand, sodass immer mehr Unternehmen ihre Anwendungen und Daten in die Cloud migrieren. Sensible Daten wie personenbezogene Informationen, Geschäftsgeheimnisse oder geistiges Eigentum sind jedoch neuen Risiken ausgesetzt. Denn in der Cloud gespeicherte Daten liegen außerhalb der Reichweite vieler lokaler Sicherheitsvorkehrungen. Unternehmen müssen deshalb zusätzliche Maßnahmen ergreifen, um ihre Daten in der Cloud, über den teils rudimentären Schutz der Anbieter hinaus, gegen Cyberangriffe und Datenlecks abzusichern. Allgemein sind Public-Cloud-Provider für die physische Sicherheit, globale und regionale Konnektivität sowie die Stromversorgung und Kühlung ihrer eigenen Rechenzentren zuständig. Dies ermöglicht Unternehmen eine flexible Skalierbarkeit und entlastet sie davon, eine eigene Infrastruktur wie ein Rechenzentrum oder Server-Hardware bereitzustellen. Zugleich liegt es in der Verantwortung der Unternehmen, all ihre in die Cloud migrierten Daten und Anwendung selbst auf gewünschte Weise zu schützen.

  • Redundante SaaS-Anwendungen ermittetteln

    Die Software-as-a-Service (SaaS)-Landschaft wächst und wächst. Wer bis jetzt noch nicht auf Wolken geht, plant in absehbarer Zeit himmelwärts zu wandern. Für den IT-Betrieb bringt die Cloud bei allen Vorteilen jedoch auch Herausforderungen mit. Das gilt insbesondere bei der Verwaltung von SaaS-Ausgaben. Auf den ersten Blick steht die Inventarisierung und Konsolidierung von SaaS mit Recht ganz unten auf der Prioritätenliste von IT-Abteilung. Bei den unzähligen täglichen Aufgaben und den Herausforderungen im Zuge der digitalen Transformation, wird das "Ausmisten" im IT-Haushalt gerne auf die lange Bank geschoben. Das kann sich auf lange Sicht jedoch zu einem kostspieligen Fehler auswachsen, denn die Ausgaben für die Cloud (22 Prozent) liegen mittlerweile nur noch knapp hinter den Ausgaben für On-Premise (23 Prozent). Dazu gehört auch Software-as-a-Service (SaaS), Infrastructure-as-a-Service (IaaS) und Platform-as-a-Service (PaaS). Über 80 Prozent der befragten Unternehmen planen die Ausgaben für SaaS und IaaS/PaaS im nächsten Jahr weiter zu erhöhen.

  • CLOUD Act auch für europäische Cloud-Provider?

    Nahezu zeitgleich mit der DSGVO ist der US-amerikanische CLOUD Act in Kraft getreten. In der Praxis geraten damit zwei Rechtsauffassungen unvereinbar miteinander in Konflikt. Nicht nur für Cloud-Anbieter, sondern auch für Unternehmen, die Cloud Computing-Anwendungen nutzen, könnte dies rechtliche Schwierigkeiten mit sich bringen. Anliegen des "Clarifying Lawful Overseas Use of Data" (CLOUD) Act ist es, die US-amerikanische Strafverfolgung zu erleichtern, indem der Zugriff auf im Ausland gespeicherte Kommunikationsdaten von Verdächtigen vereinfacht wird. Was bislang im Rahmen von Rechtshilfeabkommen zwischen den Regierungsbehörden verschiedener Länder im Laufe mehrerer Monate abgewickelt wurde, soll nun schneller möglich sein.