Sie sind hier: Startseite » Markt » Tipps und Hinweise

Eckpfeiler einer Cloud-nativen Entwicklung


Cloud und Cloud-native: Der Unterschied ist gravierend
Vom Begriff Cloud-native zu unterscheiden ist der Terminus Cloud-enabled



Cloud-native ist nicht Cloud und auch nicht Cloud-enabled. Die weitreichenden Vorteile, die die Cloud bietet, kann ein Unternehmen nur optimal ausschöpfen, wenn auch die Anwendungsentwicklung Cloud-native erfolgt. Matthias Kranz, Director Solution Architects Germany bei Red Hat, bringt Licht ins Dunkel. Das Substantiv Cloud bezieht sich nur auf den Ort für das Deployment von Hardware und Software, etwa für Server, Storage, Datenbanken und alle möglichen Formen von Applikationen und Services.

Cloud-native
Das Adjektiv Cloud-native hingegen beschreibt einen Ansatz für die Konzeption und den Betrieb von Applikationen, der die Vorteile des Cloud Computing-Modells nutzt, etwa im Hinblick auf Agilität und Automation. Trotz des Namens bezieht sich Cloud-native nicht auf den Ort des Applikations-Deployments, sondern auf die Art und Weise, wie Applikationen konzipiert, bereitgestellt und verwaltet werden. Cloud-native bedeutet also nicht, dass der Betrieb von Applikationen unbedingt in der Cloud erfolgen muss, auch ein On-Premise-Einsatz ist möglich. Ziel des Cloud-nativen Konzepts ist die Steigerung von Geschwindigkeit, Flexibilität und Qualität bei der Applikationsentwicklung unter gleichzeitiger Reduzierung der Risiken.

Cloud-enabled
Vom Begriff Cloud-native zu unterscheiden ist zudem der Terminus Cloud-enabled. Er bedeutet lediglich, dass traditionell entwickelte Applikationen für den Betrieb in der Cloud angepasst werden. Eine Cloud-enabled-Anwendung ist eine Anwendung, die in die Cloud verlagert wurde, aber ursprünglich für den Einsatz in einem herkömmlichen Rechenzentrum entwickelt ist. Dabei handelt es sich typischerweise um Legacy- und Enterprise-Software. Für die Verlagerung ist es erforderlich, einige Charakteristiken der Applikation zu ändern oder für die Cloud zu adaptieren. Eine gängige Methode für die Cloud-Migration ist dabei das "Lift and Shift"-Verfahren. Eine Cloud-native Anwendung ist im Unterschied dazu eine Anwendung, die bereits in ihrem Design mit den Cloud-Prinzipien der Mandantenfähigkeit, der elastischen Skalierung und der einfachen Integration und Verwaltung konzipiert ist.

Doch was zeichnet das Cloud-native Konzept nun konkret aus? Die Cloud-nativen Entwicklungen charakterisieren im Wesentlichen vier Punkte: Service-basierte Architektur, API-basierte Kommunikation, Container-basierte Infrastruktur und DevOps-Prozesse.

Service-basierte Architekturen wie Microservices ermöglichen den Aufbau modularer, lose gekoppelter Dienste. Andere modulare Architekturansätze – zum Beispiel Miniservices – bieten Unternehmen eine entscheidende Unterstützung bei der Beschleunigung der Anwendungserstellung, ohne dass dabei die Komplexität steigt.

Die Services werden über leichtgewichtige, Technologie-agnostische APIs bereitgestellt, die die Komplexität und den Aufwand beim Deployment sowie bei der Skalierung und Wartung reduzieren. Das API-basierte Design ermöglicht nur die Kommunikation per Service-Interface-Aufrufen über das Netzwerk, sodass die Risiken von direkten Verknüpfungen, Shared-Memory-Modellen oder direkten Lesezugriffen auf den Datenspeicher eines anderen Teams vermieden werden.

Cloud-native Anwendungen basieren auf Containern, die einen Betrieb in verschiedenen Technologieumgebungen ermöglichen und damit echte Anwendungsportabilität unterstützen, etwa im Hinblick auf Public, Private und Hybrid Cloud. Die Containertechnologie nutzt die Virtualisierungsfunktionen des Betriebssystems, um die verfügbaren Rechenressourcen auf mehrere Anwendungen aufzuteilen und um gleichzeitig zu gewährleisten, dass die Anwendungen sicher und voneinander isoliert sind. Cloud-native Anwendungen skalieren horizontal, dadurch können weitere Anwendungsinstanzen einfach hinzugefügt werden – oft durch Automatisierung innerhalb der Containerinfrastruktur. Durch den geringen Overhead und die hohe Dichte können zahlreiche Container innerhalb derselben virtuellen Maschine oder desselben physischen Servers gehostet werden. Dadurch sind sie auch ideal geeignet für die Bereitstellung von Cloud-nativen Anwendungen.

Die Anwendungsentwicklung für Cloud-native Ansätze folgt agilen Methoden mit Continuous-Delivery- und DevOps-Prinzipien, die auf die kollaborative Erstellung und Bereitstellung von Anwendungen durch Teams aus Entwicklung, Qualitätssicherung, IT-Sicherheit und IT-Betrieb fokussieren.

Oft ist noch eine Verwirrung um die Begriffe Cloud und Cloud-native anzutreffen. Prinzipiell können Unternehmen, die auf Cloud Computing setzen, die Skalierbarkeit und Verfügbarkeit ihrer Applikationen verbessern, etwa durch eine bedarfsorientierte Ressourcenbereitstellung. Um aber die Cloud-Vorteile vollständig ausschöpfen zu können, ist auch eine neue Form der Anwendungsentwicklung erforderlich. Und hier sind wir dann beim Thema Cloud-native. Die Cloud-native Anwendungsentwicklung ist ein Ansatz zur Erstellung, Ausführung und Verbesserung von Apps, der auf bewährten Techniken des Cloud Computing basiert und eine schnelle Entwicklung und Aktualisierung von Anwendungen bei gleichzeitiger Verbesserung der Qualität und Minderung von Risiken ermöglicht.
(Red Hat: ra)

eingetragen: 05.03.20
Newsletterlauf: 28.05.20

Red Hat: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps und Hinweise

  • Optimierung von Java-Workloads in der Cloud

    Cloud-Infrastrukturen versprechen Skalierbarkeit, Effizienz und Kostenvorteile. Doch um Engpässe zu vermeiden, überprovisionieren viele Unternehmen ihre Cloud-Kapazitäten - und bezahlen so oftmals für Ressourcen, die sie gar nicht nutzen. Wie lässt sich das ändern? Ein zentraler Hebel ist die Optimierung von Java-Workloads in der Cloud. Cloud-Infrastrukturen bringen viele Vorteile, aber auch neue Komplexität und oft unerwartet hohe Kosten mit sich. Bei vielen Unternehmen nehmen Java-Umgebungen und -Anwendungen große Volumina in gebuchten Cloud-Kapazitäten ein, denn Java gehört noch immer zu den beliebtesten Programmiersprachen: Laut dem aktuellen State of Java Survey and Report 2025 von Azul geben 68 Prozent der Befragten an, dass über 50 Prozent ihrer Anwendungen mit Java entwickelt wurden oder auf einer JVM (Java Virtual Machine) laufen.

  • Wer Cloud sagt, muss Datensouveränität denken

    Die Cloud hat sich längst zu einem neuen IT-Standard entwickelt. Ihr Einsatz bringt allerdings neue Herausforderungen mit sich - insbesondere im Hinblick auf geopolitische Risiken und die Gefahr einseitiger Abhängigkeiten. Klar ist: Unternehmen, Behörden und Betreiber kritischer Infrastrukturen benötigen eine kompromisslose Datensouveränität. Materna Virtual Solution zeigt, welche zentralen Komponenten dabei entscheidend sind.

  • Fünf Mythen über Managed Services

    Managed Services sind ein Erfolgsmodell. Trotzdem existieren nach wie vor einige Vorbehalte gegenüber externen IT-Services. Die IT-Dienstleisterin CGI beschreibt die fünf hartnäckigsten Mythen und erklärt, warum diese längst überholt sind.

  • KI-Herausforderung: Mehr Daten, mehr Risiko

    Künstliche Intelligenz (KI) revolutioniert weiterhin die Geschäftswelt und hilft Unternehmen, Aufgaben zu automatisieren, Erkenntnisse zu gewinnen und Innovationen in großem Umfang voranzutreiben. Doch es bleiben Fragen offen, vor allem wenn es um die Art und Weise geht, wie KI-Lösungen Daten sicher verarbeiten und bewegen. Einem Bericht von McKinsey zufolge gehören Ungenauigkeiten in der KI sowie KI-Cybersecurity-Risiken zu den größten Sorgen von Mitarbeitern und Führungskräften.

  • Sichere Daten in der Sovereign Cloud

    Technologie steht im Mittelpunkt strategischer Ambitionen auf der ganzen Welt, aber ihr Erfolg hängt von mehr als nur ihren Fähigkeiten ab. Damit Dienste effektiv funktionieren, braucht es eine Vertrauensbasis, die den Erfolg dieser Technologie untermauert und eine verantwortungsvolle Speicherung der Daten, Anwendungen und Dienste gewährleistet.

  • Integration von Cloud-Infrastrukturen

    Cloud-Technologien werden zum Schlüsselfaktor für Wachstum und verbesserte Skalierbarkeit über das Kerngeschäft hinaus - auch bei Telekommunikationsanbietern (Telcos). Auch hier ist der Wandel zur Nutzung von Produkten und Dienstleistungen "On-Demand" im vollen Gange, sodass Telcos ihre Geschäftsmodelle weiterentwickeln und zunehmend als Managed-Service-Provider (MSPs) und Cloud-Service-Provider (CSPs) auftreten.

  • Acht Einsatzszenarien für Industrial AI

    Artificial Intelligence (AI) entwickelt sich zunehmend zur Schlüsselressource für die Wettbewerbsfähigkeit der deutschen Industrie. Doch wie weit ist die Branche wirklich? Laut einer aktuellen Bitkom-Befragung setzen bereits 42?Prozent der Industrieunternehmen des verarbeitenden Gewerbes in Deutschland AI in ihrer Produktion ein - ein weiteres Drittel (35?Prozent) plant entsprechende Projekte.

  • Ausfallkosten nur Spitze des Eisbergs

    Ungeplante Ausfälle in Rechenzentren sind seltener geworden, doch wenn sie eintreten, können sie verheerende Folgen haben. Laut der Uptime Institute Studie 2023 meldeten 55 Prozent der Betreiber in den vorangegangenen drei Jahren mindestens einen Ausfall - jeder zehnte davon war schwerwiegend oder kritisch. Zu den Ursachen gehören unter anderem Wartungsmängel, die sich mit einer strukturierten Instandhaltungsstrategie vermeiden lassen.

  • GenAI mächtig, aber nicht immer notwendig

    Jetzt auf den Hype rund um KI-Agenten aufzuspringen, klingt gerade in Zeiten des Fachkräftemangels für Unternehmen verlockend. Doch nicht alles, was glänzt, ist Gold. Viele Unternehmen investieren gerade in smarte Assistenten, Chatbots und Voicebots - allerdings scheitern einige dieser Projekte, ehe sie richtig begonnen haben: Schlecht umgesetzte KI-Agenten sorgen eher für Frust als für Effizienz, sowohl bei Kunden als auch bei den eigenen Mitarbeitern. Dabei werden immer wieder die gleichen Fehler gemacht. Besonders die folgenden drei sind leicht zu vermeiden.

  • Konsequent auf die Cloud setzen

    In der sich stetig wandelnden digitalen Welt reicht es nicht aus, mit den neuesten Technologien nur Schritt zu halten - Unternehmen müssen proaktiv handeln, um Innovationsführer zu werden. Entsprechend der neuen Studie "Driving Business Outcomes through Cost-Optimised Innovation" von SoftwareOne können Unternehmen, die gezielt ihre IT-Kosten optimieren, deutlich besser Innovationen vorantreiben und ihre Rentabilität sowie Markteinführungsgeschwindigkeit verbessern.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen