Sie sind hier: Startseite » Markt » Tipps und Hinweise

Das Private-Cloud-Modell ist flexibel


Immer mehr Unternehmen setzen auf die Private Cloud, um die Nachteile der Public Cloud zu vermeiden
Was müssen Unternehmen bei der Planung der Speicher-Infrastruktur einer Private Cloud also berücksichtigen?

Von Peter Mahlmeister, Country Manager DACH, Tintri

(19.06.15) - Verfechter der Cloud-Technologie haben jahrelang darum gekämpft, die Öffentlichkeit von der Wolke zu überzeugen. Auf den ersten Blick sprachen die Fakten für sich: keine bedeutenden Investitionen, volle Flexibilität und globale Verfügbarkeit in einer Welt, aus der das Internet nicht mehr wegzudenken ist. Trotzdem stehen viele Unternehmen der Cloud weiterhin skeptisch gegenüber. Kann die Private Cloud liefern, was die Public Cloud nur versprochen hat?

Sicherheitsverletzungen, Hacker-Angriffe und Ausfallzeiten - die Public Cloud hat für eine Menge negativer Schlagzeilen gesorgt. Dass sich Cloud Computing-Technologien in Deutschland nur sehr langsam durchsetzen, ist gut dokumentiert. In keinem Industriestaat sind sie so wenig verbreitet wie hier. So wurde die Cloud nur bei gut einem Dritten der kleinen und mittleren Unternehmen Deutschlands eingeführt. Das sind genau halb so viele Unternehmen wie im Schwellenland Indonesien. Trotz aller Unbekannten können die Vorteile von Cloud-Technologie nicht ignoriert werden. Und deutsche Unternehmen wissen, dass sie besser früher als später in die Cloud investieren sollten, um zukünftig die Nase vorn zu haben.

Cloud-Akzeptanz: Hase und Igel
Die Gründe, warum die Public Cloud in Deutschland bislang nicht wirklich angenommen wurde, sind ebenfalls gut dokumentiert: Offensichtliche Sicherheitsprobleme, Compliance-Bedenken bei multinationalen Unternehmen, die mangelnde Flexibilität einer Public-Cloud-Einheitslösung und die versteckten Kosten machten sie bei näherer Betrachtung weniger ansprechend.

Ist dies also ein Fall von Hase und Igel? Bisher zahlt sich die Vorsicht deutscher Unternehmen offenbar aus – die Cloud der ersten Generation, die Public Cloud, brachte einige Fallstricke mit sich, die den Hasen dieser Welt Probleme bescherten. Mittlerweile ist jedoch Cloud-Technologie, die den Anforderungen moderner Unternehmen gerecht wird, verfügbar: Die Private Cloud befindet sich innerhalb der Firewall des Unternehmens und somit unter der Kontrolle der IT-Abteilung.

"Mit der richtigen Technologie erfüllen Private Clouds alle Versprechen der Public Cloud, bieten jedoch ein höheres Maß an Sicherheit, Kontrolle und Flexibilität"
Peter Mahlmeister, Tintri

Die Private Cloud gibt Unternehmen die Kontrolle zurück
Der Hauptgrund, aus dem sich Unternehmen für die Private Cloud entscheiden, ist der Wunsch, die volle Kontrolle über ihre Daten zu behalten. Mit der Public Cloud war dies noch nie möglich, sodass die Compliance nicht auf jeder Stufe gewährleistet werden konnte.

Die Ausführung geschäftskritischer Anwendungen in Echtzeit auf globaler Ebene ist seit jeher ein guter Grund, diese in der Cloud zu implementieren. Die Realität ist, dass die meisten Public Clouds speziell angepasste Anwendungen erfordern. Die meisten Unternehmen sind jedoch einzigartig und nutzen maßgeschneiderte Anwendungen. Die Umcodierung dieser Anwendungen, um sie an die Public Cloud anzupassen, oder ihre Ersetzung durch neue Lösungen ist keine gute Idee. Das Private-Cloud-Modell unterstützt hingegen einen flexiblen Mix aus Anwendungen, unabhängig davon, wann der Code geschrieben und welche Programmiersprache verwendet wurde.

Es scheint fast, als übertrumpfe die Private- die Public-Version in jeder Hinsicht. Im Wesentlichen ist die Private Cloud für Unternehmen jedoch ein guter Kompromiss.

Private Cloud – mit der richtigen Speicherlösung ein guter Kompromiss
Im Gegensatz zur Public Cloud erfordert die Private Cloud Investitionen in die IT-Infrastruktur. Eine der wichtigsten und kostenintensivsten Komponenten einer Cloud-Infrastruktur ist Speicher. Was müssen Unternehmen bei der Planung der Speicher-Infrastruktur einer Private Cloud also berücksichtigen?

Leider kann der Speicher zum Performance-Engpass werden. Um Anwendungen in Echtzeit zu unterstützen, muss er eine vorhersagbare und konsistent schnelle Leistung liefern. Viele Unternehmen greifen daher auf Flash-Speicher zurück. Doch mit Flash allein ist keine Lösung und schiebt das Problem nur auf die lange Bank. Der Schlüssel liegt darin, jede virtuelle Maschine (VM) und Anwendung mit einer eigenen "Spur" auszustatten, um eine hohe Performance zu gewährleisten. Altsysteme sind unter Umständen mit schnellem und teurem Flash ausgerüstet, können diesen jedoch nicht ausschöpfen, da sie mit überkommenen Speicherkonzepten wie LUNs (Logical Unit Numbers), RAID und Datenträgern arbeiten. Die optimale Speicherlösung erlaubt es Administratoren, direkt mit virtuellen Laufwerken (Vdisk) und VMs zu arbeiten. Sie ermöglicht es Virtualisierungs- oder Cloud-Administratoren zudem, ihren eigenen Speicherbedarf zu verwalten, während Speicherexperten sich auf übergreifende, wichtigere Aktivitäten konzentrieren können.

Wie bei allen IT-Investitionen machen sich Planung und die Prüfung der besten verfügbaren Optionen insbesondere in der Speicherbranche bezahlt, in der sich die Entscheidung für eine Lösung unmittelbar auf die Investitionsausgaben und über Jahre hinweg auf die Betriebskosten auswirken wird. Die Kosten pro Gigabyte sind von Belang, doch der Preis pro VM ist wichtiger, denn VMs, die man im Laufe der Jahre hinzufügt, werden die Ausgaben in die Höhe treiben.

Vorteile der Public Cloud – ohne die damit verbundenen Schwachpunkte
Public-Cloud-Architekturen versprachen Effizienzgewinne dank gemeinsam genutzter Ressourcen, Utility Computing und flexibler Skalierbarkeit. Diese Vorteile waren verlockend, jedoch zeitweise illusorisch, und das Zögern der deutschen Kunden war berechtigt. Mit der richtigen Technologie erfüllen Private Clouds alle Versprechen der Public Cloud, bieten jedoch ein höheres Maß an Sicherheit, Kontrolle und Flexibilität. Mit Blick auf die Implementierung einer Private Cloud sollten vorausschauende Unternehmen ausschließlich in eine Plattform investieren, die Anwendungen und VMs anhand intelligenter, unkomplizierter und kosteneffizienter Skalierung unterstützt.
(Tintri: ra)

Tintri: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps und Hinweise

  • Optimierung von Java-Workloads in der Cloud

    Cloud-Infrastrukturen versprechen Skalierbarkeit, Effizienz und Kostenvorteile. Doch um Engpässe zu vermeiden, überprovisionieren viele Unternehmen ihre Cloud-Kapazitäten - und bezahlen so oftmals für Ressourcen, die sie gar nicht nutzen. Wie lässt sich das ändern? Ein zentraler Hebel ist die Optimierung von Java-Workloads in der Cloud. Cloud-Infrastrukturen bringen viele Vorteile, aber auch neue Komplexität und oft unerwartet hohe Kosten mit sich. Bei vielen Unternehmen nehmen Java-Umgebungen und -Anwendungen große Volumina in gebuchten Cloud-Kapazitäten ein, denn Java gehört noch immer zu den beliebtesten Programmiersprachen: Laut dem aktuellen State of Java Survey and Report 2025 von Azul geben 68 Prozent der Befragten an, dass über 50 Prozent ihrer Anwendungen mit Java entwickelt wurden oder auf einer JVM (Java Virtual Machine) laufen.

  • Wer Cloud sagt, muss Datensouveränität denken

    Die Cloud hat sich längst zu einem neuen IT-Standard entwickelt. Ihr Einsatz bringt allerdings neue Herausforderungen mit sich - insbesondere im Hinblick auf geopolitische Risiken und die Gefahr einseitiger Abhängigkeiten. Klar ist: Unternehmen, Behörden und Betreiber kritischer Infrastrukturen benötigen eine kompromisslose Datensouveränität. Materna Virtual Solution zeigt, welche zentralen Komponenten dabei entscheidend sind.

  • Fünf Mythen über Managed Services

    Managed Services sind ein Erfolgsmodell. Trotzdem existieren nach wie vor einige Vorbehalte gegenüber externen IT-Services. Die IT-Dienstleisterin CGI beschreibt die fünf hartnäckigsten Mythen und erklärt, warum diese längst überholt sind.

  • KI-Herausforderung: Mehr Daten, mehr Risiko

    Künstliche Intelligenz (KI) revolutioniert weiterhin die Geschäftswelt und hilft Unternehmen, Aufgaben zu automatisieren, Erkenntnisse zu gewinnen und Innovationen in großem Umfang voranzutreiben. Doch es bleiben Fragen offen, vor allem wenn es um die Art und Weise geht, wie KI-Lösungen Daten sicher verarbeiten und bewegen. Einem Bericht von McKinsey zufolge gehören Ungenauigkeiten in der KI sowie KI-Cybersecurity-Risiken zu den größten Sorgen von Mitarbeitern und Führungskräften.

  • Sichere Daten in der Sovereign Cloud

    Technologie steht im Mittelpunkt strategischer Ambitionen auf der ganzen Welt, aber ihr Erfolg hängt von mehr als nur ihren Fähigkeiten ab. Damit Dienste effektiv funktionieren, braucht es eine Vertrauensbasis, die den Erfolg dieser Technologie untermauert und eine verantwortungsvolle Speicherung der Daten, Anwendungen und Dienste gewährleistet.

  • Integration von Cloud-Infrastrukturen

    Cloud-Technologien werden zum Schlüsselfaktor für Wachstum und verbesserte Skalierbarkeit über das Kerngeschäft hinaus - auch bei Telekommunikationsanbietern (Telcos). Auch hier ist der Wandel zur Nutzung von Produkten und Dienstleistungen "On-Demand" im vollen Gange, sodass Telcos ihre Geschäftsmodelle weiterentwickeln und zunehmend als Managed-Service-Provider (MSPs) und Cloud-Service-Provider (CSPs) auftreten.

  • Acht Einsatzszenarien für Industrial AI

    Artificial Intelligence (AI) entwickelt sich zunehmend zur Schlüsselressource für die Wettbewerbsfähigkeit der deutschen Industrie. Doch wie weit ist die Branche wirklich? Laut einer aktuellen Bitkom-Befragung setzen bereits 42?Prozent der Industrieunternehmen des verarbeitenden Gewerbes in Deutschland AI in ihrer Produktion ein - ein weiteres Drittel (35?Prozent) plant entsprechende Projekte.

  • Ausfallkosten nur Spitze des Eisbergs

    Ungeplante Ausfälle in Rechenzentren sind seltener geworden, doch wenn sie eintreten, können sie verheerende Folgen haben. Laut der Uptime Institute Studie 2023 meldeten 55 Prozent der Betreiber in den vorangegangenen drei Jahren mindestens einen Ausfall - jeder zehnte davon war schwerwiegend oder kritisch. Zu den Ursachen gehören unter anderem Wartungsmängel, die sich mit einer strukturierten Instandhaltungsstrategie vermeiden lassen.

  • GenAI mächtig, aber nicht immer notwendig

    Jetzt auf den Hype rund um KI-Agenten aufzuspringen, klingt gerade in Zeiten des Fachkräftemangels für Unternehmen verlockend. Doch nicht alles, was glänzt, ist Gold. Viele Unternehmen investieren gerade in smarte Assistenten, Chatbots und Voicebots - allerdings scheitern einige dieser Projekte, ehe sie richtig begonnen haben: Schlecht umgesetzte KI-Agenten sorgen eher für Frust als für Effizienz, sowohl bei Kunden als auch bei den eigenen Mitarbeitern. Dabei werden immer wieder die gleichen Fehler gemacht. Besonders die folgenden drei sind leicht zu vermeiden.

  • Konsequent auf die Cloud setzen

    In der sich stetig wandelnden digitalen Welt reicht es nicht aus, mit den neuesten Technologien nur Schritt zu halten - Unternehmen müssen proaktiv handeln, um Innovationsführer zu werden. Entsprechend der neuen Studie "Driving Business Outcomes through Cost-Optimised Innovation" von SoftwareOne können Unternehmen, die gezielt ihre IT-Kosten optimieren, deutlich besser Innovationen vorantreiben und ihre Rentabilität sowie Markteinführungsgeschwindigkeit verbessern.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen