Sie sind hier: Startseite » Markt » Interviews

Performance-Probleme beim Cloud Computing


Chris James, Virtual Instruments: "Private Clouds sind nur so gut wie ihre Architektur"
Cloud-Hosting-Unternehmen bieten oftmals nur eine SLA für die Verfügbarkeit von Applikationen an und keine SLA für die Performance

Chris James, Virtual Instruments:
Chris James, Virtual Instruments: "Fragen Sie sich, warum Sie auf die Private Cloud setzen und welches die vermeintlichen Vorteile sind", Bild: Virtual Instruments

(04.12.12) - Viele Unternehmen migrieren Anwendungen in die Private Cloud. Mit dem Private Cloud-Ansatz können diese Unternehmen einige Vorteile des Cloud Computing in ihrem eigenen Rechenzentrum realisieren. Die IT-Administratoren sind jedoch völlig überrascht, wenn sie erkennen müssen, dass sie auch in ihrer eigenen IT-Infrastruktur mit Performance-Problemen zu kämpfen haben. Chris James, Director of EMEA Marketing bei Virtual Instruments, erklärt die Gründe von Performance-Problemen in der Cloud und wie man ihnen zu Leibe rücken kann.

Sehr oft klagen Unternehmen darüber, dass die Einführung von Cloud-basierten Applikationen Performance-Probleme verursacht. Können Sie uns die Gründe dafür nennen?

Chris James:
Hier heißt das Hauptproblem "Kontrolle". Wenn Sie ein kleines Unternehmen sind und wenig Angestellte haben, macht beispielsweise ein Managed Desktop Service viel Sinn. Sie haben nämlich weder die Zeit noch die Ressourcen die Desktops selbst zu managen. Wenn Sie jedoch eine große Organisation sind, werden Sie wahrscheinlich feststellen, dass Outsourcing - ein anderes Wort für die Cloud - bedeutet, dass Sie die Kontrolle verlieren. Die meisten Cloud-Hosting-Unternehmen bieten nur eine Service Level Agreement (SLA) für die Verfügbarkeit von Applikationen an und keine SLA für die Performance. Dabei benötigen Sie gerade die Kombinationen von beiden.
Die meisten großen Unternehmen lagern daher ihre kritischen Applikationen nicht aus, sie virtualisieren sie sogar noch nicht einmal, es sei denn, sie besitzen eine End-zu-End-Sichtbarkeit ihres Rechenzentrums.

Viele Unternehmen migrieren Anwendungen in die Private Cloud. Mit dem Private Cloud Computing-Ansatz können diese Unternehmen einige Vorteile des Cloud Computing in ihrem eigenen Rechenzentrum realisieren. Die IT-Administratoren sind jedoch völlig überrascht, wenn sie erkennen müssen, dass sie auch in ihrer eigenen IT-Infrastruktur mit Performance-Problemen zu kämpfen haben. Können Sie uns die Gründe nennen und sagen, wie man das Problem in den Griff bekommen kann?

James:
Diese Probleme werden von einem Mangel an Transparenz bei der Verwendung eines jeden IT-Bausteins der IT-Infrastruktur verursacht. Sie müssen sich vergegenwärtigen, dass alle virtuellen System immer noch auf einer physikalischen Infrastruktur liegen. Wenn 95 Prozent des Datenverkehrs über zwei Switch-Ports laufen und der Rest der Switches mit weniger als 5 Prozent ausgelastet ist, dann spielt es keine Rolle, wieviel IT Sie virtualisieren. Sie laufen automatisch in Performance-Probleme.
Es ist wichtig, die IT-Infrastruktur als eine Einheit zu sehen und nicht jedes IT-Produkt als ein Einzel-Element zu betrachten, wenn Sie effizient sein wollen. Die meisten Organisationen denken aber immer noch auf Server-, Switch-, Fabric- oder Storage-Ebene.

Unternehmen verwenden häufig Performance-Werkzeuge. Viele dieser Werkzeuge sind aber nicht geeignet, Performance-Probleme zu lösen. Können Sie erklären warum?

James:
Viele Performance-Tools werden mit der entsprechenden Hardware geliefert. Sie können messen, was in ihrer Umgebung stattfindet - aber hauptsächlich eben nur in ihrer Umgebung. Wenn Sie ihre Server virtualisieren und die Performance-Tools nutzen, die Ihnen vom Hersteller zur Verfügung gestellt werden, können Sie sehen, was auf den virtuellen und physikalischen Servern abläuft; vielleicht sehen Sie auch noch, was auf den Switch-Ports passiert. Aber sicherlich sehen Sie nicht, wie sich die Applikation verhält und Ihre Storage-LUNs beschaffen sind.
Performance-Werkzeuge auf Einzelproduktbasis neigen dazu, im Laufe der Zeit ihre Resultate einem Mittelwert (um gewöhnlich ein paar Minuten) anzupassen. Wenn Sie also einen diskontinuierlichen Fehler haben, der nur zeitweilig auftritt, werden Ihnen diese Tools nicht weiterhelfen.
Daten erzeugen in der Infrastruktur eine Zeilenrate (gewöhnlich ein paar Millisekunden). Wenn Sie also die Performance einer Applikationen analysieren wollen, müssen Sie das Monitoring auf Basis dieser Zeilenrate betreiben und dürfen nicht einen Durchschnittswert heranziehen.

Können Sie uns die Schlüsselmerkmale für das Performance Management von Private Clouds nennen?

James:
Stellen Sie sicher, dass Sie jedes System innerhalb der Datenzentrums-Infrastruktur, wo sich die Private Cloud befindet, sehen können - dies von einem einzelnen Punkt aus und in Echtzeit. Private Clouds sind nur so gut wie ihre Architektur. Sie müssen daher sicherstellen können, dass Sie in Ihrem Gesamtsystem keine Flaschenhälse haben. Sorgen Sie dafür, dass die Applikation für eine Private Cloud-Infrastruktur entwickelt wurde oder die Infrastruktur auf Applikationen, die in einer Private Cloud laufen, angepasst wurde.
Eines der Hauptmerkmale einer Private Cloud muss das kosteneffiziente Management der Anwendungen sein, das Sie wiederum nur durch ein gut überwachte Umgebung erhalten. Die Kosteneffizienz kann sehr leicht verloren gehen, wenn Sie den "alten" Weg beschreiten, um die Performance sicherzustellen - nämlich wenn Sie eine Überdimensionierung der IT-Kapazität vornehmen.

Was sind die Schlüsselmerkmale eines erfolgreichen Private Cloud-Einsatzes?

James:
Verwenden Sie die richtigen Tools für den Job. Fragen Sie sich, warum Sie auf die Private Cloud setzen und welches die vermeintlichen Vorteile sind. Hinterfragen Sie, ob Ihre eigene IT-Infrastruktur und Ihre IT-Abteilung überhaupt dafür bereit sind, die neu entdeckten Freiheiten zu verwerten. Wenn in richtiger Art und Weise mit der verfügbare Kapazität innerhalb der physikalischen Infrastruktur umgegangen wird, können riesige Einsparungen erzielt werden. Dazu müssen sie aber die alten Pfade verlassen und nicht die Probleme so lösen, wie Sie sie früher gelöst haben - eben durch eine Überdimensionierung der IT-Kapazität.

Unternehmen wollen Risiken ausschalten, wenn Mission-critical-Anwendungen in eine Private Cloud Umgebung migriert werden. Auf welche weise Virtual Instruments diese Unternehmen unterstützen?

James:
Virtual Instruments versetzt IT-Organisationen in die Lage, die physikalische, virtuelle und Cloud Computing-Infrastruktur zu sehen. Dies ist eine Voraussetzung für eine erfolgreiche Migration von Business-kritischen Applikation in die Private Cloud. IT-Organsiation können das Ausgangsniveau ihrer Applikations-Performance vor der Migration bestimmen, die Daten ohne Risiko von Performance-Problemen bewegen, die neue Infrastruktur so optimieren, das eine Applikations-Performance auf Millisekundenniveau erzielt und dabei die bestehende Kapazität der IT-Infrastruktur komplett ausgenutzt wird.

IT-Organisation können mit unseren Lösungen alle Elemente einer IT von einem einzigen Punkt aus sehen, und zwar herstellerunabhängig und in Echtzeit (Zeilengeschwindigkeit) ohne die Verwendung von Agenten. Auf diese Weise können Unternehmen die neuen kosteneffizienten Cloud Computing-Technologien nutzen, dies mit der Gewissheit, dass sie eine bessere, schnellere, robustere und preiswertere IT-Infrastruktur geschaffen haben.

Chris James
Chris James bekleidet bei Virtual Instruments, dem Marktführer in Infrastructure Performance Mangement (IPM) für reale, virtuelle und Cloud Computing-Umgebungen, die Position des Director of EMEA Marketing und verantwortet alle Aspekte Virtual Instruments Marketing für die Region Europa, Mittlerer Osten und Afrika.
Durch seine mehr als 25 Jahre EMEA Marketing-Erfahrung in der IT-Branche verfügt er über weitreichende Kenntnisse in den Bereichen Software, Services, Consulting und Hardware. Vor seinem Eintritt bei Virtual Instruments im April 2011 war er Director bei Chris James
Associates und unterstützte in dieser Position einige der sich am schnellsten weiterentwickelnden Unternehmen der IT-Branche vor ihrem Börsengang beziehungsweise vor einer Übernahme. Dieser Kundenkreis schließt 3PAR und DataDomain sowie einige erfolgreiche Reseller wie zum Beispiel Alpha Systems, Coolsprit und NexStor ein. Auch führte der zweifache Familienvater bahnbrechenden neuen Geschäftsbereichen (Quantums StorNext-Produkte und Virtual Instruments) zum Erfolg.Chris James hatte in seiner Laufbahn auch Marketing Positionen bei Overland, Fujitsu, Amdahl und CSC inne.
(Virtual Instruments: ra)

Virtual Instruments: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>



Meldungen: Interviews

  • Nutzung von Cloud-Lösungen in Unternehmen

    Die Nutzung von Anwendungen im Bereich Cloud Computing nimmt weiter zu. Doch welche Vorteile bietet diese Technologie konkret? Und wie können Hürden überwunden werden? Das und noch mehr verrät Alexander Vogel, Head of Sales Large Enterprises bei SD Worx, in diesem Interview.

  • Herausforderungen für MSP

    COVID-19 und der Shutdown sollten ideal geeignet sein, um den Wert eines Managed Services-Modells zu zeigen. Worin liegen aktuell die wichtigsten Vorteile, die MSPs ihren Kunden jetzt bieten können? Zu diesem Thema haben wir mit Doug Lilley, Senior Security Consultant bei Synopsys, gesprochen: Doug Lilley: "Das Managed Services-Modell hat eine Reihe von Schlüsselvorteilen, die gerade jetzt in Zeiten des Covid-19 Shutdown hilfreich sind. Zuallererst und unmittelbar einsichtig: Das Modell war schon immer zu einem großen Teil auf Remote-Working-Szenarien und die damit verbundenen Kundenanforderungen fokussiert. In vielen Fällen wurden Remote-Zugriff, interne und externe Kommunikation und Service Workflows bereits implementiert, getestet und haben sich als effektiv bewährt. Lange vor dem abrupten Zwangsumstieg auf eine Remote-Working-Kultur für ganze Belegschaften rund um den Globus.

  • Unternehmensdaten in der Cloud

    Fachkräfte und innovative Geschäftsmodelle sind wichtige Treiber-Themen der deutschen Wirtschaft. Beides ist in Gefahr - wenn sensible Informationen dazu beispielsweise in der Cloud für faktisch jeden verfügbar sind. Mitverantwortlich für den leichteren Zugang zu den entsprechenden Daten sind Regierungen und Geheimdienste. Denn IT-Sicherheitslücken wurden in der Vergangenheit zum Selbstzweck erst spät oder möglicherweise gar nicht bekanntgegeben. Durch derartige "Einfallstore" sind sensible Unternehmensdaten in der Cloud leichter an- und abgreifbar. Der War for Talents kann so unsichtbar in der extern gehosteten Personalverwaltungssoftware ablaufen. Neuartige, digitale Geschäftsmodelle liegen bereit für "Copy and Paste" durch die Konkurrenz. Marco Lenck, Vorstandsvorsitzender der Deutschsprachigen SAP-Anwendergruppe e.V. (DSAG), kennt die Bedenken und appelliert an Politik, Hersteller und Anwender, hier verlässliche Grundlagen zu schaffen - über Gesetze, eine transparente Kommunikationspolitik und das rasche Etablieren eines digitalen Binnenmarktes.

  • Datenschutz im Cloud Computing

    Seit Standards für den Datenschutz in der Cloud durch die ISO/IEC-Norm 27018 im April 2014 definiert sind, gibt es immer wieder Meldungen von Herstellern, die eine Zertifizierung für die Datenschutzanforderungen durchlaufen haben wollen. Aber ist es überhaupt möglich, eine Zertifizierung nach ISO/IEC 27018 zu erlangen? Wie sieht denn die Prüfung aus und wer ist der Prüfer und Zertifikatsgeber? Sind die in der Cloud gespeicherten Daten tatsächlich sicher vor dem Zugriff Dritter, wie diese Meldungen suggerieren? Das Bundesministerium für Wirtschaft und Energie (BMWI) hat in Deutschland die Trusted Cloud Initiative ins Leben gerufen, die sich mit der Datensicherheit in Cloud-Diensten beschäftigt und Entwicklungen zur sicheren Datenverarbeitung in der Cloud unterstützt. Für ein mögliches Zertifizierungsverfahren wurde ein Pilotprojekt aus Mitgliedern aus Standardisierung, Forschung, Wirtschaft, Prüfern und Aufsichtsbehörden zusammengestellt, die einen Anforderungskatalog zur Zertifizierung nach den Vorgaben des BDSG und den Umsetzungsempfehlungen des ISO/IEC 27018:2014 entwickelt haben, das Trusted Cloud Datenschutzprofil (TCDP).

  • Vertrauen in die Cloud zurückgewinnen

    Der Skandal um die Späh-Programme der amerikanischen und britischen Regierungen hat dem Boom des Cloud Computing einen ersten Dämpfer verpasst - plötzlich keimen Zweifel auf, ob es so eine gute Idee ist, vertrauliche Daten in der Cloud zu speichern. Altrans IT-Security Consultant Benedikt Heintel erläutert im Interview, wie es um die Sicherheit und das Vertrauen in Cloud-Diensten bestellt ist und was Unternehmen nun tun können, um ihre IT-Sicherheit zu erhöhen.

  • Big Data, Cloud und Cyber-Crime

    In der neuen Welt von Cloud und Big Data ist das Thema "Trust" - Vertrauen - essentiell. EMC subsumiert darunter drei Themen: "Identifying & Repelling Threats" (d.h. Identifizierung und die Abwehr von Bedrohungen - Advanced Security), Datenschutz- und Sicherheit (Integrated Backup & Recovery) sowie die Sicherstellung der Verfügbarkeit von Daten, Applikationen und Systemen (Continuous Availability). Gerade die Identifizierung und die Abwehr von Bedrohungen stellen auf Security-Seite eine neue Herausforderung dar. Roger Scheer, Regional Director Germany bei RSA, The Security Division of EMC, erklärt, warum.

  • Sicherheitsfragen beim Cloud Computing

    Ein großes Versicherungsunternehmen und auch die Vorzeige-Internetpartei "Piraten" haben es im Jahr 2012 an Bewusstsein für Datenschutz und Datensicherheit mangeln lassen. Damit liegt das Jahr voll im Trend der vergangenen zehn Jahre. Denn noch immer ist es das fehlende Bewusstsein für die Schutzbedürftigkeit von Daten, das dem Datenklau Tür und Tor öffnet. Gleichzeitig nehmen Compliance-Verpflichtungen immer weiter zu, nach denen Unternehmen gesetzliche und brancheninterne Vorgaben zum Datenschutz einhalten müssen. Deshalb gilt: Wer bisher nicht aufgefallen ist, besitzt noch längst keinen optimalen Schutz. Dr. Volker Scheidemann, Marketingleiter der Applied Security GmbH (apsec), über Sicherheitsfragen beim Cloud Computing und Informationssicherheit als Management-Aufgabe.

  • Performance-Probleme beim Cloud Computing

    Viele Unternehmen migrieren Anwendungen in die Private Cloud. Mit dem Private Cloud-Ansatz können diese Unternehmen einige Vorteile des Cloud Computing in ihrem eigenen Rechenzentrum realisieren. Die IT-Administratoren sind jedoch völlig überrascht, wenn sie erkennen müssen, dass sie auch in ihrer eigenen IT-Infrastruktur mit Performance-Problemen zu kämpfen haben. Chris James, Director of EMEA Marketing bei Virtual Instruments, erklärt die Gründe von Performance-Problemen in der Cloud und wie man ihnen zu Leibe rücken kann.

  • Breitband-Internet und Cloud Computing

    Cloud Computing-Services brauchen Bandbreite. Und seit dem Start der Breitbandinitiative der Bundesregierung hat sich in der Anbindung unterversorgter Flächen und ländlicher Gebiete einiges getan. Doch die Situation ist für Unternehmen abseits der Metropolen immer noch nicht rosig. Hier ist die Kooperation aller Stakeholder gefragt. Josef Glöckl-Frohnholzer, Geschäftsführer von BCC, im Interview zur Versorgung von Gewerbegebieten.

  • Mehr Transparenz für die IT-Steuerung

    Netzwerkmanagement bedeutet mehr als zu überwachen, ob alle Geräte einwandfrei arbeiten. Richtig aufbereitet lassen sich aus der Flut von Überwachungsdaten wichtige Erkenntnisse zur Steuerung der ITK-Infrastruktur eines Unternehmens ableiten. Frank Koppermann, Teamleiter Netzmanagement bei BCC, im Interview.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen