- Anzeige -


Virtualisierte Datacenter mit Cloud Computing


NetApp und VMware bereiten den Weg für virtualisierte Datacenter mit Cloud Computing
Storage-Lösungen von NetApp in Kombination mit "VMware vSphere" liefern heute schon Cloud-Infrastrukturen


(24.04.09) - NetApp gab die Integration und Zertifizierung ihrer Storage-Plattformen mit "VMware vSphere 4" bekannt. "VMware vSphere 4" ist ein Betriebssystem für interne Clouds und soll flexible und zuverlässige IT-Services ermöglichen. Zusammen mit den NetApp Storage-Lösungen bietet vSphere 4 die Grundlage für einen flexibleren Datacenter-Betrieb.

VMware vSphere 4 ist eine Plattform zum Aufbau von Cloud-Infrastrukturen, die CPU-, Netzwerk- und Storage-Ressourcen in einer nahtlosen, flexiblen und dynamischen Cloud vereinen. NetApp liefert die Storage-Grundlage für VMware vSphere, damit Kunden ihre Datenspeicher zu einem skalierbaren und anpassungsfähigen Ressourcenpool transformieren können.

Kunden können unter anderem folgende NetApp-Vorteile mit VMware vSphere 4 nutzen:

>> Verbesserte Effizienz:
Mithilfe von NetApp Technologien wie Deduplizierung und Thin Provisioning können Kunden in virtualisierten Server- und Storage-Umgebungen mehr als 50 Prozent bei der Infrastruktur sparen. VMware vSphere-Kunden profitieren jetzt auch vom NetApp Virtualization

>> Bessere Kontrolle: NetApp trennt Netzwerk- und Storage-Ressourcen sicher und ermöglicht so das Hosten von IT-Services für zahlreiche Mandanten. Über VMware vCenter Server lässt sich die gesamte Umgebung unter VMware vSphere 4 von der virtuellen Maschine bis zum virtuellen Volume in Echtzeit einsehen und die Auslastung optimieren. Automatisiertes Klonen, Speicherzuweisung, Backup und Recovery für virtuelle Server und Speicher vereinfachen das Management. Insgesamt entsteht dadurch mehr Verfügbarkeit, Sicherheit und Managebarkeit und die Kontrolle über die Datacenter-Umgebung wird erheblich verbessert.

>> Mehr Auswahl: Im Rahmen der NetApp Unified-Architektur können Kunden Performance und Kosten flexibel aufeinander abstimmen, da je nach Anforderung das passende Speicherprotokoll einsetzbar ist. Kunden anderer Storage-Hersteller können ihre Speicherlösungen anhand der NetApp V-Serie unter einer Storage-Architektur vereinen und zugleich die Möglichkeiten der Storage-Effizienz und Management-Vereinfachung von "Data Ontap" nutzen. Kunden haben damit die nötige Flexibilität und Auswahl, um ihren Bedarf jetzt und in Zukunft bestmöglich zu erfüllen.

Lesen Sie zum Thema "Virtualisierung" auch auf: IT SecCity.de (www.itseccity.de)

"Wir glauben, dass VMware vSphere 4 Unternehmen einen reibungslosen und pragmatischen Weg zum Cloud Computing weisen wird", sagte Parag Patel, Vice President Alliances bei VMware.

"Der Einsatz von VMware, Cloud-Komponenten zu einer einzigen Management-Einheit zusammenzuschließen, passt perfekt zu unserer Vision von der Entwicklung des Datacenters", sagte Manfred Reitner, Area Vice President Germany bei NetApp. "Während VMware vSphere 4 die Grundlage für Cloud Computing liefert, liefert NetApp ihren Kunden eine Storage-Plattform für IT-Services. NetApp und VMware bieten gemeinsamen Kunden einen soliden Weg zum Cloud Computing, damit Komplexitäten im Datacenter besser managebar sind." (NetApp: VMware: ra)

NetApp: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

VMware: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Applikationen / Lösungen

  • Cloud-Tiering für Objektspeicher

    Nutanix hat neue Hybrid-Cloud-Fähigkeiten in ihren Speicherlösungen für unstrukturierte Informationen, Objects und Files, vorgestellt. Mit Hilfe dieser innovativen Funktionalitäten sind Kunden nun in der Lage, eine horizontal skalierbare Speicherschicht mit hohem Bedienkomfort in verschiedensten Cloud Computing-Umgebungen bereitzustellen. Dadurch können sie das Management ihrer Daten vereinfachen und die entsprechenden Kosten effektiv managen. IT-Teams kommen damit dem Ziel eines echten Hybrid-Cloud-Betriebsmodells einen großen Schritt näher.

  • Wertvolle Einblicke bei der Migration in die Cloud

    Teradata bringt mit "Teradata DataDNA" einen neuen automatisierten Service auf den Markt, der Analysen zur Datenherkunft und -nutzung erstellt. DataDNA basiert auf den umfassenden Funktionen von Vantage, der Teradata-Plattform für Datenanalysen in Hybrid- oder Multi-Cloud-Umgebungen. Der neue Service bietet einen transparenten Überblick über die Datenbestände eines Unternehmens und deren Nutzung im gesamten Ökosystem - unabhängig von der Plattform oder Technologie.

  • Event-Daten-Verarbeitung in der Confluent Cloud

    Confluent stellt neue, vollständig verwaltete Connectors zur nahtlosen Integration von Events in Cloud-, On-Premise- oder Hybrid-Umgebungen sowie ksqlDB-Pull-Abfragen zur einheitlichen Verarbeitung von Event-Daten in der "Confluent Cloud" vor und unterstützt damit das neueste Thema für Project Metamorphosis - Complete. Dank der Connectors, die ein vollständiges Ökosystem aus On-Premise-Systemen, Top-Cloud-Diensten und beliebten Unternehmenstools abbilden, können Firmen einfach Daten aus ihrer gesamten Organisation zusammenführen und analysieren, um die individuelle Kundenerfahrung und die operative Effizienz zu verbessern. In Kombination mit ksqlDB können Unternehmen komplexe Echtzeitanwendungen schneller als jemals zuvor umsetzen und sparen monatelange Entwicklungszeit und Ressourcen.

  • Lifecycle-Management für SAP-Anwendungstestdaten

    Virtustream, Cloud-Plattform für den professionellen Unternehmenseinsatz von Dell Technologies, hat ihr neues "Data Slicing and Masking Services for SAP"-Angebot vorgestellt. Die Services unterstützen Kunden beim Automatisieren, Kopieren sowie Sichern von Daten in Nicht-Produktionsumgebungen. Sie tragen dazu bei, die Testdatenqualität zu verbessern bei gleichzeitiger Reduzierung des bestehenden System-Footprints. Dadurch sinkt auch in der gesamten IT-Umgebung die Gefahr von Risiken oder Compliance-Problemen.

  • "Trend Micro Cloud One - Network Security"

    Trend Micro stellt die Integration ihrer Hybrid-Cloud-Sicherheitslösung mit dem neu eingeführten "AWS Gateway Load Balancer" (GWLB) vor. Dieser neue Service vereinfacht die Bereitstellung, Skalierung und Verwaltung virtueller Appliances von Drittanbietern mit Amazon Web Services (AWS). Die Integration ermöglicht es Kunden, Appliances von vertrauenswürdigen Anbietern wie Trend Micro auf eine Art und Weise zu nutzen, die automatisch skalierbar ist und so arbeitet, dass Sicherheitsanforderungen kontinuierlich in einem As-a-Service-Format erfüllt werden.

  • Trend Micro schützt Cloud-basierte Anwendungen

    Trend Micro gibt die Verfügbarkeit von "Trend Micro Cloud One - Application Security" bekannt, einer nativen Cloud-Sicherheitslösung für moderne Anwendungen und APIs. Cloud One - Application Security wird als Teil von Trend Micros umfassender Cloud-Security-Plattform Cloud One bereitgestellt und bietet Transparenz auf Code-Ebene sowie Schutz vor den neusten Cyber-Bedrohungen. Einem kürzlich erschienenen Gartner-Bericht zufolge "werden bis 2025 über 50 Prozent der globalen Unternehmen Serverless Function Platform as a Service (fPaaS) einführen - ein Anstieg von unter 20 Prozent heute." In Vorwegnahme dieses Marktwachstums bietet Cloud One - Application Security eingebettete Sicherheit für den Laufzeitschutz, um Unternehmen dabei zu unterstützen, ihre Daten in neu eingeführten Umgebungen zu schützen.

  • Micro führt Cloud-fähige Netzwerksicherheit ein

    Trend Micro kündigt die globale Verfügbarkeit seiner Cloud-nativen Netzwerksicherheitslösung "Trend Micro Cloud One - Network Security" an. Als jüngste Ergänzung der ganzheitlichen Cloud-Sicherheitsplattform Cloud One bietet sie einfach zu implementierenden und umfassenden Schutz virtueller privater Clouds. Dabei ist sie entsprechend skalierbar, um Compliance-Anforderungen zu erfüllen, ohne dass es zu Unterbrechungen von Anwendungen oder Datenverkehr kommt.

  • KI- & Metadaten-gesteuerte Data Governance-Lösung

    Informatica, Anbieterin von Enterprise Cloud Data-Management-Lösungen, führt eine umfangreiche Data Governance-Lösung mit vielen neuen Funktionen für die Snowflake Data Cloud ein. Das Unternehmen unterstützt alle wichtigen Workloads von Snowflake. Dazu gehören Data Engineering, Data Warehouse, Data Lakes, Data Science, Data Applications sowie Data Sharing. Die KI- und Metadaten-gesteuerte Data Governance-Lösung von Informatica unterstützt Tausende von Kunden in allen Branchen. Die neu angekündigten End-to-End Data Governance-Funktionen kombinieren unternehmensweite Cloud-Datenverwaltung mit -katalogisierung von Snowflake-Datenbeständen, der gesamten Datenstruktur des Unternehmens, Datenqualitätsmanagement sowie Data Governance-Funktionen.

  • Cloud Monitoring und Cloud Management

    Cloud Monitoring und Cloud Management sind verantwortungsvolle Aufgaben. Sie gewährleisten reibungslose Abläufe im eigenen Firmennetzwerk oder bei Kunden, deren Infrastruktur in der Cloud gemanagt wird. Die neue Cloud-Monitoring-App "CloudControl" der Objektkultur Software GmbH gibt Systemadministratoren dafür jetzt eine wertvolle Arbeitserleichterung an die Hand. Aufgrund der aktuellen Situation wurden die meisten Mitarbeitenden und Tätigkeiten in vielen Betrieben ins Homeoffice verlegt. Daher müssen viel mehr Ressourcen nach außen hin zur Verfügung gestellt und die IT-Services vielleicht sogar von außerhalb organisiert werden.

  • Produktivität der Data Teams erhöhen

    Das Daten- und KI-Unternehmen Databricks, führt "SQL Analytics" ein, damit Data Analysten Workloads direkt in einem Data Lake durchführen können, anstatt in einem Data Warehouse. Damit wird der traditionelle Umfang eines Data Lakes von Data Science und ML auf alle Daten-Workloads einschließlich BI und SQL ausgeweitet. Jetzt können Unternehmen Data Teams aus den Bereichen Data Engineering, Data Science und Data Analytics an einer einzigen Datenquelle zusammenarbeiten. SQL Analytics verwirklicht die Vision von Databricks für eine Lakehouse-Architektur, die die Leistung von Data Warehouses mit der Wirtschaftlichkeit von Data Lakes kombiniert.