- Anzeige -


Sie sind hier: Startseite » Markt » Unternehmen

Strategie und Lösungen für Big Data


Red Hat stellt Strategie für Big Data und Open Hybrid-Clouds vor: Big-Data-Infrastrukturlösungen und Applikationsplattformen für den Einsatz in Open Hybrid Clouds geeignet
Ferner wird das Unternehmen sein "Red Hat Storage Hadoop Plug-in" der Apache Hadoop Community zur Verfügung stellen


(12.03.13) - Red Hat hat ihre Strategie und Lösungen für Big Data vorgestellt. Unternehmen sind damit in der Lage, hochzuverlässige, skalierbare und einfach zu verwaltende Big-Data-Analytics-Applikationen zu erstellen und zu betreiben. Darüber hinaus wird das Unternehmen sein "Red Hat Storage Hadoop"-Plug-in der Apache Hadoop-Community zur Verfügung stellen. Das Ziel: "Red Hat Storage" soll zu einem Hadoop-kompatiblen Dateisystem für Big-Data-Umgebungen weiterentwickelt werden. Parallel dazu baut Red Hat ein umfangreiches Partnernetzwerk auf, um Unternehmen leistungsfähige Big-Data-Lösungen anbieten zu können. Dies ist ein weiteres Beispiel für die vielfältigen Initiativen von Red Hat im Big-Data-Sektor, die auf Innovationen aus der Open-Source-Community beruhen.

Die Big-Data-Infrastrukturlösungen und die Applikationsplattformen von Red Hat sind bestens für den Einsatz in Open-Hybrid-Clouds geeignet. In enger Kooperation mit der Open Source Community unterstützt Red Hat Kunden, die Big-Data-Anwendungen einsetzen. Viele Unternehmen weltweit nutzen Public Clouds, wie Amazon Web Services (AWS), für die Entwicklung, ein Proof-of-Concept und in der Pre-Production-Phase von Big-Data-Projekten. Anschließend übertragen sie die Ergebnisse in Private Clouds und bearbeiten mit ihren Analytics-Anwendungen sehr große Datenmengen.

Eine Open Hybrid Cloud ermöglicht Unternehmen, ihre Applikationen ohne Anpassungen von einer Public in eine Private Cloud zu übertragen. Red Hat engagiert sich im Rahmen von Projekten wie OpenStack und OpenShift Origin intensiv in der Open Cloud Community, um Unternehmen heute und in Zukunft optimal bei Big-Data-Projekten zu unterstützen.

Aktuell bietet Red Hat bereits eine Reihe von Lösungen an, mit denen Unternehmen Big-Data-Applikationen erstellen und betreiben können. Die Strategie konzentriert sich auf drei Hauptbereiche: Dazu gehört der Ausbau des Produktportfolios erstens bei Infrastrukturlösungen und zweitens bei Applikationsplattformen sowie drittens der Aufbau von Partnerschaften mit führenden Big-Data-Analytics-Anbietern und Systemintegratoren.

Big-Data-Infrastrukturlösungen

Red Hat Enterprise Linux:
Dem Linux Foundation Enterprise Linux User Report zufolge läuft die Mehrheit der Big-Data-Anwendungen unter Linux. Gleichzeitig ist Red Hat Enterprise Linux, die führende Lösung unter den kommerziellen Linux-Distributionen, die bedeutendste Plattform für Big-Data-Applikationen. Red Hat Enterprise Linux bietet eine hohe Leistung in verteilten Architekturen und enthält umfangreiche Features für Big Data. Die Verarbeitung riesiger Datenvolumina und anspruchsvolle Analytics-Berechnungen erfordern eine performante, zuverlässige, ressourceneffiziente und skalierbare Server- und Storage-Infrastruktur.

Red Hat Enterprise Linux adressiert diese Herausforderungen und bietet umfangreiche Features, um leistungsfähige Big-Data-Applikationen zu erstellen und sicher zu integrieren, die mit der hohen Geschwindigkeit mithalten können, mit der Daten generiert, analysiert und transferiert werden. Dies kann in der Cloud erfolgen, wo es einfacher ist, Daten aus einer Vielzahl von Quellen zu speichern, zu aggregieren und zu optimieren sowie sie plattformübergreifend zu integrieren – unabhängig davon, ob sie sich in physischen, virtuellen oder Cloud Computing-Umgebungen befinden.

Red Hat Storage Server:Auf Basis von Red Hat Enterprise Linux und dem verteilten Dateisystem GlusterFS können Unternehmen mit der Softwarelösung Red Hat Storage Server einen Pool standardbasierter Serversysteme miteinander verbinden und so eine kostengünstige, skalierbare und zuverlässige Big-Data-Umgebung aufbauen.

Im weiteren Verlauf des Jahres wird Red Hat ihr Hadoop Plug-in für Red Hat Storage an die Hadoop Community übergeben. Das Plug-in ist aktuell als Technology Preview erhältlich und bietet eine neue Storage-Option für den Unternehmenseinsatz von Hadoop, wobei die API-Kompatibilität beibehalten wird und ein lokaler Datenzugriff möglich ist, wie ihn die Hadoop-Community erwartet. Red Hat Storage Server bietet leistungsfähige Features für Big-Data-Applikationen wie Geo Replication, High Availability, POSIX-Compliance, Disaster-Recovery und -Management – unabhängig vom Ort der Datenspeicherung und unter Beibehaltung der API-Kompatibilität. Unternehmen erhalten damit eine vereinheitlichte Daten- und Scale-out-Storage-Software-Plattform, mit der sie Datei- und Objekt-basiert in physischen und virtuellen Umgebungen sowie in Public und Hybrid Clouds arbeiten können.

Red Hat Enterprise Virtualization:Red Hat Storage Server ist optimal auf Red Hat Enterprise Virtualization 3.1 abgestimmt und ermöglicht eine gemeinsame, sichere Nutzung eines Speicherpools, der von Red Hat Storage Server verwaltet wird. Unternehmen profitieren von dieser Integration durch geringere Betriebskosten, eine bessere Portabilität, freie Wahl bei der Infrastruktur, Skalierbarkeit, Verfügbarkeit und den Innovationen, wie sie durch die oVirt- und Gluster-Projekte gefördert werden. Durch die Kombination dieser Plattformen kann Red Hat ihre Open-Hybrid-Cloud-Strategie konsequent umsetzen: ein integrierter und konvergenter Knoten, bestehend aus Red Hat Storage Server und Red Hat Enterprise Virtualization, der gleichzeitig Rechen- und Speicherressourcen bereitstellt.

Applikations- und Integrationsplattformen

Red Hat JBoss Middleware:
Die Red Hat JBoss Middleware bietet Unternehmen leistungsfähige Funktionen für die Erstellung und die Integration von Big-Data-Applikationen, die mit neuen Technologien wie Hadoop oder MongoDB arbeiten. Big Data bringt nur dann einen Mehrwert, wenn Unternehmen schnell Informationen zur Verfügung haben und darauf intelligent reagieren können. Lösungen, die mit Red Hat JBoss Middleware erstellt wurden, können mit Hilfe schneller Messaging-Technologien Hadoop mit sehr großen Mengen unterschiedlichster Daten versorgen. Sie vereinfachen zudem die Zusammenarbeit mit MongoDB via Hibernate OGM und verarbeiten große Datenvolumina einfach und schnell mit Red Hat JBoss Data Grid. Die JBoss-Enterprise-Services-Plattform ermöglicht einen Zugriff auf Hadoop und auf traditionelle Datenquellen. Eine Mustererkennung in Datenströmen zur Identifizierung von Chancen und Risiken ist mit JBoss Enterprise BRMS möglich. Das Middleware-Portfolio von Red Hat bietet Unternehmen so eine umfangreiche Unterstützung bei Big Data.

Big-Data-Partnerschaften

Big-Data-Ecosystem-Partner:
Um Unternehmen ein umfangreiches Angebot an Big-Data-Lösungen anbieten zu können, wird Red Hat aus Gründen der Interoperabilität mit führenden Big-Data-Software- und -Hardware-Anbietern kooperieren. Zertifizierte und dokumentierteReferenz-Architekturen sollen Unternehmen bei der Integration und Implementierung komplexer Big-Data-Lösungen unterstützen.

Enterprise-Partner:Mit Hilfe von Integrationspartnern will Red Hat ein umfangreiches Big-Data-Solutions-Portfolio aufbauen und dazu die Referenz-Architekturen nutzen, die in Zusammenarbeit mit den Big-Data-Ecosystem-Partnern entstehen.
(Red Hat: ra)

Red Hat: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Unternehmen

  • Cloud-basierte WAF ist deutlich einfacher

    Net Wächter hat ihre Online-Anfragen und Testaccount-Nutzer der ersten zwei Monate analysiert. Demnach ist das Interesse für Web Application Firewalls ein klares Businessthema: Nur 5 Prozent aller Net Wächter-Anfragen kommen von Privatpersonen, Bloggern oder Freelancern und nicht von eingetragenen Firmen. Swjatoslav Cicer, Mitentwickler und -Gründer von Net Wächter: "Nach den Anforderungen des neuen IT-Sicherheitsgesetzes müssten eigentlich mehr Blogger und Online-Kleinunternehmer, die geschäftsmäßig Webdienste betreiben, technische und organisatorische Schutzmaßnahmen ergriffen, um sich gegen Hacker und DDos-Angriffe zu schützen oder potenzielle Abmahnungen und Bußgelder zu vermeiden. Hier besteht meiner Meinung nach noch ein eindeutiges Informationsdefizit bei diesen Nicht-Business-Zielgruppen."

  • Hybrid- und Multi-Cloud-Modelle

    Das Marktforschungsunternehmen IDC führt NetApp als einen der Hauptakteure der jüngst eingeführten Kategorie "Data Services for Hybrid Cloud". Ausschlaggebend sind die Hybrid-Cloud-Datenservices des Unternehmens. Insbesondere verwies IDC auf die NetApp Data-Fabric-Strategie, die konsistente und integrierte Services für Datentransparenz und -analysen, Datenzugriff und -kontrolle sowie Datenschutz und -sicherheit bereitstellt.

  • Equinix kooperiert mit Alibaba Cloud

    Equinix hat die Kooperation mit Alibaba Cloud bekannt gegeben, dem Cloud Computing-Zweig der Alibaba Gruppe. Durch die Zusammenarbeit kann Unternehmen der direkte, skalierbare Zugang zu "Alibaba Cloud" über "Equinix Cloud Exchange "zur Verfügung gestellt werden - und zwar in den International "Business Exchange"-Rechenzentren in Hongkong, Silicon Valley, Sydney und Washington D.C. Auch Frankfurt und London werden bald verfügbar sein. Der Cloud Computing-Markt wächst in Asien - insbesondere in China - weiterhin stark. Die U.S. International Trade Administration erwartet, dass der chinesische Cloud-Markt bis zum Jahr 2020 jährlich um 40 Prozent ansteigt und 20 Milliarden US-Dollar erreicht. Für internationale Kunden ist der Zugang zur Alibaba Cloud daher von entscheidender Bedeutung, wenn sie ihre Cloud-basierten Anwendungen in diesem Wachstumsmarkt sicher und schnell ausbauen wollen.

  • Neue Anwendungen für MindSphere

    Tata Consultancy Services und Siemens arbeiten künftig bei Innovationen für das Internet der Dinge zusammen. Kunden aus den Branchen Fertigung, Energiewirtschaft, Gebäudemanagement, Gesundheitswesen und Bahnbetreiber profitieren durch die Partnerschaft von neuen Dienstleistungen und Erkenntnissen auf Basis von Datenanalysen. Die Grundlage bildet dabei "MindSphere", das Cloud-basierte, offene Betriebssystem für das Internet der Dinge (Internet of Things, IoT) von Siemens. TCS wird neue Anwendungen für MindSphere entwickeln. Mit diesen können Kunden von Analysen und neuen digitalen Dienstleistungen profitieren, etwa im Bereich vorausschauende Wartung und Energie-Monitoring. Durch die neuen Lösungen von Siemens MindSphere und TCS können Kunden neue, innovative IoT-basierte Geschäftsmodelle entwickeln und so von der Digitalisierung profitieren.

  • Outsourcing-Anbieter & IT-Sicherheit

    Atos nimmt einen Spitzenplatz im Bereich Managed Security-Services (MSS) ein: Zu diesem Ergebnis kommen die Analysten von NelsonHall. Diese haben anhand des NelsonHall Vendor Evaluation and Assessment Tools (NEAT) zur Lieferantenbewertung zehn globale IT-Outsourcing-Anbieter im Bereich IT-Sicherheit beurteilt. Untersucht wurden verschiedene Angebote wie Applikations- und Netzwerksicherheit sowie Advanced Security Services. Zudem nimmt Atos in der begleitenden Analyse bezogen auf den Marktanteil in Europa Platz 1 sowie weltweit Platz 4 ein.

  • Internet-Konnektivität: Datenaustausch vor Ort

    DE-CIX, Betreiberin von Internet Exchanges (IX) für den Austausch von Datenverkehr im Internet, gibt bekannt, dass ihr neuer Point of Presence (PoP) im Rechenzentrum Zenium Istanbul One in der Türkei nun im Betrieb und voll funktionsfähig ist. Der neue PoP erhöht die Reichweite von DE-CIX Istanbul, einem Carrier- und Rechenzentrums-neutralen Internetknotenpunkt, der über Rechenzentren im gesamten Großraum Istanbul verteilt ist. Der DE-CIX Internetknotenpunkt in Istanbul stellt IP-Interconnection ("Peering") für die gesamte Internet-Ökosystem zur Verfügung. Dazu gehören Hosting-Anbieter, Content Delivery Networks, Internet Service Provider (ISPs) sowie Betreiber von Breitband-Internetzugängen in der Türkei, der Balkan- der Kaukasusregion, dem Iran und dem Nahen Osten.

  • Cloud-basierte Beschaffung

    Der weltweit größte digitale Marktplatz für Industriegüter und -dienstleistungen ist soeben noch größer geworden: Nach dem erfolgreichen Roll-out von "SAP Ariba Spot Buy" in Nordamerika, Australien und Lateinamerika bringt SAP Ariba mit ihrem Premium-Partner Mercateo AG die Lösung nun nach Europa. Die strategische Allianz der beiden Branchenführer verspricht europäischen Unternehmen einen grundlegenden Wandel bei Spontaneinkäufen. Angebot und Nachfrage finden künftig in einem effizienten und geschützten digitalen Marktplatz zusammen, der den Einkäufern einfache und transparentere Prozesse, mehr Flexibilität und Kosteneinsparungen verspricht, während Verkäufer von neuen Absatzchancen profitieren.

  • Starkes Entwickler-Momentum

    Die Cloud Foundry Foundation gab in Santa Clara den Startschuss für den "Cloud Foundry Summit Silicon Valley 2017". Der Summit ist die wichtigste Veranstaltung der Branche für Enterprise-Entwickler, die ihr Cloud-natives Software-Engineering-Know-how erweitern wollen. Das diesjährige Event beinhaltet Angebote wie ein neues Zertifizierungsprogramm für Entwickler vor Ort und Vorträge rund um Java und Node.js, und die Teilnehmer erfahren, wie Softwareentwicklung in einer mehrsprachigen Umgebung erfolgt. 1.800 Teilnehmer aus 24 Ländern waren auf dem Summit 2016 vertreten. Sie profitierten von den Fachvorträgen innovativer Experten, u. a. der Unternehmen Allstate, Comcast, Volkswagen.

  • Hybrid- und Multi-Cloud-Lösungen

    Das Marktforschungsunternehmen IDC führt NetApp als einen der Hauptakteure der jüngst eingeführten Kategorie "Data Services for Hybrid Cloud". Ausschlaggebend sind die Hybrid-Cloud-Datenservices des Unternehmens. Insbesondere verwies IDC auf die NetApp Data-Fabric-Strategie, die konsistente und integrierte Services für Datentransparenz und -analysen, Datenzugriff und -kontrolle sowie Datenschutz und -sicherheit bereitstellt. Einen datenzentrischen Ansatz zu verfolgen ist eine anspruchsvolle Aufgabe. Sie erfordert neue Lösungen für die Verarbeitung von Daten, da diese immer häufiger an verschiedenen Orten gespeichert werden, unterschiedlich strukturiert und von einer größeren Dynamik geprägt sind. Wenn Unternehmen zudem Hybrid- und Multi-Cloud-Modelle nutzen, um mehr Flexibilität, Skalierbarkeit und Kostenkontrolle zu erzielen, stellt sich zudem die Herausforderung der Datenintegration.

  • Das BMBF beim Digital-Gipfel 2017

    Wie die Digitalisierung das Leben in Deutschland bereichern kann, zeigte das Bundesministerium für Bildung und Forschung (BMBF) auf dem Digital-Gipfel 2017 ganz konkret anhand von Projekten und Initiativen zu digitaler Bildung und der Digitalisierung in der Medizin. Der Digital-Gipfel - ehemals IT-Gipfel - fand am 12. und 13. Juni in der Metropolregion Rhein-Neckar unter dem Motto "vernetzt besser leben" statt. Das BMBF zeigte mit seinen Partnern an beiden Gipfeltagen, wie dieses Motto für die digitale Bildung und die digitalisierte Gesundheit mit Leben gefüllt werden kann.