Sie sind hier: Startseite » Fachartikel » Hintergrund

Das Glück kurzer Reaktionszeiten


Ein neuer Ansatz für flexibles Datenmanagement ist gefragt
Relationale Datenbanksysteme und die meisten NoSQL-Datenbanksysteme basieren auf Master-Slave-Architekturen


Von Amit Chaudry, VP Product Marketing bei DataStax

Unternehmen müssen heute kundenorientiert arbeiten und in der Lage sein, Innovationen schnell auf den Markt zu bringen. Dabei müssen Applikationen hohe Ansprüche an Verfügbarkeit und Performance erfüllen. Ausfallzeiten kann sich niemand leisten, denn die Kundenerwartungen sind hoch. All das erfordert eine flexible, skalierbare IT-Umgebung. Um den unterschiedlichen, wechselnden Anforderungen gerecht zu werden, geht der Trend dahin, mehrere Clouds zu kombinieren. Ob eine Hybrid Cloud aus Public Cloud und Private Cloud oder gar verschiedene Public Clouds – laut einer aktuellen Studie von 451 Research in 14 europäischen Ländern setzen bereits 84 Prozent eine Kombination aus verschiedenen Cloud Computing-Umgebungen ein.

Mit Big Data Analytics und IoT setzen sich zudem Technologien durch, die ein exponentiell wachsendes Datenvolumen und viele verschiedene Datentypen mit sich bringen. Während es Unternehmen früher vorwiegend mit strukturierten Daten zu tun hatten, die man erst sammeln und dann an einer zentralen Stelle analysieren konnte, fließt heute ein kontinuierlicher Strom an unterschiedlichen Datentypen aus IoT-Systemen oder Smartphone-Applikationen herein, zum Beispiel Maschinendaten, Videostreams, Social-Media-Beiträge oder Kundeninformationen. Diese treten an verschiedenen Stellen auf und müssen oft sofort ausgewertet werden.

Relationale Datenbanken stoßen an ihre Grenzen
Sowohl die Hybrid- und Multi-Cloud-Umgebung als auch die veränderte Datenlandschaft stellen neue Anforderungen an das Datenmanagement. Mehr als ein halbes Jahrhundert waren relationale Datenbankmanagement-Systeme das führende Modell. Sie wurden für zentralisierte Workloads designt, eignen sich perfekt für strukturierte Daten und sind äußerst zuverlässig. Dieses Modell ist jedoch nicht mehr zeitgemäß, denn heute arbeiten Unternehmen mit verteilten Workloads und müssen riesige Mengen von teils unstrukturierten Daten speichern und analysieren.

Zunehmend haben sich daher NoSQL-Datenbanken durchgesetzt, kurz für "Not only SQL". Sie wurden dafür konzipiert, große Volumen an verteilten und auch unstrukturierten Daten in Echtzeit zu verarbeiten, ohne dass man sich dabei Sorgen um Ausfallzeiten machen muss. NoSQLs versprechen horizontale Skalierbarkeit und eine höhere Verfügbarkeit als relationale Datenbanken. Das reicht jedoch nicht aus, denn was Unternehmen heute brauchen, ist kompromisslose Performance und Hochverfügbarkeit. Hier stoßen auch die meisten NoSQL-Datenbanken an ihre Grenzen.

Das Master-Slave-Problem
Viele NoSQL-Datenbanken basieren ebenso wie SQL-Datenbanken auf einer Master-Slave-Architektur. Solche Systeme verfügen über einen Master, auf dem die Datenbank läuft, und Slaves, die mit dem Master verbunden sind. Auf den Slaves können Datenbankabfragen durchgeführt werden, aber nur der Master kann Daten schreiben. Er steuert zudem alle Datenbank-Transaktionen und gibt den Slaves Anweisungen, was sie tun sollen. Eine Master-Slave-Architektur lässt sich skalieren, indem man weitere Slaves hinzufügt. Dadurch kann die Datenbank zwar mehr lesende Zugriffe gleichzeitig abarbeiten, alle schreibenden Aktionen und die Steuerung laufen jedoch weiterhin über den einen Master.

Fällt er einmal aus, funktioniert das gesamte System nicht, bis ein neuer Master aufgesetzt ist. Um das zu vermeiden, setzen viele Datenbankkonzepte mehrere Master ein. Doch auch das kann das Problem nur bedingt lösen. Denn mit mehreren Mastern gibt es schlichtweg mehr Punkte, an denen die Datenbank ausfallen kann. Hochverfügbarkeit garantiert dies nicht. Gerade in verteilten Netzwerken wie der Hybrid Cloud sind Master-Slave-Architekturen außerdem äußerst komplex umzusetzen.

Die Lösung: NoSQL-Datenbank mit No-Master-Architektur
Ein neuer Ansatz für das Datenbankmanagement ist gefragt, der für Hochverfügbarkeit in verteilten Netzwerken sorgt. Dies gelingt mit einer Active Everywhere Database. Dabei handelt es sich um eine NoSQL-Datenbank, die ohne Master auf Basis von "Apache Cassandra" aufgebaut ist. Jeder Knoten im Cluster ist identisch, autonom und kann sowohl lesende als auch schreibende Transaktionen ausführen. Fällt ein Knoten aus, wird der Datenverkehr automatisch an einen anderen geleitet. Dieser übernimmt die Anfrage nahtlos, ohne dass dafür Code geändert werden muss. Es kommt zu keinerlei Performance-Einbußen. Sobald der ausgefallene Knoten wieder einsatzbereit ist, werden die Daten automatisch mit den anderen Knoten synchronisiert.

Ein solches System ist ganz einfach skalierbar, indem man weitere Knoten hinzufügt. Außerdem lässt es sich problemlos auf verschiedenen Clouds und Rechenzentren verteilen. Damit gewinnen Unternehmen einen weiteren Vorteil: Sie sind in der Lage, Datenbanken ganz nach Bedarf von einer Cloud in eine andere oder aus dem Rechenzentrum in die Cloud zu verschieben. Dadurch gewinnen sie mehr Flexibilität und machen sich nicht von einem Anbieter abhängig. Bietet ein anderer Provider ein günstigeres Angebot, können sie ohne großen Aufwand wechseln.

Fazit
Um wettbewerbsfähig zu bleiben, müssen Unternehmen heute in der Lage sein, riesige Mengen an Daten unterschiedlicher Typen zu verarbeiten. Dabei nutzen sie zunehmend Hybrid-Cloud- oder Multi-Cloud-Umgebungen. Das erfordert ein Datenbankmanagement, das sich für strukturierte und unstrukturierte Daten in verteilten Netzwerken eignet und dabei Hochverfügbarkeit garantiert. Mit einer Active Everywhere Database können Unternehmen Daten beliebig auf verschiedene Public Clouds und On-Premise-Infrastrukturen verteilen. So stehen die Daten jederzeit am richtigen Ort in der geforderten Geschwindigkeit zur Verfügung, um einen reibungslosen Betrieb von Anwendungen und ein positives Kundenerlebnis sicherzustellen. (DataStax: ra)

eingetragen: 10.11.18
Newsletterlauf: 30.11.18

DataStax: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Verschieben von Workloads in die Cloud

    Beim Verschieben von Workloads in die Cloud setzten jeweils 28 Prozent der Unternehmen auf Technologien zur Virtualisierung oder Migrations-Tools, hat IDC in seiner Cloud-Studie 2020 für die DACH-Region ermittelt. Die Cloud-nativen Container (23 Prozent) sowie ergänzende Orchestrierungswerkzeuge (22 Prozent) folgen dahinter, um den Schritt in die Cloud zu vollziehen. Aus dieser Bestandsaufnahme lesen die IDC-Analysten heraus, dass die Container-Adaption weiterhin schnell vorangeht. Demnach entwickeln sechs Prozent der befragten Unternehmen gezielt Container-kompatible Anwendungen. 13 Prozent der Studienteilnehmer nutzen Container in der Softwareentwicklung (DevOps), um automatisiert und überwacht Apps bereitzustellen (CI/CD). Ein weiteres Drittel verwendet die Technologie ergänzend in bereits virtualisierter Infrastruktur auf bestehenden Hypervisoren. Dort, wo der Hypervisor dann seine Funktion für virtuelle Maschinen (VM) nicht mehr erfüllt, rechnet IDC mit dem Wechsel auf eine Container-native Umgebung.

  • Datenzentrierte Sicherheit in der Multi-Cloud

    Datenzentrierung ist ein Faktor, der maßgeblich die Cloud- und IT-Security-Strategie in Unternehmen mitbestimmt. Je nach regulatorischen Vorgaben werden diverse Datenprozesse in geeigneter Weise abgesichert. Mit der wachsenden Cloud-Nutzung in den vergangenen Jahren entstehen in Unternehmen auch mehr und mehr Multi-Cloud-Umgebungen. Für diese spricht vor allem der Vorteil hoher Effizienz: Prozesse können zu den jeweils geringsten Kosten zu den am besten geeigneten Anbietern ausgelagert werden. Weitere Nebeneffekte für Unternehmen sind eine höhere Ausfallsicherheit, Skalierbarkeit und Stabilität der IT-Prozesse. Eigenschaften, die vor allem für den Remote-Betrieb in jüngster Vergangenheit überaus gefragt waren. Mit der Nutzung verschiedener Software-as-a-Service (SaaS)-Anwendungen, Infrastructure-as-a-Service (IaaS)-Plattformen und gegebenenfalls der Arbeit an vielen verteilten Standorten mit nicht verwalteten Geräten vergrößert sich hingegen die Angriffsfläche für böswillige Akteure massiv. Disparate Sicherheitslösungen sind für derartige Szenarien nicht leistungsfähig genug. Für die IT-Verwaltung wird es damit deutlich schwieriger, Richtlinien über die gesamte Umgebung hinweg durchzusetzen. Zudem steigen durch das Arbeiten in verschiedenen Lösungen die Fehleranfälligkeit sowie die Wahrscheinlichkeit für Datensicherheitsvorfälle.

  • Videoüberwachung als Cloud-nativer Dienst

    Videoüberwachung als Cloud-nativer Dienst ist die Gegenwart. Denn die Kontrolle von Straßen, Gebäuden und Plätzen lebt davon, aufgezeichnete Materialien zuverlässig zu übertragen, intelligent zu analysieren und effizient sowie datenschutzkonform zu sichern. Kameranetze, um Gebäude, Plätze, Straßen oder Filialen von fern zu überwachen, verändern sich. Bei Restaurant- oder Ladenketten stoßen Systeme bei wachsenden Unternehmen schnell an ihre Grenzen. Die Zeit spielt eine weitere Rolle: Neue Kameras werden angebracht, alte Systeme ausgetauscht, häufig bis zuletzt betrieben und solange technisch gewartet. Einsatzzentralen können sich über am Körper getragene Kameras, das Smartphone oder die Webcam im Taxi beziehungsweise am Einsatzwagen ein schnelleres Bild von der Lage machen. Passanten rufen schnell und direkt um Hilfe. Eine heterogene gewachsene Hardwarelandschaft ist daher die Regel. Der öffentliche Dienst, intelligente Städte, Immobilienverwalter oder Unternehmen mit Filialen benötigen eine zentrale Cloud-basierte Infrastruktur, um die Hardware und das Videomaterial zu verwalten.

  • Versteckte Risiken bei SaaS

    Infolge der COVID-19-Maßnahmen fokussieren Führungskräfte sich auf die Aufrechterhaltung der Mitarbeiterproduktivität -dabei bleibt wenig Zeit für das erforderliche Maß an Sorgfalt, das gewöhnlich angewandt wird. Leider ist dies die Realität in der Welt, in der wir gerade leben, aber in absehbarer Zukunft sitzen wir alle im selben Boot. Die Auswirkungen unserer gegenwärtigen Normalität sind sehr unterschiedlich. Wie ein Unternehmen darauf reagieren musste, hing stark davon ab, wie dieses vor der aktuellen Krise gearbeitet hat. Einige Unternehmen waren bereits in hohem Maße mobil und mussten lediglich die verbleibenden Büro-Mitarbeiter dazu in die Lage versetzen. Andere Unternehmen mussten ihre Arbeitsweise völlig umstellen und manchmal die Mitarbeiter auffordern, Laptops zu kaufen, weil die Unternehmensressourcen begrenzt waren und die Schwierigkeiten in der globalen Gerätelieferkette zu groß waren.

  • Immer mehr Daten werden in der Cloud geboren

    Heutzutage nutzen die meisten Betriebe bereits in der einen oder anderen Form Cloud Computing-Lösungen. Neben den vielen Vorteilen, die die Cloud bieten kann, vergrößert sie jedoch auch die Angriffsfläche. Um ein hohes Maß an Sicherheit auch in der Cloud zu garantieren, können moderne Sicherheitslösungen mit Maschinellem Lernen, Analytik und Automatisierung helfen. Die meisten IT-Abteilungen sind gut damit vertraut, die Netzwerksicherheit vor Ort zu gewährleisten. Wie dies im Detail in der Cloud funktioniert, ist vielerorts jedoch noch relativ neu. Darüber hinaus sind viele Organisationen bereits mit der Absicherung ihrer bestehenden Infrastruktur ausgelastet und tun sich damit schwer, zusätzlich auch noch Cloud-Infrastrukturen abzusichern. Mit fortschrittlichen Technologien, die Machine Learning und Analytik nutzen, lassen sich jedoch auch komplexe hybride Infrastrukturen mit überschaubarem Cybersecurity-Budget absichern.

  • Herausforderungen beim Ressourcen-Management

    Wenn Menschen über Ressourcen-Management reden, beschreiben sie Funktionen, die unter die Domäne "Enterprise Resource Planning (ERP)" fallen, wie z.B. Personalmanagement oder die Beschaffung von physischen Ressourcen wie Schreibtischen. In einem Dienstleistungsunternehmen hat dieser Begriff jedoch eine andere Bedeutung, wobei individuelle Tools und Strategien erforderlich sind. Im Zusammenhang mit Dienstleistungen geht es beim Ressourcen-Management um die Ressourcen-Zuweisung - Mitarbeiter zur richtigen Zeit am richtigen Ort einzusetzen. Dies ist ein anspruchsvoller Prozess. Wird dieser richtig gemacht, wird die Zeit der Mitarbeiter in entsprechenden Projekten effektiv genutzt, wodurch die Rentabilität und das Kundenengagement verbessert werden.

  • Datenmanagement fördert Compliance

    Unabhängig vom konkreten Anlass oder Thema: Sobald Daten eine Rolle spielen, bestimmen sofort Begriffe wie "Sicherheit", "Privatsphäre" und "Datenschutz" die Diskussion. Gleichzeitig gab es allerdings seit ihrem Inkrafttreten im Mai 2018 europaweit bereits über 160.000 Verstöße gegen die Datenschutz-Grundverordnung (DSGVO). Grund genug für einen Appell, die Datenhoheit der eigenen Kunden ernster zu nehmen. Seit Oktober vergangenen Jahres ist Gaia X in der IT-Landschaft und darüber hinaus in aller Munde: Das ambitionierte Cloud Computing-Projekt des Bundeswirtschaftsministers Peter Altmaier hat es sich zur Aufgabe gemacht, eine unabhängige Dateninfrastruktur für den europäischen Raum zu schaffen. Das Ziel dahinter: mehr Sicherheit, Rechte und Vertrauen für die Nutzer, weniger Abhängigkeit von den großen internationalen Cloud-Providern.

  • Vertrauen in die Cloud wächst - oder doch nicht?

    Security first - IT-Sicherheit bleibt eine ständige Herausforderung für die IT-Verantwortlichen in den Unternehmen. Dabei spielt die Cloud eine immer wichtigere Rolle, denn einerseits verlagern die Unternehmen mehr und mehr Anwendungen ins Web. Andererseits bleiben Sicherheitsverletzungen ein Hauptziel für Datendiebstahl und DDoS-Attacken. Eine Umfrage, die Barracuda unter seinen Kunden weltweit durchführte, zeigt ein beachtliches Vertrauen der 850 befragten Sicherheitsexperten verschiedenster Unternehmensgrößen und -industrien in Public-Cloud-Bereitstellungen.

  • Warum Netzwerksichtbarkeit wichtig ist

    Laut IHS Markit, einem Dienstleister für Analysen und Informationen, entstehen Unternehmen aufgrund von Ausfällen und Leistungsverlusten ihrer Netzwerke jährlich etwa 700 Milliarden US-Dollar (circa 615 Milliarden Euro) an Mehrkosten. Das Risiko hierfür steigt, wenn Unternehmen Kosten sparen wollen und sich deshalb für eine Multi-Vendor-Strategie entscheiden, bei der sie Leistungen beim jeweils günstigen Anbieter beziehen, anstatt diese Leistungen für ihr gesamtes Netzwerk bei einem Anbieter zu beziehen. Diese Multi-Vendor-Strategie erschwert die Übersicht über das gesamte Netzwerk und erhöht so die Komplexität des Netzwerkmanagements.

  • Zusammenarbeit an einer Automotive-Cloud

    Mit einer Cloud-basierten Plattform will der Automobilhersteller Volkswagen seine Prozesse in der Fertigung optimieren. Die "Volkswagen Industrial Cloud" soll Ende 2019 verfügbar sein und wird langfristig rund 1.500 Partner in die Abläufe für Logistik und Produktion einbinden. Der Datenaustausch über die Cloud wird die gesamte Automobilindustrie ergreifen und macht es notwendig, dass alle Teilnehmer des Ökosystems in der Lage sind, ihre bestehenden IT-Systeme mit einer Industrial-Cloud zu verbinden. Auf diesen Trend sollten sich alle Marktteilnehmer schon heute vorbereiten.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen