Sie sind hier: Startseite » Markt » Tipps und Hinweise

Vier Technologien für IoT-Daten-Management


Vorteile von traditionellem Cloud- und Edge-Computing: In IoT-Projekten haben es Unternehmen häufig mit unstrukturierten Daten zu tun
Um hier ein ausgewogenes Data Tiering zu erreichen, eignen sich besonders Hybrid-Cloud-Strukturen


Karsten Stöhr ist Data Architect bei DataStax

Laut einer Studie von Gartner planen 66 Prozent der befragten Unternehmen, 5G bis 2020 etabliert zu haben. Immerhin 59 Prozent wollen mit dem Einsatz des neuen Netzes auch Use Cases im Bereich Internet of Things (IoT) angehen. Nicht zu Unrecht. Denn der neue Kommunikationsstandard ebnet den Weg dafür, endlich vollumfänglich von den Daten zu profitieren, die neue Technologien generieren.

Smartphones, Smart Cities, Smart Homes und Smart Cars gestalten unsere digitale Welt neu und schaffen eine massive Infrastruktur aus sensorischen Daten. Und diese Masse an Daten wird mit dem Einsatz neuer Technologien weiter steigen – auf 175 Zettabytes in fünf Jahren, wie es IDC voraussagt. Jedoch machen wir auch unentwegt Fortschritte, was die Nutzung dieser Daten angeht. So stehen uns, nicht zuletzt dank 5G, schon heute Mittel dazu zur Verfügung, die noch vor fünf Jahren unvorstellbar gewesen wären. Vier solcher Schlüsseltechnologien, die ein leistungsfähiges Management von IoT-Daten in skalierbarer Form ermöglichen, werden im Folgenden beleuchtet:

1. Zeitreihen-Datenbanken
Zeitreihendaten machen in IoT-Projekten einen großen Teil der anfallenden Daten aus. Betrachtet man Produktionsergebnisse im Laufe der Zeit, lassen sich Aussagen über den Einfluss bestimmter Parameter treffen, Trends bewerten oder Muster in den Daten identifizieren. So könnten beispielsweise Temperaturschwankungen eines Brennofens die Qualität des Endprodukts beeinflussen. Die Einsichten entstehen hier aus der Analyse von Zeitreihendaten, also dem Abgleich von Werten über eine bestimmte Zeit hinweg. Datenbanken für das Management solcher Daten müssen meist eine große Menge an Schreibvorgängen unterstützen. Auch wenn die einzelnen Datensätze klein sein mögen, ergibt sich die Herausforderung durch die hohe Anzahl an Datensätzen, die über einen Zeitraum anfällt.

Der Ansatz, Zeitreihendaten zu verwalten, unterscheidet sich daher stark vom bekannteren relationalen Datenmodellierungsansatz. In einem Zeitreihen-Datenmodell speichert der Anwender Daten in Spalten und nicht in einem traditionellen zeilenbasierten Modell. Dies ermöglicht es der Datenbank, Daten effizient auf den Speicher zu schreiben und für Analysezwecke zu lesen. Zudem wird die Zeit bis zur Rückgabe einer Anfrage verkürzt. Weitere Vorteile von Zeitreihen-Datenbanken sind Nutzerfreundlichkeit und Skalierbarkeit sowie Features wie Komprimierung, Data-Lifecycle-Management und Datenverdichtung.

2. Echtzeit-Analyse dank Stream-Architektur
IoT-basierte Anwendungen verarbeiten in der Regel Millionen oder sogar Milliarden Datenpunkte am Tag. Einige davon erfordern eine umgehende Reaktion. Das gelingt nur, indem Unternehmen ein System zur Datenstromverarbeitung einsetzen. Denn Lösungen wie beispielsweise Apache Kafka leiten die Daten ab dem Zeitpunkt des Entstehens direkt in das Analysesystem. Im Gegensatz zu einer Batch-Verarbeitung, bei der Informationen über einen längeren Zeitraum gesammelt und dann gemeinsam analysiert werden, stehen die Einsichten aus den generierten Daten in Stream-basierten Architekturen in Echtzeit zur Verfügung. Dabei kann eine solche Architektur große Datenmengen nicht nur aus einer, sondern aus mehreren Quellen verarbeiten.

Das macht sie beispielsweise sehr effektiv für die Verwaltung von Clickstream-Analysen, also dem Sammeln von Besucherdaten auf Websites und deren Auswertung. In einem E-Commerce-Shop können anhand dieser Einsichten dann Angebote oder Produktempfehlungen für den Kunden im Handumdrehen personalisiert werden. Daher ist Echtzeit-Streaming ein unglaublich leistungsfähiges Werkzeug zur IoT-Datenverwaltung auf Unternehmensebene.

3. Data Tiering
Je nach Anwendungsfall, bieten sich für die Ablage von Daten verschiedene Speicherstufen wie Flash-Speicher, traditionelle SAN/NAS-Speicher-Arrays, Objektspeicher oder die Cloud an. Data Tiering sorgt dafür, dass die Daten zwischen den Speicherstufen verschoben werden können, ohne dass wichtige Informationen verloren gehen oder sich die Kosten erhöhen. So werden immer die richtigen Anforderungen in Bezug auf Speicherplatz, Geschwindigkeit und Kosten erfüllt.

In IoT-Projekten haben es Unternehmen häufig mit unstrukturierten Daten zu tun. Um hier ein ausgewogenes Data Tiering zu erreichen, eignen sich besonders Hybrid-Cloud-Strukturen. Denn sie kombinieren die Vorteile von traditionellem Cloud- und Edge-Computing: Sie bieten eine schnelle, aber sicherere Datenverarbeitung, die zudem näher an der Quelle und bei Bedarf auch in einem zentralen Repository stattfindet. Dies ermöglicht mehr Flexibilität beim Verschieben von Daten, beispielsweise in Public Clouds – die Kontrolle über die Daten bleibt jedoch beim Unternehmen. Zudem werden so Nachteile der alleinigen Nutzung der Public Cloud umgangen, wie hohe Bandbreitenkosten, Sicherheitsrisiken, Zugriffsmuster oder Performance-Probleme.

4. Erweiterte Replikation
Wird das Skalieren einer Datenbank nötig, ermöglicht Replikation den Aufbau einer verteilten Datenbank. Indem Daten aus einer Datenbank auf einem Computer oder Server in eine Datenbank auf einem anderen Rechner kopiert werden, lässt sich von zwei oder mehr Standorten simultan auf die gleichen Daten zugreifen. Das Wichtige: Der Informationsstand ist für alle Benutzer der gleiche. Er kann zudem beliebig oft kopiert werden, um neue Analysemodelle aufzusetzen. Anwendungen zur Datenreplikation werden daher für Analysen von IoT-Daten immer wichtiger. Denn sie erlauben die Analyse großer Datenmengen in komplexen, verteilten Umgebungen. Nur durch diese Analyseergebnisse können aber Unternehmen Nutzungsmuster leichter erkennen oder Schwachstellen in angeschlossenen Geräten identifizieren — was letztlich zur Entwicklung verbesserter vernetzter Produkte beiträgt.

Erweiterte Replikationsstrategien umgehen sogar weite räumliche Distanzen. In einem Hub-and-Spoke-Modell beispielsweise können Daten von entfernten Standorten zu einem zentralen Hub repliziert werden. Auf diese Weise werden im zentralen Hub alle entfernten Standorte nachgebildet, jeder Standort muss sich aber nur um seine eigenen Daten kümmern und keine Gedanken über die Übertragung machen. Gerade mit der Weiterentwicklung von Edge- und Near-Edge-Computing gewinnt dieses Modell stark an Bedeutung. Auch in IoT-Umgebungen wird diese erweiterte Datenreplikation künftig eine wichtige Rolle spielen. Denn so lässt sich eine konsistente Kopie der Daten über alle Knoten hinweg bereitstellen, was die Datenverfügbarkeit erhöht und die Verfügbarkeit sicherstellt.
(DataStax: ra)

eingetragen: 04.03.20
Newsletterlauf: 14.05.20

DataStax: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps und Hinweise

  • Einblicke in die Sichtweise der Kunden

    Online-Händler erhalten täglich eine unzählige Menge an Anfragen. Ein Großteil davon wird mit KI-Agenten gelöst, da sie immer wieder ähnliche Themen wie Lieferzeiten, Rücksendungen oder Produktspezifikationen betreffen. Zum einen sind KI-Agenten damit eine Arbeitserleichterung bei wiederkehrenden Anfragen, besonders wenn diese Lösungen einfach zu bedienen sind, und den Unternehmen schnellen Mehrwert bieten. Doch hinter diesen Wiederholungen verbirgt sich zum anderen auch eine bislang oft ungenutzte Quelle strategischer Erkenntnisse: die Daten, die bei jeder einzelnen Interaktion entstehen.

  • Modernisierung birgt auch ein Risiko

    Der Trend zur Cloud-Migration setzt Vermögensverwalter zunehmend unter Druck, ihre digitale Transformation voranzutreiben. Einer der strategischen Pfeiler einer Cloud-Strategie ist dabei der Wechsel von On-Premise- zu SaaS-Lösungen. Für größere, traditionelle Institutionen stellt sich jedoch die Frage: Sollten sie direkt auf SaaS umsteigen oder lieber einen mehrstufigen Ansatz über PaaS wählen? Alberto Cuccu, COO von Objectway, erklärt, warum ein schrittweiser Migrationsprozess für bestimmte Geschäftsfälle eine sinnvolle Option sein kann, welche Rolle DORA dabei spielt und welche typischen Fehler Banken bei ihrer IT-Transformation machen.

  • SaaS-Lösungen die beste Wahl

    In der Versicherungsbranche reichen starre und manuelle Prozesse nicht mehr aus, um die Anforderungen des digitalen Kunden abzudecken. Agile und anpassbare Versicherungsservices sind ein Gebot der Stunde. Sie erfordern eine moderne Versicherungsplattform, die nach Einschätzung von Fadata, Anbieterin von Softwarelösungen für die Versicherungsbranche, drei technische Kriterien erfüllen sollte.

  • Datenqualität entscheidend

    Künstliche Intelligenz, kurz KI, gehört derzeit zu den meistdiskutierten Themen. Die Entwicklungen sind rasant, die Möglichkeiten scheinen fast unbegrenzt. Viele Unternehmen arbeiten deshalb schon mit KI oder sind aktuell dabei, Tools zu implementieren. "KI als Katalysator für Optimierung, Standardisierung und Digitalisierung wird von Unternehmen bereits vielfältig eingesetzt. Doch es fehlen in vielen Branchen, wie etwa im Retail-Bereich, noch Use Cases - es kann noch nicht alles mit KI-Tools gelöst werden. Vor der Implementierung gilt es in vielen Fällen deshalb noch zu prüfen, ob sich der Einsatz von KI in jedem Fall lohnt", sagt Andreas Mohr, SAP Senior Development Consultant bei retailsolutions.

  • Sicherheitsrisiken in der Cloud

    Es gibt gute Gründe, Daten und Dienste in eine Cloud-Umgebung zu verlagern: Flexibilität, Skalierbarkeit und Kosteneffizienz sprechen eindeutig für die Cloud. Es sind jedoch auch die Risiken zu bedenken und zu managen. Ein wichtiger Aspekt ist die Datensicherheit: Da die Daten in externen Rechenzentren gespeichert werden, sind sie potenziell Angriffen ausgesetzt - sensible Informationen können abgefangen oder manipuliert werden.

  • Was Unternehmen beachten müssen

    Künstliche Intelligenz gehört für immer mehr Unternehmen ganz selbstverständlich zum Geschäftsalltag dazu. Insbesondere die generative KI (GenAI) erlebt einen Boom, den sich viele so nicht vorstellen konnten. GenAI-Modelle sind jedoch enorm ressourcenhungrig, sodass sich Firmen Gedanken über die Infrastruktur machen müssen. NTT DATA, ein weltweit führender Anbieter von digitalen Business- und Technologie-Services, zeigt, warum die Cloud der Gamechanger für generative KI ist.

  • SAP mit umfassender Cloud-Strategie

    Für die digitale Transformation von Unternehmen setzt SAP auf eine umfassende Cloud-Strategie. Hier bietet SAP verschiedene Lösungen an. Neben der SAP Public Cloud, die sehr stark auf den SME-Markt zielt, bedient die Industry Cloud als Kombination aus Private Cloud und industriespezifischen Cloud-Lösungen eher den LE-Markt.

  • Warum steigende IT-Kosten das kleinere Übel sind

    Es gibt Zeiten, in denen sind CIOs wirklich nicht zu beneiden. Zum Beispiel dann, wenn sie der Unternehmensführung wieder einmal erklären müssen, warum erneut höhere Investitionen in die IT nötig sind. Eines der größten Paradoxe dabei: Kosten steigen auf dem Papier auch dann, wenn eigentlich aus Kostengründen modernisiert wird. Der Umstieg vom eigenen Server im Keller in die Cloud? Mehrkosten. Neue SaaS-Lösungen?

  • Optimierung von Java-Workloads in der Cloud

    Cloud-Infrastrukturen versprechen Skalierbarkeit, Effizienz und Kostenvorteile. Doch um Engpässe zu vermeiden, überprovisionieren viele Unternehmen ihre Cloud-Kapazitäten - und bezahlen so oftmals für Ressourcen, die sie gar nicht nutzen. Wie lässt sich das ändern? Ein zentraler Hebel ist die Optimierung von Java-Workloads in der Cloud. Cloud-Infrastrukturen bringen viele Vorteile, aber auch neue Komplexität und oft unerwartet hohe Kosten mit sich. Bei vielen Unternehmen nehmen Java-Umgebungen und -Anwendungen große Volumina in gebuchten Cloud-Kapazitäten ein, denn Java gehört noch immer zu den beliebtesten Programmiersprachen: Laut dem aktuellen State of Java Survey and Report 2025 von Azul geben 68 Prozent der Befragten an, dass über 50 Prozent ihrer Anwendungen mit Java entwickelt wurden oder auf einer JVM (Java Virtual Machine) laufen.

  • Wer Cloud sagt, muss Datensouveränität denken

    Die Cloud hat sich längst zu einem neuen IT-Standard entwickelt. Ihr Einsatz bringt allerdings neue Herausforderungen mit sich - insbesondere im Hinblick auf geopolitische Risiken und die Gefahr einseitiger Abhängigkeiten. Klar ist: Unternehmen, Behörden und Betreiber kritischer Infrastrukturen benötigen eine kompromisslose Datensouveränität. Materna Virtual Solution zeigt, welche zentralen Komponenten dabei entscheidend sind.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen