- Anzeige -


Sie sind hier: Startseite » Markt » Hintergrund

Sechs Big Data-Prognosen für das Jahr 2017


Mittlerweile gibt es Datenplattformen basierend auf neuen Technologien, mit denen Big Data effizient verarbeitet und genutzt werden kann
Mit Hilfe von agilen Modellen und einem breiten Spektrum von Analysewerkzeugen können auf dem gleichen Datenbestand Batch-Analysen, interaktive Analysen sowie der Datentransport zwischen Systemen ("global messaging") realisiert werden

- Anzeigen -





Der Markt befindet sich durch die digitale Transformation in einem Umbruch. Anfänglich war Big Data ein eher technisches Thema für IT-Experten. Mittlerweile erlernen Kunden, Firmen und Organisationen den Einsatz von datengetriebenen Technologien für neue Geschäftsmodelle und Projekte. Laut John Schroeder, Vorstandsvorsitzender und Mitbegründer von von MapR Technologies, Inc., hat sich der Fokus in der IT auf die Wertigkeit der Daten verschoben.

John Schroeder hat bezogen auf Markt-Trends für das Jahr 2017 sechs Prognosen aufgestellt.

1) Das Comeback der künstlichen Intelligenz
Künstliche Intelligenz (KI) ist ein Teilgebiet der Informatik, das es schon seit einigen Jahrzehnten gibt. Die Grundlagen der mathematischen Theorie der KI wurden bereits in den sechziger Jahren u.a. von Ray Solomonoff definiert. Bis vor einigen Jahren hatte KI relativ wenig Einfluss auf die klassische Datenverarbeitung. Zurzeit erfährt der Bereich der künstlichen Intelligenz jedoch eine Wiedergeburt in eine Welt, in der Daten und Informationen eine immer größere Rolle spielen. Begriffe wie maschinelles Lernen, kognitives Computing und neuronale Netze sind auf dem Anwendungsgebiet der Massendatenverarbeitung "mainstream" geworden. Dieser Trend wird sich auch 2017 verstärkt fortsetzen. Im Kern geht es hier überwiegend um die automatische und iterative Anwendung rechenintensiver Algorithmen auf großen Datenmengen.

Eine Ursache des Comebacks der künstlichen Intelligenz ist somit Big Data, das bekanntlich durch drei Hauptmerkmale charakterisiert wird – "Volume" (Daten-Volumen), "Velocity" (Daten-Entstehungsgeschwindigkeit) und "Variety" (Daten-Vielfalt).

Mittlerweile gibt es Datenplattformen basierend auf neuen Technologien, mit denen Big Data effizient verarbeitet und genutzt werden kann. Mit Hilfe dieser Plattformen können sowohl neue als auch klassische Modelle der Datenprozessierung horizontal skaliert werden. Hierbei wird im Vergleich zu traditionellen Systemen eine Kostenreduktion vom Faktor 10-20 erreicht.

2) Wettbewerbsvorteil vs. Governance
Für das Jahr 2017 wird ein Tauziehen zwischen der Daten-Wertschöpfung auf der einen und Daten-Governance auf der anderen Seite prognostiziert.

Viele Unternehmen besitzen wertvolle Informationen über Kunden und Partner. Die Vorreiter unter ihnen transformieren ihr Unternehmen vom Marktsegment Führer in eine datengetriebene Organisation.

Hierbei ist die digitale Transformation eine Gratwanderung zwischen der Einhaltung von Richtlinien, der Gewährung von Datensicherheit und Datenschutz und der Wertschöpfung aus Daten. Unternehmen aus dem Finanz- und Gesundheitswesen sind hierfür ein Paradebeispiel, da dort die Datenbasis gleichermaßen für regulierte und nicht regulierte Anwendungsfälle verfügbar sein muss.

Regulierte Anwendungsfälle setzen die Steuerung von Geschäftsprozessen, Daten-Qualität und Daten-Herkunft ("Lineage") voraus. Letzteres ermöglicht ausgehend von aggregierten Datensätzen die Rückverfolgung zu den ursprünglichen Daten. Die Einhaltung der Regularien ist notwendig und meist auch gesetzlich vorgeschrieben. Allerdings führt dies zu Einschränkungen bei der Umsetzung von nicht-regulierten Anwendungsfällen wie zum Beispiel die "360 Grad Kundensicht", da diese auf polystrukturierte und heterogene Daten zurückgreifen müssen, die sich nur mit großem Aufwand regulieren lassen.

3) Data-Lake für das analytische und operative Geschäft
"Stellen Sie sich ihre Möglichkeiten vor, wenn alle Daten in einem zentralen Data Lake sicher abgelegt sind und jede Abteilung ihres Unternehmens jederzeit kontrollierten Zugriff auf diese Daten hat" – dies klingt zunächst einmal sehr vielversprechend. Leider resultiert dies in der Praxis häufig eher in einen Datensumpf, der in Gestalt eines Data Warehouse Nachbaus operationale und Echtzeit-Anforderungen nicht erfüllt.

Unternehmen investieren in neue Geschäftsmodelle, um wettbewerbsfähig zu bleiben. Für die Realisierung dieser Anwendungsfälle wird eine agile Plattform benötigt, die gleichermaßen analytische und operationale Aufgaben übernehmen kann. Zum Beispiel werden im E-Commerce für den Besucher eines Web-Portals in nahezu Echtzeit individualisierte Produktempfehlungen berechnet und angezeigt. Medienunternehmen müssen in der Lage sein, personalisierte Inhalte anzubieten. Automobilhersteller und Unternehmen aus dem Maschinenbau müssen einen Datenaustausch zwischen Menschen und Maschinen ermöglichen, um in Echtzeit auf Ereignisse reagieren zu können.

4) Datenagilität schafft Wettbewerbsvorteile
Agile Softwareentwicklung in Kombination mit "Continuous Delivery" durch den DevOps-Ansatz ermöglichen die Entwicklung und das Ausrollen von qualitativ hochwertiger Software. Für 2017 wird prognostiziert, dass agile Ansätze auch verstärkt in den Bereich der Datenverarbeitung vordringen werden. Der Begriff Datenagilität beschreibt die Fähigkeit, den Kontext von Daten zu verstehen und daraus Unternehmensentscheidungen abzuleiten. Nicht ein großer Data-Lake alleine, sondern die Datenagilität verschafft letztendlich Wettbewerbsvorteile.

Mit Hilfe von agilen Modellen und einem breiten Spektrum von Analysewerkzeugen können auf dem gleichen Datenbestand Batch-Analysen, interaktive Analysen sowie der Datentransport zwischen Systemen ("global messaging") realisiert werden.

5) Blockchain verändert Finanzdienstleistungen
1998 hat Nick Szabo einen Aufsatz mit dem Titel "The God Protocol" verfasst. Darin sinnierte er über ein Protokoll, bei dem Gott der vertrauenswürdige Mittelsmann aller Transaktionen wäre.

Blockchain ist Mechanismus, der in sich an diesem Verfahren – wenn auch ohne direkte Einflussnahme von Gott – orientiert und die Grundlage für das "bitcoin" Protokoll ist.

Im weiteren Sinne ist Blockchain eine weltweit verteilte Datenbank, die das Speichern von Daten und Prozessieren von Transaktionen revolutioniert. Transaktionen werden in verketteten Blöcken gespeichert, wobei jeder Block auf seinen Vorgänger-Block referenziert und mit einer Prüfsumme versehen wird, in der die Prüfsummen aller vorausgehenden Blöcke mit einfließt. Folglich kann der Inhalt eines Blocks nicht geändert werden ohne Änderungen in allen nachfolgenden Blöcken vornehmen zu müssen.

Blockchain zeichnet sich durch große Effizienz und Sicherheit aus. Zum Beispiel müssten mit Blockchain Konsumenten nicht mehr auf eine SWIFT Transaktion warten und befürchten, dass es auf einem zentralen Daten-Center ein Datenleck gibt, das Schaden verursacht.

Für Unternehmen ermöglichen Blockchain Kosteneinsparungen und das Potenzial eines Wettbewerbsvorteils. Im Finanzwesen werden für das Jahr 2017 die Realisierung von vielen Anwendungsfällen erwartet, die auf dem o.g. Verfahren basieren und eine große Auswirkung auf das Speichern von Daten und Transaktionen haben werden.

6) Integration von maschinellem Lernen verstärkt den Einfluss von Microservices
Derzeit gibt es zahlreiche Aktivitäten, um maschinelles Lernen in den Architekturansatz der Microservices zu integrieren. Bislang haben sich Microservices überwiegend auf leichtgewichtige Services beschränkt. Microservices und maschinelles Lernen sind sich weitgehend im Rahmen der Nutzung und Verarbeitung von "Fast Data" begegnet. Für 2017 wird prognostiziert, dass neben den typischerweise eher "stateless" geprägten Microservices auch immer mehr "stateful" Applikationen und Services entstehen, die sich Big Data zunutze machen. Daneben wird maschinelles Lernen verstärkt in Szenarien zum Einsatz kommen, die große Mengen von historischen Daten benutzen, um den Kontext von "Fast Data" besser verstehen zu können.

"Unsere Prognosen werden stark von führenden Kunden beeinflusst, die durch die Integration von analytischen und operativen Anwendungsfällen einen erheblichen Mehrwert generieren", so John Schroeder. "Unsere Kunden nutzen die MapR konvergente Datenplattform für die agile und flexible Verwertung von Daten. Sie bietet ein breites Spektrum für die agile Datenverarbeitung durch Hadoop, Spark, SQL, NoSQL bis hin zum Streaming von Dateien und Nachrichten. Die MapR-Datenplattform ist eine einzigartige Kombination von Werkzeugen für die Umsetzung von aktuellen und zukünftigen Anwendungsfällen in privaten, öffentlichen und hybriden Cloud-Deployments."
(MapR Technologies: ra)

eingetragen: 10.01.17
Home & Newsletterlauf: 18.01.17

MapR Technologies: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Standort der Cloud-Server nicht das Problem

    Etwa 40 Dienststellen des Bundes speichern Daten bei externen Cloud Computing-Anbietern - so Zahlen aus einer Sitzung des Innenausschusses des Bundestags veröffentlicht auf hr-info. Die Sicherheit der teilweise sensiblen Daten wird vor diesem Hintergrund vermehrt in Frage gestellt. Nachdem Anfang April 2019 bekannt wurde, dass "Bodycam-Daten" der deutschen Bundespolizei in Amazon Web Services (AWS), dem Cloud-Dienst des US-amerikanischen Anbieters Amazon, gespeichert werden, wurden in einer Innenausschusssitzung weitere Fälle offengelegt, in denen Daten deutscher Bürger auf Servern gespeichert werden, deren Rechtsgrundlage zum Datenschutz zumindest umstritten ist.

  • Wie sicher ist die (Public) Cloud?

    Laut einer Bitkom-Studie zum Thema Cloud Computing nutzten im Jahr 2018 73 Prozent der deutschen Unternehmen Rechenleistungen aus der Cloud; im Jahr 2017 waren es 66 Prozent. Zudem scheint die Public Cloud aufgrund hoher Skalierbarkeit immer beliebter zu werden -allerdings nicht ohne Sicherheitsbedenken. Generell sind für die deutschen Unternehmen IT-Sicherheit und Datenschutz die Hauptkriterien bei der Anbieterwahl. Eine Kaspersky-Studie zum Thema Clouds und Sicherheit aus dem Mai 2019 bestätigt Sicherheitsbedenken beim Einsatz von Clouds. So haben mindestens ein Drittel der von Kaspersky weltweit Befragten (35 Prozent bei KMU und 39 Prozent im Enterprise-Bereich) Angst vor möglichen Störfällen innerhalb einer - von einem Drittanbieter gehosteten - Infrastruktur. Unter den befürchteten Risiken: Umsatzeinbußen und Reputationsverlust.

  • Angriffe auf MSPs nehmen zu

    Die Forscher und das Emergency Response Team (ERT) von Radware berichten von einem wachsenden Trend zu Cyberangriffen auf Managed Service Provider (MSPs). Während diese Branche typischerweise mit Hilfe von Advanced Persistent Threats (APTs) attackiert wird, deuten mehrere Ereignisse in den letzten Monaten darauf hin, dass auch technisch weniger versierte Gruppen versuchen, MSPs anzugreifen, um die Beziehung zwischen MSPs und ihren Kunden zu nutzen. MSPs bieten Fernverwaltungsdienste für die Infrastruktur ihrer Kunden, einschließlich der Möglichkeit, Updates oder Anwendungen zu installieren. Auf diese Fähigkeiten globaler MSPs haben es die Hacker laut Radware abgesehen mit dem Ziel, ihre Wirkung durch eine Trickle-Down-Strategie zu maximieren.

  • Das IoT wird immer komplexer

    Klassische RDBMS werden den wachsenden Anforderungen am Markt nicht mehr gerecht. Couchbase nennt die fünf Trends, die den Einsatz von Datenbanktechnologien wie NoSQL erforderlich machen. Unternehmen benötigen eine neue Art von Datenbank, um damit geschäftskritischen Anwendungen zu entwickeln und Services für die digitale Wirtschaft zu betreiben. Im Mittelpunkt stehen dabei Anforderungen wie kurze Antwortzeiten bei einer großen Zahl gleichzeitiger Benutzer, hohe Skalierbarkeit, Flexibilität, Verfügbarkeit sowie der Zugriff auf strukturierte, aber auch unstrukturierte Daten. Klassische RDBMS können diese Anforderungen nicht mehr erfüllen, daher setzen Unternehmen zunehmend auf NoSQL-Datenbanktechnologien, denen ein nicht-relationaler Ansatz zugrunde liegt. Datenbankpionier Couchbase zählt die fünf Trends auf, die zu den neuen Anforderungen geführt haben.

  • "aaS"-Akronyme ab sofort mit mehr Buchstaben

    Cloud-basierte Dienstleistungen haben Konjunktur. Gewöhnlich mit "aaS", also "as a Service" bezeichnet, reicht das normale lateinische Alphabet mit seinen 26 Buchstaben nicht mehr aus, um die vielen verschiedenen IT-Services sinnvoll zu benennen. Zudem wird die aaS-Begriffswelt branchenübergreifend populär. Die internationale Regulierungsbehörde für Cloud-Dienstleistungen, hat nun auf diesen Zustand reagiert und erlaubt ab sofort, "aaS"-Begriffe mit mehr als einem vorangestellte Buchstaben zu nutzen. Als erster Anbieter hat sich Avi Networks die Vermarktungsrechte für das Akronym BADaaS gesichert. BADaaS steht für Beyond Application Delivery as a Service.

  • Cloud Computing ist sicherer, als man denkt

    Cloud Computing ist weiter auf dem Vormarsch. Anfängliche Bedenken von hauptsächlich mittelständischen Unternehmen ihre Daten außer Haus zu geben, schwinden. Das Internet der Dinge wird noch einmal für Beschleunigung sorgen. Selbst Regierungen und Militärs setzen inzwischen auf Services und die Datenspeicherung in der Wolke. Damit bekommt das Thema Sicherheit noch einmal eine ganz neue Facette. Cloud Computing ist nicht gleich Cloud Computing. Während auf Unternehmensebene zumeist über die Unterscheidung zwischen Public und Private Cloud diskutiert wird, geht es auf der Ebene von Regierungen und Militärs um den Unterschied zwischen Single- und Multi-Cloud-Strategien. Eine Diskussion, die sich im privaten Umfeld längst erledigt hat. Hier dominiert die Multi-Cloud. Gerade seitens der Militärs wird allerdings sehr stark der Single-Cloud-Ansatz verfolgt, bei dem alle Services von einem einzigen Anbieter bezogen werden. Auf diese Weise versucht man die Zahl der Angriffsflächen für mögliche Cyber-Bedroher einzuschränken.

  • Auswirkungen auf das Datenmanagement

    Für Firmen wird es immer schwieriger, effizient und verantwortungsbewusst mit ihren Daten umzugehen: Viele haben schier den Überblick verloren. Das muss allerdings nicht sein: Mit DataOps hilft ein neuer Ansatz im Datenmanagement wieder Ordnung in die Datenbanken zu bringen. Laut einer aktuellen Studie des Forschungs- und Beratungsunternehmens 451 Research unter 150 Führungskräften, wachsen die Daten eines Großteils der befragten Firmen täglich beträchtlich: Bei 29 Prozent um 100 bis 500 Gigabyte (GB) pro Tag und bei 19 Prozent um 500 GB bis 1 Terabyte (TB). Immerhin noch 13 Prozent verzeichnen sogar eine Zunahme von 2 TB.

  • Lösung: ein Remote-Cloud-System

    Kaspersky Lab hat eine experimentelle Cloud-Infrastruktur für bionische Prothesen des russischen Hightech-Start-Ups Motorica aus Perspektive der IT-Security genauestens unter die Lupe genommen und mehrere bisher unbekannte Sicherheitsprobleme identifiziert. Unbefugte könnten so auf höchstsensible Patientendaten zugreifen und diese manipulieren, stehlen oder löschen. Die Ergebnisse der Untersuchung wurden dem Hersteller umgehend mitgeteilt.

  • Service Design & Transition - Aufbau von Services

    Mehr Klarheit im unübersichtlichen Feld von Service Management: Das versprechen die neuen Quadranten des ISG Provider Lens Reports. Die Marktbetrachtung bietet sauber aufgeteilte Unterkategorien und Herstellerbewertungen. Für Experten perfekt, aber für Laien ist es trotzdem nicht einfach, sich hier zurechtzufinden. Ein Kunde, der heute einfach nur seine IT in den Griff bekommen will, hat es nicht leicht. Er wird konfrontiert mit Kürzeln wie SIAM, ITSM und BPM. In jedem dieser Bereiche tummelt sich eine Reihe von Anbietern, die wiederum versuchen, einzelne Begriffe zu prägen. Für mehr Transparenz sind jetzt die Analysten gefragt - so wie die ISG Group mit ihrem Provider Lens Quadrant Report.

  • IT-Ressourcen aus der Cloud

    Das Thema Künstliche Intelligenz wird von immer mehr Menschen als eine wichtige Schlüsseltechnologie angesehen. Dies bestätigt eine Umfrage des ITK-Verbands Bitkom im Dezember 2018: Zwei Drittel der Befragten sehen den Wohlstand gefährdet, wenn Deutschland bei der Künstlichen Intelligenz nicht zu den führenden Nationen gehört. Eine Mehrheit von 62 Prozent sehen die KI zudem eher als eine Chance als eine Bedrohung. Für die Bundeskanzlerin Angela Merkel ist das Thema ebenfalls ganz oben auf der Agenda: Nach ihrer Meinung müsse Deutschland ein führender Standort für Künstliche Intelligenz werden.