Sie sind hier: Startseite » Markt » Hintergrund

Umsetzung von Big Data-Projekten


Sechs Gründe, weshalb Unternehmen an Big Data-Projekten scheitern können
Annäherung an das Thema Big Data minimalistisch denken und zunächst möglichst kleine Projekte realisieren

(04.09.14) - Viele Unternehmen sind zu zögerlich, wenn es um die Implementierung von Big Data-Lösungen geht. Eine schrittweise Einführung, ausgehend von einem kleinen Lösungsansatz, kann hierbei sehr hilfreich sein, um die üblichen Probleme bei der Umsetzung von Big Data-Projekten frühzeitig zu erkennen und erfolgreich zu umschiffen zu können.

Das Thema Big Data ist in aller Munde und viele Unternehmen sind fasziniert von dem Gedanken, möglichst vollumfängliche Antworten auf bestehende unternehmerische Fragen, aus allen zur Verfügung stehenden Daten, herauszufiltern.

Doch zwischen andenken und umsetzen klafft eine gewaltige Lücke, wie eine Studie des Forschungsinstituts Gartner im Jahr 2013 ergab. Demzufolge sind 92 Prozent aller Unternehmen in Sachen Big-Data unentschlossen oder befinden sich noch in einer Planungsphase zur späteren Einführung. Von den restlichen Unternehmen, die bereits damit begonnen haben Big Data aktiv im Unternehmen zu implementieren, scheitern die meisten größtenteils. Die Gründe für ein Scheitern sind hierbei oftmals identisch.

Der Schlüssel für die erfolgreiche Umsetzung eines Big Data-Projekts liegt in der schrittweisen Umsetzung des Projekts und ist auch geprägt vom Willen der jeweiligen Mitarbeiter, die mit der Umsetzung betraut sind, denn diese können nur durch frühzeitiges scheitern effektiv hinzulernen. Aus diesem Grunde ist es erforderlich, bei der Annäherung an das Thema Big Data minimalistisch zu denken und zunächst möglichst kleine Projekte zu realisieren, um Erfahrungswerte sammeln zu können.

Big Data und der Herdentrieb
Big Data boomt. Gemäß des Forschungsinstituts Gartner haben bereits 64 Prozent aller im Jahr 2013 befragten Unternehmen angegeben, bereits eine Big Data Investition in Systeme durchgeführt zu haben oder diese zu planen. Dies ist eine Steigerung von 6 Prozent im Vergleich zum Jahr 2012. Immer mehr Unternehmen sind somit bestrebt möglichst umfangreiche Erkenntnisse aus ihren Datensammlungen zu gewinnen. Sei es zur besseren Kundenbindung, der Analyse von Finanz- und IT-Risiken oder zur Analyse von Log-Protokollen.

Von diesen 64 Prozent haben 30 Prozent der Befragten bereits schon einmal in eine Big Data-Technologie investiert und 19 Prozent planten, dies innerhalb eines Jahres zu tun, weitere 15 Prozent gaben an dieses innerhalb von zwei Jahren zu tun. Weniger als 8 Prozent der 720 durch Gartner befragten Unternehmen gaben hierbei an, bereits erfolgreich eine Big Data-Lösung im Einsatz zu haben.

Die Gründe für ein Scheitern sind hierbei oftmals auf ein gewisses Maß an Naivität zurückzuführen, denn oftmals wissen viele Unternehmen nicht, welche und wie sie eine Big Data-Lösung produktiv implementieren sollen. Denn für eine erfolgreiche Datenanalyse benötigt man auch entsprechendes Personal und Infrastruktur.

Kuert Datenrettung Deutschland nennt sechs Gründe, die ein Unternehmen bei Big-Data Projekten scheitern lassen:

1. Widerstand im Management
Unabhängig davon was Daten uns mitteilen können, fand die Fortune Knowledge Group heraus, das 62 Prozent aller Geschäftsführer sich bei Ihren Geschäftsentscheidungen mehr auf Ihre Erfahrung, als auf die Analyse von Daten zu berufen.

Auswahl des falschen Verwendungszwecks - Entweder starten Unternehmen bei der Einführung von Big Data mit einem viel zu großen und überambitionierten Projekt, oder sie versuchen ihre Big Data Probleme durch traditionelle und vorherrschende Daten-Technologie in den Griff zu bekommen, welche in der Folge mit den Anforderungen zur Analyse großer Datenströme komplett überfordert ist.

2. Große Datensilos
Hersteller von Big Data Applikationen sprechen sehr gern von "Daten-Seen" oder "Daten-Hubs", die Realität in vielen Unternehmen zeigt jedoch, das viele Unternehmen hier eher "Daten-Pfützen" installieren. Verbunden mit scharfen Abgrenzungen zwischen der "Marketing-Pfütze", der "Produktionsdaten-Pfütze", usw. Big Data ist jedoch wesentlich wertvoller für ein Unternehmen, wenn diese Barrieren eingerissen werden und die Daten so analysiert werden können, wie sie auch durchs Unternehmen fließen, im Besten Fall sogar bei der Big Data Analyse komplett zusammenfließen. Firmenpolitik und Unternehmensrichtlinien stehen diesem unterfangen oftmals konträr gegenüber. Die Einführung von Big Data Analyseprozessen sollte grundsätzlich in Zusammenarbeit mit dem jeweiligen Datenschutzbeauftragten des Unternehmens erarbeitet werden. Schon in der Planungsphase können somit praktische und unternehmenskonforme Lösungen erarbeitet werden.

3. Falsche Fragestellungen
Datenwissenschaft ist eine komplexe Mischung aus Branchenwissen, Mathematik, Statistik und Programmierkenntnissen. Exakt diese sind die Anforderungen deren einer Big Data-Lösung bedarf, um die Ergebnisse liefern zu können die sich das Unternehmen verspricht. Zu viele Unternehmen stellen Daten-Wissenschaftler und Analysten ein, bei denen es sich vielleicht um wahre Mathematik- und Programmiergenies handeln mag, welche jedoch jegliches Wissen zur elementarsten Komponente vermissen lassen: Branchenkenntnis.

4. Unvorhergesehene Big Data Probleme
Die Datenanalyse ist nur eine Komponente eines Big Data Projekts. In der Lage zu sein, auf Daten zuzugreifen und diese zu verarbeiten ist der kritische Teil des Ganzen, denn hier lauern Gefahren wie Netzwerküberlastung oder die unzureichende Ausbildung von Mitarbeitern.

Meinungsverschiedenheiten bei der Unternehmensstrategie - Big Data Projekte sind u.a. dann erfolgreich, wenn es sich hierbei nicht um vollkommen isolierte Projekte handelt, sondern Abteilungsübergreifend Einverständnis darüber herrscht, wie durch die Datenanalyse alle Abteilungen des Unternehmens direkt oder indirekt profitieren können. Probleme treten zumeist dann auf, wenn unterschiedliche Abteilungen unterschiedliche Prioritäten bei der Wertigkeit der einzelnen Projekte verfolgen, z.B. "Cloud Computing-Virtualisierung ist wichtiger als Big Data-Analyse, weil wir dadurch..."

5. Fehlende Qualifikation
Viele zu groß skalierte Big-Data Projekte schreiten nur sehr langsam voran oder scheitern komplett. Oftmals liegt dies darin begründet, dass die bei der Umsetzung beteiligten Personen nur über unzureichende Qualifikationen verfügen. Einer der Hauptgründe hierbei liegt in der Tatsache, dass die zu einem Big-Data Projekt involvierten Personen aus der eigenen IT-Abteilung des Unternehmens stammen.

6. Problemvermeidung
Manchmal wissen oder vermuten wir, dass die Erkenntnisse der Datenanalyse uns zu Aktionen verleiten können, die wir nicht realisieren möchten. Wie z.B. innerhalb der Pharmaindustrie, die keine Sentiment-Analysen durchführen möchte, um hierdurch Meldepflichten zu umgehen oder um Szenarien zu vermeiden, die mehr Ärger einbringen könnten, als das sie Nutzen stiften. Was sich wie ein roter Faden durch diese Liste zieht ist die Erkenntnis, dass je stärker man sich auf die Daten fokussiert, festzustellen ist, dass der Mensch hierbei im Wege steht. So sehr ein Unternehmen auch bestrebt sein dürfte, Unternehmensentscheidungen einzig und allein aufgrund von Kennziffern zu treffen, so werden die Entscheidungen im Big Data Prozess welche Daten, gesammelt und mit in die Analyse einbezogen werden oder welche Fragen durch die Analyse beantwortet werden sollen, im Endeffekt doch wiederum nur von Menschen getroffen.

Besser schrittweise Innovation
Weil so viele Unternehmen dem Start eines eigenen Big-Data Projekts unentschlossen gegenüberstehen, gepaart mit der Angst vor einem Scheitern des Projekts, ist es unerlässlich sich dem Thema Big Data in kleinen Schritten zu nähern. Hierzu eignen sich entweder kostengünstige Anbieter, die einem Unternehmen den Weg zur Analyse großer Daten ebnen können oder die Möglichkeit die eigenen Mitarbeiter in die Lage zu versetzen mit Kopien der eigenen Daten zu experimentieren.

Ein "Kleiner Start / Schnelles scheitern" Ansatz ist hierbei angeraten, auch hinsichtlich der Tatsache, dass ein Großteil der Big Data-Technologie auf Open Source beruht. Auch die Zuhilfenahme von unterschiedlichen Plattformen wie Cloud Computing-Diensten tragen dazu bei, nicht nur die Kosten zu senken, sondern eignen sich auch dazu, dass Trial & Error-Prinzip zu unterstützen.

"Beim Thema Big Data geht es in erster Linie darum die richtigen Fragen zu stellen, deswegen sind die eigenen Mitarbeiter mit Ihrer Branchenkenntnis und Erfahrung ein unverzichtbarer Bestandteil einer guten Big Data-Strategie. Doch selbst mit den umfangreichsten Branchenkenntnissen, werden Unternehmen nicht in der Lage sein, alle hierfür relevanten Daten im Unternehmen zu sammeln. Zudem werden sie daran scheitern von Beginn an die wichtigsten Fragen zu stellen. Diese Fehler sollten aus unternehmerischer Sicht erwartet und akzeptiert werden, denn sie sind ein klassischer Bestandteil hin zu einer unternehmensspezifischen Big Data-Analyse”, so Martin Eschenberg Marketingleiter bei Kuert.

Eine flexible und offene Daten-Infrastruktur im Rahmen des BDSG erlaubt den Mitarbeitern von Unternehmen sich kontinuierlich zu verbessern, solange bis die Bemühungen erste Früchte tragen. (Kuert Datenrettung Deutschland: ra)

Kuert Datenrettung: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Künstliche Intelligenz das Maß aller Dinge

    Ob in der Fertigung oder im Bau- und Ingenieurwesen - 2024 wird für beide Branchen eine richtungsweisende Zeit mit zahlreichen Herausforderungen und Hürden. Doch das neue Jahr birgt auch vielversprechende Trends, neue Lösungsansätze und innovative Technologien.

  • Nachhaltigkeit kommt in der Cloud an

    "IT doesn't matter" - so lautete die Überschrift eines Artikels des US-amerikanischen Wirtschaftsjournalisten Nicholas Carr im Jahr 2003. Gemeint war: IT sei ein Standardprodukt, das zwar Kosteneinsparungen bringe, aber keine Investition in die strategische Differenzierung sowie die Wettbewerbs- und Innovationsfähigkeit von Unternehmen ist.

  • Zero Day und Zero Trust sind Themen

    Cloud-Security war das wichtigste Thema der IT-Sicherheit im Jahr 2023, und sie wird auch 2024 zu Recht erhebliche Aufmerksamkeit bekommen. "Doch Cloud-Security ist nur eine Seite der Medaille", gibt Gregor Erismann, CCO der Schweizer Security-Spezialistin Exeon Analytics. zu bedenken.

  • Hohe Nachfrage nach IDP

    Retarus hat drei Trends identifiziert, welche die digitale Geschäftskommunikation 2024 nachhaltig beeinflussen werden. Insbesondere künstliche Intelligenz wird in den kommenden Monaten eine immer wichtigere Rolle spielen und es Unternehmen ermöglichen, effizienter zu arbeiten und ihre Wettbewerbsposition zu stärken.

  • Cloud-Daten-Verschlüsselung 2024

    Wie zu jedem Jahreswechsel orakeln Unternehmen, Wirtschaftsweise und weitere Fachkundige darüber, was sich im neuen Jahr ändern wird. Was sie dabei in der Vergangenheit kaum auf dem Schirm hatten: die sogenannten Black-Swan-Ereignisse, große, überraschende und einschneidende Ereignisse. Mit querliegenden Frachtern und Lieferkettenzusammenbrüchen, der Pandemie oder den Kriegen mit weitreichenden wirtschaftlichen Folgen hatte keiner wirklich gerechnet.

  • Potenzial der Daten nutzen

    Exasol hat ihre Prognosen für den Bereich Data Analytics im Jahr 2024 veröffentlicht. Disruptive Technologien wie künstliche Intelligenz (KI) setzen sich in der Tech-Branche immer weiter durch.

  • Keine Wechselflut der Cloud-Anbieter

    2024 werden viele Unternehmen realisieren, dass sie als Teil ihrer Datenstrategie ihre Hybrid-Cloud-Strategie überarbeiten müssen, um die Vorteile der künstlichen Intelligenz (KI) voll auszuschöpfen. Dies bedeutet, dass die Qualität und Zugänglichkeit von Daten auf dem Prüfstand stehen.

  • Energienutzung in Rechenzentren optimieren

    Die Europäische Kommission hat am 5. Dezember 2023 das strategische Förderprojekt IPCEI-CIS (Important Projects of Common European Interest - Next Generation Cloud Infrastructure and Services) genehmigt. Zielsetzung des Projektes ist die Entwicklung von gemeinsamen Konzepten und ein erster industrieller Einsatz für moderne Cloud- und Edge-Computing-Technologien.

  • Sieben wichtige KI-Trends für 2024

    Künstliche Intelligenz (KI) ist längst mehr als ein Hype, sie etabliert sich zunehmend als integraler Bestandteil von immer mehr Lebens- und Geschäftsbereichen. Die Experten der Inform GmbH als weltweit führender Anbieter von fortschrittlichen KI-basierten Optimierungssoftwarelösungen prognostizieren sieben entscheidende KI-Trends, die 2024 und darüber hinaus eine Vielzahl von Branchen und gesellschaftlichen Praktiken beeinflussen werden.

  • Desktop as a Service vermeidet Oversizing

    Mit der fortschreitenden Digitalisierung und dem anhaltenden Homeoffice-Trend verändern sich die Anforderungen an das IT-Service-Management. Gleichzeitig stehen die Unternehmen unter wachsendem Druck durch globale Herausforderungen wie Lieferkettenprobleme, Inflation und Rezession. Um die Produktivität ihrer IT-Abteilungen zu erhöhen, benötigen sie Lösungen, mit denen sich Prozesse optimieren lassen - auch mithilfe von künstlicher Intelligenz (KI).

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen