Sie sind hier: Startseite » Fachartikel » Hintergrund

Künstliche Intelligenz in der Cloud


KI braucht keine größeren Budgets, sie braucht die passende Infrastruktur
Für die meisten Unternehmen ist es jedweder praktikabel noch notwendig, dem KI-Wettrüsten von Google, Microsoft, Meta und Amazon zu folgen, denn Unternehmen nutzen KI komplett anders


Von Tobias Pföhler, StorMagic

Die Giganten der Tech-Branche planen in diesem Jahr mehr als 300 Milliarden US-Dollar auszugeben, um im KI-Wettrüsten wettbewerbsfähig zu bleiben. Allein Amazon hat über 100 Milliarden US-Dollar angekündigt, während Microsoft, Alphabet und Meta jeweils weitere Dutzende Milliarden für den Bau riesiger Rechenzentren, den Ausbau von GPU-Clustern und die Sicherung ihrer Dominanz im Bereich der Cloud-basierten KI ausgeben wollen. Investitionen in dieser Größenordnung sorgen für Schlagzeilen und viele Unternehmen, die selbst dabei sind, ihre KI-Strategie zu planen, sehen sich gezwungen, ihrerseits hohe Budgets einzuplanen. Für die meisten Unternehmen ist es jedoch weder praktikabel noch notwendig, den Plänen der Hyperscaler zu folgen. IT-Führungskräfte fragen sich deshalb zurecht, was für den Einsatz der KI im Unternehmen tatsächlich benötigt wird.



Im Unternehmen wird KI komplett anders genutzt

Wie bei allen Workloads, die ein Unternehmen im Einsatz haben kann, gibt es auch bei KI prinzipiell drei Ansätze: 1. Hosten der Workloads in der Public Cloud. 2. Hosten der Workloads in der Private Cloud / dem eigenen Rechenzentrum. Und 3. Hosten der Workloads am Edge. Um bestimmen zu können, was die beste Infrastruktur für selbst gehostete KI-Workloads ist, hilft es sich anzuschauen, wie KI in Unternehmen überhaupt genutzt wird. Dabei fällt auf, dass viele KI Workloads eingesetzt werden, um Entscheidungen vor Ort in Echtzeit treffen zu können, Abläufe zu automatisieren oder Videostreams zu analysieren. Diese Natur von KI-Workloads ändert die Anforderungen an die Infrastruktur dramatisch.



Cloud-Strategien, und insbesondere Cloud-First-Strategien, bringen beim Hosten von Workloads hinsichtlich Kosten und Kontrolle bekannterweise zahlreiche Herausforderungen mit sich. Doch wenn es um KI geht, ist die höhere Latenz der Cloud ein fast unlösbares Problem. Autonome Fahrzeuge können beispielsweise nicht auf die Entscheidung eines in der Cloud gehosteten KI-Modells warten, um einen Fußgänger zu erkennen. Dies muss in Echtzeit im Auto selbst geschehen. Neben der höheren Latenz sind auch Ausfälle der Cloud generell problematisch und stellen in vielen Szenarien ein inakzeptables Risiko dar. KI-Workloads, und speziell solche, die eine Echtzeitverarbeitung erfordern, können sich den Roundtrip in die Cloud einfach nicht leisten. Sie müssen dort ausgeführt werden, wo die Daten generiert werden, also in Fabrikhallen, Filialen, Geschäften und Büros. Näher als die Public Cloud wäre, die Private Cloud im eigenen Rechenzentrum. Doch auch diese Infrastruktur ist für KI-Workloads meist ungeeignet, da sie nicht für Remote-Umgebungen oder Umgebungen mit begrenzten Ressourcen ausgelegt sind. Traditionelle Stacks sind darüber hinaus zu komplex, verbrauchen zu viel Strom und sind zu teuer, um in großem Maßstab eingesetzt zu werden.



KI am Edge
Cloud-Infrastrukturen in der Cloud oder im zentralen Rechenzentrum eigenen sich offenbar nicht sehr gut für das Hosten von KI-Workloads am Edge. Mit der Verlagerung von KI-Workloads an den Netzwerkrand stellt sich natürlich die Frage, ob Workloads mit einer lokalen Edge-Infrastruktur besser und effizienter gehostet werden können. Und tatsächlich erhält der Ansatz mit der Ankunft von KI-Workloads neuen Rückenwind. Denn CPUs sind mehr als fähig, reale Inferenzmodelle am Edge auszuführen, insbesondere wenn sie lokalisiert ist und das Training in der Cloud erfolgt. Es werden keine mit GPUs vollgepackten Racks benötigt, sondern lediglich Infrastruktur die leicht, widerstandsfähig und für die jeweilige Aufgabe richtig dimensioniert ist. Die Lösung liegt auf der Hand: Die ideale Infrastruktur für KI-Workloads am Unternehmensrand wäre eine speziell für das Edge entwickelte hyperkonvergente Infrastruktur (HCI). Edge-Computing mit HCI ist beileibe auch nichts Neues und hat ist schon seit Langem in vielen Umgebungen im Einsatz. Erhältliche Lösungen sind kompakt, zuverlässig stromsparend und einfach zu verwalten und machen es möglich, KI dort einzusetzen, wo die Daten generiert werden.

Nicht die Kosten sind das Problem, sondern die Komplexität
Ein weit verbreiteter Vorbehalt ist, dass solche Edge-Lösungen sehr teuer sind. Das mag in der Vergangenheit gestimmt haben, ist heute aber nicht mehr der Fall. Eine vollständig redundante Konfiguration mit hoher Verfügbarkeit kostet heute oft weniger als ein Monat vergleichbarer Cloud-Dienste. Die eigentliche Hürde sind jedoch nicht die Kosten, sondern die Komplexität. IT-Teams sind bereits ausgelastet. Die meisten Teams wären nicht in der Lage, Dutzende oder Hunderte neuer Remote-Standorte mit der gleichen Sorgfalt zu verwalten wie ein zentralisiertes Rechenzentrum. Aus diesem Grund muss moderne Edge-Infrastruktur auf Einfachheit und Autonomie ausgelegt sein. Sie sollte Plug-and-Play-fähig, aus der Ferne verwaltbar und ausfallsicher sein. Da die Datenverarbeitung immer dezentraler wird und KI sich immer mehr dem Edge nähert, werden diejenigen Plattformen am erfolgreichsten sein, die den IT-Betrieb vereinfachen, anstatt ihn zu verkomplizieren. IT-Führungskräfte benötigen kein weiteres System, das sie betreuen müssen. Sie brauchen Lösungen, die mit minimalem Aufwand maximale Ergebnisse liefern.



Die richtige Infrastruktur wählen

CIOs und IT-Manager wissen, dass sie beim Thema KI liefern müssen. Das Geschäft verlangt schnellere Innovationen, und KI wird für die meisten Unternehmen zu einer Notwendigkeit, um im Wettbewerb mithalten zu können. Das bedeutet jedoch nicht zwangsläufig, dass hohe Budgets notwendig werden. Anstatt die Strategien von Hyperscalern zu kopieren, sollten Unternehmen sich bei der Planung ihrer KI-Infrastruktur folgende drei Fragen stellen:



1. Welche KI-Anwendungen müssen näher am Netzwerkrand sein?
2. Welche Probleme kann es in Bezug auf Latenz, Ausfallsicherheit oder Kosten geben?
3. Wie können wir KI ermöglichen, ohne unseren gesamten Stack neu aufzubauen?

Die Antworten variieren je nach Unternehmen. In vielen Fällen legen die Antworten jedoch nahe, die Infrastruktur zu überdenken, und bereits vorhandene Budgets einzusetzen, anstatt mehr Budget einzuplanen.



Fazit: KI braucht keine höheren Budgets
Google, Microsoft, Meta und Amazon haben gute Gründe für ihre sehr hohen Investitionen in KI. Das bedeutet jedoch nicht, dass normale Unternehmen auch Rekordbudgets für ihre KI-Strategie einplanen müssen. Mit hyperkonvergenter Infrastruktur können Unternehmen Intelligenz näher an den Ort der Entscheidungsfindung bringen und erzielen bessere Leistung und höhere Ausfallsicherheit bei geringeren Kosten, verglichen mit der Cloud oder dem traditionellen Rechenzentrum. KI braucht somit keine höheren Budgets. Sie braucht nur eine bessere Grundlage. (StorMagic: ra)

eingetragen: 28.08.25

StorMagic: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Hintergrund

  • Steigende Globalisierung von Daten

    Der Aufstieg souveräner Clouds ist unausweichlich geworden, da regulatorische Anforderungen und geopolitische Spannungen Unternehmen dazu zwingen, neu zu überdenken, wo ihre Daten gespeichert werden. Lokalisierte Cloud-Umgebungen werden zunehmend unerlässlich, da sie Unternehmen erlauben, ihre Daten innerhalb bestimmter rechtlicher Rahmen zu halten, um Compliance-Anforderungen zu erfüllen und Risiken zu reduzieren. Doch souveräne Clouds können ohne Daten-Portabilität - also der Möglichkeit, Daten nahtlos zwischen Systemen und Standorten zu verschieben - nicht erfolgreich sein. Es gilt: Nicht warten, bis Regulierungen einen selbst antreiben, sondern der Entwicklung voraus sein.

  • KI-Nutzung am Edge

    Nutzung von Synergien zwischen HCI, Cloud und Edge ermöglicht es Unternehmen, dezentralisierte Infrastrukturen einzurichten, um so das volle Potenzial von KI nutzen zu können. Hyperkonvergente Infrastruktur (HCI) kann viele der Leistungs-, Logistik- und Kostenprobleme beseitigen, die die Cloud nicht lösen kann.

  • Einsatz von Cloud-Umgebungen

    Das Thema Cloud ist in fast allen IT-Abteilungen nach wie vor allgegenwärtig. Aber immer häufiger stellt sich auch Ernüchterung ein: Die hohen Erwartungen an Kosteneinsparungen und Komplexitätsreduktion haben sich nicht überall erfüllt - oft ist sogar das Gegenteil eingetreten. Hinzu kommen neue Unsicherheiten durch aktuelle geopolitische Veränderungen und eine neue Wahrnehmung der Bedeutung von Digitaler Souveränität. Daher entscheiden sich immer mehr Unternehmen für eine (teilweise) Verlagerung von Workloads aus der Cloud auf eigene On-Premises-Strukturen. Doch auch da lauern Herausforderungen. Wie behält man die Kontrolle über beide Welten?

  • Unsicherheiten verändern die Cloud-Landschaft

    Die geopolitischen Entwicklungen der letzten Monate haben der Diskussion um digitale Souveränität neue Brisanz verliehen. Unmittelbar beobachten lässt sich eine zunehmende Nachfrage nach Alternativen zu US-amerikanischen Cloud-Diensten. Vielen Unternehmen ist bewusst geworden, dass ihre Abhängigkeit von Anbietern wie AWS, Azure oder Google Cloud ein Risiko darstellt, das weit über abstrakte Datenschutzbedenken hinausgeht.

  • Barrieren für den Datenzugriff abbauen

    Große Datenmengen stellen für Unternehmen eine immer größere Herausforderung dar. Unterstützt von Cloud-basierten Daten- und Orchestrierungsplattformen bieten sie jedoch auch wertvolle Chancen. Vor allem der Einsatz von KI- und ML-basierten Technologien erweist sich für das Aufbereiten und Analysieren großer Datenmengen als hilfreich.

  • Was bedeutet Datenqualität im KI-Kontext?

    Künstliche Intelligenz basiert auf guter Datengrundlage - an genau diesem Punkt kommt Datenqualität ins Spiel. Dabei bedeuten große Datenmengen nicht zwangsläufig, dass diese für einen KI-Anwendungsfall geeignet sind.

  • Herausforderungen für CIOs

    Die Fertigungsindustrie befindet sich in einem tiefgreifenden Wandel. Vernetzte und digitalisierte Smart Factories ersetzen heute die traditionellen Produktionslinien. IT-Systeme werden dabei nahtlos in sämtliche Fertigungsprozesse integriert, um in Echtzeit auf Daten zuzugreifen und Prozesse zu automatisieren.

  • Data Governance und Datensicherheit

    Sicheres Datenmanagement ist Pflicht. Die tatsächliche Gewährleistung angemessener Datenverwaltung und -sicherheit hängt aber von den technischen Möglichkeiten ab: Entscheidend sind Lösungen und entsprechende Plattformen, die die Dateninfrastruktur ausgestalten.

  • GPU-Infrastruktur von Cloud-Anbietern

    Große Hyperscale-Cloud-Computing-Unternehmen sind nach wie vor die Hauptabnehmer von KI-Hardware (z. B. GPUs und anwendungsspezifische integrierte Schaltkreise oder ASICs). Die Investitionsausgaben und Ausgabenprognosen für viele Unternehmensplattformen sind deutlich gestiegen - darunter Microsoft Azure, Amazon Web Services, Google, Oracle und Meta.

  • Auf dem Weg zum klimaneutralen Rechenzentrum

    ESRS, CSRD, EnEfG … um die verschiedenen gesetzlichen Nachhaltigkeits-Regularien zu erfüllen, benötigen Betreiber von Rechenzentren mehr Transparenz über den Energieverbrauch und die Treibhausgas-Emissionen ihrer IT-Infrastruktur.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen