Sie sind hier: Startseite » Markt » Tipps und Hinweise

Herausfinden, was migriert werden muss


Die drei größten Herausforderungen bei der Migration auf Microservices
Um sicherzustellen, dass die Anwendung nach der Migration auf Microservices flüssig läuft, müssen IT-Verantwortliche in der Lage sein, aktuelle Performance-Metriken mit historischen Daten zu vergleichen, die aus der Zeit vor dem Umstieg stammen


Mehr als 70 Prozent aller Unternehmen beschäftigen sich aktuell mit Microservices. Viele haben sie bereits im Einsatz, andere bereiten gerade die Migration vor – und das mit gutem Grund. Sie versprechen sich davon eine schnellere Weiterentwicklung ihrer Anwendungen, mehr Flexibilität, mehr Leistungsfähigkeit und eine bessere Skalierbarkeit. Wer den Umstieg jedoch unbedacht angeht, schafft mehr Probleme als er löst. Gregor Keller, Sales Engineering Manager bei AppDynamics, nennt als Application-Performance-Expertin die drei größten Herausforderungen, die ihnen tagtäglich begegnen.

Herausforderung 1: Herausfinden, was migriert werden muss
Ehe eine Anwendung in individuelle Microservices aufgeteilt werden kann, müssen Umfang und Architektur vollständig erfasst werden. Was in der Theorie nach einem Kinderspiel klingt, ist in der Praxis oft kompliziert. Gerade bei organisch gewachsenen Anwendungen ist die Dokumentation in der Regel unzureichend und auch die verbreiteten Monitoring-Tools liefern keine Klarheit, sofern sie nur einen Teil der Applikation und nicht das Gesamtbild erfassen. Und sogar wenn die Anwendung in ihrer Gesamtheit irgendwo abgebildet ist, besteht oft keine absolute Sicherheit darüber, ob die Abbildung nicht vielleicht doch unvollständig oder veraltet ist.

Unternehmen benötigen deshalb eine Lösung, die jede einzelne Komponente, jede einzelne Abhängigkeit und jeden einzelnen Aufruf von Drittanbieter-Ressourcen aufdeckt. Sie muss genau aufzeigen, wie diese Bausteine miteinander in Beziehung stehen und welche Auswirkungen sie jeweils auf das Verhalten der Anwendung und die Nutzererfahrung haben. Auf Grundlage dieser Informationen lässt sich sehr genau sagen, was migriert werden muss und wie die Architektur der Microservices aussehen sollte.

Herausforderung 2: Performance-Einbußen vermeiden
Um sicherzustellen, dass die Anwendung nach der Migration auf Microservices flüssig läuft, müssen IT-Verantwortliche in der Lage sein, aktuelle Performance-Metriken mit historischen Daten zu vergleichen, die aus der Zeit vor dem Umstieg stammen. Auch das klingt wieder in der Theorie ganz einfach, in der Praxis jedoch besteht die Schwierigkeit darin, dass die Architektur der Anwendung und die Anwendungsumgebung sich im Rahmen der Migration drastisch verändern. Die Monitoring-Tools der Hosting Provider sind keine große Hilfe, denn sie bilden die Architektur wieder nur bruchstückhaft ab.

Genau der Blick auf das große Ganze ist aber entscheidend. Denn auch wenn sich die Architektur ändert, bleiben die abgewickelten Geschäftstransaktionen doch die gleichen. Wer Performance auf dieser Ebene erfasst, kann somit einen exakten Vorher-Nachher-Vergleich anstellen. So lässt sich gewährleisten, dass die Nutzererfahrung unter der Migration nicht leidet.

Herausforderung 3: Die neue Microservices-Umgebung überwachen
Große, monolithische Anwendungen ließen sich früher mit zwei oder drei Monitoring-Tools problemlos überwachen. Microservices sorgen für wesentlich mehr Komplexität: Zumindest potenziell ruht dann jeder Service auf einem eigenen Technology-Stack, nutzt eine eigene Datenbank und einen eigenen Hosting Provider. Es kommt somit vor, dass ein einzelner Microservice mehr Tools benötigt als früher der gesamte Monolith. Darüber hinaus birgt das Monitoring von Microservices ganz neue Herausforderungen, etwa die Kurzlebigkeit vieler Services, was den langfristigen Abgleich von Metriken erschwert. Und auch die neuen Anforderungen der Entwicklerteams dürfen nicht vergessen werden: Während diese sich bislang nicht für Infrastruktur-Monitoring interessierten, sind sie nun durch den Umstieg auf DevOps und die Abhängigkeit von nativen Cloud Computing-Technologien auf ein entsprechendes Tool geradezu angewiesen.

Alles in allem kommt es also auf ein robustes Monitoring an, das sowohl eine hohe Detailtiefe bietet als auch gesamte Geschäftstransaktionen zuverlässig erfasst. Die Implementierung einer entsprechenden Lösung ist eine der wichtigsten Voraussetzungen dafür, dass die Migration auf Microservices gelingt.
(AppDynamics: ra)

eingetragen: 15.09.18
Newsletterlauf: 27.09.18

AppDynamics: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps und Hinweise

  • Optimierung von Java-Workloads in der Cloud

    Cloud-Infrastrukturen versprechen Skalierbarkeit, Effizienz und Kostenvorteile. Doch um Engpässe zu vermeiden, überprovisionieren viele Unternehmen ihre Cloud-Kapazitäten - und bezahlen so oftmals für Ressourcen, die sie gar nicht nutzen. Wie lässt sich das ändern? Ein zentraler Hebel ist die Optimierung von Java-Workloads in der Cloud. Cloud-Infrastrukturen bringen viele Vorteile, aber auch neue Komplexität und oft unerwartet hohe Kosten mit sich. Bei vielen Unternehmen nehmen Java-Umgebungen und -Anwendungen große Volumina in gebuchten Cloud-Kapazitäten ein, denn Java gehört noch immer zu den beliebtesten Programmiersprachen: Laut dem aktuellen State of Java Survey and Report 2025 von Azul geben 68 Prozent der Befragten an, dass über 50 Prozent ihrer Anwendungen mit Java entwickelt wurden oder auf einer JVM (Java Virtual Machine) laufen.

  • Wer Cloud sagt, muss Datensouveränität denken

    Die Cloud hat sich längst zu einem neuen IT-Standard entwickelt. Ihr Einsatz bringt allerdings neue Herausforderungen mit sich - insbesondere im Hinblick auf geopolitische Risiken und die Gefahr einseitiger Abhängigkeiten. Klar ist: Unternehmen, Behörden und Betreiber kritischer Infrastrukturen benötigen eine kompromisslose Datensouveränität. Materna Virtual Solution zeigt, welche zentralen Komponenten dabei entscheidend sind.

  • Fünf Mythen über Managed Services

    Managed Services sind ein Erfolgsmodell. Trotzdem existieren nach wie vor einige Vorbehalte gegenüber externen IT-Services. Die IT-Dienstleisterin CGI beschreibt die fünf hartnäckigsten Mythen und erklärt, warum diese längst überholt sind.

  • KI-Herausforderung: Mehr Daten, mehr Risiko

    Künstliche Intelligenz (KI) revolutioniert weiterhin die Geschäftswelt und hilft Unternehmen, Aufgaben zu automatisieren, Erkenntnisse zu gewinnen und Innovationen in großem Umfang voranzutreiben. Doch es bleiben Fragen offen, vor allem wenn es um die Art und Weise geht, wie KI-Lösungen Daten sicher verarbeiten und bewegen. Einem Bericht von McKinsey zufolge gehören Ungenauigkeiten in der KI sowie KI-Cybersecurity-Risiken zu den größten Sorgen von Mitarbeitern und Führungskräften.

  • Sichere Daten in der Sovereign Cloud

    Technologie steht im Mittelpunkt strategischer Ambitionen auf der ganzen Welt, aber ihr Erfolg hängt von mehr als nur ihren Fähigkeiten ab. Damit Dienste effektiv funktionieren, braucht es eine Vertrauensbasis, die den Erfolg dieser Technologie untermauert und eine verantwortungsvolle Speicherung der Daten, Anwendungen und Dienste gewährleistet.

  • Integration von Cloud-Infrastrukturen

    Cloud-Technologien werden zum Schlüsselfaktor für Wachstum und verbesserte Skalierbarkeit über das Kerngeschäft hinaus - auch bei Telekommunikationsanbietern (Telcos). Auch hier ist der Wandel zur Nutzung von Produkten und Dienstleistungen "On-Demand" im vollen Gange, sodass Telcos ihre Geschäftsmodelle weiterentwickeln und zunehmend als Managed-Service-Provider (MSPs) und Cloud-Service-Provider (CSPs) auftreten.

  • Acht Einsatzszenarien für Industrial AI

    Artificial Intelligence (AI) entwickelt sich zunehmend zur Schlüsselressource für die Wettbewerbsfähigkeit der deutschen Industrie. Doch wie weit ist die Branche wirklich? Laut einer aktuellen Bitkom-Befragung setzen bereits 42?Prozent der Industrieunternehmen des verarbeitenden Gewerbes in Deutschland AI in ihrer Produktion ein - ein weiteres Drittel (35?Prozent) plant entsprechende Projekte.

  • Ausfallkosten nur Spitze des Eisbergs

    Ungeplante Ausfälle in Rechenzentren sind seltener geworden, doch wenn sie eintreten, können sie verheerende Folgen haben. Laut der Uptime Institute Studie 2023 meldeten 55 Prozent der Betreiber in den vorangegangenen drei Jahren mindestens einen Ausfall - jeder zehnte davon war schwerwiegend oder kritisch. Zu den Ursachen gehören unter anderem Wartungsmängel, die sich mit einer strukturierten Instandhaltungsstrategie vermeiden lassen.

  • GenAI mächtig, aber nicht immer notwendig

    Jetzt auf den Hype rund um KI-Agenten aufzuspringen, klingt gerade in Zeiten des Fachkräftemangels für Unternehmen verlockend. Doch nicht alles, was glänzt, ist Gold. Viele Unternehmen investieren gerade in smarte Assistenten, Chatbots und Voicebots - allerdings scheitern einige dieser Projekte, ehe sie richtig begonnen haben: Schlecht umgesetzte KI-Agenten sorgen eher für Frust als für Effizienz, sowohl bei Kunden als auch bei den eigenen Mitarbeitern. Dabei werden immer wieder die gleichen Fehler gemacht. Besonders die folgenden drei sind leicht zu vermeiden.

  • Konsequent auf die Cloud setzen

    In der sich stetig wandelnden digitalen Welt reicht es nicht aus, mit den neuesten Technologien nur Schritt zu halten - Unternehmen müssen proaktiv handeln, um Innovationsführer zu werden. Entsprechend der neuen Studie "Driving Business Outcomes through Cost-Optimised Innovation" von SoftwareOne können Unternehmen, die gezielt ihre IT-Kosten optimieren, deutlich besser Innovationen vorantreiben und ihre Rentabilität sowie Markteinführungsgeschwindigkeit verbessern.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen