Der Weg der Digitalisierung, so erstrebenswert das Ziel auch sein mag, erweist sich bei vielen Unternehmen doch als ein steiniger Weg. Sicher ist aber, dass Transparenz bei der Anwendungsleistung nicht nur entscheidend für eine effektive Technologiestrategie ist, sondern auch für den geschäftlichen Erfolg.
Die folgende Fallstudie schildert eine Reihe von Umständen und Ereignissen, wie sie viele Unternehmen schon erlebt haben und gibt euch außerdem einige Tipps dazu, wie ihr dafür sorgen könnt, dass ihr genau wisst, wie die digitalen Services aussehen, die eure Kundschaft bekommt. Und wie ihr schnell reagieren könnt, wenn es zu Ausfällen oder Spannungsschwankungen kommt – sodass ihr im Endeffekt die negativen Auswirkungen auf Umsätze und Markenwert minimieren könnt.
Ein europäischer Energieversorger hatte 2015 eine APM-Lösung (Application Performance Monitoring) der zweiten Generation eingeführt und sich für einen Anbieter entschieden, der seinerzeit als Leader im Magic Quadrant™ von Gartner® geführt wurde. Anfangs passte die Lösung gut. Die eigenen Unternehmensanwendungen wurden zunehmend in Java programmiert (als dreischichtige Architekturen, was damals Standard war), und es war absehbar, dass der größte Teil des Anwendungsportfolios am Ende Java-basiert sein würde. Eine weitere zentrale Anforderung war diese: Die APM-Lösung sollte einzelne Business-Transaktionen vollständig und durchgängig auf die Abfolge der Zustandsänderungen der zugrundeliegenden Softwarekomponenten abbilden können. Der betreffende Anbieter hatte genau diese Funktion angeboten und sie prominent als Differenzierungsmerkmal beworben.
In den ersten Jahren nach der Einführung dieses APM-Systems lief alles gut. Doch unterdessen wandelte sich die Vorstellung, wie Best Practices für Anwendungsarchitekturen auszusehen hätten. Und weil die Digitalisierung den Energiemarkt veränderte, erlebten auch die Prozesse der Anwendungsentwicklung selbst eine Revolution. Anwendungen sollten nun so aufgebaut sein, dass immer wieder und in Sekundenschnelle Funktionen hinzugefügt, geändert oder entfernt werden konnten, und zwar ohne sonderliche Auswirkungen auf die Umgebung. Mit Blick auf diese Anforderungen wurden die Architekturen modularer und die Komponenten flüchtiger. Zugleich wurde der Prozess der Anwendungsentwicklung sehr viel schneller und zu einem kontinuierlichen Fluss von Änderungen, der in die Produktion strömte. Ein Nebeneffekt dieser Revolution war, dass die Teams der Anwendungsentwicklung – denen bis dahin egal sein konnte, was mit ihrem Code weiter geschah, sobald er einmal in der Produktion war – nun auch operative Verantwortung für diesen Code übernehmen mussten, zumindest in den ersten Tagen nach dem Release.
Mit veränderten Anwendungsarchitekturen und sehr viel kürzeren Änderungstakten zeigte sich, dass die eingesetzte APM-Technologie ihre Aufgabe nicht mehr ganz erfüllen konnte. Es war wie gesagt eine Plattform der zweiten Generation; deren Technologie arbeitete mit Stichproben, vordefinierten Anwendungstopologiemodellen und einer Bytecode-Instrumentierung für Tiefenanalysen von Verhaltensanomalien. Leider waren die Samples aber nicht fein genug und konnten daher nicht alle änderungsbedingten Events in der Umgebung erfassen. Die vordefinierten Modelle waren fast schon im Moment der Erstellung überholt, und die in erster Linie Bytecode-basierten Analysen ergaben ein verzerrtes Bild der Transaktionsflüsse, weil der größte Teil der Transaktionsverarbeitung in der Weiterleitung von Nachrichten zwischen containerisierten Java-Code-Komponenten bestand. Aufgrund der Unzulänglichkeiten bei der Beobachtung und der Analyse der Zustandsänderungen im Softwaresystem hatte die End-to-End-Ansicht der geschäftlichen Transaktionen letztlich nicht mehr viel praktischen Wert. Kurz gesagt: Bei den neueren Anwendungen war der Energiekonzern nicht in der Lage, die Auswirkungen der Änderungen, die pro Monat zu Tausenden vorgenommen wurden, wirklich zu überschauen.
Weil sich die Lage zusehends verschlechterte, wurde die APM-Lösung um eine wachsende Anzahl von Zusatztools ergänzt. Die Anwendungslogs, die das Log-Management-System vom Splunk lieferte, erwiesen sich in dieser Phase als eine besonders ergiebige Informationsquelle – damit konnten die Resultate der Technologie zweiter Generation bestätigt und verbessert werden.
Die Gesamtkosten stiegen allerdings, ebenso wie der Aufwand, der erforderlich ist, wenn ein Portfolio nicht integrierter Technologien gewartet und choreografiert werden muss. Das größte Problem war aber, dass das Unternehmen keine Möglichkeit mehr hatte, ein durchgängiges End-to-End-Bild vom Verhalten seiner digitalen Systeme zu zeichnen, und zwar eines, das für die Entscheidungsverantwortlichen der Business-Seite (im Gegensatz zur technologischen Seite) unmittelbar relevant wäre.
Es wurde daher beschlossen, das Angebot auf dem Markt zu prüfen. Das Ziel war jedoch nicht, die bestehende APM-Technologie komplett zu ersetzen, sondern vielmehr eine Art Arbeitsteilung: Eine neue Plattform sollte sich um die neuere Generation modularer, flüchtiger Anwendungen kümmern, während für die älteren Teile des Portfolios (immer noch > 50 %) der bisherige Anbieter zuständig bliebe. Zwar würde sich mit der Zeit die Entwicklung vermutlich immer weiter von der älteren Lösung entfernen, doch bestand zu dieser Zeit keine Notwendigkeit einer radikalen und umfassenden Ersetzung.
Die Observability-Plattform von Splunk setzte sich schnell an die Spitze der infrage kommenden Anbieter. Das hatte vier Hauptgründe:
Die Implementierung war erfolgreich, die Observability-Plattform von Splunk ist nun zu einem wichtigen Enabler für die Teams von IT Operations und Entwicklung des Energieversorgers geworden. Für die Zukunft ist zu erwarten, dass der Einsatz von Splunk zunehmen wird, je mehr Anwendungen der „neuen Generation“ entstehen. Abgesehen davon dürften die KI-Funktionen von Splunk ITSI (IT Service Intelligence) in den Mittelpunkt des Interesses rücken, weil sich damit aufzeigen und sogar vorhersagen lässt, welche Folgen Änderungen auf Systemebene in Bezug auf die Ausführung von Geschäftsprozessen haben.
Die Erfolge, die das europäische Energieversorgungsunternehmen erzielt hat, sind keineswegs das Resultat besonderer Umstände. Jedes Unternehmen, das die Digitalisierung als vordringliche Aufgabe begreift und einen datenstrategischen Ansatz verfolgt, kann mit dem Technologieportfolio von Splunk so weit kommen.
Bislang konnten sich die Observability-Funktionen von Splunk auf dem deutschen und britischen Markt leider nur in gewissen Grenzen durchsetzen. Der Grund: Es gab bisher noch keinen eigenen Bereich (Realm), keine dedizierte regionale Instanz der Splunk Observability Cloud, die den regulatorischen Anforderungen der Region genügte. Daher konnte Splunk die vielen deutschen und britischen Unternehmen nicht in vollem Umfang unterstützen, die einen immer schnelleren digitalen Wandel zu bewältigen haben – selbst dann, wenn Splunk bereits on premises die strategische Wahl für das Log-Management im IT-Betrieb und für SIEM (Security Information and Event Management) ist. Jetzt aber, mit den neuen Realms, ist unsere Kundschaft in Deutschland und im Vereinigten Königreich optimal aufgestellt und kann mit einem einheitlichen, KI-gestützten Datenansatz für Entwicklung, IT-Betrieb und Security für durchgängige Observability sorgen und digitale Resilienz aufbauen.
Mit den neuen Realms sind unsere deutschen und britischen Kunden nun jedoch in der Lage, einen einheitlichen, KI-gestützten Ansatz für das Management von Entwicklungs-, Betriebs- und Sicherheitsdaten zu entwickeln.
👉 Hier erhaltet ihr mehr Informationen zu Splunk Realms und unserem Lösungsportfolio 👈
Die Splunk-Plattform beseitigt die Hürden zwischen Daten und Handlungen, damit Observability-, IT- und Security-Teams in ihren Unternehmen für Sicherheit, Resilienz und Innovation sorgen können.
Splunk wurde 2003 gegründet und ist ein globales Unternehmen – mit mehr als 7.500 Mitarbeitern, derzeit über 1.020 Patenten und einer Verfügbarkeit in 21 Regionen rund um den Globus. Mit seiner offenen, erweiterbaren Datenplattform, die die gemeinsame Nutzung von Daten in beliebigen Umgebungen unterstützt, bietet Splunk allen Teams im Unternehmen für jede Interaktion und jeden Geschäftsprozess End-to-End-Transparenz mit Kontext. Bauen auch Sie eine starke Datenbasis auf – mit Splunk.