Auf einmal musste alles sehr schnell gehen, für Unternehmen in der Produktion, für die öffentliche Hand, für Retailer und Dienstleister. Wer im Januar noch der Digitalisierung hinterherhinkte, war spätestens beim ersten Lockdown im März gezwungen, seine Strategie zu überholen. 2020 hat Covid-19 bewirkt, dass Unternehmen schneller denn je neue Technologien eingeführt und viele Workloads in die Cloud verlagert haben. Kurz gesagt: Die Welt ging ins Homeoffice, und die Unternehmen zogen in die Cloud. Das hört sich doch gut an, und es ist auch gut. Aber es bringt auch neue Herausforderungen mit sich – die sich aber auch gut bewältigen lassen.
Wo mit der Cloud-Migration neue Lösungen eingeführt, entwickelt und expandiert werden, ergibt sich eine vielschichtige, verwobene und sich ständig verändernde IT-Landschaft. Dazu gehören unter anderem physische und virtuelle Server, private Clouds, Public Clouds – noch dazu in verschiedenen Instanzen – samt SaaS (Software as a Service), physische Devices, IoT- und Edge-Installationen sowie darüber hinaus meist einige unverzichtbare Legacy-Anwendungen. Alles in allem sind solche hybriden Multicloud-Landschaften komplexe Konstellationen aus Cloud-Technologie und lokalen IT-Infrastrukturen, die teils on premises betrieben werden, teils in die Cloud ausgelagert sind.
Das bringt enorme Vorteile mit sich, von der Flexibilität in Performance und Abrechnung bis zu dem Umstand, dass manche Services – Musterbeispiel: künstliche Intelligenz – kaum anders als aus der Cloud zu beziehen sind. Allerdings: Je komplexer die IT-Infrastrukturen werden, desto anfälliger sind sie für Performance- und Sicherheitsprobleme. Das gilt besonders dann, wenn die Implementation schnell und unter Druck erfolgen. Aktuell sind hybride IT-Architekturen mit ihren spezifischen Konstellationen gerade deshalb besonders kritisch, weil viele Unternehmen ihren digitalen Wandel 2020 in Höchstgeschwindigkeit vollzogen haben.
Für CIOs und das IT-Management erwächst dadurch eine echte Herkulesarbeit: ein vernünftiges Monitoring aufzusetzen, über die gesamte Infrastruktur mit all ihren verschiedenen Ansätzen, Datenbanken, Apps, Microservices und Schnittstellen über mehrere, unterschiedliche Umgebungen hinweg. Denn alles soll und muss kontrolliert, überwacht, gegengesichert und archiviert sowie nicht zuletzt geschützt werden.
Klassisches Application-Performance- und Infrastruktur-Monitoring ist gut, aber die bisherigen Tools für diese Zwecke funktionieren schlicht nicht über mehrere Umgebungen hinweg. Oder nur mit sehr viel Mühe. Das bedeutet: von Tool zu Tool wechseln, Daten aggregieren, vergleichen, abgleichen, in Korrelation setzen. Dies alles ist zeitaufwendig und kann unter Umständen bedeuten, dass ein Fehler bereits eskaliert, noch bevor seine Ursache entdeckt und eine Lösung oder ein Workaround erstellt ist. Außerdem summieren sich auf diese Weise unnötig viele teure Stunden von IT-Spezialisten, die sie besser produktiv fürs Geschäft und strategische Aufgaben verwenden könnten.
Dass das klassische Monitoring nicht mehr funktioniert, liegt vor allem daran, dass moderne, Cloud-gestützte IT-Landschaften agile Systeme sind. Microservices, Container und DevOps ermöglichen schnelle Entwicklungen und dynamische Entwickler-Pipelines, sie bewirken aber auch, dass die gesamte Infrastruktur intransparent wird. Gefragt ist daher ein Ansatz, der im Datenzeitalter eine umfassende Systemübersicht über sämtliche Umgebungen hinweg bietet: Observability.
Im Grunde bezeichnet Observability zunächst nur eine Eigenschaft eines Systems oder vielleicht besser gesagt: eine Anforderung an ein System, wie Benutzerfreundlichkeit oder Stabilität. Observability ist ein Maß dafür, wie gut sich die internen Zustände eines Systems ermitteln lassen. Die Grundlage bilden die Daten und Erkenntnisse aus dem Monitoring, aus denen Observability ein ganzheitliches Bild von Zustand und Leistung des Systems erstellt. Primär beruht sie auf den „drei Säulen der Observability“: Events bzw. Logdateien, Metriken und Anwendungs-Traces.
Allerdings ist auf diesen drei Säulen nicht leicht aufzubauen, ohne dass eine davon zu wackeln beginnt. Logdateien gibt es in Klartext, strukturiert oder binär, Metriken habe ihre ganz eigenen Standards, und Traces aus dem APM (Application Performance Monitoring), die den Verlauf einer Anfrage durch ein verteiltes System zeigen, sind sehr komplex und liegen mehr oder minder unstrukturiert vor.
Es ist klar, dass sich die Observability eines Systems enorm steigert, wenn eine Plattform wie Splunk die Monitoring-Ergebnisse aus Logs, Metriken und Traces in einer einzigen Lösung integriert, in Kontext stellt und visualisiert – und zwar praktisch in Echtzeit. Dann erhält das IT-Management die Visibilität, dies es benötigt und kann zentral auf die gesammelten Daten zugreifen, sie durchsuchen, filtern und analysieren. Es sieht nicht nur sofort, wenn und wann Probleme auftreten, sondern erkennt auch sehr viel schneller, wo und warum sie sich ereignen, kann Alerts einrichten und Reaktionen automatisieren. Der Weg zur Lösung ist damit ungleich schneller und kürzer.
Unterm Strich sparen sich DevOps- und Admin-Teams damit eine Menge Arbeit und Zeit – und die Unternehmen Kosten: unmittelbar, weil Troubleshooting und Workarounds weniger Personal und Zeit binden und weil sich kritische Probleme, d. h. Ausfälle, schneller lösen lassen. Lebenswichtig ist das speziell für den Vertrieb, der nicht nur online auf hochverfügbare, funktionierende Systeme angewiesen ist. Aber auch mittelbar, weil sich „weiche Faktoren“ wie Zuverlässigkeit und Vertrauenswürdigkeit unter anderem auf die Kundenzufriedenheit und damit auf die nachhaltige Kundenbindung auswirken. Gut sichtbar ist dies im E-Commerce, wo die Stabilität und User Experience des Bestellprozesses zusammen mit der Seriosität des Bezahlprozesses zentrale Erfolgskriterien darstellen.
Das Thema Observability vertiefen wir für euch vom 8. bis zum 11. März auf der Splunk Observability Week 2021. Dort erfahrt ihr ganz konkret, warum Observability ein entscheidendes Kriterium bei der Cloud-Migration ist und was sie bei der Vorfallreaktion leisten kann. Nicht zuletzt teilen unsere Experten mit euch Best Practices und wertvolle Tipps. Sichert euch jetzt euren Platz (es ist kostenlos!) auf der Splunk Observability Week: https://events.splunk.com/observabilityweek-north-2021
Die Splunk-Plattform beseitigt die Hürden zwischen Daten und Handlungen, damit Observability-, IT- und Security-Teams in ihren Unternehmen für Sicherheit, Resilienz und Innovation sorgen können.
Splunk wurde 2003 gegründet und ist ein globales Unternehmen – mit mehr als 7.500 Mitarbeitern, derzeit über 1.020 Patenten und einer Verfügbarkeit in 21 Regionen rund um den Globus. Mit seiner offenen, erweiterbaren Datenplattform, die die gemeinsame Nutzung von Daten in beliebigen Umgebungen unterstützt, bietet Splunk allen Teams im Unternehmen für jede Interaktion und jeden Geschäftsprozess End-to-End-Transparenz mit Kontext. Bauen auch Sie eine starke Datenbasis auf – mit Splunk.