Hinweis: Dieser Blog ist Teil einer fünfteiligen Blog-Reihe rund um das Thema Observability. Die anderen dazugehörenden Blogs findet ihr hier:
Las man in der Vergangenheit Beiträge zum Thema Clouds, hinterließen diese mitunter einen “Wolke 7-Eindruck” – ein Gefühl des Glücks, in dem alles möglich scheint. Natürlich bietet die Cloud-Migration von Daten und Anwendungen viele mögliche Vorteile wie Effizienzgewinne und Kostenersparnisse. Das sind jedoch keine Selbstläufer. In der Praxis haben viele Organisationen mit der Komplexität ihrer hybriden Infrastruktur zu kämpfen, denn sie müssen sowohl On-premises-Komponenten als auch Cloud-Services managen. Aber keine Sorge: Hybridität ist handhabbar.
Die meisten Organisationen starteten einst mit Software auf firmeneigenen Servern. Dann gewann die Cloud als Betriebsmodell immer mehr an Bedeutung. Heute nutzen Unternehmen in der Regel zahlreiche verschiedene Systeme aus unterschiedlichen Quellen. Der Durchblick ist gerade hier aber selten besser geworden. So versuchen manche immer noch, mit selbst gebauten Monitoring-Tools den Überblick zu behalten, auch wenn diese ursprünglich nur für den Einsatz on premises gedacht waren. Die Folgen sind abgeschottete Datensilos und, noch schlimmer, blinde Flecken – dies betrifft vor allem die Vorgänge in der Cloud. Und selbst wenn die Tools dort noch irgendwie funktionieren sollten, so sind sie in der Regel doch viel träger als spezialisierte Tools.
Die Zeit, die bei Problemen verloren geht, bis man die Ursache gefunden hat, wird sehr teuer bezahlt. Stehen die Bänder in einer Produktionshalle still, kostet jede Minute Downtime viel Geld und ultimativ auch Reputation, extern sowie intern. Den gleichen Weg noch einmal zu gehen und sich maßgeschneiderte Tools für die Cloud zu bauen, ist für die meisten Organisationen keine Option – dazu fehlt ebenfalls die Zeit, aber oftmals auch das Know-how. In die Cloud zu migrieren, ohne volle Transparenz und Kontrolle über den Zu- und Abfluss von Daten zu haben, ist aber ein Glücksspiel.
So führt die Auswertung von Daten aus diversen Quellen zu Reibungsverlusten und potenziellen Gefahren, wo doch Erträge und Gewinne stehen sollten.
Hinzu kommt eine weitere Herausforderung, die von den meisten Organisationen noch immer unterschätzt wird: Sie sehen die Cloud-Migration als eine Einbahnstraße und ziehen keinen Plan B in Betracht. Was aber …
… wenn sich eine Cloud-Anwendung als Flop erweist?
… wenn die neue Cloud-Lösung schlechter performt als die alte On-premises-Lösung?
Die entscheidende Frage dabei ist: Woher weiß ich das überhaupt?
Eine Antwort darauf lässt sich nur finden, wenn man die Performance sowohl on premises als auch in der Cloud messen kann. Daten lügen nicht – und sie lassen sich auch nicht von Argumenten wie „Das hat Geld gekostet“ oder „Wir sind jetzt endlich in der Cloud“ beeinflussen. Bei Menschen sind solche Urteile teilweise emotional geprägt.
Monitoring ist gut, aber insbesondere in hybriden Umgebungen kommt man damit allein nicht weit. Observability ist besser. Observability beschreibt ein Konzept und auch ein Mindset, welches das Monitoring nicht ersetzen, sondern ergänzen soll. Es sorgt dafür, dass Systemadmins, IT-Fachleute und Entwicklungsteams jederzeit den vollen Überblick über die Zustände ihrer Systeme haben – in Echtzeit und auf einen Blick – Ende-zu-Ende halt. Bei der Cloud-Migration kann eine Observability-Lösung beispielsweise helfen, die oben angesprochenen blinden Flecke zu vermeiden, weil sie eben alle Daten aus allen angeschlossenen Systemen erfasst – und nicht nur Stichproben von ausgewählten Daten, wie es bei bloßen Monitoring-Lösungen üblich ist.
Gleichzeitig können Organisationen mit Observability aus dem Monitoring-Hamsterrad (und somit den Fluten) an Warnmeldungen ausbrechen. Denn hybride Infrastrukturen produzieren heutzutage eine derart große Menge an Daten, dass Menschen allein sie längst nicht mehr auswerten können, erst recht nicht in der nötigen Geschwindigkeit. Die zuständigen Teams werden also üblicherweise durch Alarme über Auffälligkeiten informiert – Alarme, die automatisiert erstellt werden, immer mehr zunehmen und zum einen zu spät, zum anderen oft unnötig erfolgen. Die Folge ist, dass diese Warnungen nicht mehr ernst genommen werden. Alarmmüdigkeit (Alert Fatigue) heißt dieser Effekt.
Mit Observability sind Organisationen den entscheidenden Schritt schneller, denn sie profitieren von zahlen- und datengestützten Analysen und Technologien wie Machine-Learning, mit denen Systemfehler automatisiert vorhergesehen und vermieden werden können, bevor sie eintreten. Die Teams haben trotzdem die Kontrolle (und die Verantwortung), werden aber nicht von der schieren Flut an Informationen erdrückt, sondern mit handfesten Analysen und Handlungsempfehlungen in Echtzeit unterstützt.
Eine aktuelle Studie von Splunk zeigt, dass in Deutschland bereits 73 % der Befragten auf plattformorientierte Technologien setzen, die unabhängig von Datensilos und -quellen On-premises- und Cloud-Infrastrukturen abdecken. Wer den vollen Überblick über alle seine Daten behält, schöpft die Vorteile hybrider Infrastrukturen aus, ohne Nachteile fürchten zu müssen. Sprecht uns gerne an, wenn ihr mehr über die Observability-Plattform von Splunk erfahren möchtet.
Die Splunk-Plattform beseitigt die Hürden zwischen Daten und Handlungen, damit Observability-, IT- und Security-Teams in ihren Unternehmen für Sicherheit, Resilienz und Innovation sorgen können.
Splunk wurde 2003 gegründet und ist ein globales Unternehmen – mit mehr als 7.500 Mitarbeitern, derzeit über 1.020 Patenten und einer Verfügbarkeit in 21 Regionen rund um den Globus. Mit seiner offenen, erweiterbaren Datenplattform, die die gemeinsame Nutzung von Daten in beliebigen Umgebungen unterstützt, bietet Splunk allen Teams im Unternehmen für jede Interaktion und jeden Geschäftsprozess End-to-End-Transparenz mit Kontext. Bauen auch Sie eine starke Datenbasis auf – mit Splunk.