28.06.2022 – Kategorie: IT-Sicherheit

Observability: 5 Best Practices für die effiziente Überwachung der IT-Systeme

ObservabilityQuelle: iStock

Die Nutzung von Cloud, Containern und Microservices hat die Anwendungslandschaft komplexer gemacht. Klassisches Monitoring zur Überwachung der IT-Systeme genügt nicht mehr. Besser dafür geeignet ist Observability, die Logging, Tracing und Monitoring bietet. Fünf Best Practices für eine kontextbasierte Fehlerquellenanalyse.

Tritt in einem IT-System ein Fehler auf, alarmiert klassisches Monitoring die Administratoren. Gut implementiert zeigt es, wo es brennt und was genau nicht mehr funktioniert. Für die Beantwortung der Frage nach dem Warum brauchen Administratoren allerdings einen tieferen, ganzheitlichen Einblick in die Systeme und Microservices. Monitoring stützt sich in diesem Zusammenhang insbesondere auf die Überwachung von möglichen Problemen, die der Betrieb vorhersehen muss. Darauf basierend muss die Operations-Abteilung dann ihre Dashboards konfigurieren. Mit dem Ansatz der Observability erhält der Betrieb hingegen Daten aus dem gesamten System.

Mit einer passenden Strategie können Administratoren flexibel analysieren, was in all den miteinander verknüpften Umgebungen vor sich geht und wo der wahre Grund für Fehler liegt. Da die Überwachung von hochkomplexen Systemen selbst nicht ganz einfach ist, hat der IT-Dienstleister Consol folgende fünf Best Practices definiert, nach denen Unternehmen ihre Strategie zur Observability ausrichten sollten.

1. Observability: Die Zielgruppen im Blick behalten

Logs sind nur dann wirklich hilfreich, wenn ihre Inhalte auf die Zielgruppe ausgerichtet sind. Beim Logging gibt es drei relevante Zielgruppen: Betrieb, Entwickler und die Fachbereiche. Im Kontext der Observability bedeutet zielgruppengerechtes Logging also, dass die Logs genau die Informationen enthalten müssen, die für Wartung und Betrieb von Anwendungen relevant sind. Während Entwickler beispielsweise in ihren Logs haargenau sehen wollen, in welcher Code-Zeile ein Fehler auftritt, ist es für Administratoren wichtiger zu erfahren, welche Auswirkungen er auf andere Systemteile hat. Fachbereiche hingegen interessieren sich vor allem dafür, wie die geschäftlichen Use Cases laufen und ob es dort Probleme gibt.

2. Den Kosten-Nutzen-Faktor abwägen

Umfangreiches Logging ist die Basis für erfolgreiche Observability. Dennoch kann weniger manchmal mehr sein, insbesondere bei der Abwägung des Kosten-Nutzen-Faktors. Das Sammeln von Daten ist gerade im Cloud-Kontext ein großer Kostenfaktor: Nicht nur die Speicherung ist teuer, zu Buche schlagen zudem Netzwerk-Traffic und Konfigurationsaufwand. Auch die Wartung und Aktualisierung der Logging-Infrastruktur verursacht durch hohen Personalaufwand Kosten. Unternehmen sollten daher nur die Daten sammeln, die für ihre Zwecke wirklich notwendig sind.

3. Langfristiges und holistisches Monitoring betreiben

Gutes Monitoring als Teil einer Observability-Strategie geht weit über die Beobachtung technischer Standardmetriken wie Prozessorlast oder Arbeitsspeicherbedarf hinaus. Fachliche Metriken, etwa wie lange das Rendern von Komponenten auf einer Webseite dauert, müssen Unternehmen individuell und je nach Anwendungsfall selbst definieren. Darüber hinaus ist Monitoring erst dann wirklich effektiv, wenn es langfristig angelegt ist. Unternehmen sollten etwa nach jedem Software-Release oder der Implementierung neuer Features genau hinschauen, wie und ob sich die Performance und Gesundheit des Systems verändert haben. Voraussetzung dafür ist, entsprechende Logs in Form einer Monitoring-Historie vorrätig zu haben.

4. Observability: Gutes Alerting definieren

Zur holistischen Observability-Strategie gehört auch die Definition von Alerting-Regeln. Das Monitoring versorgt Administratoren mit Informationen über das System in Echtzeit, sodass sie jederzeit nachschauen können, ob alles in Ordnung ist. Weniger zeitraubend ist es, wenn das System eigenständig Alarm schlägt, zum Beispiel sobald innerhalb von fünf Minuten ein gewisser Prozentsatz von Zugriffen auf eine Anwendung Fehler aufweist. Dann können die Verantwortlichen gezielt prüfen, was nicht stimmt und wo ein Eingreifen nötig ist. Voraussetzung dafür sind geeignete Metriken, die die Applikation bereitstellt. Dazu gehören neben technischen auch fachliche Metriken, die individuell die Business Use Cases überwachbar machen, für die das System verantwortlich ist.

5. Offene Standards für die Observability: nutzen

Open-Source-Software (OSS) setzt sich auch im professionellen IT-Umfeld immer mehr als lukrative Alternative zu proprietären Varianten durch. Gerade im DevOps-Bereich sind Open-Source-Tools wie Prometheus (Monitoring und Alerting), Jaeger (Tracing), Logstash (Logging) und Kibana (Visualisierung) weit verbreitet. Die meisten von ihnen setzen auf offene Standards wie OpenMetrics, OpenTracing und OpenTelemetry. Die Vorteile von OSS und offenen Standards sind ihre Vielseitigkeit, die große Innovationskraft der Community sowie die hohe Kompatibilität und Anpassbarkeit.

Consol Keller
Lutz Keller ist Leiter DevOps bei der Consol Consulting & Solutions Software GmbH. (Bild: Consol)

„Observability ist heute nicht mehr Kür, sondern eindeutig Pflicht“, „Cloud, Microservices und Container-Technologie machen eine intelligente und holistische Überwachungsstrategie für IT-Systeme dringend nötig. Mittlerweile sind auch Machine Learning und künstliche Intelligenz in der DevOps-Welt angekommen, die wiederkehrende Tätigkeiten übernehmen können. Sogenanntes AIOps wird in Zukunft spannende neue Anwendungsmöglichkeiten eröffnen und Administratoren entlasten“, erklärt Lutz Keller, Leiter DevOps bei der Consol Consulting & Solutions Software GmbH.

Einen tieferen Einblick in das Thema Observability bietet die Aufzeichnung des Webcast „The Observability of Quarkus Applications“ vom 23. Juni 2022 von Consol. Die Consol Consulting & Solutions Software GmbH mit Hauptsitz in München unterstützt seit mehr als 35 Jahren Unternehmen mit passgenauen IT-Lösungen durch den gesamten Software-Lifecyle. High-End-IT-Beratung, agile Software-Entwicklung sowie Betrieb und Support sind die Eckpfeiler des Portfolios, das Consol unter Anwendung von modernsten Technologien ständig erweitert. Dazu zählen Open Source-Projekte wie Quarkus, OpenShift oder Tekton. Zudem entwickelt es die Software Consol CM, eine Plattform zur Digitalisierung von Geschäftsprozessen. (sg)

Lesen Sie auch: Observability: Wie Splunk hybride Cloud-Umgebungen absichern will


Teilen Sie die Meldung „Observability: 5 Best Practices für die effiziente Überwachung der IT-Systeme“ mit Ihren Kontakten:


Scroll to Top