Kommentar von Lori MacVittie, F5 Datenanalyse – so erhält man die richtigen Erkenntnisse

Autor / Redakteur: Lori MacVittie / Nico Litzel

Viele Unternehmen schränken die zu analysierenden Daten ein, um Kosten zu sparen. Die Folge: Der kleine Ausschnitt führt zu einer verzerrten Wahrnehmung der Situation und damit zu falschen Entscheidungen. Stattdessen sollten Unternehmen wirklich alle Informationen sammeln, die zur Verfügung stehen, und sie auch auswerten.

Firmen zum Thema

Die Autorin: Lori MacVittie ist Principal Technical Evangelist, Office of the CTO, bei F5
Die Autorin: Lori MacVittie ist Principal Technical Evangelist, Office of the CTO, bei F5
(Bild: F5)

Heute stehen so viele Daten zur Verfügung wie noch nie. Daher ist es kein Problem, die nötigen Informationen zu erhalten und zu analysieren – möchte man meinen. Doch so einfach ist es nicht. In der Praxis begrenzen Entscheidungsträger die Ermittlung, Analyse und Auswertung der Daten, um Kosten und Management-Aufwand gering zu halten.

So gelingt es nur fünf von 100 Unternehmen aus den zahlreichen Monitoring-Tools, die sie zur Überwachung der Leistung, Verfügbarkeit und Sicherheit ihrer digitalen Ressourcen verwenden, die erforderlichen Erkenntnisse zu gewinnen. Zu diesem Schluss gelangt der aktuelle State of Application Strategy Report von F5.

Datenverzerrung durch Kostendruck

Ein fatales Ergebnis, bedenkt man, dass es weder an geeigneten Tools noch Daten mangelt, sondern die bestehenden Daten schlicht verzerrt werden. Grund sind subjektive Auswahlprozesse: Entscheidungsträger legen fest, welche Informationen von welchen Systemen erfasst und wie die Visualisierungen auf Dashboards dargestellt werden.

Eine der wichtigsten Ursachen für Datenverzerrungen sind Sparmaßnahmen bei Software-Agenten. Diese sind in der Regel mit IT-Systemen gekoppelt, um automatisch Daten zu sammeln und an eine Analyseplattform weiterzuleiten. Für große Implementierungen gibt es zwar Rabatte, dennoch verzichten Unternehmen häufig auf die Installation von Agenten in verschiedenen Systemen, um Kosten zu reduzieren.

Subjektive Auswahlkriterien

Dies führt jedoch zu einer Verzerrung der Daten, da nicht von allen Systemen Informationen gesammelt werden. Die Entscheidung, ob ein Agent eingesetzt wird oder nicht, wird dabei häufig von der subjektiven, kostenbasierten Meinung des Entscheidungsträgers bestimmt – unabhängig von dessen Erfahrung.

Auch die Menge der erzeugten Daten kann zu Einschränkungen führen, nach dem Motto: Braucht man wirklich all diese Metriken, oder können wir uns auf die drei bis vier wichtigsten beschränken? Bei solchen Begrenzungen gibt es keine Möglichkeit, Verschiebungen in den Daten insgesamt zu validieren. Diese Veränderungen könnten auf ein potenzielles Problem hinweisen, werden aber übersehen, weil die Daten als unbedeutend eingestuft wurden.

Ungeeignete Visualisierungen

Und schließlich führen Entscheidungen über die visuelle Darstellung im Dashboard möglicherweise zu einer weiteren Verzerrung der Interpretation. Die Auswahl basiert oft auf den eigenen Fähigkeiten und Erfahrungen, die andere Nutzer des Dashboards nicht besitzen. Selbst die Wahl der Grafik kann zu Verzerrungen führen. Dies gilt insbesondere für zeitserienbasierte Betriebskennzahlen wie Leistung und Betriebszeit.

Balkendiagramme werden häufig zur Darstellung von Zeitreihendaten verwendet, sind aber meist nicht so aussagekräftig wie Liniendiagramme. Diese Entscheidungen können tiefgreifende Auswirkungen haben, wenn sich etwa Techniker auf die Visualisierung verlassen, um einen Einblick in den Betriebszustand eines Systems zu erhalten.

All diese Auswahlprozesse führen dazu, dass Daten kontinuierlich verzerrt werden. Und das schlägt sich auch auf die Fähigkeit nieder, sie zu interpretieren – und ihre tatsächliche Bedeutung zu verstehen.

Datenverzerrungen bekämpfen

Um in einer digitalen Welt wirklich valide Entscheidungen treffen zu können, sollte es so wenige Datenverzerrungen wie möglich geben. OpenTelemetry ist eine Möglichkeit, das zu realisieren. Die Standardisierung der Art, wie Telemetriedaten mithilfe von quelloffenen (und somit kostengünstigen) Agenten generiert und erfasst werden, setzt an einer der Hauptursachen für Datenverzerrungen an, dem IT-Budget.

Stellen Unternehmen sicher, dass sie Telemetriedaten von jedem System erfassen können und nicht nur von einigen wenigen, beseitigen sie eine wichtige Quelle für Datenverzerrungen. Deshalb sollten Lösungen für Edge Computing die Telemetrie-Erzeugung in die Plattform selbst einbetten, sodass sie immer und überall verfügbar ist.

Service-Angebote nutzen

Auch Data-Lake-as-a Service kann gegen Datenverzerrungen wirken, die durch die Begrenzung von Volumen und Speicherkosten im Laufe der Zeit entstehen. Lagern Unternehmen Skalierung und Kapazität aus, können sie mehr Telemetriedaten aufnehmen. Das erleichtert die Aufdeckung von Anomalien und Mustern, die sich auf die Leistung auswirken.

In den vergangenen fünf Jahren ist das Angebot an XaaS-Diensten enorm gewachsen – und die Unternehmen nehmen es an: Deloitte stellt in einer Studie über XaaS fest, dass in diesem Jahr bei fast 50 Prozent der Unternehmen mindestens die Hälfte der IT-Ausgaben für XaaS anfällt.

Konkrete Handlungsanweisungen

Die visualisierungsbedingte Verzerrung von Daten lässt sich ebenfalls vermeiden. Anstatt nur Momentaufnahmen von Datenpunkten im Zeitverlauf anzuzeigen, liefern Insights konkrete Handlungsanweisungen auf der Grundlage von Mustern und Beziehungen, die in den Daten festgestellt wurden. Wenn man zum Beispiel sieht, dass die Performance einer Applikation gerade nicht optimal ist, bekommt man zeitgleich einen konkreten Vorschlag, um diese zu verbessern. Idealerweise in Form eines klickbaren Buttons, der dann die entsprechenden Maßnahmen veranlasst.

Zudem sollten Telemetriedaten im Kontext eines gesamten Benutzerflusses analysiert werden. Dann lässt sich verstehen, wann eine ausgefallene Komponente ein Eingreifen erfordert und wann nicht. So kann die Umstellung von einem Modus, der sich auf die Interpretation mehrerer Visualisierungen stützt, auf die Nutzung umfassender Insights einige der mit der Visualisierung verbundenen Verzerrungen beseitigen.

Fazit

Für ein zuverlässiges Gesamtbild sollten Unternehmen möglichst alle Daten umfassend auswerten. Zum Beispiel können sie zur Überwachung der Leistung, Verfügbarkeit und Sicherheit ihrer digitalen Ressourcen OpenTelemetry nutzen. Das standardisierte Erzeugen und Erfassen von Telemetriedaten mithilfe quelloffener Agenten oder in die Plattform integrierter Funktionen schont das IT-Budget. Data-Lake-as-a-Service kann unnötiges Sparen bei der Speicherung vermeiden. Zudem sollte das Analysetool konkrete Handlungsanweisungen bieten, statt reine Zeitreihen, um echte Erkenntnisse zu gewinnen.

(ID:47649904)