Kommentar von Christian Glatschke, Anodot

Mathematik schlägt Intuition

| Autor / Redakteur: Christian Glatschke / Nico Litzel

Der Autor: Christian Glatschke ist Sales Director DACH bei Anodot
Der Autor: Christian Glatschke ist Sales Director DACH bei Anodot (Bild: Anodot)

Für die Analyse und das Verständnis bestimmter Sachverhalte ist eine kontinuierliche Überwachung bestimmter Einflüsse notwendig. Doch um eine Situation überhaupt untersuchen zu können, muss zunächst festgelegt werden, nach welchen Kriterien diese Beobachtung stattfinden soll. In welchem Bereich spielen sich bestimmte Abläufe ab? Nach welchen Aspekten und Einflüssen muss etwas beobachtet werden, um bestimmte Erkenntnisse gewinnen zu können?

In der Informationstechnologie kann das durch Grenzwertdefinitionen für einen oberen oder unteren Bereich stattfinden. So muss bei der Analyse von Unternehmensdaten ein Normalbereich für das Datenverhalten festgelegt werden. Doch woher weiß man, welche Faktoren bei der Festlegung dieser Grenzwerte berücksichtigt werden müssen? Wie erkennt man den Normalbereich der eigenen Unternehmensdaten? Und wenn man nicht weiß, in welchem Bereich sich das ‚Normale‘ bewegt, wie kann anormales Verhalten überhaupt erkannt werden?

Wer sagt eigentlich, was normal ist?

Nicht nur in der Psychoanalytik, sondern auch in anderen Wissenschaften ist es oft schwierig zu bestimmen, welches Verhalten jenseits der Norm liegt. Es gibt häufig keine klar fassbare Trennlinie zwischen dem Normalen und einer Anomalie, weil viele Faktoren oder Dimensionen sich überschneiden und die Abweichungen oft in Kombination auftreten. Wie stark ein Unternehmen oder auch ein Anwendungsfall von einem Ausreißer aus dem Normalbereich betroffen ist und wie dringend Abhilfe geschaffen werden muss, sagen die reinen Zahlen ohnehin nicht aus: Die Auswirkungen, etwa eines Performanzverlustes einer Applikation oder eines kompletten Systemausfalles, können je nach Unternehmen oder Anwendungsfall extrem unterschiedlich sein. Eine Einteilung nach Schema F ist daher oft zu starr, um zuverlässige Ergebnisse zu erhalten.

Tabelle 1: Zu messen ist der Umsatz pro Produkt, Produktkategorie und Bundesland.
Tabelle 1: Zu messen ist der Umsatz pro Produkt, Produktkategorie und Bundesland. (Bild: Anodot)

In der Informationstechnologie werden täglich zigtausende von Werten erfasst, überwacht und analysiert. Das Beispiel in Tabelle 1 veranschaulicht, wie schnell die Anzahl der zu messenden Metriken anwachsen kann.

Dies ist ein simplifiziertes Modell für die Bestimmung des Unternehmenserfolges, jedoch wird daran schon ersichtlich wie komplex es werden kann Veränderungen bei bestimmten Produkten, Produktkategorien oder nach Bundesländern in Echtzeit zu erfassen.

Schwellenwerte festlegen – aber wie?

Diese Problemstellung ist natürlich nicht neu und wird bereits mit verschiedensten Herangehensweisen gelöst. Herkömmliche Überwachung basiert in der Regel auf Werkzeugen, die fähig sind, mittels zuvor definierter Schwellwerte, zu überwachen, ob für einen bestimmten Wert Schwankungen vorliegen, die den Normalbereich verlassen. Jedoch ist es in der Regel notwendig, vorab Grenzwerte und Normalbereiche manuell zu definieren. In der täglichen Praxis wird schnell deutlich, dass die Definition von Schwellwerten am Anfang eher aus dem Bauch heraus geschieht. Im Laufe der Zeit müssen diese Werte, basierend auf den sie beeinflussenden Faktoren, kontinuierlich angepasst und neu bestimmt werden. Bei der Anwendung dieser Analysewerkzeuge führt das über längere Zeit jedoch häufig zu einer hohen Anzahl an Fehlalarmen, teilweise hunderte pro Tag, und in deren Folge zu einem ebenso hohen Frustrationsgrad bei allen Beteiligten.

Wir sprechen seit Jahren über Schlagworte wie Big Data, Machine Learning oder automatisierte Analytik und müssen doch in den meisten Fällen immer noch intuitiv Schwellwerte bestimmen. In der täglichen Routine werden aber Lösungen benötigt, die automatisch lernen, welche Metrik im speziellen Umfeld, unter den jeweiligen Bedingungen als normal zu betrachten ist. Eine Softwarelösung, die Machine Learning und Algorithmen nutzt, kann maßgeblich derartige Prozesse für unzählige KPIs und die ordnenden Dimensionen unterstützen. Denn sie erlernt in Echtzeit, in welcher Bandbreite der Normalwert liegt. Der Anwender wird so von zahlreichen Fehlalarmen und manuellen Anpassungen befreit und erhält lediglich nur noch valide Alarmierungen und Meldungen. Ein Alert sollte aber nicht nur darüber informieren, dass etwas im System anormal ist sondern auch gleich die Begründung mitliefern. So kann der Lösungsprozess ebenfalls beschleunigt werden.

Intelligente Algorithmen schaffen Abhilfe

Es gibt verschiedene Algorithmen zur Anomalieerkennung, jedoch ist die Funktions- oder Herangehensweise meistens sehr ähnlich. Zuerst werden Daten während eines Lernzeitraumes beobachtet und analysiert, im nächsten Schritt wird anschließend definiert, welcher Bereich als normal anzusehen ist. Dann identifizieren die Algorithmen in den Daten, die regelmäßig beobachtet werden, jene Werte, die von dem normalen Bereich abweichen. Hierbei gibt es jedoch signifikante Unterschiede zwischen den angewandten Algorithmen: Einerseits hinsichtlich der Geschwindigkeit mit der ein normaler Wertebereich bestimmt, und andererseits hinsichtlich der Subtilität, mit der der Normalbereich definiert wird. Fakt ist jedoch, dass Unternehmen bei der richtigen Wahl und Anwendung der jeweiligen Algorithmen von enormen Vorteilen in Anwendungsfällen wie E-Commerce, IoT oder IT-Betrieb profitieren. Werden hingegen falsche Algorithmen angewendet, kann daraus eine unbeherrschbar hohe Anzahl von Fehlalarmen ausgelöst werden.

Aus diesem Grund wird eine Lösung benötigt, die sowohl eine Vielfalt an Algorithmen mit sich bringt, als auch die notwendige Intelligenz im jeweiligen Bedarfsfall den richtigen Algorithmus anzuwenden.

Anodot bietet eine Lösung an, mit der Anomalien und Business Incidents automatisiert erfasst werden. Mit seinen Algorithmen, welche zum größten Teil auf eigener Entwicklung beruhen, stellt Anodot sicher, dass Millionen von Metriken in Echtzeit aggregiert und analysiert werden können. Dabei wird durch intelligentes Scoring und die automatische Gruppierung aufeinander beruhender Anomalien und Vorfälle, eine Minimierung unnötiger Alarme sichergestellt. Das System ist fähig nach Maß zu agieren, da die Datenströme in Echtzeit überwacht werden, die Algorithmen das Verhalten dieser Daten erlernen bzw. das bereits Erlernte darauf anwenden und sogar weiterentwickeln. Dem Anwender wird somit ein System zur Verfügung gestellt, das sowohl den Bereichen Data Science, Business Intelligence, IT-Betrieb und IT-Security enorme Vorteile als auch Ersparnisse im täglichen Betrieb bietet.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44559870 / Analytics)