Kommentar von Christian Glatschke, Anodot Mathematik schlägt Intuition
Für die Analyse und das Verständnis bestimmter Sachverhalte ist eine kontinuierliche Überwachung bestimmter Einflüsse notwendig. Doch um eine Situation überhaupt untersuchen zu können, muss zunächst festgelegt werden, nach welchen Kriterien diese Beobachtung stattfinden soll. In welchem Bereich spielen sich bestimmte Abläufe ab? Nach welchen Aspekten und Einflüssen muss etwas beobachtet werden, um bestimmte Erkenntnisse gewinnen zu können?
Anbieter zum Thema

In der Informationstechnologie kann das durch Grenzwertdefinitionen für einen oberen oder unteren Bereich stattfinden. So muss bei der Analyse von Unternehmensdaten ein Normalbereich für das Datenverhalten festgelegt werden. Doch woher weiß man, welche Faktoren bei der Festlegung dieser Grenzwerte berücksichtigt werden müssen? Wie erkennt man den Normalbereich der eigenen Unternehmensdaten? Und wenn man nicht weiß, in welchem Bereich sich das ‚Normale‘ bewegt, wie kann anormales Verhalten überhaupt erkannt werden?
Wer sagt eigentlich, was normal ist?
Nicht nur in der Psychoanalytik, sondern auch in anderen Wissenschaften ist es oft schwierig zu bestimmen, welches Verhalten jenseits der Norm liegt. Es gibt häufig keine klar fassbare Trennlinie zwischen dem Normalen und einer Anomalie, weil viele Faktoren oder Dimensionen sich überschneiden und die Abweichungen oft in Kombination auftreten. Wie stark ein Unternehmen oder auch ein Anwendungsfall von einem Ausreißer aus dem Normalbereich betroffen ist und wie dringend Abhilfe geschaffen werden muss, sagen die reinen Zahlen ohnehin nicht aus: Die Auswirkungen, etwa eines Performanzverlustes einer Applikation oder eines kompletten Systemausfalles, können je nach Unternehmen oder Anwendungsfall extrem unterschiedlich sein. Eine Einteilung nach Schema F ist daher oft zu starr, um zuverlässige Ergebnisse zu erhalten.
In der Informationstechnologie werden täglich zigtausende von Werten erfasst, überwacht und analysiert. Das Beispiel in Tabelle 1 veranschaulicht, wie schnell die Anzahl der zu messenden Metriken anwachsen kann.
Dies ist ein simplifiziertes Modell für die Bestimmung des Unternehmenserfolges, jedoch wird daran schon ersichtlich wie komplex es werden kann Veränderungen bei bestimmten Produkten, Produktkategorien oder nach Bundesländern in Echtzeit zu erfassen.
Schwellenwerte festlegen – aber wie?
Diese Problemstellung ist natürlich nicht neu und wird bereits mit verschiedensten Herangehensweisen gelöst. Herkömmliche Überwachung basiert in der Regel auf Werkzeugen, die fähig sind, mittels zuvor definierter Schwellwerte, zu überwachen, ob für einen bestimmten Wert Schwankungen vorliegen, die den Normalbereich verlassen. Jedoch ist es in der Regel notwendig, vorab Grenzwerte und Normalbereiche manuell zu definieren. In der täglichen Praxis wird schnell deutlich, dass die Definition von Schwellwerten am Anfang eher aus dem Bauch heraus geschieht. Im Laufe der Zeit müssen diese Werte, basierend auf den sie beeinflussenden Faktoren, kontinuierlich angepasst und neu bestimmt werden. Bei der Anwendung dieser Analysewerkzeuge führt das über längere Zeit jedoch häufig zu einer hohen Anzahl an Fehlalarmen, teilweise hunderte pro Tag, und in deren Folge zu einem ebenso hohen Frustrationsgrad bei allen Beteiligten.
Wir sprechen seit Jahren über Schlagworte wie Big Data, Machine Learning oder automatisierte Analytik und müssen doch in den meisten Fällen immer noch intuitiv Schwellwerte bestimmen. In der täglichen Routine werden aber Lösungen benötigt, die automatisch lernen, welche Metrik im speziellen Umfeld, unter den jeweiligen Bedingungen als normal zu betrachten ist. Eine Softwarelösung, die Machine Learning und Algorithmen nutzt, kann maßgeblich derartige Prozesse für unzählige KPIs und die ordnenden Dimensionen unterstützen. Denn sie erlernt in Echtzeit, in welcher Bandbreite der Normalwert liegt. Der Anwender wird so von zahlreichen Fehlalarmen und manuellen Anpassungen befreit und erhält lediglich nur noch valide Alarmierungen und Meldungen. Ein Alert sollte aber nicht nur darüber informieren, dass etwas im System anormal ist sondern auch gleich die Begründung mitliefern. So kann der Lösungsprozess ebenfalls beschleunigt werden.
Intelligente Algorithmen schaffen Abhilfe
Es gibt verschiedene Algorithmen zur Anomalieerkennung, jedoch ist die Funktions- oder Herangehensweise meistens sehr ähnlich. Zuerst werden Daten während eines Lernzeitraumes beobachtet und analysiert, im nächsten Schritt wird anschließend definiert, welcher Bereich als normal anzusehen ist. Dann identifizieren die Algorithmen in den Daten, die regelmäßig beobachtet werden, jene Werte, die von dem normalen Bereich abweichen. Hierbei gibt es jedoch signifikante Unterschiede zwischen den angewandten Algorithmen: Einerseits hinsichtlich der Geschwindigkeit mit der ein normaler Wertebereich bestimmt, und andererseits hinsichtlich der Subtilität, mit der der Normalbereich definiert wird. Fakt ist jedoch, dass Unternehmen bei der richtigen Wahl und Anwendung der jeweiligen Algorithmen von enormen Vorteilen in Anwendungsfällen wie E-Commerce, IoT oder IT-Betrieb profitieren. Werden hingegen falsche Algorithmen angewendet, kann daraus eine unbeherrschbar hohe Anzahl von Fehlalarmen ausgelöst werden.
Aus diesem Grund wird eine Lösung benötigt, die sowohl eine Vielfalt an Algorithmen mit sich bringt, als auch die notwendige Intelligenz im jeweiligen Bedarfsfall den richtigen Algorithmus anzuwenden.
Anodot bietet eine Lösung an, mit der Anomalien und Business Incidents automatisiert erfasst werden. Mit seinen Algorithmen, welche zum größten Teil auf eigener Entwicklung beruhen, stellt Anodot sicher, dass Millionen von Metriken in Echtzeit aggregiert und analysiert werden können. Dabei wird durch intelligentes Scoring und die automatische Gruppierung aufeinander beruhender Anomalien und Vorfälle, eine Minimierung unnötiger Alarme sichergestellt. Das System ist fähig nach Maß zu agieren, da die Datenströme in Echtzeit überwacht werden, die Algorithmen das Verhalten dieser Daten erlernen bzw. das bereits Erlernte darauf anwenden und sogar weiterentwickeln. Dem Anwender wird somit ein System zur Verfügung gestellt, das sowohl den Bereichen Data Science, Business Intelligence, IT-Betrieb und IT-Security enorme Vorteile als auch Ersparnisse im täglichen Betrieb bietet.
Artikelfiles und Artikellinks
Link: Anodot im Web
(ID:44559870)