Definition

Was ist Complex Event Processing?

| Autor / Redakteur: Stefan Luber / Nico Litzel

(Bild: © aga7ta - stock.adobe.com)

Complex Event Processing verarbeitet verschiedene Ereignisströme in nahezu Echtzeit. Um neues Wissen aus den voneinander abhängigen Events zu generieren und mit diesem Wissen beispielsweise Geschäftsprozesse zu steuern, werden die Events erfasst, gruppiert, analysiert und Abhängigkeiten extrahiert.

Complex Event Processing, abgekürzt CEP, ist ein Teilgebiet der Prozessverarbeitung innerhalb der Informatik. Unter dem Begriff Complex Event Processing sind die verschiedenen Methoden, Tools und Technologien zur Real-Time-Eventverarbeitung zusammengefasst. Im Rahmen des Complex Event Processings werden mehrere unterschiedliche Ereignisströme direkt während der Entstehung der Ereignisse in nahezu Echtzeit verarbeitet. Die Events werden abgefragt, gruppiert, analysiert und Abhängigkeiten extrahiert.

Ziel ist es, aus den voneinander abhängigen Events neues Wissen zu generieren und dieses Wissen zur Steuerung von Geschäftsprozessen oder anderen Prozessen der IT zu verwenden. Das aus der Eventverarbeitung generierte Wissen ergibt sich aus der richtigen Kombination mehrerer Ereignisse. Typische Einsatzbereiche des CEP sind das Marketing, der Finanzbereich, die Netzwerküberwachung, vernetzte Prozesse der Industrie 4.0, das Internet der Dinge (IoT) oder die Logistik.

Die Verarbeitung der Events in Echtzeit bietet den Vorteil, dass im Vergleich zur klassischen, Datenbank-basierten Offline-Eventverarbeitung schneller auf sich verändernde Ereignisse und Rahmenbedingungen reagiert werden kann. Systeme, die für das Complex Event Processing zum Einsatz kommen, müssen hohe Lasten verkraften, kontinuierlich arbeiten und kurze Verarbeitungs- und Antwortzeiten haben.

Grundsätzliche Funktionsweise des Complex Event Processings

Events fallen innerhalb eines Ereignisstroms sequenziell nacheinander an und lösen weitere abhängige Ereignisse aus. Prozesse in der IT generieren in der Regel viele parallele Ereignisströme, deren Beziehungen untereinander die nachfolgenden Systeme oder Prozesse beeinflussen. CEP versucht diese parallelen Ereignisströme in Echtzeit zu verarbeiten und die einzelnen Events untereinander in Beziehung zu setzen oder Abhängigkeiten zu erkennen, um neue Erkenntnisse zu gewinnen. Zu diesem Zweck werden die Events strukturiert und abstrahiert. In abstrahierter Form ist es anschließend möglich, über mathematische und logische Verknüpfungen Abhängigkeiten zu erfassen und zu analysieren. Es lassen sich übergeordnete komplexe Ereignisse auf einer höheren Abstraktionsebene ableiten. Die Abstraktion kann sowohl in vertikaler als auch in horizontaler Form stattfinden.

Complex Event Processing nutzt sogenannte Ereignisanfragesprachen, um auf die einzelnen Events der Ereignisströme und ihre Daten zuzugreifen. Diese Ereignisanfragesprachen werden genutzt, um

  • bestimmte Daten aus den Ereignissen zu extrahieren,
  • einzelne Events abhängig von bestimmten Bedingungen miteinander zu verbinden,
  • zeitliche Zusammenhänge durch zeitbasierte Bedingungen zu extrahieren sowie
  • Ereignisdaten zu aggregieren.

Complex Event Processings und Offline-Methoden im Vergleich

Herkömmliche Offline-Methoden der Eventverarbeitung nutzen andere Methoden und Technologien als das Complex Event Processing. Die Offline-Eventverarbeitung basiert auf Datenbanken, in denen die anfallenden Events zunächst in strukturierter Form gesammelt und abgespeichert werden. Oft werden die Daten in einem Data Warehouse zusammengetragen. Anschließend kann auf diese Informationen über Datenbankabfragen zugegriffen werden.

Über Abfragebefehle und Verknüpfungslogiken werden einzelne Events aus der Datenbank untereinander in Beziehung gesetzt. Aus diesen Beziehungen entsteht das neu generierte Wissen. Im Vergleich zum Complex Event Processing erfordert diese Art der Eventverarbeitung wesentlich mehr Zeit. Daten müssen zunächst gesammelt werden und lassen sich erst danach auswerten. Zudem entsteht neues Wissen nicht kontinuierlich und in Echtzeit, sondern immer nur bezogen auf konkrete Datenbankabfragen und Datenkorrelationen. Eine Steuerung von Geschäftsprozessen in Echtzeit, wie es mit dem Complex Event Processing möglich ist, ist mit der herkömmlichen Methode der Eventverarbeitung nicht realisierbar.

Anwendungsbereiche des Complex Event Processings

Complex Event Processing bietet eine Vielzahl verschiedener Anwendungsmöglichkeiten. Sowohl im geschäftlichen und industriellen Umfeld als auch in der Wissenschaft und Forschung wird CEP eingesetzt. Prinzipiell bietet Complex Event Processing immer dann passende Lösungen, wenn es um das kontinuierlich Überwachen und Steuern von Prozessen in Echtzeit geht. Die eingesetzten Systeme müssen hierfür in der Lage sein, große Mengen an Daten aus verschiedenen Ereignisströmen kontinuierlich zu verarbeiten und zu analysieren. Typische Einsatzbereiche des Complex Event Processings sind beispielsweise

  • der elektronische Handel – zur Echtzeitauswertung der Verkäufe,
  • die Logistik – zur Warenverfolgung in Echtzeit,
  • das Energiemanagement – zur Echtzeitsteuerung von Energienetzen,
  • die Telekommunikation – zur Online-Überwachung der Vorgänge in Netzwerken,
  • die Finanzbranche – zur Betrugserkennung direkt bei Bezahlvorgängen,
  • die Industrie – zur Steuerung und Überwachung der vernetzten digitalen Prozessabläufe in der Industrie 4.0,
  • das Internet der Dinge – Steuerung und Kontrolle der vernetzten Geräte, Sensoren und Aktoren,
  • die Messtechnik – kontinuierliche Auswertung und Fehlereliminierung der von verschiedenen Sensoren gelieferten Messwerte,
  • das Marketing– Auswertung des Erfolgs von Marketingmaßnahmen und Marketingkampagnen in Echtzeit,
  • die Marktforschung – Analyse und Bewertung des Kundenverhalten in Echtzeit sowie
  • der Aktienhandel – kontinuierliche Kursanalysen und Generierung von Kauf- oder Verkaufsempfehlungen.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Stateful Stream Processing mit Apache Flink

Kommentar von Fabian Hüske, Ververica

Stateful Stream Processing mit Apache Flink

Apache Flink ist für typische Geschäftsanwendungen gedacht, die bestimmte Geschäftslogiken auf kontinuierliche Datenflüsse in Echtzeit anwenden. lesen

5 Hürden bei der Datenintegration und bewährte Lösungen

Kommentar von Stefan Müller, IT-Novum

5 Hürden bei der Datenintegration und bewährte Lösungen

Unternehmen, die ihre Daten nicht für die Geschäftsausrichtung nutzen können, werden dem Wettbewerbsdruck nicht standhalten können. Doch Daten liegen in unterschiedlichen Formaten vor und an verschiedensten Stellen im und außerhalb des Unternehmens. Zudem sind oft nur zu einem geringen Grad miteinander verknüpft. Dabei ist eine tiefgehende Datenintegration die zwingende Voraussetzung, um Daten sinnvoll zu nutzen lesen

Globales Datenmanagement für die digitale Transformation

Kommentar von Daniel Metzger, Hortonworks

Globales Datenmanagement für die digitale Transformation

Produkte und Nutzererfahrung optimieren, die Effizienz der Geschäftsaktivitäten steigern und den Gewinn maximieren – das ist die Essenz der Digitalisierung. Der gesamte Treibstoff all dieser Aktionen liegt in den Daten. Bei genauerer Betrachtung ist das alles aber gar nicht erst seit kurzem der Fall: Die digitale Transformation beschäftigt Unternehmen weltweit seit nunmehr etwa 20 Jahren lesen

IoT-Basics – die technische Basis von Big Data

Data Science

IoT-Basics – die technische Basis von Big Data

Big Data beinhaltet eine Reihe von IT-Techniken wie Cluster Computing und MapReduce sowie mathematisch-statistischer Verfahren (Data Mining, Machine Learning). Der Beitrag gibt einen Überblick über die relevanten Datenbankenkonzepte (Hadoop- und NoSQL-Datenbanken) und Programmiersprachen. lesen

So funktioniert Datenauswertung in Echtzeit

Realtime Analytics

So funktioniert Datenauswertung in Echtzeit

Prozesse, Endgeräte, Sensoren und Maschinen liefern laufend Logfiles, Sensor- und Betriebsdaten, Transaktionsdaten, die sich korrelieren und auswerten lassen – in Echtzeit. Doch „Echtzeit“ muss nicht unbedingt „ohne Verzug“ bedeuten, sondern lediglich in ausreichender Schnelligkeit für den jeweiligen IT-Benutzer, also vielmehr „rechtzeitig“. Daher befasst sich Realtime Analytics nicht nur mit Streaming-Daten, sondern auch mit viel „langsameren“ Datenlieferungen. lesen

Heidelberger Druckmaschinen AG setzt auf Big Data

Kooperation mit USU Software

Heidelberger Druckmaschinen AG setzt auf Big Data

Die Heidelberger Druckmaschinen AG erweitert in Zusammenarbeit mit der USU Software AG ihr Serviceportfolio. Mit datenbasierten Dienstleistungen will man gemeinsam den veränderten Kundenanforderungen im digitalen Zeitalter gerecht werden. lesen

Big-Data-Analysen mit Open Source Software

GridGain In-Memory Data Fabric & Apache Ignite

Big-Data-Analysen mit Open Source Software

In-Memory Computing ist vor allem im Big-Data-Bereich äußerst beliebt, da hier große Datenmengen enorm schnell verarbeitet werden müssen. Durch den extrem schnellen Zugriff auf die Daten innerhalb des Arbeitsspeichers lassen sich mit GridGain respektive Apache Ignite riesige Datenmengen enorm schnell verarbeiten. Die Software steht als Open-Source-Lösung zur Verfügung. lesen

Die passende Infrastruktur für Big Data

Parallelverarbeitung und In-Memory

Die passende Infrastruktur für Big Data

Von Big Data können alle profitieren: Unternehmen, öffentliche Einrichtungen und Non-Profit-Organisation. Doch mit herkömmlichen Business-Intelligence-Verfahren und der entsprechenden IT-Infrastruktur lassen sich große, unstrukturierte Datenbestände nicht einfach in Echtzeit auswerten. Erforderlich sind neue Ansätze, wie etwa eine verteilte Parallelverarbeitung und In-Memory-Technologien. lesen

Software des Hasso-Plattner-Instituts hilft mit intelligenten Prognosen

Besser durch den Verkehr

Software des Hasso-Plattner-Instituts hilft mit intelligenten Prognosen

Forscher des Hasso-Plattner-Instituts (HPI) haben ein System für Logistikunternehmen entwickelt, das in Echtzeit interne Informationen mit verkehrsrelevanten Daten aus dem Internet verknüpft. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 46339155 / Definitionen)