Kommentar von Christoph Dittmann, LC Systems Data Gateways – und die KI profitiert von Vorarbeit

Von Christoph Dittmann |

Anbieter zum Thema

Moderne Unternehmen setzen zur Entscheidungsfindung vermehrt auf Daten-Analysesysteme, die mit KI-Komponenten ausgestattet sind. Je stärker diese Werkzeuge in Managementprozesse eingreifen, desto mehr ähneln ihre Ansprüche an die Qualität der Ausgangsdaten denen menschlicher Entscheider. Data Gateways können ihnen bei der Aufbereitung von Informationen perfekt zuarbeiten.

Der Autor: Christoph Dittmann ist Head of Data Solution Services bei LC Systems
Der Autor: Christoph Dittmann ist Head of Data Solution Services bei LC Systems
(Bild: LC Systems)

Eine Google-Suche nach „Datenanalyse“ und „Assistenz“ fördert schnell eine ganze Reihe von Stellenausschreibungen zutage. Da sucht dann etwa ein Finanzdienstleister, der seine Kunden bei der „Analyse, Strategiefestlegung, Verhandlung, Entscheidung, Kommunikation/Umsetzung und Überwachung“ des Geschäftsbetriebs unterstützt, nach einer Person, die sich mit „Systemerfassung und Analyse von Jahresabschlüssen, betriebswirtschaftlichen Auswertungen, Sanierungskonzepten sowie der Erstellung von Bilanz- und Cashflow-Planungen“ befasst und dazu „branchenbezogene Recherchen“ anstellt.

Analyse setzt Aufbereitung voraus

Man achte dabei auf die Punkte „Systemerfassung“ und „Recherche“. Was hier verlangt wird, ist das mühsame Konsolidieren disparater Ausgangsdaten und das Einsammeln von Zusatzinformationen, die die Ergebnisse in einen nutzbringenden Vergleichskontext stellen. Die Manager beim Kunden und beim Dienstleister wünschen sich eine Entscheidungsgrundlage, die für sie verständlich ist, eine Einordnung der eigenen Position gegenüber der von Mitbewerbern und Kunden ermöglicht und Resultate liefert, die anderen Stakeholdern leicht nachvollziehbar weitervermittelt werden können.

Eine Künstliche Intelligenz, die das Management bei Business-Entscheidungen unterstützt, stellt ähnliche hohe Ansprüche an die Ausgangsinformationen, wie sie der Arbeitgeber aus dem Beispiel oben für sein Basismaterial und dessen Aufbereitung verlangt. Würde eine KI, die entsprechende Aufgaben übernimmt, im Extremfall nur mit Zahlen gefüttert, kämen am Ende auch nur Trends in Form von Zahlen heraus, und die Aufgabe der konkreten Interpretation und der kommunikativen Aufbereitung würde dann wieder komplett bei den menschlichen Entscheidern liegen.

Science-Fiction-Fans denken jetzt vielleicht zurecht an Douglas Adams‘ Roman „Per Anhalter durch die Galaxis“, in dem der größte Supercomputer des Universums nach Millionen von Jahren Rechenzeit die Frage nach „dem Leben, dem Universum und dem ganzen Rest“ schlicht mit „42“ beantwortet und die ratlosen Protagonisten mit dieser Antwort allein lässt.

Auf den Boden heutiger alltäglicher Produktionsprozesse zurückgeholt, würde dies zum Beispiel folgendermaßen aussehen: Eine Produktionsanlage notiert in ihren Logfiles rein anhand von EAN-Nummern, welche Komponenten sie über einen gewissen Zeitraum hinweg in welcher Zahl fertigstellt hat. Gleichzeitig liefern ein Warenwirtschaftssystem Daten über die eingekauften Rohstoffe und den verbrauchten Strom und das interne Abrechnungssystem Informationen über die Personalauslastung. Die beiden zuerst genannten Systeme schreiben immerhin rudimentäre Kontextinformationen – zu den Rohstoffen etwa die Lieferanten – während das dritte sogar zu auskunftsfreudig ist, weil es die Team-Auslastungsinformationen standardmäßig mit personenbezogenen Daten garniert, die in Berechnungen für Business-Prognosen aufgrund von Datenschutz-Vorgaben nichts zu suchen haben.

Ohne Kontext läuft KI ins Leere

Eine typische Anforderung in diesem Umfeld könnte darin bestehen, aus den beschriebenen Daten abzuleiten, ob die Personalplanung, die Einkaufsmengen, die Lieferantenauswahl und die Verträge mit den Energieanbietern für das betroffene Unternehmen zukunftssicher sind. Damit eine Analysesoftware so programmiert werden kann, dass sie das erhoffte Ergebnisse direkt in ein Dashboard liefert, müssten allerdings – abgesehen von der formalen Normalisierung der Daten und dem Aufbau der Kommunikationswege – an entscheidender Stelle Daten angereichert und an anderer ausgeklammert werden: Zu den EAN-Nummern der Produktionsstraße sollte addiert werden, für welche Komponente welche Rohstoffe benötigt werden und wie viele Schraub- oder Schweißvorgänge zur Endfertigung jeweils notwendig sind, und aus den Personal-Auslastungsdaten sollten alle Informationen entfernt werden, die eine Zuordnung zu einzelnen Mitarbeitern ermöglichen könnten.

Erreichen könnte man dies durch Anpassungen auf den Quell-Systemen – aber dies würde die entsprechenden Assets mit zusätzlichen, ihnen fremden Aufgaben belasten. Außerdem könnten schnell weitere Auswertungsinteressen ins Spiel kommen, die dann die Implementierung weiterer Spezial-Schnittstellen nach sich ziehen – bis am Ende eine unüberschaubare Zahl an Zweierbeziehungen existiert, die mehrere parallel laufende Agenten auf jedem beteiligten Gerät erfordert.

Unermüdliche Transformation

Das Problem lässt sich bei weitem flexibler und effizienter lösen, wenn eine Organisation ihren hoch entwickelten Analyse-Lösungen und KI-Instanzen eine ähnlich dezidierte, spezialisierte Assistenz zur Seite stellt wie den menschlichen Analysten. Ein „Data Gateway“ kann die Rolle perfekt übernehmen. Das Data Gateway des Herstellers Cribl etwa könnte die Anforderungen mit folgenden Funktionen abdecken:

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung
  • Anreicherung: Das Gateway kann bei Datentransfers exakt die Informationen ergänzen, die das Quellsystem nicht zur Verfügung stellt, die im Zielsystem aber erwünscht sind. Wichtig sind Anreicherungen dieser Art auch im Security-Bereich, wo die Meldung eines möglichen Angriffs auf ein System schnell mit Informationen zu dessen Risikokontext und möglichen Verwundbarkeiten verknüpft werden muss.
  • Reduktion des Datenvolumens: Nicht nur die Addition, sondern auch die Subtraktion von Daten ist möglich. Damit sinkt das zu transferierende Datenvolumen im Unternehmen, und die Verarbeitungsgeschwindigkeit bei allen Analysevorhaben kann steigen.
  • Zentrales und Event-basiertes Routing: Der Anwender kann Regeln aufstellen, nach denen das Data Gateway Ziele für einen Datentransfer je nach Inhalt oder sonstiger Merkmale der gelieferten Informationen dynamisch ändert und beispielsweise abwechselnd oder zugleich Software wie Splunk, Elastic Search, InfluxDB und Security-Monitoring-Lösungen versorgt. Bereits vorhandene Agenten (Splunk Universal Forwarder, Beats Agent und so weiter) können weiterverwendet werden – so lange, wie sie noch benötigt werden. Auf diese Weise ist eine stufenweise oder im Scope begrenzte Implementierung des Data Gateways möglich.
  • Verschlüsselung: Der im Beispiel erwähnten Forderung von Normen wie der DSGVO oder PCI DSS (Sicherheitsnorm der Kreditwirtschaft), personenbezogene Daten nur dort zugänglich zu machen, wo ein spezielles Interesse dafür nachweisbar ist, kann ein Data Gateway ebenfalls nachkommen. Es verschlüsselt die Informationen dann „on the fly“ und erhält sie so für eventuell notwendige forensische Untersuchungen, stellt aber sicher, dass ein Zugriff nur im Verdachtsfall erfolgen kann.

Fazit

KI beschleunigt die Datenanalyse in stark digitalisierten und automatisierten Geschäftsprozessen. Steht ihr dazu ein Data Gateway als schnelles, unermüdlich assistierendes Data Gateway zur Seite, erhöht dies die Treffsicherheit der Analysen ebenso wie die Aussagekraft der Ergebnisse – und der Anwender gewinnt die Möglichkeit, immer neue Analyse-Ideen ohne hohen Aufwand umsetzen zu können.

Artikelfiles und Artikellinks

(ID:47502558)