Kommentar von Autor Venkata Krishna, HCL Technologies

Fundierte Entscheidungen durch Datenprozesse der nächsten Generation

| Autor / Redakteur: Venkata Krishna / Nico Litzel

Der Autor: Venkata Krishna ist Global Solutions Lead – Data & Analytics bei HCL Technologies
Der Autor: Venkata Krishna ist Global Solutions Lead – Data & Analytics bei HCL Technologies (Bild: HCL Technologies)

Daten bilden bei Unternehmen die Basis für detaillierte Einblicke, fundierte Entscheidungen und künftiges Wachstum. Dabei gilt es, den Datenschatz aus den operativen Systemen zu heben. Doch wie lässt sich die ständig wachsende Flut dieser Daten sinnvoll kanalisieren, analysieren und letztendlich in die richtigen Geschäftsentscheidungen umwandeln?

Heute müssen Unternehmen in Datenprozesse investieren, damit ihre Geschäftsplattformen flexibler und agiler werden. Doch bislang gelingt die Integration von Daten und Analysen in die Geschäftssysteme in der Regel nur mit bescheidenem Erfolg. Wie lässt sich also der zunehmende Bedarf für die sinnvolle Nutzung der Datenflut erfüllen? Gelingt dies durch die Cloud? Oder mit Big-Data-Analysen? Mit Künstlicher Intelligenz? Datenwissenschaft? Oder vielleicht mit allen Ansätzen zusammen?

Größere Komplexität, größere Datenprozesse

Keine Frage: Unternehmen benötigen heute Daten, die verfügbar, zugänglich, nutzbar und umsetzbar sind, um wirklich davon zu profitieren. Mit zunehmender Komplexität der Geschäftsprozesse ist das jedoch einfacher gesagt als getan. Denn Unternehmen benötigen maßgeschneiderte Lösungen, welche die Komplexität reduzieren und Daten zu geringen Kosten in Business-Einsichten umwandeln. Gleichzeitig müssen sie zuverlässig sein und alle Compliance-Anforderungen erfüllen.

Für Branchen wie Finanzwesen und Pharmaindustrie ist das eine große Herausforderung, da sie mit großen Datenmengen unter strengen Compliance-Anforderungen arbeiten. Darüber hinaus sehen sie sich mit Problemen wie fragmentierte Daten, Legacy-Systeme, veraltete Technologien und übermäßigen manuellen Aufwand konfrontiert. Die meisten von ihnen arbeiten weiterhin mit Mainframes oder Legacy-Systemen, die nicht agil sind oder sich nicht an moderne Lösungen anpassen lassen.

Das führt zum Entstehen von Schatten-IT-Teams, deren Experimente mit Ad-hoc-Lösungen Tausende Stunden an zusätzlichem Aufwand erzeugen, um diese Daten über verschiedene Geschäftssysteme hinweg zu bereinigen. Dieser Aufwand kostet den Unternehmen wertvolle Ressourcen und lenkt sie vom Kerngeschäft ab. Die meisten Unternehmen lösen dieses Problem durch Outsourcing, wodurch sie aber anfällig für Risiken in den Bereichen Datensicherheit und Compliance werden.

Datenprozesse der nächsten Generation

Datenprozesse der nächsten Generation können Unternehmen dabei helfen, ihren Ansatz neu zu definieren, indem sie die Fähigkeiten der Data Fabric mit einer kognitiven Lösung auf Basis eines Datenmarktplatzes kombinieren. Dies führt zu einer schnelleren Datenkorrektur mit höherer Genauigkeit und Zuverlässigkeit. Damit erhalten Unternehmen Geschäftseinblicke in ihre Mainstream-Daten zu niedrigeren Kosten.

Ein neuer Ansatz von HCL für ein optimiertes Daten-Ökosystem besteht aus einem mehrstufigen Prozess. Dieser unterstützt Unternehmen dabei, eine höhere Agilität und Anpassungsfähigkeit in ihren Datenprozessen zu erreichen. Die Lösung hilft zudem bei der Implementierung einer neuen Architektur für Datenprozesse und -management, um ausführbare Erkenntnisse zu gewinnen sowie die Investitionen in Datentechnik und Datenbetrieb optimal zu nutzen.

Traditioneller und neuer Ansatz im Vergleich
Traditioneller und neuer Ansatz im Vergleich (Bild: HCL Technologies)

Der moderne Ansatz basiert auf Funktionen zur Datenbearbeitung, die ein Gesamtsystem für die effiziente Datenerfassung und -speicherung bieten sowie gleichzeitig eine Bereinigung in hoher Qualität ermöglichen. Dies vermeidet den Bedarf an Shadow IT. Der Ansatz nutzt dabei eine automatisierte Lösung, die wertvolle Geschäftseinblicke bietet und gleichzeitig schneller und genauer arbeitet.

Diese Lösung hat zwei Funktionen: Erstens stellt sie sicher, dass die Datenbereitstellung allgemein verfügbar ist – in Form von Data Lakes, Data Warehouses oder im Bereich Data Engineering. Zweitens bietet sie automatisierte Prozesse für den schnellen Zugriff durch verschiedene Nutzergruppen.

Ein Anwendungsbeispiel

Diese Lösung ist bereits bei zahlreichen Kunden im Einsatz. Zum Beispiel wollte eine große Bank den Aufwand für die Verwaltung und Bearbeitung von Daten aus über 1.500 Geschäftssystemen, die Kundendaten erfassen, reduzieren. Diese kostspielige und zeitaufwendige Aufgabe wurde durch den großen und komplexen Zufluss von Informationen weiter erschwert.

Der Kunde wünschte sich eine Lösung, die ihn bei der Konsolidierung und Verarbeitung der Daten aus diesen Systemen mit einem durchgängig automatisierten System unterstützt. Zudem sollte sie Analysefunktionen bereitstellen, um die Bedürfnisse der Kunden vorherzusehen. Damit könnte das Unternehmen an jedem Punkt der Customer Journey entsprechende Finanzprodukte anbieten.

Die bestehenden Systeme waren stark von manuellen Eingriffen abhängig, um Probleme wie Datenduplikation, Datenabdeckung, Datenintegration, Mapping zwischen Anwendung und Data Warehouse, schlechte Kommunikationsstruktur sowie langsame und umständliche Datennutzung zu bewältigen. Darüber hinaus stellte das Unternehmen den Anwendern verschiedene Lösungen bereit, die nicht standardisiert, sondern benutzerdefiniert waren. So kämpfte das Schatten-IT-Team mit schlechter Wartungsfähigkeit und unklaren Verantwortlichkeiten. Zudem waren die Daten nicht vertrauenswürdig und unzuverlässig. Dabei hatte das Unternehmen bereits mehrere hundert Millionen US-Dollar an Investitionen getätigt, zusätzlich zu den hohen Kosten für die manuellen Lösungen.

Mit dem neuen Ansatz konnte das Unternehmen seine Systeme und Prozesse zur Datenbereinigung priorisieren und die Datentransformation starten. Darüber hinaus wurde die Implementierung durch den Einsatz DevOps-basierter Betriebsmodelle und innovativer agiler Konstrukte vereinfacht.

Dadurch konnte der Konzern Daten aus allen Anwendungen in verschiedenen Geschäftsbereichen wie Versicherungen und Einzelhandel konsolidieren, abbilden und speichern. Zudem etablierte er eine vertrauenswürdige Datenquelle und verschlankte die bisherigen 43 Datenbanken in 8 Stammdatensysteme für die Versicherungsprodukte.

Fazit

Mit einem neuartigen Ansatz für Datenprozesse können Unternehmen Lücken bei der Speicherung identifizieren und schließen. Zudem migrieren sie erfolgreich ihre Daten von Altsystemen auf strategische Plattformen. Durch Datenprozesse der nächsten Generation lassen sich Artikel-, Finanz-, Risiko- und Kundendaten auch sicher und regelkonform nutzen, um daraus wichtige Erkenntnisse zu erhalten und fundierte Entscheidungen zu treffen.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 46142836 / Analytics)