Kommentar von Alexander Zschaler, Fivetran KI funktioniert nur, wenn das Fundament steht

Von Alexander Zschaler 5 min Lesedauer

Anbieter zum Thema

Trotz milliardenschwerer Investitionen in moderne Dateninfrastrukturen gelingt es vielen Unternehmen nicht, Künstliche Intelligenz (KI) erfolgreich in ihre Prozesse zu integrieren. Zwar gilt KI als Schlüsseltechnologie für Effizienzsteigerung und wirtschaftliches Wachstum, doch eine aktuelle internationale Umfrage von Redpoint im Auftrag von Fivetran zeigt: Der Weg von der Strategie zur Umsetzung ist oft von Hürden geprägt.

Der Autor: Alexander Zschaler ist Regional Vice President DACH, Zentral- und Osteuropa bei Fivetran(Bild:  Fivetran)
Der Autor: Alexander Zschaler ist Regional Vice President DACH, Zentral- und Osteuropa bei Fivetran
(Bild: Fivetran)

So berichten 42 Prozent der befragten Unternehmen, dass mehr als die Hälfte ihrer KI-Initiativen entweder verzögert, ineffizient oder ganz gescheitert ist – meist, weil es an der grundlegenden Data Readiness mangelt.

Dabei zeigt sich ein paradoxes Bild: Während über die Hälfte der Unternehmen die Strategie zur Zentralisierung ihrer Daten als „sehr effektiv“ einschätzt, kämpfen viele gleichzeitig mit schwerwiegenden Problemen in der praktischen Umsetzung. Wenn Datenintegration scheitert, stockt die Transformation: Über ein Drittel der Unternehmen nennt Integrationshürden als zentrales Problem und wer wenig zentralisierte Daten hat, verliert laut eigener Aussage messbar Umsatz durch verzögerte oder schlecht performende KI-Modelle.

Ein weiterer Engpass liegt in der Ressourcenverteilung: Selbst Firmen, die ihre Daten bereits weitgehend zentralisiert haben, geben an, den Großteil ihrer Kapazitäten in die Wartung bestehender Datenpipelines investieren zu müssen. Diese Ressourcen fehlen für Innovation und Weiterentwicklung. Hinzu kommen regulatorische Anforderungen, die von fast 60 Prozent der Unternehmen als größte Herausforderung im Datenmanagement für KI bewertet werden.

Damit wird deutlich: Ohne eine durchdachte, ganzheitliche Umsetzung bleibt der KI-Erfolg ein Versprechen auf dem Papier. Folgende Trends zeigen Möglichkeiten, wie sich dieses Versprechen künftig einlösen lässt.

1. Data Lakes und moderne Datentools für eine solide Basis

Data Lakes werden sich zum Eckpfeiler der Dateninfrastruktur entwickeln. Denn sie bieten Unternehmen Skalierbarkeit, Flexibilität und eine solide Grundlage für die Verwaltung und Nutzung von Daten. Die Fortschritte der Cloud-Technologie in den vergangenen zehn Jahren haben hier neue Möglichkeiten eröffnet.

Die größte Herausforderung, vor allem für große Unternehmen mit zahlreichen Standorten in verschiedenen Regionen, besteht darin, eine skalierbare Datenintegration zu gewährleisten. Das geht nur mit automatisierten, verwalteten Tools. Diese sind zudem unverzichtbar für die nötige Governance, Sicherheit und das Profiling während der Datenbewegung.

2. Offene Data Lakes für Kostenersparnis und Flexibilität

Offene Data Lakes treiben Kostenreduktion, Effizienz und Innovation, quer über alle Branchen hinweg. Angesichts der zunehmenden Verbreitung offener Tabellenformate wie Iceberg und Delta erwarten Fachleute einen Anstieg spezialisierter Abfrage-Engines, die für bestimmte Datenanforderungen entwickelt wurden und eine effizientere Analyse großer Datensätze ermöglichen.

Mit Lakehouse-Architekturen, die ein Datenformat und eine unabhängige Speicherebene kombinieren, können Unternehmen mit verschiedenen Abfrage-Engines experimentieren und das Risiko eines Vendor Lock-ins reduzieren. Weil wichtige Player den Wandel zu offenen Datenformaten ebenfalls vorantreiben, werden Unternehmen von mehr Flexibilität und einer besseren Nutzung ihrer Daten profitieren.

3. Data Oberservability in Echtzeit für bessere Data Governance

Die Anzahl der Quellen, aus denen Pipelines Daten ziehen, wird weiter steigen. Umso wichtiger ist die vollständige Transparenz in jeder Phase der Datentransformation. Denn damit können Teams den Ursprung der Daten zurückverfolgen, ihren Verarbeitungsweg nachvollziehen und Dashboards und Aggregate mit ihrer Quelle verbinden. Dies sorgt für mehr Vertrauen in die Daten und versetzt Teams in die Lage, fundierte Entscheidungen zu treffen.

4. Knowledge-Graphen für unstrukturierte Daten

Daten aus weniger strukturierten Quellen wie E-Mails, Chat-Konversationen und freigegebenen Laufwerken werden zunehmend interessanter. Damit rücken Knowledge-Graphen als wichtige Erkenntnisquelle ins Blickfeld.

Ein Knowledge-Graph ist eine digitale Darstellung menschlichen Wissens, die von einer Maschine verstanden werden kann. Im Gegensatz zu herkömmlichen Datenbanken, die Daten in starren Tabellen speichern, werden Informationen bei Knowledge-Graphen in Knoten (Entitäten) und Kanten (Beziehungen) gegliedert. So entsteht ein Netz aus Verbindungen, das die natürliche Verknüpfung von Ideen nachahmt. Dadurch lassen sich verborgene Muster leichter erkennen, sodass Unternehmen eine ganzheitliche Sicht auf ihre Abläufe, Kunden und Chancen erhalten.

5. Governance für präzise und verlässliche KI

Spätestens hier, bei der Verwendung weniger strukturierten Daten, wächst die Komplexität von KI-Systemen, da es schwieriger wird diese sensiblen Daten automatisiert zu erfassen, zu kategorisieren und korrekt im Sinne einer Governance in KI Modelle einzubinden. Eine ganzheitliche Data-Governance-Strategie wird damit zum Schlüssel für verantwortungsvolle KI. Gleichzeitig minimiert eine solche Strategie mit dem richtigen End-to-End Data-Governance-Framework Risiken und gewährleistet die Compliance. Unternehmen, die so mehr Kontrolle gewinnen, können KI schneller skalieren und das volle Potenzial ausschöpfen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

6. RAG-Technologie für GenAI

Bei GenAI liegt der Fokus aktuell vor allem darauf, Risiken wie „Halluzinationen“ oder KI-generierte Falschaussagen zu entschärfen. Dabei werden Fortschritte bei Guardrails und der Retrieval-Augmented Generation (RAG) Technologie eine entscheidende Rolle spielen.

Guardrails werden sicherstellen, dass Ergebnisse nicht nur sachlich korrekt, sondern auch unvoreingenommen sind und den gewünschten Ton treffen. Das Vertrauen in KI-generierte Inhalte wird damit wachsen – wichtig vor allem für den Einsatz von KI in externen kundenorientierten Anwendungen.

RAG ergänzt die Informationsgewinnung aus strukturierten und unstrukturierten Daten durch die Spracherzeugung. So stellt die Technologie sicher, dass KI-Outputs auf Fakten beruhen, und verringert die Wahrscheinlichkeit von Halluzinationen.

7. Utility Computing für spezialisierte Workloads

Utility Computing bezeichnet zweckbestimmte Engines, die spezielle Workloads mit außergewöhnlicher Effizienz bewältigen. Dieser Ansatz ermöglicht Anbietern, ihre Lösungen gezielt auf spezifische Anwendungsfälle zuzuschneiden und so Kosten und Leistung zu optimieren.

Ein Beispiel für Utility Computing ist die DuckDB-Abfrage-Engine von Fivetran. Sie ermöglicht nicht nur eine Reduzierung der Kosten, sondern auch eine höhere Effizienz und die Skalierung des Betriebs.

8. Zentralisierte Daten für intelligentere KI in Lieferketten

Das Potenzial von KI in der Lieferkette wird vor allem durch Datenfragmentierung gebremst. Weil Unternehmen einen Mix aus Tools für verschiedene Regionen, Kunden und Funktionen nutzen, entstehen Datensilos. Das erschwert eine einheitliche, zusammenhängende Sicht, KI kann kaum aussagekräftige Erkenntnisse liefern, Automatisierung lässt sich nicht skalieren.

Um diese Silos aufzubrechen und eine nahtlose Integration von KI-Technologien zu ermöglichen, gilt es zentrale Datenökosysteme aufzubauen. Sie können die Grundlage für die Implementierung von KI-gestützter Automatisierung bilden – und damit für optimierte Abläufe etwa im Bestandsmanagement oder der Auftragsabwicklung sorgen. Zudem eröffnen sie weitere Möglichkeiten, z. B. die Entwicklung intelligenter virtueller Agenten, die Kundenanfragen bearbeiten, Zeitpläne anpassen oder Echtzeit-Entscheidungen auf Basis von Veränderungen bei Angebot und Nachfrage treffen.

Fazit: KI erfordert keine neuen Tools – sondern smarte Orchestrierung

Die Bausteine für erfolgreiche KI-Implementierungen sind längst vorhanden. Entscheidend ist nicht die Erfindung neuer Technologien, sondern ihre durchdachte Kombination und gegebenenfalls eine sinnvolle Ergänzung. Wer bestehende Tools gezielt integriert, Daten intelligent kuratiert und iterative Prozesse wie Prompt-Design, Testing und Retrieval-Optimierung etabliert, legt die Grundlage für wirkungsvolle und verantwortungsvolle KI. Wer hingegen weiterhin mit fragmentierten Systemen, manuellem Aufwand und intransparenten Datenflüssen operiert, wird nicht nur Innovationspotenziale verschenken, sondern auch wirtschaftliche Nachteile riskieren.

KI funktioniert nur, wenn das Fundament steht, und das Fundament ist Data Readiness. Der Schlüssel liegt im Feinschliff – nicht im Neuanfang.

Artikelfiles und Artikellinks

(ID:50468115)