Trotz milliardenschwerer Investitionen in moderne Dateninfrastrukturen gelingt es vielen Unternehmen nicht, Künstliche Intelligenz (KI) erfolgreich in ihre Prozesse zu integrieren. Zwar gilt KI als Schlüsseltechnologie für Effizienzsteigerung und wirtschaftliches Wachstum, doch eine aktuelle internationale Umfrage von Redpoint im Auftrag von Fivetran zeigt: Der Weg von der Strategie zur Umsetzung ist oft von Hürden geprägt.
Der Autor: Alexander Zschaler ist Regional Vice President DACH, Zentral- und Osteuropa bei Fivetran
(Bild: Fivetran)
So berichten 42 Prozent der befragten Unternehmen, dass mehr als die Hälfte ihrer KI-Initiativen entweder verzögert, ineffizient oder ganz gescheitert ist – meist, weil es an der grundlegenden Data Readiness mangelt.
Dabei zeigt sich ein paradoxes Bild: Während über die Hälfte der Unternehmen die Strategie zur Zentralisierung ihrer Daten als „sehr effektiv“ einschätzt, kämpfen viele gleichzeitig mit schwerwiegenden Problemen in der praktischen Umsetzung. Wenn Datenintegration scheitert, stockt die Transformation: Über ein Drittel der Unternehmen nennt Integrationshürden als zentrales Problem und wer wenig zentralisierte Daten hat, verliert laut eigener Aussage messbar Umsatz durch verzögerte oder schlecht performende KI-Modelle.
Ein weiterer Engpass liegt in der Ressourcenverteilung: Selbst Firmen, die ihre Daten bereits weitgehend zentralisiert haben, geben an, den Großteil ihrer Kapazitäten in die Wartung bestehender Datenpipelines investieren zu müssen. Diese Ressourcen fehlen für Innovation und Weiterentwicklung. Hinzu kommen regulatorische Anforderungen, die von fast 60 Prozent der Unternehmen als größte Herausforderung im Datenmanagement für KI bewertet werden.
Damit wird deutlich: Ohne eine durchdachte, ganzheitliche Umsetzung bleibt der KI-Erfolg ein Versprechen auf dem Papier. Folgende Trends zeigen Möglichkeiten, wie sich dieses Versprechen künftig einlösen lässt.
1. Data Lakes und moderne Datentools für eine solide Basis
Data Lakes werden sich zum Eckpfeiler der Dateninfrastruktur entwickeln. Denn sie bieten Unternehmen Skalierbarkeit, Flexibilität und eine solide Grundlage für die Verwaltung und Nutzung von Daten. Die Fortschritte der Cloud-Technologie in den vergangenen zehn Jahren haben hier neue Möglichkeiten eröffnet.
Die größte Herausforderung, vor allem für große Unternehmen mit zahlreichen Standorten in verschiedenen Regionen, besteht darin, eine skalierbare Datenintegration zu gewährleisten. Das geht nur mit automatisierten, verwalteten Tools. Diese sind zudem unverzichtbar für die nötige Governance, Sicherheit und das Profiling während der Datenbewegung.
2. Offene Data Lakes für Kostenersparnis und Flexibilität
Offene Data Lakes treiben Kostenreduktion, Effizienz und Innovation, quer über alle Branchen hinweg. Angesichts der zunehmenden Verbreitung offener Tabellenformate wie Iceberg und Delta erwarten Fachleute einen Anstieg spezialisierter Abfrage-Engines, die für bestimmte Datenanforderungen entwickelt wurden und eine effizientere Analyse großer Datensätze ermöglichen.
Mit Lakehouse-Architekturen, die ein Datenformat und eine unabhängige Speicherebene kombinieren, können Unternehmen mit verschiedenen Abfrage-Engines experimentieren und das Risiko eines Vendor Lock-ins reduzieren. Weil wichtige Player den Wandel zu offenen Datenformaten ebenfalls vorantreiben, werden Unternehmen von mehr Flexibilität und einer besseren Nutzung ihrer Daten profitieren.
3. Data Oberservability in Echtzeit für bessere Data Governance
Die Anzahl der Quellen, aus denen Pipelines Daten ziehen, wird weiter steigen. Umso wichtiger ist die vollständige Transparenz in jeder Phase der Datentransformation. Denn damit können Teams den Ursprung der Daten zurückverfolgen, ihren Verarbeitungsweg nachvollziehen und Dashboards und Aggregate mit ihrer Quelle verbinden. Dies sorgt für mehr Vertrauen in die Daten und versetzt Teams in die Lage, fundierte Entscheidungen zu treffen.
4. Knowledge-Graphen für unstrukturierte Daten
Daten aus weniger strukturierten Quellen wie E-Mails, Chat-Konversationen und freigegebenen Laufwerken werden zunehmend interessanter. Damit rücken Knowledge-Graphen als wichtige Erkenntnisquelle ins Blickfeld.
Ein Knowledge-Graph ist eine digitale Darstellung menschlichen Wissens, die von einer Maschine verstanden werden kann. Im Gegensatz zu herkömmlichen Datenbanken, die Daten in starren Tabellen speichern, werden Informationen bei Knowledge-Graphen in Knoten (Entitäten) und Kanten (Beziehungen) gegliedert. So entsteht ein Netz aus Verbindungen, das die natürliche Verknüpfung von Ideen nachahmt. Dadurch lassen sich verborgene Muster leichter erkennen, sodass Unternehmen eine ganzheitliche Sicht auf ihre Abläufe, Kunden und Chancen erhalten.
5. Governance für präzise und verlässliche KI
Spätestens hier, bei der Verwendung weniger strukturierten Daten, wächst die Komplexität von KI-Systemen, da es schwieriger wird diese sensiblen Daten automatisiert zu erfassen, zu kategorisieren und korrekt im Sinne einer Governance in KI Modelle einzubinden. Eine ganzheitliche Data-Governance-Strategie wird damit zum Schlüssel für verantwortungsvolle KI. Gleichzeitig minimiert eine solche Strategie mit dem richtigen End-to-End Data-Governance-Framework Risiken und gewährleistet die Compliance. Unternehmen, die so mehr Kontrolle gewinnen, können KI schneller skalieren und das volle Potenzial ausschöpfen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
6. RAG-Technologie für GenAI
Bei GenAI liegt der Fokus aktuell vor allem darauf, Risiken wie „Halluzinationen“ oder KI-generierte Falschaussagen zu entschärfen. Dabei werden Fortschritte bei Guardrails und der Retrieval-Augmented Generation (RAG) Technologie eine entscheidende Rolle spielen.
Guardrails werden sicherstellen, dass Ergebnisse nicht nur sachlich korrekt, sondern auch unvoreingenommen sind und den gewünschten Ton treffen. Das Vertrauen in KI-generierte Inhalte wird damit wachsen – wichtig vor allem für den Einsatz von KI in externen kundenorientierten Anwendungen.
RAG ergänzt die Informationsgewinnung aus strukturierten und unstrukturierten Daten durch die Spracherzeugung. So stellt die Technologie sicher, dass KI-Outputs auf Fakten beruhen, und verringert die Wahrscheinlichkeit von Halluzinationen.
7. Utility Computing für spezialisierte Workloads
Utility Computing bezeichnet zweckbestimmte Engines, die spezielle Workloads mit außergewöhnlicher Effizienz bewältigen. Dieser Ansatz ermöglicht Anbietern, ihre Lösungen gezielt auf spezifische Anwendungsfälle zuzuschneiden und so Kosten und Leistung zu optimieren.
Ein Beispiel für Utility Computing ist die DuckDB-Abfrage-Engine von Fivetran. Sie ermöglicht nicht nur eine Reduzierung der Kosten, sondern auch eine höhere Effizienz und die Skalierung des Betriebs.
8. Zentralisierte Daten für intelligentere KI in Lieferketten
Das Potenzial von KI in der Lieferkette wird vor allem durch Datenfragmentierung gebremst. Weil Unternehmen einen Mix aus Tools für verschiedene Regionen, Kunden und Funktionen nutzen, entstehen Datensilos. Das erschwert eine einheitliche, zusammenhängende Sicht, KI kann kaum aussagekräftige Erkenntnisse liefern, Automatisierung lässt sich nicht skalieren.
Um diese Silos aufzubrechen und eine nahtlose Integration von KI-Technologien zu ermöglichen, gilt es zentrale Datenökosysteme aufzubauen. Sie können die Grundlage für die Implementierung von KI-gestützter Automatisierung bilden – und damit für optimierte Abläufe etwa im Bestandsmanagement oder der Auftragsabwicklung sorgen. Zudem eröffnen sie weitere Möglichkeiten, z. B. die Entwicklung intelligenter virtueller Agenten, die Kundenanfragen bearbeiten, Zeitpläne anpassen oder Echtzeit-Entscheidungen auf Basis von Veränderungen bei Angebot und Nachfrage treffen.
Fazit: KI erfordert keine neuen Tools – sondern smarte Orchestrierung
Die Bausteine für erfolgreiche KI-Implementierungen sind längst vorhanden. Entscheidend ist nicht die Erfindung neuer Technologien, sondern ihre durchdachte Kombination und gegebenenfalls eine sinnvolle Ergänzung. Wer bestehende Tools gezielt integriert, Daten intelligent kuratiert und iterative Prozesse wie Prompt-Design, Testing und Retrieval-Optimierung etabliert, legt die Grundlage für wirkungsvolle und verantwortungsvolle KI. Wer hingegen weiterhin mit fragmentierten Systemen, manuellem Aufwand und intransparenten Datenflüssen operiert, wird nicht nur Innovationspotenziale verschenken, sondern auch wirtschaftliche Nachteile riskieren.
KI funktioniert nur, wenn das Fundament steht, und das Fundament ist Data Readiness. Der Schlüssel liegt im Feinschliff – nicht im Neuanfang.