Kommentar von Bettina Tratz-Ryan, Gartner Warum KI-Projekte an ihren Daten scheitern

Von Bettina Tratz-Ryan 4 min Lesedauer

Anbieter zum Thema

Künstliche Intelligenz (KI) gilt als einer der wichtigsten Treiber für Produktivitätssteigerungen und Innovation. Dementsprechend hoch sind auch die Erwartungen an generative und analytische KI-Anwendungen und ebenso hoch die Investitionen, die Unternehmen aktuell weltweit tätigen. Was sich in der Praxis zeigt, ist jedoch ein anderes Bild: Viele KI-Initiativen sind zwar technisch funktionsfähig, verursachen jedoch gleichzeitig steigende Kosten, höhere operative Komplexität und neue Risiken im Betrieb.

Die Autorin: Bettina Tratz-Ryan ist VP-Analystin bei Gartner(Bild:  Gartner)
Die Autorin: Bettina Tratz-Ryan ist VP-Analystin bei Gartner
(Bild: Gartner)

In einer aktuellen Research von Gartner wird diese Entwicklung genauer betrachtet. Die deutliche Erkenntnis: Der wirtschaftliche Erfolg von KI scheitert selten an den Modellen selbst, sondern an Ansatz und dem Weitblick von Entscheidungen von Datenmanagementprinzipien und in dem Design der KI-Architektur. Die Studie ergab, dass ineffizient betriebene KI-Systeme die Cloud-Ausgaben um das Zehn- bis Hundertfache erhöhen können – ohne entsprechenden geschäftlichen Mehrwert zu erzielen.

Operative und ökologische Grenzen

Über Jahre hinweg galt die Überzeugung, dass leistungsfähigere KI vor allem durch größere Modelle, mehr Parameter und steigende Rechenleistung erreicht wird. Doch genau dieser Ansatz wird jetzt infrage gestellt. Denn das stößt nicht nur an betriebswirtschaftliche Grenzen, sondern erhöht auch die organisatorische Komplexität bei der Umsetzung disruptiver Technologiestrategien. Der steigende Energie- und Wasserbedarf entlang der Lebenszyklen von Rechenzentren, ihrer Hardware und Software sowie von KI-Modellen wird eine anhaltende Belastung für die Nachhaltigkeitsstrategien von Unternehmen darstellen.

Die Zukunft der KI liegt nicht in immer größeren Large Language Models, sondern in einer höheren qualitativen Datennutzung für solche Modelle. Überdimensionierte Modelle liefern häufig kaum Leistungsverbesserungen, verursachen jedoch überdurchschnittlich hohe Kosten. Besonders im betrieblichen Einsatz zeigt sich dieses Missverhältnis deutlich. Ein Großteil der Kosten entsteht nicht beim Training eines KI-Modells, sondern in den Inferenzen. So entfallen mindestens 70 Prozent der Gesamtkosten eines KI-Systems auf die Phase, in der Modelle produktiv genutzt werden. Da diese Inferenzanwendungen exponentiell zunehmen, werden die Kosten ohne gezielte Effizienzmaßnahmen explodieren.

Warum KI-Erfolg auf Datenebene entschieden wird

Ein zentrales Ergebnis der Untersuchung ist die Verschiebung des Effizienzfokus von den Modellen hin zu der Datenqualität. Denn ob KI-Projekte erfolgreich sind, entscheidet sich bereits bei der Aufbereitung und Nutzung der Daten. Gute Datensätze müssen in KI-optimierte Datensätze umgewandelt werden, um den Modellen die bestmögliche Datenlage zu bieten. Unnötig große Datenmengen, unzureichende Kontextualisierung und mangelnde Datengovernance führen direkt zu höherem Rechenaufwand, längeren Verarbeitungszeiten und erhöhten Risiko eines Datendrifts.

Viele Organisationen übertragen klassische, statische Datenmanagement-Ansätze auf KI-Anwendungsfälle. Die Folgen? Oft problematisch. KI erfordert Daten, die nicht nur korrekt, sondern auch im Unternehmenskontext passend, repräsentativ und aktuell sind. Werden KI-Modelle mit unnötig vielen oder schlecht aufbereiteten Daten betrieben, steigt der Rechenaufwand deutlich und die Aussagekraft und Handlungsfähigkeit der KI-Anwendung nimmt ab.

Es ist daher empfehlenswert, eine dedizierte Datenmanagementstrategie für KI-Effizienz zu betreiben, die einen Übergang zu kontextbezogen und hochautomatisiertem Daten darstellt. Ziel ist es, für jeden KI-Anwendungsfall genau die Daten bereitzustellen, die tatsächlich benötigt werden. Diese angemessen aufbereiteten Daten reduzieren die Rechenlast, minimieren den Speicherbedarf und senken die Kosten pro Use Case signifikant.

Datenvolatilität als unterschätzter Kostentreiber

In einer sich immer schneller veränderten Unternehmenslandschaft wird die Datenreife für KI-Anwendungen immer kritischer. Data Drift und Volatilität gehören zu den häufigsten Ursachen für schleichende Effizienzverluste in KI-Systemen und der Modellanwendungen. Wenn sich Datenquellen, Nutzungsverhalten oder externe Rahmenbedingungen verändern, verliert ein Modell nach und nach an Genauigkeit. Ohne kontinuierliche Beobachtung bleibt dieser Effekt oft lange unbemerkt.

Die Folge sind fehlerhafte Vorhersagen, sinkende Performance und aufwendige Korrekturen, etwa durch erneutes Training, Feinjustierung oder komplette Neuentwicklung von Modellen. Die Gartner-Studie empfiehlt, Veränderungen in den zugrunde liegenden Daten frühzeitig sichtbar zu machen und systematisch zu überwachen. So lassen sich operative Risiken begrenzen und Kostensteigerungen vermeiden. Und zwar bevor sie sich im laufenden Betrieb verfestigen.

Nachvollziehbarkeit entscheidet über Skalierbarkeit

Ein weiterer Effizienzfaktor liegt in der Beobachtbarkeit von Daten und Modellen. Mangelnde Transparenz über Leistung und Umfang von Large-Language-Modellen sowie Defizite im Metadatenmanagement und in der Dokumentation der Datenherkunft erhöhen den operativen Aufwand deutlich. Gleichzeitig erschwert mangelnde Transparenz die Einhaltung regulatorischer Anforderungen und schwächt das Vertrauen in KI-gestützte Entscheidungen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Laut der Gartner-Studie ist es sinnvoll, Metadaten, Datenherkunft und strukturierte Modellverwaltung konsequent über den gesamten Lebenszyklus hinweg zu erfassen. Nur wenn ersichtlich ist, welche Daten ein Modell speisen, wie aktuell sie sind und welche Annahmen zugrunde liegen, lassen sich KI-Systeme effizient und zielorientiert betreiben und zuverlässig skalieren.

Architektur und Betrieb als Effizienzhebel

Klar ist: Effiziente KI entsteht nicht isoliert, sondern durch das Zusammenspiel von Zielorientierung von KI-Modellen, die einen Geschäftsnutzen generieren. Dabei rechtfertigt nicht jede Aufgabe den Einsatz komplexer KI-Modelle. In vielen Szenarien sind klassische Automatisierungsansätze kostengünstiger, robuster und leichter zu betreiben.

Auf technologischer Ebene empfiehlt sich der verstärkte Einsatz kleinerer, domänenspezifischer Modelle sowie zusammengesetzter KI-Architekturen, die unterschiedliche Techniken kombinieren. Durch eine gezielte Auswahl der Modelle, selektive Feinabstimmung und die Wiederverwendung bestehender Assets lassen sich Kosten senken und gleichzeitig die operative Komplexität reduzieren.

Für einen nachhaltigen KI-Betrieb sind klare Steuerungsmechanismen entscheidend. Neben den Kosten müssen auch Leistung, Datenqualität und Ressourcenverbrauch kontinuierlich im Blick bleiben. Andernfalls lässt sich Effizienz nur punktuell verbessern, nicht aber dauerhaft im Betrieb verankern.

Effizienz als strategische Voraussetzung für KI-Skalierung

Die Studie macht deutlich, dass KI-Effizienz weit über reine Kostenoptimierung hinausgeht. Ineffiziente KI-Prozesse gefährden die operative Widerstandsfähigkeit von Unternehmen, untergraben das Vertrauen von Investoren und erhöhen regulatorische sowie reputative Risiken. Gleichzeitig ermöglicht effiziente KI, Anwendungen kontrolliert auszuweiten, Kosten im Blick zu behalten und Investitionen wirtschaftlich zu betreiben.

Unternehmen, die ihre KI-Strategie konsequent umsetzen, verschieben den Fokus von technologischer Machbarkeit hin zu messbarem Geschäftswert. Statt immer größere Modelle einzusetzen, investieren sie in saubere Datenpraktiken, transparente Architekturen und belastbare Domain spezifische Betriebsmodelle. In einem Umfeld steigender Energiepreise, knapper Ressourcen und wachsender regulatorischer Anforderungen wird Effizienz damit zum entscheidenden Faktor für den langfristigen Erfolg von KI.

(ID:50714102)