Je sicherer Enterprise-KI (KI = Künstliche Intelligenz) gebaut wird, desto schlechter kann sie werden. Dieser Widerspruch beschreibt ein strukturelles Problem moderner Unternehmensarchitekturen. Zugriffskontrollen schützen sensible Daten zuverlässig. Gleichzeitig verhindern sie, dass KI-Systeme das gesamte Unternehmenswissen einbeziehen. So entstehen Antworten, die korrekt erscheinen und dennoch auf einem fragmentierten Kontext beruhen.
Der Autor: Mark Wheeler ist Global Head of Product Engineering & AI Customer Success bei NTT DATA Business Solutions
(Bild: NTT Data Business Solutions GmbH)
Ein Beispiel: Ein Mitarbeiter sitzt vor seinem Bildschirm. Er braucht einen Referenzpreis für ein spezielles Lösungsmittel. Die Frage ist einfach: „Haben wir dieses Material schon einmal beschafft, und was war ein guter Benchmarkpreis?“
Die Künstliche Intelligenz antwortet innerhalb von Sekunden. Kein Treffer. Kein Benchmark. Keine historische Bestellung. Die Antwort ist sauber formuliert. Sie wirkt korrekt. Sie ist falsch. Nicht, weil das Modell halluziniert. Sondern weil es den entscheidenden Kontext nie sehen durfte. Die relevanten Daten liegen in einer anderen Region, in einer anderen Rechtseinheit, in einem akquirierten Unternehmen. Die Zugriffsbeschränkung hat verhindert, dass das System das Gesamtbild erkennt.
Das ist die am wenigsten diskutierte und zugleich gefährlichste Fehlerklasse der Enterprise-KI: sichere Offenlegung bei unvollständiger Erkenntnis.
Was Enterprise-KI von Chatbots unterscheidet
Im privaten Umfeld bedeutet KI meist: ein Nutzer, ein Prompt, eine Antwort. Im Unternehmen ist die Lage anders. Hier geht es um Versionen, Freigaben, Haftung, Compliance, Datenhoheit, regionale Gesetze und interne Richtlinien. Jede Antwort kann operative Folgen haben. Jede Information kann wirtschaftlichen Schaden verursachen.
Trotzdem werden viele KI-Initiativen gebaut, als würde es sich um erweiterte Chatbots handeln. Man verbindet ein Modell mit Dokumenten, ergänzt ein paar Schnittstellen und hofft auf Mehrwert. Das Problem ist nicht das Modell. Das Problem ist, was die KI sehen darf. Und was sie sagen darf.
In klassischen IT-Systemen gilt: Wer eine Tabelle nicht sehen darf, darf sie auch nicht verarbeiten. Dieses Prinzip funktioniert gut, solange Software nur anzeigt, was vorhanden ist. Wird das System auf die individuelle Sicht eines einzelnen Nutzers beschränkt, schrumpft sein Erkenntnishorizont. Es darf nur mit dem arbeiten, was innerhalb dieser engen Berechtigungsgrenzen liegt.
Das Ergebnis ist ein System, das regelkonform arbeitet und trotzdem operativ falsche Antworten gibt.
Im Einkauf kann das zu schlechteren Verhandlungen führen.
In der Produktion zu Fehlentscheidungen.
Im Finanzbereich zu falschen Risikoeinschätzungen.
Warum klassische Zugriffskonzepte nicht mehr ausreichen
Das Dilemma entsteht nicht durch fehlerhafte Modelle. Es entsteht durch ein Denkmodell, das aus der klassischen IT stammt. Dort schützt die zugrunde liegende Logik sensible Daten zuverlässig.
Mit Enterprise-KI verändert sich die Situation grundlegend. Ein KI-System bewertet Informationen, verknüpft Zusammenhänge und leitet daraus Empfehlungen ab. Es agiert nicht nur als Anzeigeinstrument, sondern als Erkenntnisschicht zwischen Daten und Entscheidung.
Wird diese Erkenntnisschicht strikt auf die individuelle Sicht eines einzelnen Nutzers begrenzt, verliert sie ihren Wert. Das System darf nur innerhalb enger Grenzen denken. Es erkennt keine Muster über Gesellschaften hinweg, keine historischen Zusammenhänge aus Akquisitionen, keine konzernweiten Preisentwicklungen.
So entsteht ein Paradox: Je strenger der Zugriff begrenzt wird, desto geringer wird die Qualität der Entscheidungsvorbereitung. Governance schützt, aber sie kann zugleich die Intelligenz beschneiden. Vertrauen wird damit zu einer Architekturfrage. Es muss technisch gestaltet werden, durch nachvollziehbare Zugriffslogik, klare Systemgrenzen und überprüfbare Protokollierung.
Das eigentliche Skalierungsproblem
Viele Diskussionen über Enterprise-KI drehen sich um Modellgröße, Antwortqualität oder neue Funktionen. Doch im Unternehmenskontext entscheidet eine andere Frage über Erfolg oder Misserfolg: Vertrauen.
Ein System, das einmal eine formal korrekte, aber geschäftlich falsche Antwort liefert, verliert Akzeptanz. Fachbereiche zweifeln an der Verlässlichkeit. Compliance-Abteilungen fordern zusätzliche Prüfmechanismen. Pilotprojekte bleiben isoliert.
Agentische Systeme verschärfen diese Situation. Sie bestehen nicht mehr aus einem einzelnen Modell, sondern aus mehreren Komponenten, die Daten abrufen, bewerten und Handlungsschritte vorbereiten. Mit jeder zusätzlichen Schnittstelle steigt die Komplexität und damit das Risiko ungewollter Offenlegung oder unvollständiger Erkenntnis.
Die eigentliche Herausforderung liegt daher nicht in der Sprachfähigkeit der KI. Sie liegt im Informationsmanagement. Genau hier scheitern viele Initiativen auf dem Weg vom Pilotprojekt in den produktiven Betrieb. Nicht die Modellqualität ist der Engpass, sondern die Frage, wie Daten unternehmensweit vertrauenswürdig abgerufen und kontrolliert offengelegt werden.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Intelligenz und Offenlegung trennen
Der entscheidende Schritt besteht darin, zwei Ebenen klar voneinander zu unterscheiden: die Ebene der Erkenntnis und die Ebene der Offenlegung.
Die KI darf unter klar definierten, zweckgebundenen Rollen breiter analysieren. Sie kann Zusammenhänge erkennen, Muster berechnen und Hypothesen prüfen, auch über organisatorische Grenzen hinweg. Diese Analyse bleibt jedoch innerhalb einer kontrollierten Systemebene.
Erst an der Ausgabeschnittstelle wird entschieden, welche Informationen offengelegt werden dürfen. Richtlinien prüfen, filtern oder anonymisieren Inhalte. Jede Ausgabe wird protokolliert. Intelligenz wird erweitert. Offenlegung bleibt präzise kontrolliert. Das darf nicht bedeuten: mehr Zugang bei weniger Kontrolle. Es muss heißen: mehr Zugang mit Kontrolle. Die heutigen Schutzmechanismen bieten noch nicht die Sicherheit deterministischer Kontrollen, weshalb absolute Kontrolle bei der Offenlegung schwer umzusetzen ist. Gerade an der Spitze der Entwicklung von Enterprise Agents liegen genau in solchen Herausforderungen die nächsten großen Durchbrüche.
2026: Das Jahr der Architekturentscheidung
2026 wird für viele Unternehmen zum Zeitpunkt einer grundlegenden Weichenstellung. Dann entscheidet sich, ob KI eine punktuelle Unterstützung für einzelne Aufgaben bleibt oder zu einem festen Bestandteil der Entscheidungslogik wird.
Diese Entscheidung fällt nicht durch ein weiteres Modell-Release. Sie fällt durch Architektur.
Unternehmen, die Künstliche Intelligenz breit analysieren lassen und Offenlegung klar steuern, schaffen Systeme, die kontextreich arbeiten und zugleich regelkonform bleiben. Sie verbessern die Qualität von Entscheidungen, ohne das Risiko unkontrollierter Datenfreigabe zu erhöhen.
Wer dagegen bestehende Zugriffskonzepte unverändert auf KI überträgt, baut Systeme, die formal sicher wirken, aber strategisch blind bleiben. In klassischen IT-Systemen lautet das Problem oft: „Der Computer sagt nein.“ In agentischen Architekturen wird ein anderes Szenario gefährlicher: Der Computer sagt ja, aber die Antwort hätte nein lauten müssen.
Verlässlichkeit entsteht durch klare Regeln, transparente Protokolle und eine Architektur, die Erkenntnis und Offenlegung sauber trennt. Unternehmen, die dieses Prinzip früh umsetzen, verschaffen sich einen Wettbewerbsvorteil. Nicht, weil sie die lauteste KI haben. Sondern weil ihre Systeme Entscheidungen besser vorbereiten.
Und genau darin liegt der nächste Entwicklungsschritt der Enterprise-KI.