Kommentar von Elliot White, Accenture Song Das KI-Design-Defizit: Warum das Milliarden-Modell Staub ansetzt

Von Elliot White 6 min Lesedauer

Anbieter zum Thema

Der Auftrag ist unterschrieben. Kurz danach auch die nicht ganz kleine Rechnung. Die Cloud-Integration wurde umgesetzt, Datenpipelines optimiert, Sicherheitsfreigaben erteilt. Tausende Lizenzen für Tools wie Microsoft Copilot oder ChatGPT Enterprise wurden ausgerollt. Die enthusiastische Ankündigung an die Belegschaft folgte prompt: „Willkommen in der Zukunft“. Und dann? Stille.

Der Autor: Elliot White ist Service- und Product-Design-Lead bei Accenture Song(Bild:  Andre Wunstorf)
Der Autor: Elliot White ist Service- und Product-Design-Lead bei Accenture Song
(Bild: Andre Wunstorf)

Man muss nur durch das Großraumbüro gehen und auf die Bildschirme der Mitarbeiter blicken. Unterhalten sich die Teams fließend mit dem digitalen Orakel, das für sie angeschafft wurde? Unwahrscheinlich.

Nach aktuellen Erhebungen stagniert die Akzeptanzrate für Enterprise-GenAI trotz erheblicher Kapitalinvestitionen bei 23 Prozent. Hier beginnt das Paradoxon, denn die Technologie funktioniert. Die Large Language Models (LLMs) argumentieren schneller und halluzinieren weniger. Dennoch werden sie kaum genutzt. Oder gar ineffizient eingesetzt. Nutzer erhalten inkonsistente Ergebnisse, kämpfen mit dem System und kehren schließlich frustriert zu etablierten Arbeitsweisen zurück.

Die unbequeme Wahrheit lautet: Die KI-Revolution baut auf einer fehlerhaften Annahme auf. Nämlich, dass Menschen instinktiv wissen, wie sie durch geschicktes Fragen zum Ziel kommen, sobald die Maschine leistungsfähig genug ist. Ebenso wurde angenommen, dass ein leeres Textfeld – der blinkende Cursor in einem Meer aus Weißraum – eine intuitive Schnittstelle darstellt.

Doch das ist nicht der Fall. Das zentrale Hindernis für den wirtschaftlichen Erfolg liegt nicht im Technologie-Stack, sondern in der Designphilosophie.

Die versteckten Kosten leerer Schnittstellen

Ein Blick auf Anspruch und Realität verdeutlicht die Problematik: Künstliche Intelligenz soll Wissen demokratisieren und organisationsweites Know-how für alle Mitarbeiter unmittelbar verfügbar machen.

Die Realität allerdings sieht häufig ganz anders aus. Statt Ermächtigung steht da die Angst vor dem leeren Blatt (Blank-Page-Syndrom). Denn psychologisch gesehen, wird ein leeres Textfeld nicht als Einladung, sondern vielmehr als Belastung wahrgenommen. Es erzeugt sofortige kognitive Unsicherheit: Was soll ich fragen? Wie soll ich es (richtig) formulieren? Und was sagt eine schlecht Antwort über mich aus?

Ohne unterstützende Gestaltung verschiebt sich die Verantwortung vom System auf den einzelnen Nutzer: Buchhalter, HR-Spezialisten und Supply-Chain-Manager werden implizit zu „Prompt Engineers“ gemacht. Sie sollen eine neue, informelle Syntax erlernen – „Maschinensprache“ – um einen Mehrwert zu erhalten. Misslingt das – etwa, weil der Ton für einen internationalen Kunden unpassend ist oder weil eine Zusammenfassung wichtige finanzielle Risikien auslässt, – verflüchtigt sich auch schnell das Vertrauen der Mitarbeiter in die KI; und mit ihm die Bereitschaft, sie im Arbeitsalltag erneut einzusetzen.

Diese Falle lässt sich als „Eingabe-Ambiguität“ beschreiben. Vage Eingaben führen zu variablen Ausgaben. Variabilität untergräbt Vertrauen. Und ohne Vertrauen entstehen keine nachhaltige Akzeptanz und Nutzung.

Die Antwort hängt schon lange am Kühlschrank

Die Lösung liegt weniger in zusätzlicher Technologie als in einem Perspektivwechsel. Statt ausschließlich technisch zu denken, lohnt sich der Blick auf verhaltenspsychologische Mechanismen. Es braucht einen Hauch von Rory Sutherlands „Alchemie“: Die Lösung für ein unendliches Problem ist nicht unendliche Auswahl, sondern eine eingeschränkte Auswahl.

Ein bekanntes Beispiel ist sogenannte Kühlschrankpoesie: Mit einer begrenzten Auswahl an Magnetworten lassen sich überraschend mühelos unterschiedliche kreative Texte verfassen. Warum? Weil eine begrenzte, kontextbezogene Auswahl an Optionen und damit Struktur gegeben wird: „Leben“, „ist“, „süß“, „bitter“.

Die Optionen sind kontextuell begrenzt, die Angst vor der leeren Seite entfällt. Denn: es muss nichts von Grund auf neu erfunden, sondern kombiniert werden. Durch die gezielte Einschränkung der Auswahl sinkt der Entscheidungsdruck und produktives Handeln wird möglich. Diese Logik fehlt heute (noch) in vielen KI-Interfaces.

Statt eines leeren Eingabefelds könnte die KI den Nutzungskontext von Mitarbeitern unmittelbar berücksichtigen:

  • „Guten Morgen, Simone. Du hast in 15 Minuten ein Meeting mit dem Projekt-Aurora-Team.“
  • „Möchtest du: [Eine einseitige Zusammenfassung erstellen], [Das Protokoll der letzten Woche überprüfen] oder [Eine Agenda entwerfen]?“

So würde die Nutzerin nicht mehr auf das leere Eingabefeld, sondern sinnbildlich gesprochen auf einen Kühlschrank voller Magnete blicken, die speziell für die anstehende Aufgabe kuratiert wurden. Das ist nicht nur UI/UX, es ist Guided Intent (geleitete Absicht). Indem die Eingabe auf hochwertige Pfade beschränkt wird, ist eine hochwertige Ausgabe garantiert. Statt eines unvorhersehbaren Glücksspiels ein zuverlässiger Workflow.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Von der Black Box zum aktiven Partner

Der Wechsel vom Status quo (Black Box) des freien Prompting zu geführter Interaktion (Guided Intent) erfordert drei spezifische Design-Interventionen:

1. Sitzungsgedächtnis (Session Memory): Kontinuität statt Amnesie

Viele KI-Systeme „vergessen“ ihren Kontext, sobald eine Sitzung endet. Nutzende müssen Informationen wiederholt eingeben, Präferenzen neu erklären, Ergebnisse rekonstruieren. Diese Reibung ist fatal, sie wirkt wie eine Produktivitätsbremse.

Ein designtes Interface nutzt ein Sitzungsgedächtnis (Session Memory): Es erinnert sich an die Q3-Verkaufsdaten, die gestern analysiert wurden. Es erinnert sich, dass der Anwender prägnante Aufzählungspunkte gegenüber Prosa bevorzugt. Kurzum, es schafft einen Kontinuitätsfaden, der eher an die Zusammenarbeit mit einem menschlichen Kollegen erinnert als an eine transaktionale Abfrage an eine Datenbank.

2. Nahtlose Integration: Vermeidung des „Alt-Tab“-Wechsel

Muss ein Mitarbeiter den Workflow verlassen, um ein separates KI-Tool zu öffnen, geht bereits Effizienz verloren. Jede Kontextunterbrechung senkt die tatsächliche Nutzungswahrscheinlichkeit.

Effektive Design-Integration bedeutet, dass KI dort erscheint, wo gearbeitet wird, sodass der Prompt innerhalb des Workflows möglich ist.

Öffnet ein Kundendienstmitarbeiter eine Rechnungseskalation, sollte die KI nicht offen fragen „Wie kann ich helfen?“, sondern kontextuell und proaktiv anbieten: „Antwort entwerfen basierend auf [Vorlage: Allgemeine Abrechnung] mit [Empathischem Ton].“

3. Anpassbarer Ton: Kulturelle Anschlussfähigkeit

Ein großer Reibungspunkt ist kulturelle Fehlanpassung. Sprachmodelle wirken je nach Trainigsdaten zu informell, zu enthusiastisch oder zu direkt. Ein US-Marketingleiter hat andere sprachliche Gewohnheiten und einen anderen Bedarf als ein deutscher Compliance-Beauftragter oder ein japanischer Stakeholder.

Design löst dies mit einfachen Ton-Reglern (Tone Toggles) – etwa professionell, prägnant, neutral – ermöglichen es dem Benutzer, die Ausgabe situativ zu kalibrieren. Dadurch wird die KI berechenbarer und anschlussfähig für unterschiedliche organisatorische Kulturen.

Wie bessere Benutzerflächen aussehen(Bild:  Accenture Song)
Wie bessere Benutzerflächen aussehen
(Bild: Accenture Song)

Der Übergang: ROI ist eine Design-Metrik

Die zentrale Frage lautet: Ändert dieser Ansatz tatsächlich messbar etwas am Endergebnis? Die Daten sagen: Ja.

Einige Beispiele:

Damit wird deutlich: Erst durch Design wird KI von einem experimentellen Hilfsmittel zum produktiven Arbeitsinstrument.

Fazit: Weniger Training, mehr Gestaltung

Die gängige Reaktion auf die geringe KI-Akzeptanz lautet bislang meist: mehr Training. Hier noch ein Workshop, dort noch ein Leitfaden für besseres Prompting. Allerdings deuten die vorliegenden Erkenntnisse auf ein anderes Kernproblem hin: Nicht fehlendes Wissen, sondern unzureichende Gestaltung verhindert den Durchbruch im Arbeitsalltag.

Menschen sollten nicht lernen müssen, wie Maschinen „denken“. Maschinen sollten so gestaltet sein, dass sie menschliche Arbeitslogiken unterstützen. Langfristig entscheidet nicht die Größe eines Modells über den Erfolg von KI-Initativen, sondern die Qualität der Schnittstelle. Denn dort entscheidet sich, ob Investitionen produktiv wirken – oder weitgehend ungenutzt bleiben.

Kernpunkte für CIOs

  • Akzeptanzlücke: Trotz Verfügbarkeit stagniert die KI-Akzeptanz in Unternehmen bei 23 Prozent – maßgeblich bedingt durch leere, unstrukturierte Interfaces.
  • Kognitive Belastung: Mitarbeiter zu Prompt Engineers zu machen, erzeugt Unsicherheit statt Effizienz.
  • Geführte Interaktion: Kuratierte Auswahl erhöht das Benutzervertrauen und die Zuverlässigkeit der Ausgabe.
  • Design vor Technologie: Funktionen wie Session Memory, kontextuelle Integration und Ton-Regler treiben den ROI stärker als Modell-Upgrades.
  • Organisatorischer Effekt: Durchdachtes Interface-Design verschiebt KI von punktueller Assistenz hin zu strukturierter Orchestrierung und erschließt kontinuierliche Effizienzgewinne.

Artikelfiles und Artikellinks

(ID:50676738)