Kommentar von Rachel Boskovitch und Shaun McGirr, Dataiku Die Hürden von KI – nicht unbedingt technologischer Natur

Von Rachel Boskovitch und Shaun McGirr * Lesedauer: 4 min |

Anbieter zum Thema

Zwischen Theorie und Praxis klafft nicht selten eine gewaltige Lücke. Ein Phänomen, das wir auch im Falle Künstlicher Intelligenz beobachten: Die technologische Entwicklung ist so rasant, dass kaum eine Organisation – so groß und progressiv sie auch sein mag – bereits das volle Potenzial ausschöpft. Es folgen vier typische Stolpersteine, denen Organisationen gegenüberstehen, wenn sie auf Künstliche Intelligenz setzen wollen – und Lösungsansätze.

Unternehmen, die auf Künstliche Intelligenz setzen, begegnen häufig Stolpersteine. Im Text werden vier typische Hürden geschildert und wie man diese umgeht.
Unternehmen, die auf Künstliche Intelligenz setzen, begegnen häufig Stolpersteine. Im Text werden vier typische Hürden geschildert und wie man diese umgeht.
(Bild: © Tom - stock.adobe.com)

In Deutschland haben über die Hälfte der Menschen laut einer repräsentativen Umfrage des KI-Think Tanks Kira Angst vor KI. Die Gründe dafür: Angst vor Überwachung, Manipulation oder einer grundsätzlichen Bedrohung für die Menschheit. Nicht anders als in der Gesellschaft verhält es sich in vielen Organisationen: Bei einzelnen Fachkräften ohne spezifische IT-Kenntnisse herrscht noch Skepsis statt Vorfreude. Just diese Fachkräfte können aber am meisten profitieren und dank KI deutlich profitabler arbeiten. Gelingt es nicht, die eigentlichen Business-Teams für KI zu begeistern, werden die Lösungen im Geschäftsalltag nicht so angewendet wie ursprünglich gedacht. Und in vielen Organisationen fehlen noch verbindliche Werte für den Umgang mit KI – dieses Vakuum sorgt dafür, dass Missbrauch befürchtet wird.

Tipp: Daten-Teams und Fachkräfte ohne IT-Expertise sollten möglichst frühzeitig zusammenarbeiten, also noch bevor die KI-Modelle überhaupt implementiert sind. Idealerweise dann, wenn es darum geht, sich auf bestimmte KI-Lösungen festzulegen und zu definieren, welche Ergebnisse sie wie verbessern sollen. Trainings und Transparenz sind zudem Faktoren, um die Akzeptanz zu steigern. Spätestens wenn die Mitarbeiter merken, wie sehr KI ihre Arbeit erleichtern, weicht die Skepsis. Aber: Ohne eine KI-Kultur, die durch verbindliche Werte geprägt ist, steht die Wettbewerbsfähigkeit auf der Kippe. Denn wenn Unternehmen einen tiefgreifenden Wandel herbeiführen und wirklich datengesteuerte Geschäftsergebnisse erzielen wollen, muss „Everyday AI“, also KI im Arbeitsalltag, auch von nicht-datenbasierte Positionen eingesetzt werden.

Unternehmerische Hürden

Die Zahl möglicher Anforderungen ist mannigfaltig. Risikoanalysen, Optimierung der Kundenbeziehung, Personalbesetzungen, Investmententscheidungen – kaum ein Prozess im Unternehmen bleibt wie er ist. Künstliche Intelligenz wird so gut wie alle Abläufe vereinfachen. Allerdings: Die Fachexperten, die später KI in ihrer alltäglichen Arbeit einsetzen, sind nur in seltenen Fällen diejenigen, die auswählen, welche Lösung implementiert wird und die Implementierung technologisch begleiten. Eine ganz wesentliche Hürde wartet daher bereits noch bevor es richtig los geht: Organisationen sollten gründlich überlegen, welche Personen wie in die Entscheidungsprozesse eingebunden werden. Verfügt die Organisation überhaupt über die Mitarbeiterinnen und Mitarbeiter mit den entsprechenden Fähigkeiten, um KI-Entscheidungen mit großer Tragweite treffen zu können?

Tipp: Um einen KI-Flickenteppich zu vermeiden, in dem einzelne Abteilungen und einzelne Fachkräfte autark für sich eigene Überlegungen anstellen, wie KI in ihren Arbeitsalltag implementiert wird, entwickeln Organisationen frühzeitig einen Leitfaden für KI – dieser ist zugleich die Grundlage für die bereits angesprochene „KI-Kultur“. Eine angemessene Governance entscheidet darüber, ob KI kurzfristig Stückwerk bleibt oder langfristig Effektivität und Produktivität steigert. Was Unternehmen suchen, ist eine KI, die so tief verankert und verflochten in den alltäglichen Arbeitsprozessen ist, dass sie einfach Teil des Geschäfts ist – und nicht nur von Data Scientists genutzt oder entwickelt wird.

Daten für Generative KI optimieren

Durch den Einsatz von Low-Code- und No-Code-Plattformen hat sich die Zugänglichkeit zu KI deutlich verbessert, in der Praxis entfaltet generative KI aber selten das Potenzial. Das liegt teils auch an ganz pragmatischen technologischen Gründen: Insbesondere die Verfügbarkeit der eigenen Daten ist dabei zu nennen. Liegen die Daten bereits in einem einheitlich standardisierten Format vor? Sind die Daten „biased“? Diskriminieren sie bestimmte Gruppen? Und: Ist die eigene IT-Infrastruktur überhaupt im Stande, im großen Stil KI-Algorithmen zu stemmen?

Tipp: Organisationen sollten flexibel bleiben und sich sowohl für private als auch für „public“ Lösungen offen zeigen. Zudem lassen sich bereits vorgefertigte Lösungen anpassen, statt alles von Null intern zu entwickeln. Auch Konzerne kommen im Falle von KI nicht darum herum, auf externe Partner zurückzugreifen und Entwicklungsschritte outzusourcen, um nicht den Anschluss zu verlieren.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Politische Hürden

Eine der aktuell großen Herausforderungen ist die unsichere makroökonomische und regulative Situation. Auch im Deutschen sprechen wir inzwischen von der VUCA-Welt – also von „volatility, uncertainty, complexity und ambiguity“. Das gilt umso mehr für Künstliche Intelligenz. Denn in diesem Bereich existiert noch viel „grüne Wiese“. Gerade die „Uncertainty“, also die Unsicherheit, macht Entscheidern zu schaffen. Denn fast jede Regulierung ist besser als gar keine, aber irgendwann anstehende Regulierung. Denn sobald die Gesetze einmal verabschiedet sind, wissen Organisationen, woran sie sind.

Entsprechend groß dürfte die Tragweite des AI Acts der EU sein. Die EU plant unter anderem, dass jedes Unternehmen, das ein KI-System als Dienstleistung oder Produkt auf dem europäischen Markt vertreibt, eine Risikobewertung durchführt, um die Risiken für alle KI-Systeme im gesamten Unternehmen zu ermitteln. Darunter fallen alle Risiken im Zusammenhang mit Datenqualität, Transparenz, Kontrolle und Rechenschaftspflicht. Trotz aller Kritik sind fast 80 Prozent der von uns befragten Entscheider der Meinung, das Gesetz würde die Innovation nicht behindern, sondern vielmehr neue Möglichkeiten eröffnen. Bleibt zu hoffen, dass die Entscheider sich im Klaren sind, dass Europa im globalen Innovationswettlauf den Anschluss nicht verlieren darf.

Tipp: Um sich auf kommende Regelungen bereits jetzt vorzubereiten, sollte der Chief AI Officer – oder falls noch nicht implementiert, die verantwortliche Position im C-Level – mit einem Datenschutzbeauftragten und Compliance-Experten zusammenarbeiten. Vor allem geht es bereits jetzt darum, die Wahrscheinlichkeit zu steigern, dass die aktuellen Vorschriften auf allen Ebenen des Unternehmens umgesetzt werden. Und zukünftig erst noch anstehende Regelungen (mit offenem Ausgang) wenn bereits möglich möglichst konservativ berücksichtigt werden.

* Rachel Boskovitch ist VP Sales and General Manager Central Europe bei Dataiku. Shaun McGirr ist Field Chief Data Officer bei Dataiku.

(ID:49685486)