Kommentar von Jennifer Belissent, Snowflake Ein Führerschein für Künstliche Intelligenz

Von Jennifer Belissent 5 min Lesedauer

Anbieter zum Thema

Seit Februar gilt der AI Act der Europäischen Union. Er verpflichtet Unternehmen, ihre Mitarbeiterinnen und Mitarbeiter im Umgang mit Künstlicher Intelligenz entsprechend zu schulen. Doch was bedeutet das in der Praxis?

Die Autorin: Jennifer Belissent ist Principal Data Strategist bei Snowflake(Bild:  Snowflake)
Die Autorin: Jennifer Belissent ist Principal Data Strategist bei Snowflake
(Bild: Snowflake)

Im Straßenverkehr sorgen Richtlinien und Regeln dafür, dass alle sicher ans Ziel kommen. Ähnliche Vorkehrungen braucht es überall dort, wo neue Technologien potenziell Risiken für die Allgemeinheit mit sich bringen – so auch bei Künstlicher Intelligenz (KI). Mit der zunehmenden Nutzung von KI durch Verbraucher, Unternehmen und öffentliche Einrichtungen wächst auch der Bedarf nach Regeln für einen verantwortungsvollen Umgang.

Bisher drehte sich die Diskussion um KI oft um abstrakte Szenarien – etwa um die sogenannte Singularität, also den Moment, in dem die Intelligenz der KI die des Menschen übertrifft. Doch diese Debatten führen am eigentlichen Thema vorbei: Schon heute übernehmen KI-Assistenten und -Agenten zahlreiche Aufgaben: Sie verfassen Texte und Code, analysieren Daten, treffen Vorhersagen – und unterstützen Entscheidungsprozesse in praktisch allen Lebensbereichen – oft ohne, dass wir uns dessen bewusst sind.

Es geht also längst nicht mehr darum, ob wir KI nutzen wollen, sondern wie. Im Mittelpunkt stehen nicht Verbote, sondern Regeln zur Risikominderung und Aufklärung. Um beim Bild des Straßenverkehrs zu bleiben: Wir sprechen über Geschwindigkeitsbegrenzungen und Sicherheitsgurte – aber eben auch über Fahrschulen und Führerscheine. Wer sich für eine verantwortungsvolle Nutzung von KI stark macht, verfolgt denselben Ansatz: Statt Technologie zu verbieten, sollen Leitplanken gesetzt werden, die Chancen ermöglichen und Risiken begrenzen. Dafür gibt es drei Grundvoraussetzungen: die richtigen Regeln, die richtige Datengrundlage und die richtige Balance.

Die richtigen Regeln

Laut dem EU AI Act ist KI-Kompetenz seit Februar verpflichtend für Unternehmen. Beim Einsatz von KI-Systemen soll damit sichergestellt sein, dass die Mitarbeiterinnen und Mitarbeiter auch über ausreichend Kenntnisse und Erfahrung verfügen. Gesetze wie dieses sind ein erster Schritt, um nicht nur Risiken zu erkennen und zu beheben, sondern auch das Bewusstsein der Nutzer und Entwickler für die möglichen Auswirkungen dieser neuen Technologien zu schärfen. Auf internationaler Ebene zeigen sich hier unterschiedliche Herangehensweisen: Die EU verfolgt mit ihrem risikobasierten Ansatz einen Mittelweg. In China wird dagegen stärker reguliert während die USA auf Selbstregulierung setzen.

Diese regulatorischen Entwicklungen machen deutlich: Ein verantwortungsvolles KI- und Datenmanagement ist nicht nur eine staatliche oder technische Aufgabe, sondern muss auch innerhalb von Organisationen priorisiert werden. Um Risiken zu erkennen und zu minimieren, braucht es grundlegende Daten- und KI-Kompetenzen auf allen Ebenen – von der Fachabteilung bis zum Vorstand. Jede Person in einer Organisation muss verstehen, wie Daten genutzt werden, welchen Wert sie für die Organisation haben, welche Risiken damit verbunden sind und welche Rolle sie selbst in diesem Prozess spielt.

Auf operativer Ebene bedeutet das auch: Unternehmen brauchen differenzierte Zugangs- und Nutzungsrichtlinien, um den Schutz und die sinnvolle Verwendung von Daten sicherzustellen. Denn jeder trägt zur Datenwertschöpfung bei – sei es bei der Erfassung und Pflege, im Datenschutz, bei der Entwicklung von Algorithmen und Anwendungen oder in der datenbasierten Entscheidungsfindung.

Eine solide Datengrundlage

So gibt es keine KI-Strategie ohne die geeignete Datenstrategie oder – und das ist noch wichtiger – ohne die entsprechenden Daten selbst. Mehr und vielfältigere Daten treiben nicht nur KI-Modelle an, sondern mindern auch das Risiko von Halluzinationen. Diese ungenauen Antworten oder Voreingenommenheit entstehen, wenn KI-Systeme Ergebnisse liefern, die nicht objektiv oder neutral sind. Dabei erfinden KI-Modelle ihre Antworten in der Regel nicht einfach, sondern ziehen fehlerhafte Schlüsse aus unzuverlässigen Quellen. Das zeigt etwa der Fall, in dem ein KI-Modell empfahl, Pizzasauce mit Klebstoff zu versehen, um zu verhindern, dass der Käse herunterrutscht. Gerade im Unternehmenskontext, wo Fehlentscheidungen gravierende Folgen haben können, sind relevante, vielfältige und hochwertige Daten der wichtigste Bestandteil.

Mittlerweile rückt das Thema Datenqualität auch innerhalb der KI-Entwicklung stärker in den Fokus. KI-gestützte Automatisierungen können dabei helfen, Anomalien frühzeitig zu erkennen, fehlerhafte Eingaben direkt bei der Erfassung zu korrigieren, Inkonsistenzen zu beheben oder sogar synthetische Daten zu generieren. Auch beim Thema Datensicherheit spielt KI eine zunehmend wichtige Rolle, etwa durch das Aufspüren potenzieller Schwachstellen. All das entbindet Unternehmen jedoch nicht von ihrer Verantwortung. Eine verantwortungsvolle Daten- und KI-Praxis braucht klare Richtlinien und technologische Schutzmechanismen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Zudem gilt: Daten müssen nicht nur korrekt, sondern auch für den spezifischen Anwendungsfall relevant sein. Hier unterscheidet sich der Unternehmens-Einsatz von KI grundlegend von allgemeinen KI-Tools. Ein KI-Modell im Unternehmensumfeld wird gezielt für eine spezifische Aufgabe eingesetzt, wie beispielsweise zur Umsatzprognose, für personalisierte Empfehlungen oder zur Qualitätskontrolle in der Fertigung und zur Vermeidung von Unterbrechungen in der Lieferkette. Die Wahl des richtigen KI-Modells, ob selbst entwickelt, gekauft oder angepasst, kann das Risiko von Halluzinationen oder Verzerrungen mindern. KI-Modelle für Unternehmen sind dabei immer zweckorientiert und können dementsprechend auch ressourceneffizienter sein.

Das Gleichgewicht zwischen Nutzen und Experimenten

Das bringt uns zum nächsten Thema: Nachhaltigkeit. KI gilt als potenzieller Treiber für mehr Klimaschutz, indem sie dazu beiträgt, die Nutzung fossiler Brennstoffe zu optimieren und die Einführung anderer Energieformen voranzutreiben. Doch gleichzeitigt ist KI selbst ein großer Energiefresser. Schätzungsweise verbraucht ChatGPT täglich über 2,9 Millionen Kilowattstunden Energie. Für Unternehmen bedeutet das: Sie müssen ein Gleichgewicht finden. Einerseits geht es darum, mit neuen Anwendungsfällen zu experimentieren und die Potenziale von KI auszuloten. Andererseits braucht es klare Ziele, konkrete Anwendungsbereiche und eine realistische Einschätzung der zu erwartenden Wertschöpfung.

Ein wichtiger Schritt in diese Richtung ist die gezielte Einführung speziell trainierter, unternehmensspezifischer KI-Agenten. Sie sind nicht nur effizienter, sondern auch leichter kontrollierbar. Gleichzeitig braucht es Transparenz entlang der gesamten KI-Wertschöpfungskette – von den Daten-Inputs bis hin zu den Ergebnissen. Nur so lassen sich Umweltauswirkungen nachvollziehen und bewerten sowie informierte Entscheidungen über notwendige Kompromisse zwischen Energieverbrauch, Geschäftswert und gesellschaftlicher Verantwortung treffen.

Ausblick auf eine sichere KI-Zukunft

Ein offener Dialog, Fortschritte in Richtung Transparenz und idealerweise Erklärbarkeit sind entscheidende erste Schritte, um die Risiken von KI zu mindern. Aufklärung auf alle Unternehmensebenen und bei Verbrauchern vergrößert die Zahl potenzieller Kontrollinstanzen. Die Menschen werden dadurch in die Lage versetzt, Warnsignale zu erkennen und die richtigen Fragen zu stellen.

Dabei heißt es so schön: Erfahrung ist der beste Lehrer. Denn eigene Erfahrungen zu machen, hilft dabei, ein besseres Verständnis zu entwickeln – und Anforderungen für die Daten- und KI-Plattformen der Zukunft zu definieren. Dabei werden die Anforderungen sicher über bestehende Überlegungen zu Datensicherheit, Diversität, Governance und Nachhaltigkeit hinausgehen.

Doch der eigentliche Schlüssel zu einer sicheren KI liegt in einem tiefergehenden Verständnis für die Potenziale und Risiken, das durch eine breite, gesellschaftlich verankerte Daten- und KI-Kompetenz entsteht. So wie im Straßenverkehr der Führerschein sicherstellt, dass Menschen Regeln, Risiken und Technik verstehen, braucht es auch beim Einsatz von KI ein Mindestmaß an Wissen und Verantwortungsbewusstsein. Nicht jeder muss KI selbst entwickeln – aber wer sie nutzt, sollte verstehen, wie sie funktioniert, wo ihre Grenzen liegen und worauf zu achten ist.

Artikelfiles und Artikellinks

(ID:50413670)