Kommentar von Alessandro Chimera, Spotfire KI-Optimierung – Vertrauen in Daten und Bewältigung von Algorithmen-Verzerrungen

Von Alessandro Chimera 4 min Lesedauer

Anbieter zum Thema

Das Vertrauen in die zugrunde liegenden Daten ist der Schlüssel für die erfolgreiche Nutzung von Automatisierungstechnologie. Daher müssen sich alle Branchen mit Problemen wie der Verzerrung durch Algorithmen und Halluzinationen bei der Nutzung Künstlicher Intelligenz auseinandersetzen.

Der Autor: Alessandro Chimera ist Director Digitalisation Strategy bei Spotfire(Bild:  Spotfire)
Der Autor: Alessandro Chimera ist Director Digitalisation Strategy bei Spotfire
(Bild: Spotfire)

Die Grenzen, Fehler und Schwächen von Künstlicher Intelligenz (KI) zu verstehen, ist Voraussetzung für die optimale Nutzung. Nur so können Führungskräfte langfristig von innovativen Tools wie ChatGPT, Google Bard und Video-Tools wie Synthesia profitieren. Hinsichtlich der Umsetzung in Unternehmen sollten die Verantwortlichen jedoch ehrlich diskutieren, denn KI weist durchaus blinde Flecken auf. Eines der größten Probleme besteht darin, dass Large Language Models (LLMs) falsche Informationen generieren können, die nicht auf realen Ereignissen oder Fakten beruhen. Das wird als Halluzination bezeichnet.

Herr Anwalt, treten sie an den Richtertisch!

Ein Beispiel: Der New Yorker Anwalt Steven Schwartz geriet Anfang des Jahres in Schwierigkeiten, als er einen Schriftsatz bei Gericht einreichte, der von ChatGPT generierte Fallzitate, Präzedenzfälle und Stellungnahmen enthielt – die sich alle als falsch herausstellten. Auch Googles Chatbot Bard stellte eine unwahre Behauptung über das James Webb Space Telescope auf. Auf die Frage „Welche neuen Entdeckungen des James-Webb-Weltraumteleskops kann ich meinem Neunjährigen erzählen?“ antwortete Bard, dass das Teleskop die allerersten Bilder eines Exoplaneten außerhalb unseres Sonnensystems aufgenommen hat. Leider stammen die ersten Bilder eines Exoplaneten aus dem Jahr 2004 – das James-Webb-Weltraumteleskop wurde jedoch erst 2021 in Betrieb genommen.

Jede generative KI ist also nur so gut wie die Daten, auf denen sie aufgebaut wurde, da LLMs kein Verständnis für die zugrunde liegende Realität haben, die die Sprache beschreibt. Daher werden diese Werkzeuge unweigerlich Fehler machen – auch wenn diese schön aussehen werden und auf den ersten Blick valide erscheinen. Die Erkenntnis, dass generative KI-Tools fehlerhaft sind, ist deshalb wichtig, weil sie die Einschätzung über den Einsatz der Technologie im Unternehmensumfeld beeinflussen.

KI-Ergebnisse müssen immer geprüft werden

Es bestehen daher durchaus potenzielle Risiken, wenn Nutzer KI-Vorhersagen blind vertrauen, ohne die zugrunde liegende Logik zu verstehen. So kann es zu falschen Entscheidungen führen, wenn diese auf der Grundlage ungenauer, unvollständiger oder parteiischer Daten getroffen werden. Zudem kann die ungeprüfte Übernahme von Informationen zu einem Mangel an Verantwortungsbewusstsein führen, wenn falsche Entscheidungen negative Konsequenzen haben. In diesem Zusammenhang erweist es sich oft als schwierig den Verantwortlichen zu ermitteln, da die Nutzer meist dem KI-Modell die Schuld geben. Auch Vorurteile können durch KI verstärkt werden, wenn KI-Modelle die in ihren Trainingsdaten vorhandenen Verzerrungen übernehmen. Diesem Risiko – dem der Diskriminierung oder ungerechter Behandlung einzelner Gruppen durch (unbewusst) voreingenommener Entscheidungen – müssen sich die Nutzer bewusst sein und möglichst vermeiden. Auch beim Thema Datenschutz kann es heikel werden, wenn sensible oder persönliche Daten weitergegeben werden, ohne dass vollständig klar ist, wie das KI-System diese Informationen nutzt oder schützt.

Um die genannten Risiken zu mindern, müssen Unternehmen, die KI-Modelle einsetzen, eine gesunde Skepsis bewahren, die Grenzen von KI-Systemen verstehen und die KI-Ergebnisse kontinuierlich bewerten. Denn sie sollten dringend verhindern, dass das Vertrauen der Kunden und Mitarbeiter durch KI-generierte Fehler untergraben wird.

Vertrauen ist die Leitwährung im Bereich KI

Wie KPMG und die University of Queensland in Australien kürzlich in der Studie „Trust in artificial intelligence: A global study 2023“ herausgefunden haben, ist das Vertrauen in KI-Systeme abhängig von der jeweiligen Anwendung. Laut dem Bericht sind die Befragten im Allgemeinen weniger vertrauensvoll beim Einsatz von KI im Personalwesen, das heißt, zur Unterstützung von Einstellungs- und Beförderungsentscheidungen, und aufgeschlossener gegenüber der Nutzung im Gesundheitswesen, beispielsweise für medizinische Diagnosen und Behandlungen, weil sie dort einen direkten Mehrwert für sich selbst erwarten. Die Menschen sind zudem eher bereit, sich auf KI-Systeme zu verlassen, als Informationen mit ihnen zu teilen. Das gilt insbesondere für Empfehlungssysteme z. B. zur Personalisierung von Nachrichten, sozialen Medien und Produktempfehlungen und bei Sicherheitsanwendungen. Diese betreffen dann ggf. Hilfe bei Entscheidungen über die öffentliche Sicherheit.

Das ist interessant, weil es das Risiko widerspiegelt, dass KI-Fehler oder -Eingriffe die individuelle Leistung behindern und sogar Chancen vereiteln können. Im Bereich der Datenverzerrung ist das gut zu beobachten, weil KI-Systeme nämlich Entscheidungen auf der Grundlage von Daten treffen, die auf einer verzerrten Auswahl beruhen. Das ist dann der Fall, wenn ein Algorithmus systematische und wiederholbare Fehler produziert, die zu diskriminierenden Ergebnissen führen. So etwas passiert, wenn die zugrunde liegenden Daten aus einer mangelhaften Studienarbeit oder einem Datensatz aus einer zu kleinen, nicht repräsentativen Stichprobe gewonnen wurden.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Wie lassen sich Fehler vermeiden?

Um Verzerrungen in Algorithmen zu vermeiden und Selektionsverzerrungen zu minimieren, müssen die Daten aus mehreren, unterschiedlichen Quellen stammen. Es ist in diesem Kontext auch wichtig, Datensilos aufzubrechen. Das soll sicherzustellen, dass mehr Daten zur Verfügung stehen und leicht zugänglich sind, um sie für das Training von Modellen zu verwenden. Auch das Testen von Algorithmen in realen Umgebungen hilft, Probleme zu erkennen. Obwohl es schwierig ist, Verzerrungen vollständig zu beseitigen, können sie doch minimiert werden.

Auch wenn immer mehr Unternehmen den Einsatz von KI einmal ausprobieren möchten, weil sie sich von der Geschwindigkeit der Automatisierung und dem Potenzial der Kostensenkung positiv angesprochen fühlen, sollte dennoch bedacht werden, dass die KI bei weitem kein Allheilmittel für die Herausforderungen von Unternehmen ist. Es ist jedoch möglich, die Schwächen der Technologie abzumildern. Alle Verantwortlichen müssen dieses Vorhaben ernst nehmen, um Vertrauen bei den Kunden aufzubauen und zu erhalten.

Das Verständnis für die Bedeutung von Datengenauigkeit, Zuverlässigkeit, Qualität und Integrität, die ethische Verantwortung und die Notwendigkeit, transparent zu sein und bekannte Verzerrungen zu beseitigen, ist grundlegend. Sie ist bei weitem nicht narrensicher, aber jedes Unternehmen, das sich der Grenzen der KI bewusst ist und einen Plan aufstellt, um diese Grenzen zu überwinden, wird viel dazu beitragen, das Beste aus dem herauszuholen, was die heutige KI den Unternehmen wirklich bieten kann.

Artikelfiles und Artikellinks

(ID:49804853)