„Humble AI“ KI soll Selbstzweifel lernen

Von Berk Kutsal 1 min Lesedauer

Anbieter zum Thema

Forscher am MIT schlagen ein Gegenmodell zur selbstsicheren Künstlichen Intelligenz (KI) vor. Systeme sollen ihre Unsicherheit offenlegen und aktiv zur Rückversicherung auffordern, statt Entscheidungen scheinbar souverän zu präsentieren.

KI soll nicht mehr nur Antworten optimieren, sondern auch den Moment erkennen, in dem sie besser keine endgültige geben sollte.(Bild:  Midjourney / KI-generiert)
KI soll nicht mehr nur Antworten optimieren, sondern auch den Moment erkennen, in dem sie besser keine endgültige geben sollte.
(Bild: Midjourney / KI-generiert)

Viele KI-Systeme liefern Antworten mit der Überzeugungskraft eines Experten, unabhängig davon, ob sie korrekt sind. Genau diese Selbstsicherheit wird zunehmend zum Problem, insbesondere in sensiblen Bereichen wie der Medizin. Forscher am Massachusetts Institute of Technology (MIT) stellen nun ein Konzept vor, das diese Dynamik gezielt durchbricht: „humble AI“.

Im Kern geht es nicht um bessere Antworten, sondern um eine neue Eigenschaft von KI-Systemen: die Fähigkeit, die eigene Unsicherheit zu erkennen und sichtbar zu machen. Stattdessen soll das System signalisieren, wenn Datenlage oder Modellvertrauen nicht ausreichen.

Unsicherheit als Systemverhalten

Das vorgeschlagene Framework erweitert klassische Vorhersagemodelle um eine zusätzliche Ebene: eine Selbstbewertung der eigenen Verlässlichkeit. Fällt diese niedrig aus, passt sich das Verhalten an. Die KI fordert zusätzliche Informationen an, empfiehlt weitere Tests oder verweist auf die Notwendigkeit einer Zweitmeinung.

Damit verschiebt sich die Rolle der KI. Sie agiert weniger als vermeintlich objektiver Entscheider und stärker als System, das aktiv mit Unsicherheit umgeht. Die Maschine soll nicht stiller werden, sondern vorsichtiger.

Vertrauen wird zur Fehlerquelle

Menschen neigen dazu, KI-Entscheidungen zu folgen, selbst wenn sie im Widerspruch zur eigenen Einschätzung stehen. Diese „Automation Bias“ greife besonders dann, wenn Systeme ihre Ergebnisse ohne erkennbare Zweifel präsentieren.

Genau hier setzt „humble AI“ an. Nicht durch zusätzliche Genauigkeit, sondern durch sichtbare Begrenzung. Die Forscher argumentieren, dass Vertrauen in KI nicht durch Perfektion entsteht, sondern durch nachvollziehbare Unsicherheit.

(ID:50796648)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung