Bias – also Voreingenommenheit – gilt als eines der zentralen Probleme Künstlicher Intelligenz (KI). Bias kann Antworten verzerren, Diskriminierung verstärken und damit nicht nur falsche oder unvollständige Antworten erzeugen, sondern auch Schaden anrichten. Fast 80 Prozent der IT-Verantwortlichen erwarten, dass Verzerrungen durch KI künftig zu erheblichen Problemen führen werden. Doch ohne Bias wären KI-Systeme nicht lernfähig. Entscheidend ist daher nicht, ob Bias KI beeinflusst, sondern welche Annahmen und Verzerrungen akzeptabel sind – und welche nicht.
Weiterlesen