Vertrauenswürdige KI aus Heidelberg Generative KI mit Faktencheck

Von Bernhard Lück Lesedauer: 2 min |

Anbieter zum Thema

Aleph Alpha hat eigenen Angaben zufolge einen Meilenstein auf dem Weg zu inhaltlich korrekter, erklärbarer und vertrauenswürdiger KI erreicht. Das System des Heidelberger Start-ups könne erklären, wie es zu seinen Aussagen kommt und welche Quellen dafür verwendet wurden.

Aleph Alpha erweitert sein KI-Sprachmodell Luminous: Generierter Text werde künftig auf Faktentreue überprüft.
Aleph Alpha erweitert sein KI-Sprachmodell Luminous: Generierter Text werde künftig auf Faktentreue überprüft.
(Bild: © – blende11.photo – stock.adobe.com)

Aleph Alpha rüstet sein eigenes KI-Sprachmodell Luminous auf: AtMan und Explain seien die ersten Tools ihrer Art auf dem Markt, die das Vertrauen in generative KI stärken und ein besseres Verständnis dafür schaffen, wie große Sprachmodelle funktionieren. Die nun verfügbare Erweiterung sei in der Lage, inhaltliche Zusammenhänge und sachliche Korrektheit des Sprachmodells anhand von verifizierten Fakten nachzuvollziehen, so der Hersteller. Sie zeige auch, welche Textpassagen in einer Quelle die vom System generierte Antwort verursacht haben oder ihr widersprechen. Aleph Alpha zufolge könne diese Funktion auch für Fakten aus Bildinhalten voll genutzt werden.

„Luminous bietet damit eine einzigartige Möglichkeit zur Transparenz und Nachvollziehbarkeit von KI-generierten Inhalten“, sagt Jonas Andrulis, CEO und Gründer von Aleph Alpha. „Diese Transparenz wird den Einsatz von generativer KI für kritische Aufgaben in den Bereichen Recht, Gesundheit und Finanzen ermöglichen – Bereiche, die in hohem Maße auf vertrauenswürdige und genaue Informationen angewiesen sind.“

Neues Vertrauen in KI schaffen

Bislang sei es für die neue Generation großer Sprachmodelle nicht möglich gewesen, die Entscheidungsprozesse von KI-Sprachmodellen so zu verstehen, dass ein Experte Fehler schnell erkennen könnte. Die daraus resultierenden Assoziationen von KI als „Blackbox“ und die Sorge vor unsichtbarer „Verzerrung“ hätten oft einen Vertrauensverlust in neue KI-Technologien zur Folge. Hier sieht Andrulis die besondere Stärke des neu entwickelten Verfahrens: „Wir haben jetzt die Chance, das Vertrauen in generative KI zu stärken und ein besseres Verständnis für die Funktionsweise unserer Technologie zu schaffen, sodass der Einsatz von KI nicht mehr auf unkritische und spielerische Anwendungen beschränkt ist.“

Werkzeug gegen falsche Inhalte und Täuschungen

Generative KI habe in den letzten Wochen und Monaten nicht nur oft beeindruckende Fähigkeiten gezeigt, sondern auch immer wieder Ergebnisse produziert, die zwar plausibel klangen, inhaltlich aber falsch waren. Mit der neuen Luminous-Funktion könnten inhaltliche Fakten im Modell-Output nicht nur nachvollziehbar hergeleitet, sondern auch Ausgaben ohne passende vertrauenswürdige Quellen direkt zurückgehalten werden, sagt Andrulis: „Unsere Kunden verfügen oft über verifiziertes internes Wissen von großem Wert. Darauf können wir nun aufbauen und sicherstellen, dass eine KI-Assistenzfunktion nur dieses Wissen erfolgreich nutzt und immer den Kontext liefert.“

Fortschritt durch Forschung

Die Funktion basiere auf Aleph Alphas jüngster Forschung, die Anfang dieses Jahres unter dem Namen „AtMan“ wissenschaftlich veröffentlicht wurde. Das Unternehmen sei in der Lage, Erkenntnisse aus eigener Forschung direkt in seine Produkte umzusetzen. Für AtMan habe das interne Forschungsteam von Aleph Alpha mit Prof. Kristian Kersting von der TU Darmstadt zusammengearbeitet.

Aleph Alpha bietet Interessierten die Möglichkeit, AtMan und Explain auszuprobieren.

(ID:49411317)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung