Es wird zunehmend schwieriger, echte von manipulierten oder KI-generierten Bildern, Videos und Audioaufnahmen zu unterscheiden. Microsoft spricht in diesem Beitrag über Technologien und Methoden, die helfen sollen, die Provenance – also Ursprung und Bearbeitungshistorie digitaler Medien – verlässlich nachzuweisen. (Bild: Midjourney / KI-generiert)
Kampf gegen Deepfakes

Wie sicher ist die Wahrheit im Netz?

In einer Zeit, in der KI-generierte Inhalte von der Realität kaum noch zu unterscheiden sind, hat Microsoft Research einen Bericht veröffentlicht. Unter dem Titel „Media Authenticity Methods in Practice“ analysieren Experten die aktuellen Möglichkeiten und Grenzen von Technologien, die echtes Material von Manipulationen unterscheidbar machen sollen.

Weiterlesen
Der Autor: David Maria Schmidt forscht am Zentrum für Kognitive Interaktionstechnologie der Universität Bielefeld in der Arbeitsgruppe Semantic Computing. Als Mitglied im vom BMFTR geförderten Netzwerk AI Grid vernetzt er sich mit führenden KI-Experten aus Forschung und Industrie und stärkt so den Transfer verlässlicher, nachvollziehbarer KI in die Anwendung. (Bild: Darren-John Krockhaus / Studioline)
Kommentar von David Maria Schmidt, Universität Bielefeld

Warum LLMs beim Kombinieren bekannter Fakten scheitern

Aktuelle KI-Systeme beruhen häufig darauf, dass bestehendes Wissen zur Beantwortung bestimmter Fragen neu zusammengesetzt wird. Large Language Models wie ChatGPT zeigen jedoch gravierende Schwächen, wenn diese kompositionell arbeiten und bekannte Bausteine neu zusammensetzen müssen. Doch die Kombination mit bewährten symbolischen Methoden könnte hier Abhilfe schaffen.

Weiterlesen