CISPA-Studie zeigt Gefahrenpotenzial auf Menschen erkennen KI-generierte Medien nur schwer

Von Martin Hensel 2 min Lesedauer

Anbieter zum Thema

Eine aktuelle Online-Umfrage des CISPA Helmholtz-Zentrum für Informationssicherheit zeigt, dass KI-generierte Bilder, Texte und Audiodateien bereits so überzeugend sind, dass sie sich nicht mehr von menschengemachten Inhalten unterscheiden lassen.

Ein gelungenes Foto eines possierlichen Waschbärs - oder hatte hier etwa generative KI die virtuellen Finger im Spiel? Laut einer CISPA-Umfrage fällt es Menschen überwiegend schwer, GenAI-erzeugte Inhalte von menschengemachten Medien zu unterscheiden.(Bild:  Robert Anderson /  Pixabay)
Ein gelungenes Foto eines possierlichen Waschbärs - oder hatte hier etwa generative KI die virtuellen Finger im Spiel? Laut einer CISPA-Umfrage fällt es Menschen überwiegend schwer, GenAI-erzeugte Inhalte von menschengemachten Medien zu unterscheiden.
(Bild: Robert Anderson / Pixabay)

Für die Umfrage wurden 3.000 Teilnehmer aus Deutschland, China und den USA befragt. Neben CISPA waren auch die Ruhr-Universität Bochum, die Leibniz Universität Hannover sowie die TU Berlin beteiligt. Die rasanten Entwicklungen im KI-Bereich haben mittlerweile dazu geführt, dass sich Bilder, Texte und Audiodateien mit wenigen Klicks massenweise generieren lassen.

Das kann praktisch sein, birgt aber auch Gefahren: „Künstlich erzeugter Content kann vielfältig missbraucht werden. Wir haben in diesem Jahr wichtige Wahlen, wie die Wahlen zum EU-Parlament oder die Präsidentschaftswahl in den USA: Da können KI-generierte Medien sehr einfach für politische Meinungsmache genutzt werden. Ich sehe darin eine große Gefahr für unsere Demokratie“, meint Prof. Dr. Thorsten Holz vom CISPA Helmholtz-Zentrum für Informationssicherheit.

Eine wichtige Forschungsherausforderung sei deshalb die automatisierte Erkennung KI-generierter Medien. Laut CISPA-Faculty Dr. Lea Schönherr handelt es sich dabei zudem um einen Wettlauf mit der Zeit: „Medien die mit neu entwickelten Methoden zur Generierung mit KI erstellt sind, werden immer schwieriger mit automatischen Methoden erkannt. Deswegen kommt es im Endeffekt darauf an, ob ein Mensch das entsprechend einschätzen kann“. Dementsprechend setzt die Umfrage an dieser Stelle an und soll herausfinden, ob Menschen KI-generierte Medien identifizieren können.

Unterschiede kaum erkennbar

Die Ergebnisse zeigen, dass Menschen schon jetzt nur noch schwer zwischen echten und KI-generierten Inhalten unterscheiden können. So klassifizierten die Teilnehmer von KI erstellte Medien mehrheitlich als menschengemacht. „Überrascht hat uns, dass es sehr wenige Faktoren gibt, anhand derer man erklären kann, ob Menschen besser im Erkennen von KI-generierten Medien sind oder nicht“, so Holz. Selbst über verschiedene Altersgruppen, Bildungshintergründe, politische Einstellungen oder Medienkompetenzen hinweg hätten sich die Unterschiede als nicht sehr signifikant erwiesen.

Die Studienergebnisse liefern wichtige Ansatzpunkte für die Cybersicherheitsforschung: „Es besteht das Risiko, dass vor allem KI-generierte Texte und Audio-Dateien für Social-Engineering-Angriffe genutzt werden. Denkbar ist, dass die nächste Generation von Phishing-Emails auf mich personalisiert ist und der Text perfekt zu mir passt“, konkretisiert Schönherr. Die Entwicklung entsprechender Abwehrmechanismen sei deshalb eine wichtige Aufgabe für die Zukunft. Gleiches gelte für weitere Untersuchung der menschlichen Wahrnehmung KI-generierter Inhalte sowie mögliche technische Unterstützung bei der Erkennung derartiger Medien.

(ID:50059739)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung