Generative KI Auch Google Bard ist nicht sicher vor Missbrauch

Quelle: Pressemitteilung von Checkpoint Software Technologies Lesedauer: 2 min

Anbieter zum Thema

Check Point Research hat immer wieder darüber berichtet, wie generative KI von Kriminellen missbraucht werden kann. Nun haben sie sich Google Bard näher angesehen.

Per KI erzeugte Antworten und Texte klingen heute erstaunlich menschlich. Doch droht auch der Missbrauch als Instrument des Hasses oder für die Cyberkriminalität. Nun kam heraus, dass auch Google Bard missbraucht werden kann.
Per KI erzeugte Antworten und Texte klingen heute erstaunlich menschlich. Doch droht auch der Missbrauch als Instrument des Hasses oder für die Cyberkriminalität. Nun kam heraus, dass auch Google Bard missbraucht werden kann.
(Bild: Google)

Die Revolution der generativen KI hat einen Paradigmenwechsel im Bereich der Künstlichen Intelligenz ausgelöst. Denn sie ermöglicht es Maschinen, Inhalte mit bemerkenswerter Raffinesse zu erstellen und zu generieren, heißt es. Die Verbreitung der generativen KI habe jedoch auch zu erheblichen Bedenken und ethischen Überlegungen geführt. Eine der Hauptsorgen gilt dem möglichen Missbrauch dieser Technologie, um sie für böswillige Zwecke, wie zum Beispiel für die Cyberkriminalität, zu nutzen.

In früheren Berichten hat das Unternehmen Check Point Research (CPR) ausführlich darüber berichtet, wie Cyberkriminelle die revolutionäre Technik für verbrecherische Aktivitäten ausnutzen. Insbesondere wurde dabei bösartige Codes und Inhalte über Open AIs generative KI-Plattform ChatGPT generiert. In diesem Bericht wandten sich die Forscher der generativen KI-Plattform Bard von Google zu.

Forscher generieren Ransome-Code über Google Bard

Zunächst versuchte CPR die einfachste Anfrage zur Erstellung einer Phishing-E-Mail, die sowohl von ChatGPT als auch von Bard abgelehnt wurde. CPR versuchte es erneut. Beim zweiten Mal fragten die Experten nach einem Beispiel für eine Phishing-E-Mail. Während ChatGPT die Anfrage ablehnte, lieferte Bard eine gut geschriebene Phishing-E-Mail, die sich als ein Finanzdienstleister ausgab. Nach weiteren Versuchen (und mit einer Begründung der Anfrage) lieferten dann beide KI-Bots schließlich einen Keylogger, der die eignen Tastenanschläge (also die des Forschers respektive Nutzers) aufzeichnete. Allerdings geschah das mit dem Unterschied, dass ChatGPT eine Art Haftungsausschluss über bösartige Verwendung hinzufügte.

In einem nächsten Versuch zeigte sich, dass Bard über Umwege auch einfachen Ransomware-Code erstellt. Nachdem eine erste simple Anfrage fehlschlug, heißt es, fragten die Forscher Bard nach den häufigsten Aktionen, die von einer Ransomware ausgeführt werden. CPR erhielt eine stichpunkteartige Liste, wie Ransomware vorgeht und wandelte diese durch simples Kopieren und Einfügen in Anforderungen an ein Script um. Das funktionierte! Und mit Angabe der Anforderungen an das Script erhielt CPR einen schädlichen Code von Google Bard.

Dieser Artikel stammt von unserem Partnerportal Industry of Things.

(ID:49627534)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung