Sieben neue Forschungsprojekte Google und TUM stärken Kooperation zu Cybersicherheit und KI

Von Bernhard Lück 3 min Lesedauer

Anbieter zum Thema

Google und die Technische Universität München (TUM) treiben die Forschung zum Thema Cybersicherheit und Künstliche Intelligenz (KI) voran. Sieben neue von Google finanzierte Forschungsprojekte an der TUM untersuchen zentrale Fragen an der Schnittstelle von Cybersecurity und KI.

Forschung an der TUM an einem Post-Quantum-Chip.(Bild:  TUM / Astrid Eckert)
Forschung an der TUM an einem Post-Quantum-Chip.
(Bild: TUM / Astrid Eckert)

Wie kann KI genutzt werden, um problematische Inhalte wie Hassrede online zu moderieren? Welche Datenschutzrisiken bestehen bei „General-Purpose“-KI-Modellen und wie werden diese in Europa wahrgenommen? Nach welchen Mustern erfolgen Cyberangriffe auf Large Language Models (LLMs)? Mit diesen Fragen beschäftigen sich die sieben Projekte, deren Arbeit von Professorinnen und Professoren der TUM geleitet und durch deren Teams umgesetzt wird. Experten von Google stehen jeweils beratend zur Seite. Im Rahmen der Förderung entstehen auch sieben neue Stellen für Doktoranden.

Prof. Thomas F. Hofmann, TUM-Präsident: „KI hat begonnen, unseren Alltag zu durchdringen. Deshalb ist die Weiterentwicklung von KI-Technologien entscheidend. Damit dies gesellschaftlich akzeptabel ist, müssen diese Technologien möglichst zuverlässig und sicher sein. Gemeinsam mit Google treiben wir diese Entwicklungen voran.“

Dr. Wieland Holfelder, Vice President Engineering & Site Lead Google München: „Fragen rund um Cybersicherheit und Künstliche Intelligenz verschmelzen mehr und mehr miteinander. Wie kann man KI so sicher wie möglich machen? Und wie kann KI helfen, unsere digitale Infrastruktur besser zu schützen? Das sind zentrale Fragen, die wir am Google Safety Engineering Center bearbeiten, und die auch auf der Münchner Sicherheitskonferenz im Mittelpunkt standen. Wir freuen uns, gemeinsam mit der TUM die Forschung zu diesen Schlüsselthemen weiter voranzubringen.“

Durch die neue Auftragsforschung im Bereich Cybersicherheit und KI vertiefen Google und TUM ihre Partnerschaft. 2018 wurde Google als erstes nichteuropäisches Unternehmen Exzellenzpartner der Universität. Darüber hinaus unterstützt Google seit 2022 TUM-Initiativen, die Frauen auf ihrem Karriereweg in den MINT-Fächern Mathematik, Informatik, Naturwissenschaften und Technik fördern. Im Februar 2023 wurde von der TUM unter Verwendung einer nicht zweckgebundenen Spende von Google das TUM Innovation Network zum Thema Cybersecurity ins Leben gerufen. Google hat außerdem sein globales Safety Engineering Center (GSEC) in München angesiedelt.

Die sieben Forschungsprojekte sind:

  • Sichere Kompilierung leistungsstarker Parallelitätsmodelle (Prof. Pramod Bhatotia): Wie kann gewährleistet werden, dass die für Parallel-Computing-Architekturen angepasste Software sicher ist und keine Schwachstellen aufweist?
  • Large Language Models (LLMs) für die Analyse von Programmcode im Hinblick auf Sicherheitsschwachstellen und Datenschutzverletzungen (Prof. Claudia Eckert): Wie können mit neuartigen, LLM-basierten, automatisierten Verfahren Datenschutz- und Sicherheitsschwachstellen in sehr große Codebasen effizienter und präziser ermittelt werden?
  • Sondenpositionierung (Prof. Georg Sigl): Hardware kann Informationen preisgeben, die von einer elektromagnetischen Sonde ausgespäht werden können. Die Positionierung der Sonde ist ein offenes Problem. Wie kann KI helfen, Seitenkanalmessungen reproduzierbarer und so die Hardware sicherer zu machen?
  • Seitenkanalanalyse der Post-Quantenkryptografie (Prof. Georg Sigl): Wie können automatisch alle Seitenkanallecks der Implementierungen von quantencomputerresistenter Kryptografie erkannt werden?
  • Einstellungen verstehen und Akzeptanz von KI-gestützten Ansätzen zur Inhaltsmoderation fördern (Prof. Jens Großklags): LLMs können zur Automatisierung der Moderation von Inhalten eingesetzt werden, um Hassreden, Sexismus oder Cybermobbing im Internet zu erkennen. Doch wie effektiv sind solche KI-gesteuerten Ansätze und wie werden sie von menschlichen Nutzern wahrgenommen?
  • Datenschutzrisiken von allgemeinen KI-Systemen: Stakeholder-Perspektiven in Europa (Prof. Florian Matthes): Welche Datenschutzrisiken bestehen in neuen General-Purpose-AI-Systemen (GPAI) wie LLMs? Wie werden diese Risiken im europäischen Raum wahrgenommen?
  • Angriffe auf Sprachmodelle verstehen (Prof. Stephan Günnemann): LLMs können angegriffen werden – beispielsweise durch böswillige Aufforderungen, private Benutzerdaten preiszugeben. Es soll besser verstanden werden, wie solche Attacken im Allgemeinen funktionieren, was sie in LLMs auslösen und wie man sie verhindern kann.

(ID:49918265)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung