Unhörbarer Angriff Versteckte Kommandos tricksen Alexa, Siri und Co. aus
Anbieter zum Thema
Plötzlich ruft das Handy eigenmächtig eine manipulierte Phishing-Website auf: Für Menschen nicht wahrnehmbare Sprachkommandos können digitale Diener dazu bringen, potenziell gefährliche Aktionen auszuführen

Zur Freude ihrer mittlerweile Millionen Benutzer erledigen Alexa, Cortana und Google viele Aktionen auf Sprachbefehl – ganz ohne lästige Gegenfragen. Doch was passiert, wenn von Angreifern eingeschleuste Kommandos die Assistenten zu unerwünschten Aktionen verleiten?
Was sich wie eine Fortsetzung von George Orwells Dystopie „1984“ liest, ist mehr als Fiktion. Forscher sondieren diese Möglichkeit seit einiger Zeit. Laut einem Artikel in der renommierte Tageszeitung New York Times haben Wissenschaftler der Universität Kalifornien, Berkley nun gezeigt, wie das funktionieren kann: Sie entdeckten Möglichkeiten, Kommandos in Audiodateien, etwa Sprachaufnahmen oder Musikstreaming, so zu verstecken, dass sie das menschliche Ohr nicht als Sprache auflöst. Während der Mensch die Befehle zum Beispiel als Störung interpretiert oder gleich gar nicht wahrnimmt, interpretiert der virtuelle Assistent sie als spezifische Kommandos.
Sinfonien für Menschen, Befehle für Maschinen
Die Forscher demonstrierten, wie sich dieses Prinzip nutzen lässt, um die Mozilla DeepSpeach (ein Modell zur Spracherkennung) Sprache-zu-Text-Maschine zu foppen: Sie betteten Kommandos direkt in aufgenommene Musik oder gesprochene Texte ein. Das Ergebnis kann dann etwa so aussehen: Während der menschliche Zuhörer einem Gespräch oder einem Orchesterstück lauscht, hört Amazons Echo – oder eines der Konkurrenzprodukte – eine Instruktion und setzt ein Produkt auf eine Shopping-Liste.
Wie können Angreifer das ausnutzen?
Naheliegend ist die Möglichkeit, manipulierte Audiodateien in einer Radio- oder Fernsehsendung, einem Podcast, YouTube-Video oder Online-Spiel zu übertragen. Oder vielleicht auch einfach eine sich selbst abspielende Audiodatei in eine Phishing-Webseite einbinden. Die Hacker können praktisch alle Befehle nutzen, die das Zielgerät beherrscht. Vom Wählen einer Telefonnummer, Aufrufen einer Webseite, oder sogar selbstständiges Einkaufen.
Ein Beispiel gefällig? Die Berkley-Forscher konnten in der an sich harmlosen Aussage „ohne den Datensatz ist der Artikel nutzlos“ das Kommando „okay, Google, browse zur Seite evil.com“ verstecken. Bestimmte Smartphones und sprachgesteuerte Assistenten reagieren darauf.
Grundsatzfrage: Muss eigentlich alles eine Sprachfunktion haben?
Das eigentliche Problem der Forschungsergebnisse ist jedoch ein anderes: Wir wissen wenig darüber, wie Internetfirmen Sprachtechnologien implementieren und welche Schutzmaßnahmen – falls überhaupt – implementiert sind.
Auf den ersten Blick sind Smartphones schwieriger zu manipulieren: Bevor der digitale Diener zuhört, müssen die Geräte meist erst manuell entsperrt werden. Sprachassistenten daheim mit „Always on“- Funktion sind hingegen einfacher anzugreifen.
Doch auch Smartphones sind potenziell manipulierbar: iPhones etwa sind in der Regel so voreingestellt, dass sich beispielsweise die Befehlsempfängerin Siri auch bei verriegeltem Home-Bildschirm starten lässt. Das bietet Hackern eine Angriffsfläche. Auch eine Schadfunktion auf Googles Home Mini – Googles Konkurrent zu Alexas Echo – ließ diesen im Test alles aufnehmen, was er hörte – auch wenn er danach gar nicht gefragt wurde.
Potenzielle Gefahr durch Sprachkontrolle im Smart Home
„Die Forschungsergebnisse zeigen zunächst einmal, dass diese Geräte von außen kontrolliert werden können – theoretisch“, ordnet Michael Veit, Security Experte bei Sophos, die Arbeit aus Berkley ein. „Das Risiko, dass der eigene Sprachassistent nun durch versteckte Kommandos manipuliert wird, ist aber als gering einzuschätzen.“ Viel wahrscheinlicher sei es nach wie vor, dass die gegenwärtige Generation an Geräten unbemerkt überwacht werde oder zum Teil ein seltsames Eigenleben führe.
Tatsächlich gibt es viele Beispiele, in denen Alexa und Co. meinen, einen Befehl vernommen zu haben und sich selbstständig ins Spiel bringen. Bedenklich ist laut Veit allerdings die Entwicklung, eine Sprachkontrolle in jede Art von Gerät einzubetten – inklusive Haussicherheit und Türverriegelung. „Und noch eines sollte einem angesichts dieser Forschungsergebnisse bewusst sein: was in der Theorie möglich ist, wird auch seinen Weg in die Praxis finden. Noch nicht heute, aber vielleicht in ein paar Jahren.“
Dieser Artikel stammt von unserem Partnerportal Elektronikpraxis.
(ID:45345519)