Eine Gruppe an Forschern und Studenten von Berkeley haben etwas ziemlich Verrücktes geschafft: Für Menschen unhörbare Befehle, die jedoch von Siri und anderen Sprachassistenten problemlos als Befehl erkannt werden. Daraus lassen sich gefährliche neue Möglichkeiten für Hacker erdenken.
Konkret ist es den Forschern gelungen, in Musiktiteln und gesprochenen Texten von Menschen Befehle zu verstecken. Bestimmte Frequenzen wurden dabei so manipuliert, dass Sprachassistenten dadurch Worte verstanden haben, das menschliche Gehör allerdings nur ein Rauschen oder ähnliche nichts aussagende Laute wahrnahm.
Überlistet wurden auf diese Weise alle bekannten virtuellen Assistenten, darunter Siri, Google Now und Amazon Alexa.
Völlig neue Möglichkeiten für Hacker
Wer dies jetzt im ersten Moment als Langeweile unter Forschern abtut, der sollte einen Schritt weiterdenken. Was passiert, wenn mit jemand mit genügend krimineller Energie bestimmte Befehle wie „Hey Siri, öffne das Fenster“ oder „Hey Siri, sperre die Haustüre auf“ in Musikstücken versteckt, die er auf öffentlichen Plätzen abspielt? Denkbar wäre sogar, dass Geräte wie der HomePod oder Alexa zuhause auf solche Befehle hören, wenn draußen ein Einbrecher laut genug oder zumindest für die Geräte hörbare Frequenzen abfeuert.
Apple weiß davon
Diese Art von kriminellen Möglichkeiten sind bereits länger bekannt und deren Umsetzung gar nicht so abgefahren. Deshalb hat Apple zum Beispiel mit besonderer Vorsicht bestimmte Befehle beim HomePod behandelt und Schutzmechanismen eingebaut. iPhone und iPad müssen zudem entsperrt sein, bevor man etwa sein smartes Zuhause aufsperren kann. Doch selbst dann ergeben sich noch etliche Chancen für Kriminelle, an die man bislang nicht gedacht hat.
Das Experiment zeigt abermals, wie vielfältig Hacker heutzutage Schaden anrichten können, die dem Otto-Normalverbraucher nie im Leben einfallen würden.
13 Gedanken zu „Verrückt und gefährlich: Für Menschen unhörbare Befehle für Siri“
Die Kommentare sind geschlossen.