Verrückt und gefährlich: Für Menschen unhörbare Befehle für Siri
Eine Gruppe an Forschern und Studenten von Berkeley haben etwas ziemlich Verrücktes geschafft: Für Menschen unhörbare Befehle, die jedoch von Siri und anderen Sprachassistenten problemlos als Befehl erkannt werden. Daraus lassen sich gefährliche neue Möglichkeiten für Hacker erdenken.
Konkret ist es den Forschern gelungen, in Musiktiteln und gesprochenen Texten von Menschen Befehle zu verstecken. Bestimmte Frequenzen wurden dabei so manipuliert, dass Sprachassistenten dadurch Worte verstanden haben, das menschliche Gehör allerdings nur ein Rauschen oder ähnliche nichts aussagende Laute wahrnahm.
Überlistet wurden auf diese Weise alle bekannten virtuellen Assistenten, darunter Siri, Google Now und Amazon Alexa.
Völlig neue Möglichkeiten für Hacker
Wer dies jetzt im ersten Moment als Langeweile unter Forschern abtut, der sollte einen Schritt weiterdenken. Was passiert, wenn mit jemand mit genügend krimineller Energie bestimmte Befehle wie „Hey Siri, öffne das Fenster“ oder „Hey Siri, sperre die Haustüre auf“ in Musikstücken versteckt, die er auf öffentlichen Plätzen abspielt? Denkbar wäre sogar, dass Geräte wie der HomePod oder Alexa zuhause auf solche Befehle hören, wenn draußen ein Einbrecher laut genug oder zumindest für die Geräte hörbare Frequenzen abfeuert.
Apple weiß davon
Diese Art von kriminellen Möglichkeiten sind bereits länger bekannt und deren Umsetzung gar nicht so abgefahren. Deshalb hat Apple zum Beispiel mit besonderer Vorsicht bestimmte Befehle beim HomePod behandelt und Schutzmechanismen eingebaut. iPhone und iPad müssen zudem entsperrt sein, bevor man etwa sein smartes Zuhause aufsperren kann. Doch selbst dann ergeben sich noch etliche Chancen für Kriminelle, an die man bislang nicht gedacht hat.
Das Experiment zeigt abermals, wie vielfältig Hacker heutzutage Schaden anrichten können, die dem Otto-Normalverbraucher nie im Leben einfallen würden.
-----
Willst du keine News mehr verpassen? Dann folge uns auf Twitter oder werde Fan auf Facebook. Du kannst natürlich in Ergänzung unsere iPhone und iPad-App mit Push-Benachrichtigungen hier kostenlos laden.
13 Kommentare zu dem Artikel "Verrückt und gefährlich: Für Menschen unhörbare Befehle für Siri"
-
kalle 11. Mai 2018 um 16:10 Uhr ·Sag mal habt ihr mal dieses Paper von den Heinis aus Berkeley überhaupt gelesen? Mal das Sound Sample gehört? Das ist in etwa so gefährlich wie meine 85-jährige GroßmutteriLike 1
-
Max 11. Mai 2018 um 16:37 Uhr ·Zum aufsperren der Tür brauch man Face ID oder Touch ID !iLike 1
-
Flu 11. Mai 2018 um 17:13 Uhr ·Softwaretechnisch könnte man den „Hey Siri“-Befehl auf den Bereich von etwa 125Hz bis 440 Hz beschränken. Laut Wikipedia geht der Grundton des Stimmbereich bei Kindern bis 440Hz hoch, Frauen um liegt er um 250Hz und bei Männern bei etwa 125Hz. Somit könnte ein mit Infra- oder Ultraschall brüllendes Gerät aus der Ferne die Wohnungstür nicht mehr öffnen. 😀 Wäre wohl nicht allzu kompliziert…iLike 2
-
Apple-Style-😎 11. Mai 2018 um 18:24 Uhr ·Danke , für die Recherche 😄iLike 1
-
-
Blub 11. Mai 2018 um 17:21 Uhr ·Bei Alexa muss man beim Befehl Tür auf noch einen Pin aussprechen, ansonsten bleibt die Tür zu, so einfach ist das. Nicht kompliziert sondern einfach einfach.iLike 2
-
Tom 11. Mai 2018 um 19:09 Uhr ·Schöne neue Welt…iLike 0
-
Lucas 11. Mai 2018 um 20:32 Uhr ·Also die Aufsperrfunktion der Haustüre könnte man ja für den HomePod deaktivieren. Wenn man deinen ist, muss man ja nicht aufsperren. Und sonst merkt man doch, wenn Siri am Handy angeht oder verstehe ich da was falsch?iLike 0
-
Dakindbond 12. Mai 2018 um 13:10 Uhr ·Menschen haben ein Talent aus einer Innovation ein Instrument zum Schaden anrichten zu machen und umgekehrt also mimimimimiiLike 2
-
Patrick 13. Mai 2018 um 09:08 Uhr ·Siri hört doch nur auf die programmierte StimmeiLike 0
-
An0n 13. Mai 2018 um 09:26 Uhr ·Die Reichweite des Angriffs beiträgt maximal 7 Meter unter besten Bedingungen. Selbst ein Staubtuch locker auf das Device gelegt verhindert das der Befehl ausgeführt wird. Schöne neue Dummheit und Hype über vermeintlich böse Hacks.iLike 3