Tech-News-Technologie

Dieser Angriff kann Siri, Google Assistant oder Alexa verwenden, um sich in Ihr Gerät zu hacken

Digitale Sprachassistenten wie Siri, Google Assistant, Bixby und Alexa können von Hackern verwendet werden, um intelligente Geräte über das zu steuern, was Forscher als Dolphin Attack bezeichnen. Es nutzt im Wesentlichen das Mikrofon des Geräts, das Frequenzen bis zu 20.000 Hz und Ultraschallfrequenzen erfassen kann.

Dolphin Attack, Siri, Google Assistant, was ist Dolphin Attack, AlexaDie Forscher erläuterten, wie der Dolphin-Angriff funktioniert und erklärten, dass er darauf angewiesen ist, dass für den Menschen unhörbare Sprachbefehle (über 20.000 Hz) in Zielgeräte injiziert werden, um den Angriff zu starten.

Digitale Sprachassistenten wie Siri, Google Assistant, Bixby und Alexa können von Hackern verwendet werden, um intelligente Geräte über das zu steuern, was Forscher als Dolphin Attack bezeichnen. Es nutzt im Wesentlichen das Mikrofon des Geräts, das Frequenzen bis zu 20.000 Hz und Ultraschallfrequenzen erfassen kann. Eine Gruppe von Forschern der chinesischen Zheijiang-Universität testete den Dolphin Attack an 16 VCS-Modellen (Version Control System), darunter Apple iPhone, Google Nexus, Amazon Echo und Autos. Sie konnten Facetime auf iPhones starten, Musik auf Echo abspielen und das Navigationssystem eines Audi manipulieren.

Die Forscher erläuterten, wie der Dolphin Attack funktioniert und erklärten, dass er auf der Eingabe von für Menschen unhörbaren Sprachbefehlen beruht, die über 20.000 Hz Frequenzen liegen. Während Menschen diese Befehle nicht wahrnehmen, kann der Sprachassistent auf ihren Geräten sie dennoch erfassen. Die menschlichen Sprachbefehle können dann in Ultraschallfrequenzen übersetzt und wiedergegeben werden, um Hacker zu veranlassen, beispielsweise eine bösartige Website auf dem Gerät des Benutzers zu öffnen.

Die grundlegende Idee von DolphinAttack besteht darin, (a) das niederfrequente Sprachsignal (dh das Basisband) auf einem Ultraschallträger zu modulieren, bevor es über die Luft übertragen wird, und (b) die modulierten Sprachsignale mit der Spracherfassungshardware an der Empfänger, lesen Sie die Forschungsarbeit mit dem Titel 'DolphinAttack: Inaudible Voice Commands'.



Der Start dieses Angriffs unterliegt jedoch Einschränkungen, und ein erfolgreicher Angriff würde eine Reihe höchst unwahrscheinlicher Bedingungen erfordern. Zunächst einmal kann der Dolphin Attack nur ausgelöst werden, wenn sich das Zielgerät in der Nähe oder innerhalb von 1,5 bis 2 Metern vom Sender befindet. Außerdem muss das Gerät entsperrt und Sprachassistenten wie Siri und Google Assistant darauf aktiviert werden.

Schließlich antworten Sprachassistenten immer dann, wenn der Dolphin-Angriff gestartet wird, auf Befehle von Hackern, die sofort klingeln sollten.

Forscher haben zwei Lösungen für Gerätehersteller vorgeschlagen, um den Dolphin-Angriff zu erkennen – Sprachassistenten daran zu hindern, auf Frequenzen über 20.000 Hz zu reagieren, und Audios, die für Menschen nicht hörbar sind, klar zu klassifizieren.

Wir bieten Hardware- und Software-Abwehrlösungen an. Wir validieren, dass es möglich ist, DolphinAttack zu erkennen, indem die Audios mithilfe einer unterstützten Vektormaschine (SVM) klassifiziert werden, und schlagen vor, sprachsteuerbare Systeme neu zu gestalten, um unhörbaren Sprachbefehlsangriffen standzuhalten, fügte das Forschungspapier hinzu.