„Sowas stellst du dir in die Wohnung?“ – diese entsetzte Reaktion kennt wohl jeder, der einen Sprachlautsprecher wie Amazons Alexa sein Eigen nennt. Die Tatsache, dass die Geräte immer in den Raum horchen, macht immer noch vielen Menschen Angst. Dabei ist der Verdacht, ständig abgehört zu werden, völlig überzogen. Viel gefährlicher ist die Möglichkeit, die Geräte mit Befehlen zu steuern, die Menschen gar nicht hören können.
Dass dies möglich ist, haben Wissenschaftler bereits mehrfach nachgewiesen, in verschiedensten Varianten. So konnten chinesische Forscher zeigen, dass man Siri mit Befehlen zu Anrufen überreden kann, die für Menschen völlig unhörbar sind. Wissenschaftler der US-Uni Berkley konnten dagegen Befehle so überarbeiten, dass sie von Menschen nur als Rauschen wahrnehmbar waren. So ließen sie sich in scheinbar harmlosen Sprach- und Musikaufnahmen wie Verdi’s Requiem verstecken. Hier können Sie sich Beispiele anhören.Alexa – der Traum der Geheimdienste 21.06
Ultraschall und Klassik
Ein ausführlicher Artikel der „New York Times“ hat die Studien gesammelt. Alle haben eines gemeinsam: Sie machen sich Schwächen bei der Verarbeitung von Sprache durch den Computer zunutze. Was uns Menschen gelingt, ohne darüber nachzudenken, ist für Computer immer noch harte Arbeit. Um Gesprochenes verstehen zu können, müssen sie – beziehungsweise die dahinter steckende künstliche Intelligenz – das Gehörte in einzelne Geräusche zerlegen, denen dann ein Buchstabe zugeordnet wird. Aus denen werden dann wieder Sätze und Phrasen zusammengesetzt, die dann verarbeitet werden können.
Die Angreifer machen sich das Zunutze, indem sie gleich am ersten Schritt angreifen und ihre eingeschleusten Befehle so gestalten, dass sie von Menschen nicht gehört, von den Computern aber verstanden werden. Am besten gelingt das aktuell mit Ultraschall, wie Forscher aus China zeigten. Sie sandten Befehle auf Frequenzen, die für Menschen schlicht unhörbar sind, von den Mikrofonen aber erfasst werden. In Anlehnung an die teilweise ebenfalls unhörbare Sprache der Delfine nannten sie das Ganze „Dolphin Attack“ (Delfin-Angriff).Amazon Echo für jeden erhältlich – lohnt er sich? 19.40
Zum Glück noch nicht ausgereift
In einigen Videos zeigen die Forscher, dass die Technik bei einer ganzen Reihe von Geräten und Assistenten funktioniert, von einem iPhone mit Siri über Smartphones mit dem Befehl „OK. Google“ bis zu Amazons Alexa. Die einzige Einschränkung ist aktuell die Entfernung zum Gerät: Am Anfang durfte es nicht mehr als 1,5 Meter entfernt sein, mittlerweile schaffen die Forscher gut 7 Meter Abstand. Für echte Attacken ist das aber – noch – zuwenig.
Auch das Verstecken von Sprachbefehlen in Dialogen oder Musik scheitert zum Glück noch an dieser Hürde. „Die hier gezeigten feindseligen Beispiele funktionieren nicht mehr, wenn sie über Funk gesendet werden“, heißt es in dem Forschungsbericht aus Berkley. Das wird sich aber ziemlich sicher noch ändern, gibt sich Nicholas Carlini, einer der Forscher, gegenüber der „New York Times“ sicher. „Ich vermute, dass Menschen mit bösen Absichten bereits Menschen wie mich anstellen, um das herauszufinden.“
Google, Amazon und Apple wollen Sicherheit
Bei Google, Amazon und Co. dürfte man sich der Gefahr bewusst sein. Die Hersteller versichern gegenüber der Zeitung, dass es Sicherheitsmaßnahme gebe, wollen aber keine Details verraten. Einige dürften aber klar sein: Google und Amazon setzen bereits heute auf Stimmerkennung, um den Sprecher zu erkennen. Die Technik lässt sich allerdings immer noch recht einfach austricksen. Ob sie auch vor Delfin-Geräuschen schützt, muss sich entsprechend zeigen. Zu sicher sollte man sich deswegen wohl nicht sein. Schließlich lassen sich Siri, Alexa und Co. immer noch regelmäßig vom Fernseher austricksen.Zukunft_in_100_Sek-Assistenten .6.25