Sicherheitsforscher hören Nutzer von smarten Lautsprechern ab

Gravierende Schwachstellen

In der Praxis richteten die Apps quasi keinen Schaden an, weil sie zunächst einmal unter den Tausenden von Skills und Aktionen gefunden und installiert werden mussten. Ausserdem zeigen die leuchtenden Farbsignale an den Geräten an, dass sie die Sprache aufzeichnen. Das Experiment der Forscher legte allerdings gravierende Schwachstellen bei der Freigabe von App-Aktualisierungen bei Amazon und Google offen.
Die SRLabs-Forscher informierten die Unternehmen über ihre Versuche, die daraufhin reagierten. "Wir haben Schutzmassnahmen ergriffen, um diese Art von Skill-Verhalten zu erkennen und zu verhindern. Skills werden abgelehnt oder entfernt, sobald ein solches Verhalten identifiziert wird", teilte Amazon dem "Spiegel" mit.
Eine Google-Sprecherin schrieb auf Anfrage: "Wir untersagen und entfernen jede Action, die gegen unsere Richtlinien verstösst." Die von den Forschern entwickelten Actions habe Google gelöscht. "Wir setzen zusätzliche Mechanismen ein, um derartiges in Zukunft zu unterbinden."




Das könnte Sie auch interessieren