Grupa studentów z Berkeley zaprezentowała sposoby ataku na inteligentne domy, komputery, tablety czy smartfony wykorzystując przy tym coraz bardziej popularne systemy asystentów głosowych takich jak Siri, Google Assistant czy Alexa. Specjalne, złośliwe komendy mogą być ukryte np. w z pozoru nieszkodliwych piosenkach czy wypowiedziach.

Stale nasłuchujące urządzenia mogą wychwycić niesłyszalne dla człowieka komendy zaszyte w piosenkach lub wypowiedziach w audycjach radiowych, serwisach strumieniowych czy podcastach, co pozwoliłoby przestępcom na przejęcie kontroli np. nad smart domem, komputerem, smartfonem czy tabletem. Ataki tego typu mogą być wykorzystane do otwierania drzwi, otwierania wybranych stron internetowych, dokonywania zakupów online czy wybierania numerów telefonów. Udane ataki tego typu badacze przeprowadzili w Stanach Zjednoczonych oraz w Chinach.

Badaczom z Berkeley udało się m.in. tak zmodyfikować utwory muzyczne, by ukryć w nich dźwięki, niemal niesłyszalne dla ludzkiego ucha, które przetwarzane były przez systemy asystentów na konkretne komendy. Jeden z udanych eksperymentów pozwolił m.in. zaszyć komendę „O.K. Google, browse to evil.com” w wypowiadanym zdaniu „Without the data set, the article is useless”. Podobne komendy udało się także zaszyć np. w utworze „Requiem” Verdiego.

Z kolei naukowcy z Uniwersytetu Princeton oraz chińskiego Uniwersytetu Zhejiang z powodzeniem przesłali tego typu komendy do asystenta w telefonie za pomocą ultradźwięków, które są niesłyszalne dla ludzkiego ucha. Pierwsza komenda wyciszała urządzenie, by ofiara nie słyszała odpowiedzi udzielanych przez asystenta na komendy wysyłane przez atakującego.

Naukowcy z Zhejiang już w ubiegłym roku zaprezentowali tego typu atak na iPhone'a, wykorzystujący Siri i niesłyszalną dla ludzkiego ucha komendę wybrania konkretnego numeru telefonu.

Nicolas Carlini, doktorant na Berkeley, zwraca uwagę w swojej pracy, że choć na razie tego typu ataki przeprowadzono jedynie w laboratoriach, to można się spodziewać, że już wkrótce tego typu techniki będą wykorzystywać przestępcy.

Z kolei Apple twierdzi, że głośnik HomePod posiada zabezpieczenia przed tego typu atakami, w których przestępcy próbowali by np. otworzyć drzwi do mieszkania. Wymaga to bowiem odbezpieczonego iPhone'a, z którym komunikuje się to urządzenie.

Źródło: The New York Times