Zamknij

Poważna luka w zabezpieczeniach asystentów głosowych. Eksperci ostrzegają przed "atakami delfina"

Redakcja
12.05.2018 14:17
Poważna luka w zabezpieczeniach asystentów głosowych. Eksperci ostrzegają przed "atakami delfina"
fot. Apple mat. prasowe

Siri, Alexa czy nowy asystent głosowy Google są w stanie odbierać komunikaty niesłyszalne dla ludzkiego ucha. 

Audio-ataki: jak hakerzy łamią zabezpieczenia asystentów głosowych

Kilka dni temu Google pokazało swojego nowego asystenta głosowego, który w 2018 roku trafi także na polski rynek. Technologia ma imponujące możliwości. Podczas prezentowanej rozmowy telefonicznej asystenta z człowiekiem trudno było stwierdzić, że mamy do czynienia ze sztuczną inteligencją. Asystenci to coraz popularniejsze rozwiązanie wśród użytkowników, chętnie korzystających z pomocy Siri, Cortany czy Alexy. Według ekspertów istnieje jednak poważna luka w zabezpieczeniach technologii asystentów głosowych. Mogą odbierać komunikaty niesłyszalne dla ludzkiego ucha. Tę słabość wykorzystują hakerzy, przeprowadzający audio-ataki, które badacze nazwali "atakami delfina". Za pomocą ukrytych poleceń mogą łatwo sterować technologią, uzyskując dostęp do cennych danych właścicieli asystentów. Audio-ataki mogą mieć poważne konsekwencje - asystenci mogą też otworzyć drzwi do domu czy posługiwać się naszą kartą przy internetowych transakcjach.

Na czy polegają "ataki delfina"?

Badacze odkryli lukę w zabezpieczeniach całkiem niedawno. W 2016 roku grupa studentów z Uniwersytetu Kalifornijskiego w Berkeley i Georgetown University zademonstrowała najprostszy sposób na wysyłanie sekretnych komunikatów. Wystarczyło zwykłe wideo z YouTube z nagranym białym szumem, aby ukryć polecenie otwarcia niebezpiecznej strony w sieci czy wyłączenia urządzenia. W tym miesiącu zespół inżynierów opublikował wyniki nowego programu badań. Jak się okazuje, niesłyszalne dla właścicieli asystentów komunikaty można też wpleść w muzykę lub czytany przez technologię tekst. Metoda wykorzystuje różnicę w tym, jak człowiek rozpoznaje mowę, a jak sztuczna inteligencja. Szczególnie podatny na taką metodę okazał się inteligentny głośnik Amazon Echo, który marka niedawno wprowadziła także na nasz rynek.

getty image amazon
fot.

Producenci technologii pracują już nad dodatkowymi zabezpieczeniami

Na reakcję gigantów technologicznych nie trzeba było długo czekać. Amazon już ogłosił rozpoczęcie prac nad dodatkowymi zabezpieczeniami, mającymi chronić system rozpoznawania mowy ich sztucznej inteligencji. Podobny komunikat wystosowało też Google twierdząc, że "kwestia bezpieczeństwa to dla nich priorytet". Apple podkreśla z kolei, że Siri nie wykona polecenia, dopóki iPhone nie zostanie odblokowany. Taką przeszkodę hakerzy potrafią jednak pokonać bez większego trudu. 

RadioZET.pl/AG

TO TAKŻE MOŻE CIĘ ZAINTERESOWAĆ:

Asystent Google może telefonicznie załatwiać Twoje sprawy

Pierwszy polski asystent głosowy — o co zapytasz swój telewizor?