Это опасно: голосовые помощники взламываются ультразвуком

Производителям со своей стороны стоит рассмотреть решения, которые будут блокировать такие алгоритмы.
 |  Автор: Соколенко Виктория
Это опасно: голосовые помощники взламываются ультразвуком
Иллюстративное изображение / Getty Images

Ученые из Техасского университета в Сан-Антонио и университета Колорадо-Спрингс выяснили, что голосовые помощники и умные устройства поддаются взлому благодаря ультразвуковой атаке. Об этом сообщает The Register.

Читайте также: В Крыму звучали сообщения об эвакуации: реакция оккупантов

Свой исследовательский метод специалисты назвали NUIT. Перед ним в разной степени уязвимы Siri от Apple, Assistant от Google, Cortana от Microsoft, Amazon Alexa. Атака предполагает, что голосовые команды превращаются в сигналы не уловимые человеческим ухом. Но голосовые помощники их понимают. Алгоритм можно встроить в мобильные приложения или в видео YouTube. Вариантов очень много. Когда устройство с возможностями голосового помощника услышит запрограммированный звук, то выполнит все требования атакующего.

Выходит, что телефоны, ноутбуки, колонки, умные замки и т.д. можно контролировать удаленно благодаря специальным ультразвуковым сигналам. Следствие – совершение нежелательных телефонных звонков, денежные переводы, выключение систем сигнализации, открытие дверей и прочие нежелательные для жертвы вещи.

Для спасения от такого влияния ученые рекомендуют пользователям применять наушники. Также следует рассмотреть включение аутентификации по голосу.

Напомним, ранее мы писали о том, что на Android появился зловред, который ворует деньги в банковских приложениях. 

Читайте также: В деле российские спецслужбы: украинцев призвали отказаться от торрентов

Подпишись на наш Telegram-канал, если хочешь первым узнавать главные новости.



Не пропусти другие интересные статьи, подпишись:
Мы в социальных сетях