- Горячие темы:
- Все для фронта - все про оружие и технику
Это опасно: голосовые помощники взламываются ультразвуком
Ученые из Техасского университета в Сан-Антонио и университета Колорадо-Спрингс выяснили, что голосовые помощники и умные устройства поддаются взлому благодаря ультразвуковой атаке. Об этом сообщает The Register.
Читайте также: В Крыму звучали сообщения об эвакуации: реакция оккупантов
Свой исследовательский метод специалисты назвали NUIT. Перед ним в разной степени уязвимы Siri от Apple, Assistant от Google, Cortana от Microsoft, Amazon Alexa. Атака предполагает, что голосовые команды превращаются в сигналы не уловимые человеческим ухом. Но голосовые помощники их понимают. Алгоритм можно встроить в мобильные приложения или в видео YouTube. Вариантов очень много. Когда устройство с возможностями голосового помощника услышит запрограммированный звук, то выполнит все требования атакующего.
Выходит, что телефоны, ноутбуки, колонки, умные замки и т.д. можно контролировать удаленно благодаря специальным ультразвуковым сигналам. Следствие – совершение нежелательных телефонных звонков, денежные переводы, выключение систем сигнализации, открытие дверей и прочие нежелательные для жертвы вещи.
Для спасения от такого влияния ученые рекомендуют пользователям применять наушники. Также следует рассмотреть включение аутентификации по голосу.
Напомним, ранее мы писали о том, что на Android появился зловред, который ворует деньги в банковских приложениях.
Читайте также: В деле российские спецслужбы: украинцев призвали отказаться от торрентов
Подпишись на наш Telegram-канал, если хочешь первым узнавать главные новости.