Os especialistas em segurança cibernética alertam os usuários dos assistentes de voz do Google, Alexa e Siri sobre os riscos de hackers
Um grupo de pesquisadores da Universidade de Electro-Comunicações em Tóquio e da Universidade de Michigan (Estados Unidos) descobriram uma nova vulnerabilidade dos assistentes de voz.
Especificamente, descobriu-se recentemente que é possível controlar os assistentes de voz do Amazon Alexa, Google Assistant ou Siri da Apple “usando um laser que pode estar localizado a mais de 100 metros do dispositivo”, disseram eles em relatório divulgado no mês passado de novembro. Essa falha é conhecida pelo nome de “Light Commands”.
“Microfones convertem som em sinais elétricos. A principal descoberta por trás dos comandos da luz é que, além do som, os microfones também reagem à luz direcionada diretamente a eles. Portanto, modulando um sinal elétrico na intensidade de um feixe de luz, os atacantes podem induzir microfones a produzir sinais elétricos como se estivessem recebendo áudio genuíno”, alertam eles no site da pesquisa.
Além disso, depois de superar o sistema de segurança, os usos feitos pelos criminosos cibernéticos são infinitos: “Depois que um invasor ganha controle sobre um assistente de voz, ele pode usá-lo para quebrar outros sistemas”. Eles podem, por exemplo, fazer compras, desbloquear e iniciar veículos remotamente etc.
A FUNIBER patrocina uma ampla variedade de programas universitários focados em enfrentar os diferentes desafios que a tecnologia atualmente apresenta e sua proteção até então ineficaz contra hackers. Um dos cursos oferecidos é o Mestrado em Transformação Digital.
Fonte: Aparta tu asistente de voz de la ventana si no quieres que te lo hackeen.
Estudo: Light Commands: Laser-Based Audio Injection.
Foto: Todos os direitos reservados.