Expertos en seguridad cibernética advierten a usuarios de asistentes de voz de Google, Alexa y Siri, de los riesgos de hackeo.
Un grupo de investigadores de la Universidad de Electro-Comunicaciones de Tokio y de la Universidad de Michigan (Estados Unidos) han descubierto una nueva vulnerabilidad de los asistentes de voz.
Concretamente, recientemente se averiguó que es posible controlar los asistentes de voz de Amazon Alexa, Google Assistant o Siri de Apple “mediante un láser que puede estar situado a más de 100 metros de distancia del dispositivo”, señalaron mediante un informe emitido el pasado mes de noviembre. Este fallo es conocido con el nombre de “Light Commands” (Órdenes de luz en inglés).
“Los micrófonos convierten el sonido en señales eléctricas. El principal descubrimiento detrás de los comandos de luz es que, además del sonido, los micrófonos también reaccionan a la luz dirigida directamente a ellos. Por lo tanto, al modular una señal eléctrica en la intensidad de un haz de luz, los atacantes pueden engañar a los micrófonos para que produzcan señales eléctricas como si estuvieran recibiendo audio genuino”, advierten desde la web de la investigación.
Además, tras superar el sistema de seguridad, los usos que hagan los ciberdelincuentes son infinitos: “Una vez que un atacante ha obtenido el control sobre un asistente de voz, el atacante puede usarlo para romper otros sistemas”. Pueden, por ejemplo, realizar compras, desbloquear y arrancar vehículos de forma remota, etc.
FUNIBER patrocina una gran variedad de programas universitarios centrados en abordar los diferentes retos que plantea actualmente la tecnología y su hasta el momento ineficaz protección contra los hackers. Uno de los cursos ofrecidos es la Maestría en Transformación Digital.
Fuente: Aparta tu asistente de voz de la ventana si no quieres que te lo hackeen.
Estudio: Light Commands: Laser-Based Audio Injection.
Foto: Todos los derechos reservados.