fbpx
InicioNewsletter ciberseguridadUna investigación universitaria demuestra las vulnerabilidades de micrófonos y asistentes de voz

Una investigación universitaria demuestra las vulnerabilidades de micrófonos y asistentes de voz

Guenevere Chen, profesora del Departamento de Ingeniería e Informática de la UTSA, ha publicado un artículo en "USENIX Security 2023" donde demuestra las vulnerabilidades de los micrófonos y asistentes de voz.

Nuestros datos personales pueden verse comprometidos incluso al utilizar dispositivos aparentemente fiables. Esto es lo que demuestra una de las últimas investigaciones sobre altavoces de la Universidad de Texas en San Antonio (UTSA).

Guenevere Chen, profesora asociada del Departamento de Ingeniería e Informática de la UTSA, ha publicado un artículo en USENIX Security 2023 que demuestra las vulnerabilidades de los micrófonos y asistentes de voz como Siri, Google Assistant o Alexa.

Las vulnerabilidades de los asistentes de voz

El método más utilizado por los hackers para acceder a los dispositivos es la ingeniería social. Los atacantes atraen a las personas para que instalen aplicaciones o visiten sitios web maliciosos.

«No se trata sólo de un problema de software o malware, sino que es un ataque de hardware que utiliza Internet», aclara Chen. Entre los 17 smartphones con los que se ejecutaron las pruebas, «los dispositivos Siri de Apple necesitan robar la voz del usuario, mientras que otros dispositivos con asistente pueden activarse usando cualquier voz o la de un robot», según destaca la investigadora de la UTSA.

Una vez que tienen acceso no autorizado a un dispositivo, los hackers pueden enviar comandos de acción para reducir el volumen del aparato e impedir que el usuario oiga la respuesta de un asistente de voz antes de proceder con otros ataques. El altavoz debe estar por encima de un determinado nivel de ruido para permitir con éxito un ataque, mientras que la duración de los comandos maliciosos debe ser inferior a 77 milisegundos.

«Si reproduces YouTube en tu televisor inteligente, ese dispositivo tiene un altavoz, ¿verdad? El sonido de los comandos maliciosos se volverá inaudible, y también puede atacar tu móvil y comunicarse con Google Assistant o Alexa e incluso en Zoom durante una reunión», explica Chen.

Investigaciones con NUIT

Los investigadores de UTSA desarrollaron Near-Ultrasound Inaudible Trojan o NUIT, para estudiar cómo los hackers utilizan los altavoces y atacan a los asistentes de voz de forma remota a través de Internet. Es así como NUIT puede silenciar la respuesta de Siri para conseguir un ataque imperceptible, ya que el volumen de la respuesta del iPhone y de los medios se controlan por separado.

Shouhuai Xu, profesor de Informática de la Universidad de Colorado Springs (UCCS), utilizó NUIT para atacar distintos tipos de dispositivos. Los resultados de sus pruebas demuestran que NUIT es eficaz para controlar las interfaces de voz de productos tecnológicos con vulnerabilidades.

«Lo técnicamente interesante de este proyecto es que la solución de defensa es sencilla; sin embargo, para conseguir un resultado, primero debemos descubrir cuál es el ataque», destaca Xu.

Cómo evitar los ciberataques a micrófonos

Con estas vulnerabilidades identificadas, Chen y su equipo ofrecen posibles líneas de defensa para los consumidores. Chen recomienda a los usuarios autenticar sus asistentes de voz y tener cuidado al hacer clic en enlaces o conceder permisos al micrófono. También aconseja utilizar auriculares en lugar de altavoces.

«El uso de auriculares establece una limitación: el sonido de los auriculares es demasiado bajo para transmitirse al micrófono, explica Chen aclarando que «si el micrófono no puede recibir el comando malicioso inaudible, el asistente de voz subyacente no puede ser activado maliciosamente por NUIT».

artículos relacionados

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí