InicioActualidadLa inteligencia artificial imita nuestra voz con audios de solo tres segundos

La inteligencia artificial imita nuestra voz con audios de solo tres segundos

Enviar mensajes de audio por mensajería instantánea, recurrir a Alexa, Siri u otros asistentes virtuales para estar informado de la actualidad o solicitar al navegador del coche que llame a un determinado contacto forma parte del día a día de gran parte de la sociedad. Todas estas acciones dejan una huella vocal que revela mucha información, y más si quien la analiza es una inteligencia artificial.

Un grupo de investigadores ha creado una nueva tecnología llamada VALL-E. Esta herramienta tiene la capacidad de sintetizar una voz personalizada de alta calidad con solo una grabación registrada de tres segundos de cualquier hablante. Además, el estudio destaca que VALL-E podría preservar la emoción del hablante y el entorno acústico del mensaje.

Laura Davara y Elena Davara, expertas en protección de datos y socias de la firma Davara & Davara, apuntan que «una inteligencia artificial que suplanta la voz del usuario, si bien puede tener usos muy interesantes, también es cierto que nos genera cierta inquietud porque estamos hablando de datos personales».

Laura y Elena Davara se preguntan lo siguiente: «¿para qué se va a utilizar después la voz del usuario? y ¿se crearán nuevos timbres de voz parecidos? «Ha de determinarse bien la finalidad y analizar el cumplimiento de los principios en el tratamiento de datos personales», señalan.

Asimismo, las socias de Davara&Davara advierten que para poder utilizar esta herramienta de inteligencia artificial «debe ser necesario el consentimiento del usuario«. «El consentimiento ha de ser informado y una clara acción afirmativa, tal y como señala el RGPD.

Por su parte, el abogado Gerard Espuga comparte la mismo visión sobre el consentimiento. Espuga entiende que «habría que contar una de las bases de legitimación del artículo 6.1 del Reglamento General de Protección de Datos (consentimiento, ejecución de contrato, obligación legal, etc.)».

Estafas por clonación de voz

La voz es ya una nueva puerta de entrada a estafas por suplantación de identidad. Imagina recibir en estos momentos un audio de un familiar por WhatsApp que ha sido generado por la inteligencia artificial VALL-E con tan solo tres segundos de la voz del contacto.

VALL-E ha compartido una serie de ejemplos, a modo de experimento, de clonación de voz, a través de los cuales se puede comprobar el avance de la suplantación de voz mediante la inteligencia artificial.

Medidas de seguridad para VALL-E

Las medidas de seguridad básicas para los usuarios son verificar las comunicaciones recibidas mediante el empleo de otros medios para confirmar la autenticidad de la voz e informarse de las últimas tendencias en suplantación de identidad mediante voz.

Las expertas Davara indican que la inteligencia artificial debe contar con «unas medidas de seguridad extremas, puesto que si sufre un ataque de ciberseguridad el riesgo es muy alto». «Si bien la inteligencia artificial, además de ser la palabra del año 2022, ofrece un futuro prometedor, debemos tener presente que no está exenta de regulación que, en todo momento, debe respetarse. Aún queda mucho por hacer», sostienen.

No obstante, en el marco de una futura brecha de seguridad, añade Espuga, «hay que determinar el impacto que ello tendría en los derechos y libertades de los interesados debiendo establecerse medidas de seguridad adecuadas a tal efecto».

artículos relacionados

Protocolos de seguridad para la protección de datos

Para promover el Día Europeo de la Protección de Datos, Genetec Inc. ha compartido las mejores prácticas para proteger la privacidad en la seguridad física. 

Principales riesgos para la privacidad online en 2023

Estas predicciones están basadas en los cambios y tendencias observados por los expertos en privacidad digital de Kaspersky en 2022.

Shodan: el buscador de cámaras de vigilancia privada

Shodan es un motor de búsqueda que extrae información crítica sobre dispositivos. Muy útil para realizar auditorías, esta herramienta puede llegar a ser peligrosa si se utiliza con fines maliciosos.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí