La Unión Europea está estudiando un nuevo marco jurídico que pretende mejorar la normativa sobre el desarrollo y el uso de la inteligencia artificial (IA). En marzo de 2022, los comités IMCO y LIBE celebraron una audiencia conjunta sobre la propuesta de Ley de Inteligencia Artificial para abordar las principales cuestiones relativas a la IA y ayudar a preparar la posición del Parlamento. Después de poco más de un año, en la fecha del próximo 11 de mayo, se votará en los comités técnicos para cerrar los acuerdos parlamentarios, de donde saldrá la nueva propuesta para el Parlamento Europeo.
Propuesta para la Ley de IA de la Unión Europea
La ley de IA tiene como objetivo garantizar el correcto funcionamiento del mercado y codificar los altos estándares del paradigma de IA confiable de la UE, que requiere que la IA sea ética y técnicamente sólida, respetando los valores democráticos y los derechos fundamentales. La combinación del primer marco jurídico sobre IA y un nuevo Plan Coordinado con los Estados miembros proporcionarán así la seguridad y los derechos fundamentales de las personas y las empresas.
Según aclara el Foro Económico Mundial, la propuesta de Ley de Inteligencia Artificial calificaría los sistemas de IA por riesgos exigiendo diferentes requisitos de desarrollo. En efecto, el marco tendrá que incluir cuatro niveles de riesgo: inaceptable, alto, limitado y mínimo.
Para garantizar la toma de decisión a nivel europeo, «una superoficina será la encargada de marcar las líneas generales y la interpretación de algunas realidades tecnológicas», según reporta el medio Newtral.
Los sistemas de clasificación de riesgos
La propuesta reguladora pretende ofrecer a los desarrolladores y usuarios de IA requisitos y obligaciones claros en relación con los usos específicos de la IA. Al mismo tiempo, la propuesta pretende reducir las cargas administrativas y financieras para las empresas, en particular las pequeñas y medianas (PYME).
La piedra angular de la Ley de IA es un sistema de clasificación que determina el nivel de riesgo que una tecnología de IA podría suponer para la salud y la seguridad o los derechos fundamentales de una persona. El marco incluye cuatro niveles de riesgo: inaceptable, alto, limitado y mínimo.
Los sistemas de IA con un riesgo limitado y mínimo pueden utilizarse sin más requisitos que las obligaciones de transparencia. Los sistemas que se considera que plantean un riesgo inaceptable, como los sistemas gubernamentales y de identificación biométrica en espacios públicos, están prohibidos con pocas excepciones.
Los sistemas de IA identificados como de alto riesgo incluyen la tecnología de IA utilizada en infraestructuras críticas, la formación educativa o profesional, la gestión de trabajadores y acceso al autoempleo, los servicios públicos y privados esenciales, la gestión de la migración, el asilo y el control de fronteras así como la administración de justicia y procesos democráticos. Los sistemas de IA de alto riesgo estarán sujetos a obligaciones estrictas antes de poder comercializarse.
Todos los sistemas de identificación biométrica a distancia se consideran de alto riesgo y están sujetos a requisitos estrictos. Se definen y regulan estrictamente algunas excepciones, «como cuando es necesario buscar a un menor desaparecido, prevenir una amenaza terrorista específica e inminente o detectar, localizar, identificar o procesar a un autor o sospechoso de un delito grave», se aclara desde Bruselas.