Comenzamos el mes de agosto con la Ley de Inteligencia Artificial de la Unión Europea. En efecto, hoy 1 de agosto entra en vigor una ley con el objetivo de garantizar que los sistemas de Inteligencia Artificial presentes en la Unión Europea sean seguros y respeten los derechos de los ciudadanos, al tiempo que fomenten la inversión e innovación de la IA en el territorio europeo. La Ley de IA es el primer marco jurídico sobre IA, que aborda los riesgos de la IA y posiciona a Europa para desempeñar un papel de liderazgo a nivel mundial. Además, La ley de IA se aplica sólo a áreas dentro de la legislación de la UE y proporciona exenciones, como por ejemplo para sistemas utilizados exclusivamente con fines militares y de defensa, así como con fines de investigación.
En este sentido, Miquel Peguera, catedrático de los Estudios de Derecho y Ciencia Política de la Universitat Oberta de Catalunya (UOC), explica que «La UE quiere marcar la pauta internacional en la regulación de la IA centrándose exclusivamente en aquellos sistemas que pueden ocasionar riesgos relevantes y dejando fuera el resto de las soluciones de IA para evitar una regulación excesiva».
Claves de la Ley de Inteligencia Artificial
Por otro lado, el experto destaca de este nuevo reglamento cinco claves principales:
1. Regula la comercialización y el uso de sistemas de IA en la Unión Europea.
2. Busca promover la adopción y el desarrollo de la IA y, al mismo tiempo, mitigar los riesgos que un mal uso de esta tecnología puede suponer para la salud, la seguridad y los derechos fundamentales.
3. Prohíbe determinadas prácticas que se consideran de riesgo inaceptable para los ciudadanos y para el conjunto de la sociedad. Por ejemplo, crear bases de datos de reconocimiento facial a partir de la extracción indiscriminada de imágenes de internet, evaluar o clasificar a las personas a lo largo del tiempo por su comportamiento social o sus características personales, o bien explotar las vulnerabilidades de una persona o grupo con la intención de causar daño.
4. Centra la regulación en los sistemas de IA que considera de alto riesgo. Por ejemplo, en relación con el acceso a servicios esenciales (públicos o privados) o con la categorización biométrica de las personas, entre otros supuestos.
5. Exige transparencia con respecto a los contenidos creados o manipulados con herramientas de IA o a los sistemas de reconocimiento de emociones.