fbpx
InicioActualidad7 claves de la nueva ley europea sobre inteligencia artificial

7 claves de la nueva ley europea sobre inteligencia artificial

El Parlamento Europeo se reúne para acordar y aprobar las nuevas reglas que garantizarán que la inteligencia artificial sea fiable, segura y respete los derechos fundamentales sin perder de vista la innovación.

El pleno debatió ayer sobre el acuerdo alcanzado por los Estados miembros que establecía las obligaciones para la inteligencia artificial en función de su riesgo potencial y de su nivel de impacto.

Prohibiciones dentro de la UE

Esta nueva normativa ha establecido límites en las aplicaciones de la inteligencia artificial para mantener y proteger los derechos fundamentales de los ciudadanos. Así, las aplicaciones de IA que supongan una amenaza clara para estos quedarán suprimidas de la Unión Europea.

Ejemplo de este tipo de aplicaciones serían aquellas que crean sistemas de categorización biométricos basados en características sensibles, los de puntuación social o los que buscan manipular el comportamiento humano.

Requisitos de seguridad

Por su parte, algunos sistemas de inteligencia artificial que se utilicen en infraestructuras críticas, educación, salud, policía, gestión de fronteras o elecciones, aunque sean considerados de alto riesgo, no se prohibirán, sino que tendrán que cumplir con toda una serie de estrictos requisitos.

Por otro lado, los modelos de IA de propósito general, en inglés GPAI, en rápida expansión, también deberán cumplir toda una serie de obligaciones de transparencia y normas de derecho de autor de la UE.

Otro de los aspectos que busca cubrir esta nueva normativa es el de los «deepfackes«. Teniendo en cuenta la dificultad que se encuentra a la hora de reconocer el contenido audiovisual original del creado por inteligencia artificial o manipulado, este deberá estar convenientemente etiquetado.

Las 7 claves de la nueva normativa europea de Inteligencia Artificial

El acuerdo sobre el Acta de Inteligencia Artificial en Europa establece reglas integrales para asegurar que la IA sea confiable y se desarrolle de manera segura, respetando los derechos fundamentales y la democracia, al mismo tiempo que permite a las empresas prosperar.

  1. Cuatro niveles de riesgos para los sistemas de IA.
    • Riesgo mínimo: a esta categoría pertenecerán la mayoría de sistemas de IA que se utilizan en la actualidad.
    • Riesgo limitado: hace referencia a obligaciones específicas en materia de transparencia.
    • Alto riesgo: en esta categoría de riesgo entrarán todos los sistemas de IA que puedan tener un impacto negativo en la seguridad o los derechos de las personas.
    • Riesgo inadmisible: aquí se encontrarán los usos de la IA que vulneran los derechos fundamentales como los de puntuación social o los de actuación policial predictiva individual.
  2. Salvaguardias para la inteligencia artificial de propósito general. A través de esta normativa se establecen requisitos de transparencia como la elaboración de documentación técnica y resúmenes detallados sobre el contenido usado por el entrenamiento de los sistemas.
  3. Limitación en el uso de sistemas de identificación biométrica. Si bien estos sistemas estarán prohibidos para el uso general, se acordaron excepciones estrechas para el uso de estos sistemas en espacios públicamente accesibles.
  4. Prohibiciones de aplicaciones específicas.
  5. Obligaciones claras para sistemas de alto riesgo.
  6. Medidas para apoyar la innovación y las pymes. Con esta medida se promueven los «sandbox regulatorios» y las pruebas en el mundo real, establecidos por autoridades nacionales para desarrollar y entrenar IA innovadora antes de su comercialización.
  7. Sanciones. El incumplimiento de las reglas que se aprueben podrán llevar a multas que irán desde los 35 millones de euros, el 7% del volumen de negocios global hasta 7.5 millones o el 1,5% del volumen de negocios dependiendo de la infracción o el tamaño de la empresa.

Aplicación definitiva y nuevos instrumentos ejecutivos

La implantación de estas normativas será gradual y se hará definitiva en 2026. Desde su entrada en vigor, una vez sea votada y aprobada, cualquier nuevo sistema de IA será sometido a una evaluación de su impacto en los derechos fundamentales. Aparte de las medidas específicas para las aplicaciones de la IA, la nueva norma designará a las autoridades nacionales competentes para su supervisión, que además representará al país en el Comité Europeo de Inteligencia Artificial.

Además, la ley establece la creación de otros instrumentos europeos en materia de inteligencia artificial:

  • La Oficina Europea de la Inteligencia Artificial será la encargada de supervisar la aplicación de las normativas y el desarrollo de los modelos más avanzados.
  • El Foro Consultivo se compondrá de representantes de las partes interesadas para asesorar al Comité y la Comisión.
  • La Comisión Científica de Expertos Independientes.

artículos relacionados

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí