El día esperado ha llegado. El Parlamento Europeo acaba de dar luz verde a lo que es la primera ley que regula la IA en el continente, el Reglamento Europeo de la Inteligencia Artificial, un marco legislativo ya acordado el 8 de diciembre del año pasado por la Comisión, el Consejo y el propio Parlamento Europeo. ¿La misión? Limitar los peligros de esta tecnología sin perjudicar la innovación. El voto en el pleno de la Eurocámara era el último trámite pendiente para la adopción de la normativa europea, que se acordó tras unas maratonianas negociaciones en los últimos días de la presidencia española del Consejo de la Unión Europea a finales de 2023, con Carme Artigas, entonces secretaria de Estado de Digitalización, al frente de los trabajos para poner de acuerdo a los Estados miembros y a los negociadores del Parlamento Europeo.

 

Aprobada con una abrumadora mayoría (523 votos a favor, 46 en contra y 49 abstenciones), esta nueva regulación para el uso de sistemas de IA en los Estados miembros de la UE tiene como objetivo sentar las bases de esta nueva industria incipiente que está moldeando la tecnología y la sociedad a pasos agigantados, priorizando la seguridad, la transparencia y la responsabilidad. «La ley regulará la IA en base a sus riesgos. Cuanto mayor sea el riesgo, más estrictas serán las normas», había avisado la institución cuando se redactó el texto legislativo.

 

«La Ley Europea de Inteligencia Artificial es un triunfo de la democracia europea, una norma que ha sido compleja de realizar y negociar, pero que finalmente hemos conseguido sacar adelante y ser los primeros en el mundo en hacerlo. Una norma que generará confianza para los ciudadanos, protegerá sus derechos, y seguridad jurídica para inversores e innovadores», ha señalado Iban García del Blanco, eurodiputado del PSOE que participó en las negociaciones.

 

La negociación fue muy compleja e, incluso, cuando se cerró el acuerdo en diciembre, algunos Estados miembros, como Francia o Alemania, plantearon dudas sobre el compromiso que se había alcanzado con la Eurocámara. Teniendo en cuenta los recientes precedentes en los que un acuerdo político cerrado en «trílogos», es decir, las negociaciones entre las distintas instituciones, ha sido incapaz de obtener la mayoría necesaria para ser aprobada en el Consejo, había cierto nerviosismo sobre la viabilidad del acuerdo. Después de que Emmanuel Macron, presidente francés, asegurara que la ley afectaría a la innovación, Margrethe Vestager, vicepresidenta ejecutiva de la Comisión Europea, tuvo que salir a defender el texto señalando que «no perjudica la innovación y la investigación, sino que las potencia».

A grandes rasgos, la ley prohíbe de manera oficial los sistemas algorítmicos que vulneren los derechos fundamentales, como los sistemas de puntuación social, el reconocimiento de emociones, la vigilancia policial predictiva o el rastreo de datos biométricos para inferir la raza, orientación sexual u opiniones políticas de personas. Por ejemplo, los que puedan influir en el resultado de unas elecciones o los que empleen las entidades financieras para evaluar la solvencia y la calificación crediticia de clientes.

 

Sin embargo, se deja en el tintero cuestiones peliagudas y muy debatidas como la defensa de los derechos de autor, en un momento en el que los modelos de IA generativa de imágenes, vídeo y texto están siendo entrenados con los datos de la web sin miramiento alguno.

 

Concretamente, la nueva ley establece distintos requisitos y obligaciones a las aplicaciones de IA en función de los riesgos que presente su uso. Lo hace mediante un nuevo sistema que clasifica los riesgos asociados con los usos de la IA en diferentes niveles para determinar la peligrosidad que entrañan y, por lo tanto, si se prohíben o no: riesgo inaceptable, alto, limitado y mínimo.

En la escala más alta se encuentran los sistemas de identificación biométrica remota, algo que el Parlamento quería prohibir de manera drástica desde un principio. Aunque sí permite que las fuerzas del orden puedan emplear cámaras de identificación biométrica con previa autorización judicial con el fin de prevenir una amenaza terrorista inminente.

 

También quedan terminantemente prohibidos los sistemas que afecten a la seguridad de las infraestructuras críticas y los relacionados con la educación (evaluación de comportamientos, sistemas de admisión y exámenes), el empleo (selección de personal) y la prestación de servicios públicos esenciales, la aplicación de la ley o la gestión de la migración.

 

La institución también ha dado a conocer las sanciones que conllevará el no cumplimiento de la ley, con multas de hasta 7,5 millones de euros o el 1,5% del volumen del negocio, hasta los 35 millones o el 7% del volumen de negocio, dependiendo de la infracción y del tamaño de la empresa. Todo ello será gestionado a través de la AI Office, la entidad creada específicamente para velar por el cumplimiento de la norma.

 

“Es el resultado de años de preparación, consultas y negociaciones, incluido el histórico diálogo final a tres bandas de 38 horas de diciembre”, destacaba el comisario europeo de Mercado Interior, Thierry Breton. Hace hincapié en que, a lo largo del proceso, han “resistido a los intereses especiales y a los grupos de presión que pedían excluir del reglamento los grandes modelos de IA”. El francés ha escrito al aprobarse el texto que «Europa es ahora un referente mundial en IA». «Estamos regulando lo menos posible, pero tanto como sea necesario», ha subrayado el comisario. En la misma línea, la directora general adjunta de la Organización Europea de Consumidores (BEUC), Ursula Pachl, ha señalado que, con esta ley, la UE “está dejando claro que una tecnología tan potente como la IA, con todas sus ventajas, necesita unos límites”.

FUENTE