El día esperado ha llegado. El Parlamento Europeo acaba de dar luz verde a lo que es la primera ley que regula la IA en el continente, el Reglamento Europeo de la Inteligencia Artificial, un marco legislativo ya acordado el 8 de diciembre del año pasado por la Comisión, el Consejo y el propio Parlamento Europeo. ¿La misión? Limitar los peligros de esta tecnología sin perjudicar la innovación. El voto en el pleno de la Eurocámara era el último trámite pendiente para la adopción de la normativa europea, que se acordó tras unas maratonianas negociaciones en los últimos días de la presidencia española del Consejo de la Unión Europea a finales de 2023, con Carme Artigas, entonces secretaria de Estado de Digitalización, al frente de los trabajos para poner de acuerdo a los Estados miembros y a los negociadores del Parlamento Europeo.
Aprobada con una abrumadora mayoría (523 votos a favor, 46 en contra y 49 abstenciones), esta nueva regulación para el uso de sistemas de IA en los Estados miembros de la UE tiene como objetivo sentar las bases de esta nueva industria incipiente que está moldeando la tecnología y la sociedad a pasos agigantados, priorizando la seguridad, la transparencia y la responsabilidad. «La ley regulará la IA en base a sus riesgos. Cuanto mayor sea el riesgo, más estrictas serán las normas», había avisado la institución cuando se redactó el texto legislativo.
«La Ley Europea de Inteligencia Artificial es un triunfo de la democracia europea, una norma que ha sido compleja de realizar y negociar, pero que finalmente hemos conseguido sacar adelante y ser los primeros en el mundo en hacerlo. Una norma que generará confianza para los ciudadanos, protegerá sus derechos, y seguridad jurídica para inversores e innovadores», ha señalado Iban García del Blanco, eurodiputado del PSOE que participó en las negociaciones.
La negociación fue muy compleja e, incluso, cuando se cerró el acuerdo en diciembre, algunos Estados miembros, como Francia o Alemania, plantearon dudas sobre el compromiso que se había alcanzado con la Eurocámara. Teniendo en cuenta los recientes precedentes en los que un acuerdo político cerrado en «trílogos», es decir, las negociaciones entre las distintas instituciones, ha sido incapaz de obtener la mayoría necesaria para ser aprobada en el Consejo, había cierto nerviosismo sobre la viabilidad del acuerdo. Después de que Emmanuel Macron, presidente francés, asegurara que la ley afectaría a la innovación, Margrethe Vestager, vicepresidenta ejecutiva de la Comisión Europea, tuvo que salir a defender el texto señalando que «no perjudica la innovación y la investigación, sino que las potencia».
Sin embargo, se deja en el tintero cuestiones peliagudas y muy debatidas como la defensa de los derechos de autor, en un momento en el que los modelos de IA generativa de imágenes, vídeo y texto están siendo entrenados con los datos de la web sin miramiento alguno.
Concretamente, la nueva ley establece distintos requisitos y obligaciones a las aplicaciones de IA en función de los riesgos que presente su uso. Lo hace mediante un nuevo sistema que clasifica los riesgos asociados con los usos de la IA en diferentes niveles para determinar la peligrosidad que entrañan y, por lo tanto, si se prohíben o no: riesgo inaceptable, alto, limitado y mínimo.
En la escala más alta se encuentran los sistemas de identificación biométrica remota, algo que el Parlamento quería prohibir de manera drástica desde un principio. Aunque sí permite que las fuerzas del orden puedan emplear cámaras de identificación biométrica con previa autorización judicial con el fin de prevenir una amenaza terrorista inminente.
También quedan terminantemente prohibidos los sistemas que afecten a la seguridad de las infraestructuras críticas y los relacionados con la educación (evaluación de comportamientos, sistemas de admisión y exámenes), el empleo (selección de personal) y la prestación de servicios públicos esenciales, la aplicación de la ley o la gestión de la migración.
Y, en la escala de riesgo más bajo, se encuentran funciones como los filtros de spam o los detectores de duplicados de textos que, según la ley, se pueden usar sin restricción alguna siempre y cuando los proveedores informen a los usuarios de que están manejando una herramienta de IA. El reglamento también establece una serie de obligaciones para los sistemas de IA generativa en los que se basan programas como ChatGPT, de la empresa OpenAI, o Gemini, de Google. Por ejemplo, tendrán que especificar si un texto, una canción o una fotografía se han generado a través de la IA.
La institución también ha dado a conocer las sanciones que conllevará el no cumplimiento de la ley, con multas de hasta 7,5 millones de euros o el 1,5% del volumen del negocio, hasta los 35 millones o el 7% del volumen de negocio, dependiendo de la infracción y del tamaño de la empresa. Todo ello será gestionado a través de la AI Office, la entidad creada específicamente para velar por el cumplimiento de la norma.
“Es el resultado de años de preparación, consultas y negociaciones, incluido el histórico diálogo final a tres bandas de 38 horas de diciembre”, destacaba el comisario europeo de Mercado Interior, Thierry Breton. Hace hincapié en que, a lo largo del proceso, han “resistido a los intereses especiales y a los grupos de presión que pedían excluir del reglamento los grandes modelos de IA”. El francés ha escrito al aprobarse el texto que «Europa es ahora un referente mundial en IA». «Estamos regulando lo menos posible, pero tanto como sea necesario», ha subrayado el comisario. En la misma línea, la directora general adjunta de la Organización Europea de Consumidores (BEUC), Ursula Pachl, ha señalado que, con esta ley, la UE “está dejando claro que una tecnología tan potente como la IA, con todas sus ventajas, necesita unos límites”.