El Parlamento Europeo aprueba la primera ley para regular la inteligencia artificial
Esta ley, pionera a nivel mundial, entrará en vigor en 2026, y controlará su uso según sea beneficioso o perjudicial para los usuarios
El Parlamento Europeo aprobó la ley de inteligencia artificial (IA) que habían pactado las instituciones comunitarias en diciembre, cuando todavía España ostentaba la presidencia. Esta ley, la primera en regular la IA a nivel mundial, supone un paso crucial para su implementación definitiva en la Unión Europea.
Thierry Breton, comisario europeo de Mercado Interior, celebró el abrumador apoyo del Parlamento Europeo a la ley. «Europa se convierte ahora en un referente mundial en IA», afirmó Breton, «regulando lo menos posible, pero todo lo necesario».
La Eurocámara avaló el acuerdo con 523 votos a favor, 46 en contra y 49 abstenciones. El acuerdo había sido cerrado a finales de 2023 por un grupo de representantes de las tres instituciones comunitarias y requería la aprobación del pleno del Parlamento Europeo.
En vigor en 2026
Se espera que la UE apruebe la ley definitivamente en las próximas semanas, aunque no entrará en vigor hasta 2026.
La normativa permite o prohíbe el uso de la IA en función del riesgo que suponga para los ciudadanos. Con ella, la UE pretende ser un ejemplo para el resto del mundo e impulsar la industria europea frente a Estados Unidos y China.
La ley de inteligencia artificial: puntos clave
La nueva ley de inteligencia artificial (IA) de la Unión Europea establece un marco regulatorio para el desarrollo y uso de esta tecnología. La ley busca proteger los derechos de los ciudadanos y promover un desarrollo responsable y ético.
En cuanto a la vigilancia pública, prohíbe la vigilancia masiva en espacios públicos. Sin embargo, las fuerzas del orden podrán utilizar cámaras de identificación biométrica, con previa autorización judicial, en casos específicos como la prevención de una amenaza terrorista inminente, la localización o identificación de personas que hayan cometido delitos graves (como terrorismo, tráfico de personas o explotación sexual), o la búsqueda de víctimas de delitos.
La ley también establece obligaciones para los sistemas de IA generativa, como ChatGPT de OpenAI o Bard de Google. Estos sistemas deberán especificar si un texto, una canción o una fotografía se ha generado mediante IA; así como garantizar que los datos utilizados para entrenar a los sistemas respetan los derechos de autor.
Se identifican también sistemas de IA de alto riesgo, que solo podrán comercializarse si sus desarrolladores garantizan que respetan los derechos fundamentales. Entre ellos se encuentran:
. Sistemas que pueden influir en el resultado de unas elecciones.
. Sistemas que utilizan las entidades financieras para evaluar la solvencia y la calificación crediticia de los clientes.
La ley también crea la Oficina Europea de Inteligencia Artificial, que coordinará el uso de la tecnología entre las autoridades nacionales y estará asesorada por un panel de científicos y organizaciones de la sociedad civil.