Las sanciones de la Aesia por el mal uso de la inteligencia artificial pueden alcanzar los 35 millones
El director de la Agencia Española de Supervisión de la Inteligencia Artificial, Ignasi Belda, señala que Galicia es una “privilegiada” por albergar la primera agencia europea de supervisión de la IA

El director de la Agencia Española de Supervisión de la Inteligencia Artificial (Aesia), Ignasi Belda – MINISTERIO PARA LA TRANSFORMACIÓN DIGITAL
Ignasi Belda, director general de la Agencia Española de Supervisión de la Inteligencia Artificial (Aesia), advierte de que las sanciones por usar la Inteligencia Artificial (IA) en «ámbitos prohibidos» pueden alcanzar los 35 millones de euros.
Así lo ha apuntado en una entrevista en la Cadena Ser en la que el director del organismo con sede en A Coruña ha remarcado que Galicia es una «privilegiada» albergar la primera agencia europea de supervisión de la IA.
El uso de la IA está prohibida en diferentes ámbitos, tal y como establece el Reglamento de Inteligencia Artificial que entró en vigor en agosto de 2024 y cuya aplicación se realiza «de forma escalada», por ello la Aesia se encarga de supervisar el uso en las «categorías de riesgo» marcadas por la ley.
Así, esa prohibición se centra en ocho entornos y algunos de ellos, según nombró Belda, son: policía predictiva, no se puede usar para prevenir delitos; reconocer emociones en puestos de trabajo o centros educativos; y, entre otros, la manipulación subliminal.
Sanciones
El mal uso de la IA tendrá como consecuencia diferentes sanciones, pero «no entra en vigor» hasta agosto de este año, por lo que, actualmente, si detectan que alguna persona utiliza la IA en un ámbito prohibido deben avisarla.
Las sanciones van desde «cuantías pequeñas» hasta los 35 millones de euros para sanciones «realmente graves». «A partir de agosto, si el que lo está utilizando de forma fraudulenta persiste en ello, pues entonces tendremos ya que tomar cartas en el asunto. Pero de momento, digamos, las prohibiciones están en vigor, pero no las sanciones», ha explicado.
Además, a partir de agosto de 2026 la agencia tienen la obligación de habilitar un canal de denuncias para que cualquier ciudadano pueda transmitir una inquietud o denunciar un sistema de inteligencia artificial que haya detectado que «potencialmente pueda ser de los prohibidos o de los de alto riesgo».
Efectos de la tecnología
El director de la Aesia, consultado sobre los miedos que trae consigo el desarrollo de la IA, remarca que «toda tecnología» tiene sus «efectos positivos y negativos», por lo que incide en que se «debe ser conscientes» de las oportunidades que ofrece la tecnológica y «limitar sus riesgos».
«Las oportunidades en el ámbito laboral son muchísimas y lo que pretendemos, también desde el Gobierno, es que las empresas abracen esta tecnología y la incorporen en sus procesos productivos para ser más productivas y poder competir a escala global con nuevas herramientas», indicó.
Ignasi Belda ha subrayado que, para él, el desafío más importantes «es la humanización de la tecnología». «Corremos el riesgo de que estas tecnologías adopten un cariz propio y que nadie las entienda», ha advertido.
Por ello, «hay que trabajar» en una materia que se llama inteligencia artificial autoexplicable, es decir, que se pueda trabajar con la IA en «toda su potencia», pero cuando se le pida explicaciones «las pueda dar».