El Gobierno aprueba la norma para el buen uso de la IA, que obliga a etiquetar contenidos creados con esta tecnología
El anteproyecto de ley, que traspone el reglamento europeo, establece qué aplicaciones de inteligencia artificial están prohibidas, pero no concreta cómo se deberán identificar los ‘deepfakes’


El Consejo de Ministros ha aprobado hoy el anteproyecto de ley para un uso ético, inclusivo y beneficioso de la inteligencia artificial (IA), que pretende poner orden en la aplicación práctica de esta tecnología. El anteproyecto adapta a nuestra legislación lo establecido en el Reglamento Europeo de Inteligencia Artificial, acordado por las instituciones comunitarias el 8 de diciembre de 2023 y aprobado por el Parlamento Europeo el 13 de marzo del año pasado. “La IA es una herramienta muy poderosa, que puede servir para mejorar nuestras vidas o para difundir bulos y atacar la democracia”, ha dicho en rueda de prensa el ministro de Transformación Digital y de la Función Pública, Óscar López.
Según ha recordado el ministro, la normativa europea “defiende nuestros derechos digitales, identificando prácticas prohibidas”. Por ejemplo, considera infracción grave no cumplir con el etiquetado de textos, vídeos o audios generados con IA. “Todos somos susceptibles de ser objeto de un ataque de este tipo. Se llaman deepfakes y están prohibidos”, ha advertido López.
La semana pasada, el PP difundió en X un vídeo realizado con IA generativa titulado La isla de las Corrupciones. En el vídeo, el presidente del Gobierno, Pedro Sánchez, su mujer, Begoña Gómez, y otros personales (el exministro José Luis Ábalos, su expareja Jessica Rodríguez y su asesor Koldo García, el empresario Víctor de Aldama o el fiscal general del Estado, Álvaro García Ortiz) aparecen caracterizados de personajes del reality show La isla de las tentaciones. El vídeo fue retirado tras las protestas de la Cancillería de la República Dominicana, que lo consideró “un ataque” contra el país. Cuando entre en vigor el anteproyecto de ley presentado hoy, vídeos como ese deberán ser marcados para que no quepa duda de que las imágenes han sido generadas por ordenador.
Sin embargo, el ministro no ha concretado cómo se deberá realizar ese etiquetado, más allá de lo que ya indicaba el reglamento europeo: que los deepfakes deben identificarse “de manera clara y distinguible a más tardar con ocasión de la primera interacción o exposición”. “Cuando se desarrolle la normativa, la Agencia Española de Supervisión de la Inteligencia Artificial (Aesia) pondrá las normas”, ha dicho López. ¿Quién controlará que se cumplan? La gestión y tratamiento de datos biométricos será responsabilidad de la Agencia Española de Protección de Datos (AEPD); los sistemas de IA que puedan afectar a la democracia serán competencia de la Junta Electoral Central; y del Consejo General de Poder Judicial los que puedan incidir en la aplicación de la justicia.
El resto de casos los estudiará la Aesia. Constituida el año pasado y con sede en A Coruña, el organismo está dirigido por Ignasi Belda y planea contratar hasta 2026 al menos 80 expertos de varias disciplinas que deberán revisar la adecuación de distintas aplicaciones de IA a la normativa.
López ha recordado que, tal y como establece el Reglamento Europeo de la IA, quienes incumplan la normativa afrontarán multas de hasta 35 millones de euros y/o entre el 5% y el 7% de la facturación mundial.
Adaptación del marco europeo
El Reglamento Europeo de IA, considerado el más avanzado del mundo en este asunto, tiene un enfoque pionero. Con el objetivo de no quedarse obsoleto, el reglamento clasifica las distintas aplicaciones de IA disponibles en función de su riesgo y, en función de ello, establece distintos requisitos y obligaciones. Estos van desde el uso sin restricciones, por ejemplo, un filtro de spam o un recomendador de contenidos, hasta la prohibición total. Estos casos, más graves, se refieren a aquellas aplicaciones “que trasciendan la conciencia de una persona o técnicas deliberadamente manipuladoras”, las que exploten sus vulnerabilidades o las que infieran emociones, raza u opiniones políticas de las personas.
Entre ambos extremos se sitúan las llamadas tecnologías de “alto riesgo”, sujetas a una supervisión permanente. Se encuadran en esta categoría los sistemas de identificación biométrica remota, que un amplio sector del Parlamento quería prohibir terminantemente; los sistemas de categorización biométrica o el reconocimiento de emociones. También los sistemas que afecten a la seguridad de las infraestructuras críticas y los relacionados con la educación (evaluación de comportamientos, sistemas de admisión y exámenes), el empleo (selección de personal) y la prestación de servicios públicos esenciales, la aplicación de la ley o la gestión de la migración.
El Reglamento establece también que se deberán realizar informes periódicos para actualizar esta clasificación, de manera que, cuando surjan nuevas aplicaciones no contempladas en el documento, se determine en qué categoría se encuadra (uso sin restricciones, uso sujeto a restricciones o prohibición).
Eso mismo pasó, por ejemplo, con la IA generativa, la tecnología que está detrás de herramientas como ChatGPT: su irrupción se produjo cuando la negociación del reglamento estaba ya muy avanzada. Se discutió si hacer mención específica de ella o no. Finalmente, se incluyó y se estableció que los llamados modelos fundacionales tendrán que cumplir criterios de transparencia, como especificar si un texto, una canción o una fotografía se han generado a través de IA, así como garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor.
El documento no estableció, sin embargo, cómo se debía llevar a cabo esa señalización de los contenidos elaborados por IA, ni cómo garantizar que respetasen los derechos de autor. Estas dos cuestiones claves tampoco se han concretado en el anteproyecto presentado hoy.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.
Sobre la firma
