Skip to content

Technology for lawyers, consultancies and agencies

España estrena ley de IA con etiquetado obligatorio: impacto, reacciones y contexto global

12 mar., 2025 71
España estrena ley de IA con etiquetado obligatorio: impacto, reacciones y contexto global

España ha dado un paso pionero en la regulación de la inteligencia artificial (IA) al aprobar una nueva normativa que obliga a identificar los contenidos generados o manipulados por IA y establece duras sanciones por incumplimiento (El Confidencial) El anteproyecto de ley de gobernanza de la IA, aprobado por el Consejo de Ministros y encaminado a las Cortes vía urgente, busca asegurar un uso “ético, inclusivo y beneficioso” de esta tecnología. (El País) (Digital Gob)

La medida llega en medio de un auge sin precedentes de herramientas generativas como ChatGPT y de preocupaciones por deepfakes y desinformación, situando a España a la vanguardia de la regulación de IA en Europa.

Detalles de la nueva normativa y su contexto regulatorio

La llamada Ley de IA española adapta al ámbito nacional el reciente Reglamento Europeo de Inteligencia Artificial, acordado en la UE a finales de 2023​. Este reglamento comunitario –el primero de su tipo en el mundo– establece un enfoque basado en riesgos, prohíbe ciertos usos “inaceptables” de la IA y exige transparencia en otros​.

Siguiendo esa línea, la normativa española define límites claros: quedan vetadas prácticas como la manipulación subliminal para condicionar decisiones, la clasificación biométrica de personas por características como raza, ideología o religión, o el “social scoring”. También se prohíbe, en general, el uso de IA que pueda suponer un “riesgo inaceptable” para derechos fundamentales, como sistemas de identificación biométrica masiva en espacios públicos o herramientas que exploten vulnerabilidades de grupos desfavorecidos (El Nacional Cat)

Uno de los puntos más destacados es la obligación de etiquetar contenidos generados por IA. Textos, imágenes, audios o vídeos creados o alterados mediante inteligencia artificial deberán identificarse de forma clara como tales. No cumplir con este etiquetado será una infracción grave, penalizada con fuertes multas.
 
La ley lo ejemplifica especialmente en el caso de los deepfakes: cualquier contenido sintético en el que personas reales (o ficticias) aparezcan diciendo o haciendo cosas que nunca ocurrieron deberá avisar desde la primera visualización de que es obra de IA. De hecho, los deepfakes no etiquetados explícitamente quedan prohibidos en España, considerándose una forma de “ultrasuplantación” de identidad digital.

Además del etiquetado, la ley establece requisitos según el nivel de riesgo de los sistemas de IA. Siguiendo el modelo europeo, las aplicaciones se clasifican en riesgo mínimo, limitado, alto o inaceptable​ (Wired)

Los sistemas de alto riesgo deberán cumplir estrictas obligaciones de seguridad, supervisión humana, trazabilidad y marcar el sello CE de conformidad. Incluso se contempla la retirada preventiva del mercado de sistemas de IA que provoquen incidentes graves, como daños a la salud o la muerte de una persona. (Computing)

Para garantizar estos controles, el Gobierno de España creó la Agencia Española de Supervisión de la IA (AESIA), primera de su tipo en la UE, cuya misión será supervisar y sancionar el cumplimiento de la normativa​ (Xataka)

Sanciones millonarias y primeros plazos de aplicación

Las empresas que incumplan las obligaciones afrontarán multas de hasta 35 millones de euros o hasta el 7% de su facturación mundial, según la gravedad de la infracción (computing)  Para infracciones “muy graves” las multas partirán de 7,5 millones hasta 15 millones.

La entrada en vigor de las disposiciones será escalonada, en paralelo al calendario europeo. De hecho, el Reglamento europeo de IA entró formalmente en vigor en agosto de 2024, pero sus exigencias se aplican por fases​ (El Nacional Cat)

Desde el 2 de febrero de 2025 ya son efectivas las prohibiciones de prácticas de “riesgo inaceptable” en toda la UE. Esto significa que desde esa fecha está prohibido usar IA para reconocer emociones de empleados en el trabajo o para categorizar personas mediante biometría.

Desde el sindicato UGT también han declarado que estarán “vigilantes” para que las empresas cumplan con la normativa, recordando que en apenas dos años cualquier sistema de IA usado en entornos laborales deberá ser explicable, transparente, con control humano y sujeto a auditorías de riesgo y calidad​. La ley prevé una implantación total en varias fases hasta el 2 de febrero de 2027, cuando todos los requisitos –incluyendo los aplicables a IA de alto riesgo– serán exigibles al 100%

Impacto en la industria tecnológica y adaptación empresarial

Las empresas tecnológicas y cualquier sector que use IA tendrán que adaptar sus productos y servicios para cumplir con las nuevas obligaciones de transparencia y seguridad. 

Plataformas con contenido creado por usuarios (redes sociales, editores de imagen o audio) deberán implementar mecanismos de etiquetado o marcas de agua que señalen cuándo una imagen o vídeo es sintético. De hecho, gigantes tecnológicos como Google, Meta o Microsoft ya han anunciado iniciativas en esa línea a nivel global, ante regulaciones similares: YouTube experimenta con etiquetas para vídeos alterados con IA y Meta ha propuesto rastreadores en contenido generado por sus modelos.

Para la empresa media española, el desafío principal es ponerse al día con la regulación sin frenar la innovación. El Gobierno insiste en que la ley busca equilibrar ambos aspectos “impulsando la innovación” a la par que regula. (Digital Gob)

En esta línea, España se ha adelantado incluso a la UE en la creación de entornos controlados de pruebas (sandboxes) para IA. Desde diciembre de 2024 está en marcha un sandbox nacional que seleccionó 12 proyectos de IA de alto riesgo para probarlos durante un año en un entorno supervisado. Esta iniciativa, pionera en Europa según el propio Ejecutivo, adelanta la obligación europea que pedía al menos un sandbox por país en 2026​.

Los grandes actores tecnológicos también muestran estrategias de adaptación. Telefónica, por ejemplo, anunció la implantación de evaluaciones éticas para sus sistemas de IA internos, y BBVA informó que someterá sus algoritmos financieros a auditorías periódicas para alinearlos con las nuevas normas de transparencia, según declaraciones recientes de sus directivos.

Algunos emprendedores y directivos temen que una regulación demasiado estricta pueda ralentizar el desarrollo de IA en el país o encarecer su implementación, especialmente para las pymes con menos recursos.

Enrique Serrano (AMETIC) ha solicitado ayudas y apoyo institucional para que las empresas puedan costear la adaptación: “Ha habido ayudas para incorporar sistemas de IA, pero no para adoptar medidas de cara a esta ley”, apunta, instando a que se faciliten herramientas de cumplimiento.

Reacciones de expertos, legisladores y sector social

La nueva normativa de IA ha generado un amplio debate entre expertos, políticos y actores sociales en España. En el Gobierno y sus aliados, la recepción ha sido entusiasta: se presenta la ley como un texto pionero que sitúa a España " al vanguardia".

El ministro Óscar López, principal impulsor, insiste en que la IA “puede mejorar nuestras vidas o atacar la democracia” y que por eso era urgente dotarse de normas claras. Desde Moncloa se subraya que España quiere “definir el modelo europeo” y que nuestro país demuestra que la dicotomía entre regular e innovar es falsa: “España es un ejemplo de que el imperio de la ley frente a la ley de la selva es compatible con la competitividad”, afirmó López en el Senado, refiriéndose a la regulación digital​ (Moncloa)

La filósofa especialista en ética de la IA Lorena Jaume-Palasí opina que el enfoque de lista de riesgos de la ley es “simplificador” y difícil de aplicar en la práctica​ (El Español) 
 
Xataka, un medio especializado, advertía que esto está llevando a “dos tipos de IA: una capada para los europeos, y otra con toda su capacidad para el resto del mundo” (Xataka)
 
España, al adelantarse con esta ley, se convierte en un laboratorio donde se comprobará si es posible domar los riesgos de la IA sin frenar sus beneficios. “Este es el modelo europeo para la IA, basado en nuestros valores”, declaró la presidenta del Parlamento Europeo, Roberta Metsola (El Español)
 

IA en la economía y la sociedad: cifras del impacto en España

La urgencia por regular la IA no surge en el vacío: refleja la rápida penetración de esta tecnología en la economía y la sociedad españolas. En pocos años, la IA ha pasado de ser un tema de nicho a convertirse en una palanca clave de productividad.

Un informe de BBVA Research (febrero 2025) destaca que la IA se perfila ya como una tecnología de uso general equiparable a la electricidad o Internet, con potencial para integrarse en todos los sectores productivos. Según este análisis, la adopción de IA en España podría elevar la productividad agregada alrededor de un 3% en la próxima década.

La consultora Implement estimó en 2024 que, de desplegarse plenamente, la IA generativa podría aportar entre 100.000 y 120.000 millones de euros a la economía española en la próxima década, aproximadamente un 8% del PIB (El País)​. Sin embargo, alertaba que un retraso en la adopción recortaría ese potencial a apenas un 2% del PIB​.

En cuanto al mercado laboral, los expertos coinciden en que la IA transformará más empleos de los que destruirá en neto, al menos a medio plazo. El informe gubernamental HispanIA 2040 sostiene que hasta un 65% de los ocupados en España podría ver parte de sus tareas complementadas por herramientas de IA en los próximos años​. 

No obstante, la transición no será homogénea: Afi calculó en mayo 2024 que en España había ya 11,1 millones de empleos “altamente expuestos” a la IA, frente a 10,1 millones con menor exposición (Funds Society). Los sectores con más tareas automatizables o mejorables mediante IA incluyen finanzas, consultoría, informática, jurídico-contable y telecomunicaciones.

En España, la adopción de IA es muy desigual según el tamaño empresarial. Casi 4 de cada 10 grandes empresas (40%) ya empleaban alguna solución de IA en 2024, pero apenas 8% de las pymes lo había hecho. Esta diferencia es crítica dado que las pymes representan el 67% del empleo total en el país​.
 
Con la nueva ley, se espera ofrecer certeza jurídica que anime a más pymes a invertir en IA con confianza. De hecho, hay indicios de creciente interés: 56% de las empresas españolas planeaba invertir en automatización basada en IA en los próximos cinco años, según una encuesta de 2024 –un nivel de intención superior a la media europea del 40%​. (El País)
 
Una encuesta patrocinada por Google e Ipsos revela que en 2024 el 45% de los españoles había utilizado IA generativa al menos una vez –frente al 35% el año anterior–, superando incluso a la media europea (42%) (Europa Press)
 
Sin embargo, los beneficios económicos van acompañados de la necesidad de gestionar impactos sociales. Existe el riesgo de aumentos de desigualdad si ciertos colectivos no acceden a la formación en IA. De momento, los estudios muestran brechas: por ejemplo, según Funcas, las mujeres, las personas mayores y quienes tienen menor nivel educativo son los grupos que menos están usando o conociendo la IA en España, solo 38% de las mujeres cree que la IA mejorará sus vidas en cinco años, comparado con 51% de los hombres (Funcas)

España en el contexto global de la regulación de IA

Con esta ley, España se posiciona firmemente en la senda europea de la IA confiable, diferenciándose de otras potencias con aproximaciones distintas. A nivel internacional, la regulación de IA se ha convertido en un tema estratégico, y cada bloque geopolítico está definiendo su modelo:

- Unión Europea: España se alinea con la UE, que ha asumido el rol de líder regulatorio mundial. La Ley Europea de IA (AI Act), acordada el 8 de diciembre de 2023 durante la presidencia española del Consejo de la UE​ , es la piedra angular del enfoque basado en derechos y riesgos. Europa quiere marcar estándares globales –“esta ley establecerá el estándar mundial en los años venideros”, dijo Metsola​ – tal como hizo con el RGPD en privacidad. España, habiendo transpuesto rápidamente el reglamento en su anteproyecto nacional, se convierte en uno de los primeros países UE en legislarlo internamente. La estrategia española es clara: combinar “innovación y protección”

- Estados Unidos: A diferencia de la UE, Estados Unidos no tiene aún una ley federal integral de IA. Su enfoque ha sido más permisivo y sectorial. No obstante, hay señales de cambio en Washington: el Senado de EE.UU. ha manifestado "gran preocupación por el impacto de la IA" y discute vías para regular​Incluso el Secretario de Estado, Antony Blinken, abogó por un código de conducta internacional para la IA con países del G7. ​La Casa Blanca también logró en 2023 que empresas como OpenAI, Google y Meta asumieran compromisos voluntarios de seguridad en IA. Aun así, por ahora la comparación es de ritmos: Europa (y España) legislan, EE.UU. observa y propone pautas. (El Español)

- Reino Unido: Fuera de la UE, el Reino Unido ha tomado una vía intermedia autodenominada “pró-innovación”. En lugar de una ley general, publicó a inicios de 2023 un libro blanco con principios para regular la IA a través de reguladores sectoriales existentes, sin nuevas autoridades ni muchas obligaciones legales por ahora.

- China: El caso chino es diametralmente opuesto en motivación. Pekín ha lanzado regulaciones de IA con rapidez , pero con el objetivo de reforzar el modelo autocrático y el control estatal​. Las reglas chinas imponen que el contenido generado por IA refleje “los valores socialistas” y prohiben lo que consideren amenaza al poder estatal​.