
Durante la 80ª Asamblea General de Naciones Unidas, se dio a conocer una iniciativa internacional denominada “Global Call for AI Red Lines” (o simplemente “Red Lines”), promovida por más de 200 líderes del ámbito de la inteligencia artificial, con el objetivo de lograr un pacto internacional que trace líneas rojas sobre los usos de la IA antes de finales de 2026. [El País]
Pero el panorama diplomático no es uniforme: Estados Unidos rechazó de plano cualquier gobernanza centralizada, lo que abre la puerta a que China, Rusia u otros actores sigan rutas independientes. En conjunto, el mundo de la IA se ve cada vez más como un terreno sin fronteras claras, donde los pactos éticos coexisten con zonas de anarquía regulatoria. [AS]
¿Qué es “Red Lines” y cuáles son sus objetivos?
Origen y contenido del llamamiento
- La iniciativa “Global Call for AI Red Lines” fue publicada en el marco de la Asamblea General de la ONU como un llamamiento urgente a gobiernos y actores globales para definir límites operativos a la IA en usos considerados especialmente peligrosos.
- En su formulación más reciente, el documento identifica varios comportamientos extremos que deberían prohibirse o limitarse con carácter global, tales como:
- Sistemas de IA capaces de actuar autónomamente en infraestructura crítica sin supervisión humana suficiente.
- Uso de IA para vigilancia masiva o sistemas de “puntuación social”.
- Suplantación de identidad o deepfakes masivos sin indicación clara de que es IA.
- Autorreplicación de sistemas sin control humano, es decir, que puedan clonarse o multiplicarse sin intervención.
Despliegue de IA vinculada a decisiones armamentísticas o de seguridad nacional sin supervisión humana.
- El plazo que se marca en el manifiesto es claro: consenso político y mecanismos operativos antes de finales de 2026, para que estas “líneas rojas” no queden solo en declaraciones simbólicas.
- La iniciativa está respaldada por más de 200 personas (investigadores, premios Nobel, exjefes de estado, tecnólogos) y unas 70 organizaciones. Entre los firmantes destacan Geoffrey Hinton, Yoshua Bengio, Wojciech Zaremba (cofundador de OpenAI) e Ian Goodfellow (DeepMind)
- Sin embargo, lo que salta a la vista es quién no firma. Los CEO de grandes compañías tecnológicas como OpenAI, Google, Meta u otros no aparecen entre los firmantes.
Relación con otras iniciativas de gobernanza
Este llamamiento llega en un momento en que la ONU ya impulsa un “Diálogo Global sobre la Gobernanza de la IA”, copatrocinado por España y Costa Rica, para explorar marcos multilaterales y principios compartidos.
La postura de Estados Unidos y la disolución de consensos globales
Rechazo a la gobernanza centralizada
Según reportes internacionales, Estados Unidos descartó cualquier intento de regulación global vinculante sobre IA, argumentando que podría obstaculizar la innovación y colocarse como una “barrera regulatoria” para sus empresas más avanzadas.
Este rechazo representa un choque frontal con la visión de quienes abogan por reglas globales que garanticen seguridad y responsabilidad compartida.
Consecuencias geopolíticas proyectadas
El rechazo de EE. UU. tiene efectos directos:
- Fragmentación regulatoria: países como China, Rusia o algunos en Asia pueden optar por caminos propios, lo que genera “islas de normativa” con estándares heterogéneos.
- Presión para liderar estándares: China puede tratar de convertirse en un referente regulatorio alternativo en IA, estableciendo sus propias “líneas rojas” con enfoque diferente.
- Ventajas competitivas: las empresas estadounidenses podrían evitar restricciones severas mientras otros mercados experimentan mayores barreras.
- Desconfianza diplomática: la falta de acuerdo global puede erosionar la credibilidad de organismos multilaterales en materia tecnológica.
En ese contexto, el panorama global de la IA podría parecer más un “far west tecnológico” que un ecosistema regulado y coordinado.
Implicaciones para Europa y España
Un punto de oportunidad para liderar
Europa, con su AI Act en marcha y una tradición de regulación tecnológica más avanzada, puede aprovechar este debate para:
- Alinear sus normas con las propuestas de “líneas rojas” si resultan robustas.
- Proponer una voz mediadora entre EE. UU., países emergentes y bloques tecnológicos.
- Convocar un consorcio regulatorio europeo que actúe como bloque frente a regulaciones dispares.
Para España, en particular:
- Los despachos profesionales podrían ofrecer servicios especializados de regulación y cumplimiento de IA, anticipándose a un entorno regulatorio internacional aún en cambio.
- Las entidades públicas podrían jugar un rol activo como facilitadoras de estándares éticos y técnicos, integrando la IA en sectores estratégicos con normas claras.
- Universidades e institutos podrían convertirse en nodos de referencia en investigación crítica sobre riesgos de IA y auditoría de sistemas avanzados.
El riesgo del “doble estándar” normativo
Si algunos países adoptan reglas estrictas y otros no, las empresas pueden trasladar sus desarrollos a jurisdicciones con regulaciones más laxas. Esto puede generar:
- Fuga de innovación hacia territorios “sin barreras”.
- Problemas de cumplimiento transfronterizo para empresas que operan en múltiples mercados.
- Dificultades para garantizar que modelos desarrollados donde no hay límites no se usen en países con regulación más exigente.