Ir directamente al contenido

Tecnología para abogados, asesorías y gestorías

La Comisión Europea veta los asistentes autónomos IA en reuniones online: transparencia y seguridad por encima de la automatización

30 jul., 2025 28
La Comisión Europea veta los asistentes autónomos IA en reuniones online: transparencia y seguridad por encima de la automatización

Comisión Europea ha prohibido oficialmente la presencia de agentes de IA autónomos en sus reuniones virtuales, incluyendo herramientas capaces de asistir, tomar notas o intervenir sin supervisión humana. Presentado en una llamada interna mediante una diapositiva que proclamaba: "No AI Agents are allowed", este veto simboliza una postura firme ante el uso automático de bots en entornos institucionales.

¿Qué es un “AI agent”?

Los agentes de IA son sistemas automáticos capaces de realizar tareas complejas, como unirse a videoconferencias, interactuar en tiempo real, tomar notas o traducir, todo sin control directo de humanos. Se diferencian de los chatbots convencionales en su autonomía operativa.

Motivos de la prohibición: privacidad, seguridad y ética

La medida se fundamenta en riesgos clave:

- Confidencialidad: un agente de IA podría filtrar información sensible o participar sin control humano.

- Transparencia: dificultaría identificar quién realmente participa en las deliberaciones.

- Manipulación y ética: la autonomía algorítmica puede sesgar el debate o alterar dinámicas de toma de decisiones

Se aplica a OpenAI, Microsoft y startups europeas

Aunque no está contenida en normativa específica, esta política ya afecta a agentes creados por OpenAI (Operator), Microsoft Copilot y otras herramientas, que deben abstenerse de participar en reuniones organizadas por instituciones de la UE.

Inserción en el marco del AI Act

Esta prohibición se enmarca dentro del Reglamento (UE) 2024/1689, la Ley de Inteligencia Artificial, vigente desde agosto de 2024. Si bien los agentes autónomos aún no están categorizados específicamente, se pueden considerar dentro de usos de “riesgo inaceptable”, sujetos a sanciones según las directrices publicadas ese mismo año.

Relevancia para tu sector (asesores y despachos)

Para firmas profesionales, esta decisión genera implicaciones concretas:

- Revisión de políticas de uso de IA en reuniones corporativas, especialmente si se utilizan asistentes automáticos.

- Auditoría interna sobre seguridad y transparencia, para cumplir los nuevos criterios éticos.

- Asesoramiento en compliance para clientes con entornos híbridos y políticas digitales, integrando conocimiento del AI Act y las directrices de la CE.