Ir directamente al contenido

Tecnología para abogados, asesorías y gestorías

Agentes de IA: ¿la automatización definitiva o el mayor agujero ético de la era digital?

16 jul., 2025 18
Agentes de IA: ¿la automatización definitiva o el mayor agujero ético de la era digital?

La narrativa dominante sobre la inteligencia artificial en 2025 está plagada de superlativos. Se habla de eficiencia, escalabilidad, disrupción... pero raramente de consecuencias imprevistas. En este contexto, IBM ha soltado una bomba ética: su último informe —publicado por el Consejo de Ética de IA de la compañía— desmonta el optimismo ciego y alerta: “los agentes de IA no son solo generadores de contenido: son actores con capacidad de decisión, y eso los hace radicalmente distintos”.

De los LLM a los agentes: el salto de lo estadístico a lo operativo

Un modelo de lenguaje como GPT puede redactar un contrato o resumir una sentencia. Un agente de IA puede, en cambio, enviar un correo, programar una reunión, modificar una base de datos o tomar una decisión legal preprogramada. Ya no estamos en el terreno de la predicción lingüística. Estamos en el de la acción autónoma, con impacto real y consecuencias materiales.

Este matiz, que para muchos aún pasa desapercibido, es el que centra el informe de IBM: los agentes operan bajo suposiciones que pueden estar equivocadas, actuar sin supervisión, y aprender por refuerzo errores o sesgos que escapan al radar humano.

Los nueve pecados capitales de los agentes autónomos

IBM desglosa en el documento oficial los principales riesgos amplificados por esta tecnología:

- Falta de transparencia: decisiones sin trazabilidad, imposibles de auditar

- Supervisión humana debilitada: cuanto más autónomo el agente, menos control real

- Objetivos desalineados: el agente ejecuta “lo que cree entender” sin validar intención

- Errores en cascada: un mal razonamiento se multiplica al actuar paso a paso

- Alucinaciones funcionales: acciones erróneas basadas en falsedades percibidas

- Vulnerabilidad a ataques: agentes manipulables por prompt injection o malware

- Reproducción de sesgos: el agente aprende del sesgo y lo multiplica

- Incapacidad moral: sin contexto ético, sin sentido común

- Impacto social: pérdida de empleos, manipulación política, erosión de confianza pública

¿Por qué IBM lanza esto ahora?

El informe no es inocente ni casual. Llega en plena carrera por la agencia multimodal, con OpenAI, Meta y Google desplegando sistemas capaces de actuar sobre el entorno, desde asistentes personales hasta herramientas de desarrollo.

IBM no solo lanza una advertencia: se posiciona como proveedor ético y auditable, ofreciendo soluciones como WatsonX Governance, pensadas para entornos regulados y corporativos. El mensaje entre líneas es claro: la gobernanza será el nuevo terreno de juego competitivo en la IA empresarial.

El marco europeo se acerca: alerta para empresas y despachos

La Ley de IA de la UE  obliga, desde agosto de 2025, a documentar y auditar todos los sistemas de IA considerados de “riesgo alto”, incluidos los agentes autónomos aplicados a finanzas, recursos humanos, legal o salud. Las empresas deberán:

- Mantener registros de decisiones automatizadas

- Explicar el razonamiento del sistema (XAI)

- Garantizar intervención humana en tareas sensibles

- Cumplir con criterios de no discriminación y seguridad

Esto implica que cualquier despacho que asesore empresas con IA deberá dominar esta nueva legalidad. Ya no es opcional.

Despachos y consultoras: del cumplimiento a la ventaja competitiva

Nuevas líneas de negocio: diseño de marcos éticos, informes de riesgo IA, auditoría técnica y legal.

Ventaja reputacional: los clientes valoran más que nunca trabajar con proveedores responsables.

Preparación regulatoria: en pocos meses será obligatorio demostrar cómo se controla un agente.