
Este dilema ético y legal es especialmente relevante para despachos profesionales, asesores fiscales y abogados, quienes deben interpretar y gestionar el impacto de estas tecnologías en su ejercicio diario.
¿Qué entendemos por decisiones automatizadas?
El papel invisible de los algoritmos
La Unión Europea define como decisiones automatizadas aquellas tomadas por un sistema sin intervención humana significativa. Estas decisiones se han vuelto comunes en plataformas financieras, recursos humanos, marketing y sistemas públicos.
Un estudio revela que el 42% de las empresas españolas medianas ya usan alguna solución basada en IA para evaluar riesgos, clasificar clientes o recomendar acciones, muchas veces sin que el usuario final lo sepa. [Manpower]
El dilema legal: ¿quién asume la responsabilidad?
Imagina un algoritmo que rechaza una solicitud de hipoteca sin explicación clara. El afectado no puede recurrir la decisión, ni siquiera entenderla. Aquí surge el verdadero dilema: la falta de transparencia y trazabilidad en las decisiones de IA.
Según el Informe de IA 2024 del Observatorio Nacional de Tecnología y Sociedad (ONTSI), solo el 18% de las organizaciones españolas que usan IA tienen implementados sistemas de explicabilidad y auditoría.
El nuevo Reglamento Europeo de Inteligencia Artificial (AI Act), aprobado en 2024, prohíbe decisiones de alto impacto sin intervención humana significativa. Pero aún estamos lejos de que esta norma tenga aplicación real y efectiva en todos los sectores.
Ejemplos del día a día que exigen reflexión jurídica
- SEPE y el cruce automatizado de datos: En 2023, varios desempleados fueron dados de baja por error al detectar supuestos ingresos incompatibles. El origen: una IA que cruzaba datos fiscales automáticamente sin supervisión. El caos jurídico que siguió terminó con juicios ganados por los afectados.
- Sistemas predictivos en juzgados: En 2024, se ha comenzado a implantar un piloto de IA en juzgados de lo penal para priorizar casos según su urgencia. Aunque no decide sentencias, plantea debates sobre sesgo, imparcialidad y transparencia en la justicia.
La percepción social: ¿confían los ciudadanos?
Una encuesta realizada en marzo de 2024 por el CIS en colaboración con el Ministerio de Economía muestra que:
- El 63% de los españoles desconfía de las decisiones tomadas por IA en contextos legales o administrativos.
- Solo el 24% considera que las decisiones automatizadas son más justas que las humanas.
Estos datos revelan un amplio margen de mejora en la alfabetización digital y la comunicación institucional, algo en lo que los despachos también pueden actuar como formadores de sus clientes.
El rol del abogado y asesor ante la IA
Nuevos desafíos, nuevas competencias
Los despachos deben asumir una doble función:
- Vigilar el uso ético de estas tecnologías dentro de sus propios procesos.
- Acompañar a los clientes ante decisiones tomadas por algoritmos opacos, exigiendo derechos como la explicabilidad, la revisión humana o la portabilidad de los datos.
Esto abre una nueva línea de servicios: el derecho algorítmico, que requerirá formación continua, criterios éticos claros y actualización jurídica constante.