Si usas IA para filtrar CVs, valorar candidatos o evaluar a empleados, estás operando en la intersección más sensible del RGPD y el AI Act. Te explicamos qué exigen ambos reglamentos y los cinco errores más comunes.
Hay dos reglamentos europeos que se cruzan en una sola decisión empresarial: el RGPD (2018) y el AI Act (2024). Y la zona donde más se solapan es Recursos Humanos. Cualquier sistema que filtre CVs, asigne puntuaciones a candidatos, monitorice productividad de empleados o gestione promociones automáticamente está sujeto a obligaciones de ambos cuerpos normativos. Y las multas por incumplir cualquiera de los dos son sustanciales.
En RAXAR hemos construido el sistema CV Manager para clientes que reciben volúmenes de candidaturas que ya no es viable revisar a mano. Cada implementación pasa por una evaluación de impacto que documenta exactamente cómo el sistema cumple con ambos reglamentos. Lo que aprendimos en ese proceso es lo que compartimos aquí.
El artículo 22 del RGPD prohíbe que decisiones que produzcan efectos jurídicos significativos o afecten a una persona de modo similar se tomen exclusivamente sobre la base de un tratamiento automatizado. Excepciones: consentimiento explícito, ejecución de contrato, autorización legal expresa.
En la práctica, esto significa que un sistema de CV screening no puede rechazar automáticamente candidatos sin intervención humana significativa. La intervención no puede ser un sello automático: debe ser una persona con capacidad real de revertir la decisión, formada para entender el sistema y empoderada para cambiar el resultado. Si el reclutador "valida" 200 rechazos al día sin mirarlos, no hay intervención humana real.
La Agencia Española de Protección de Datos (AEPD) ha publicado guías específicas sobre IA en RRHH y ya ha sancionado a varias empresas por implementaciones que no cumplían este requisito. Las sanciones del RGPD pueden alcanzar 20 millones de euros o el 4% de la facturación global. No es teórico.
Cualquier sistema de IA usado en selección de personal, evaluación de rendimiento, toma de decisiones de promoción o asignación de tareas entra automáticamente en la categoría de "alto riesgo" del AI Act (Anexo III). Esto activa un conjunto extenso de obligaciones que aplicarán en pleno desde agosto de 2026.
Sistema de gestión de riesgos: documentación de los riesgos previsibles del sistema, medidas de mitigación, y plan de monitoreo continuo. Es un documento vivo, no un PDF que se firma una vez.
Gobernanza de datos: los datasets usados para entrenar o configurar el sistema deben ser representativos, pertinentes y libres de sesgos sistemáticos. En RRHH esto es especialmente delicado: si entrenas con datos históricos de tu empresa, replicarás los sesgos históricos de tu empresa.
Documentación técnica completa: arquitectura del sistema, métricas de precisión, casos de uso previstos, casos de uso prohibidos. Debe estar disponible si AESIA u otra autoridad lo solicita.
Transparencia hacia el candidato: la persona evaluada debe saber que se le evalúa con IA, qué tipo de información se usa, y que puede solicitar revisión humana. La cláusula informativa en el formulario de candidatura ya no es opcional.
Supervisión humana efectiva: procedimientos para que personas reales puedan entender, supervisar y, en su caso, revertir las decisiones del sistema. No es un botón "rechazar todo": es un proceso documentado.
En el último año hemos auditado implementaciones de IA en RRHH de clientes y prospectos. Cinco errores se repiten con preocupante frecuencia, y los listamos para que evites caerlos.
Error 1 — "Es solo un filtro automático": una empresa nos contó que su sistema "no toma decisiones, solo ordena candidatos por idoneidad". Pero si el reclutador solo revisa los 20 primeros de una lista de 200, los 180 restantes han sido rechazados de facto por la IA. Eso es decisión automatizada, sin importar el nombre que le pongas.
Error 2 — Entrenar con perfil de "buen empleado": usar como dataset de entrenamiento las características de tus empleados actuales contratados con éxito. Resultado: si tu empresa históricamente ha contratado a perfiles homogéneos (mismo género, mismo origen, mismas universidades), tu IA aprenderá ese patrón y lo replicará. Estás automatizando tu sesgo histórico.
Error 3 — Falta de cláusula informativa al candidato: el formulario de candidatura no menciona el uso de IA en el proceso. Cuando el candidato lo descubre —y suele descubrirlo, especialmente si recibe un rechazo en menos de 30 segundos—, la queja está formalmente fundada y la AEPD lo verá.
Error 4 — No hay registro de decisiones: no hay log de qué CVs ha procesado el sistema, qué puntuación ha asignado, qué decisión ha tomado el reclutador después. Sin ese log, no puedes responder a una solicitud de acceso del candidato (Art. 15 RGPD), ni demostrar a AESIA que tu sistema funciona como dices.
Error 5 — Métricas de fairness ausentes: nadie en el equipo mide si el sistema favorece o perjudica sistemáticamente a un grupo demográfico. Sin esa medición, no puedes detectar el sesgo y, por tanto, tampoco mitigarlo. El AI Act exigirá demostrar que esta medición se hace y que el sistema cumple umbrales razonables.
Implementar IA en RRHH bien hecho es perfectamente posible y aporta valor real. La clave está en construir desde el principio con los controles correctos. Lo mínimo necesario: cláusula informativa en formulario, log de cada decisión, panel de control que muestre métricas de fairness por grupo demográfico, proceso documentado de revisión humana antes de cualquier rechazo, evaluación de impacto firmada por el DPO y revisada anualmente.
Suena denso. Lo es. Pero todo eso ya está construido en el sistema CV Manager que desplegamos para clientes —incluida la documentación pre-rellenada con tu caso de uso, lista para firmar. La regulación no es un obstáculo si la integras desde el inicio. Lo es solo si intentas añadirla después de tener el sistema en producción.
¿Quieres aplicar esto en tu empresa?
En RAXAR auditamos procesos, calculamos el ROI real y construimos sistemas que funcionan en producción. Sin proyectos piloto eternos.
Hablar con un especialista