DestacadaLiderazgoLíderes con TalentoTecnología

Entrevista a Manuel Zaera: Inteligencia Artificial en Recursos Humanos

En los últimos años, la inteligencia artificial ha irrumpido con fuerza en todos los ámbitos de la empresa, y los departamentos de recursos humanos no son una excepción. Desde el reclutamiento automatizado hasta el análisis predictivo del desempeño, la IA está redefiniendo cómo se atrae, gestiona y retiene el talento.
Hoy tenemos el placer de conversar con Manuel Zaera, experto en transformación digital y liderazgo tecnológico, con una amplia trayectoria impulsando la innovación en entornos complejos. Su perspectiva resulta clave para entender no solo las oportunidades, sino también los desafíos que enfrentan los equipos de RR. HH. en esta nueva era.

1. Manuel, ¿cómo estás viendo la adopción real de inteligencia artificial en los departamentos de recursos humanos? ¿Está siendo más estratégica o más táctica por el momento?

La adopción de inteligencia artificial en los departamentos de Recursos Humanos sigue siendo mayoritariamente táctica. Según el estudio publicado el mes pasado por Future for Work Institute (FWW), un tercio de los profesionales la utiliza para búsqueda de información e investigación, y casi una cuarta parte como asistente en redacción o mejora de contenidos. En total, el 57 % del uso se concentra en tareas textuales, lo que evidencia un enfoque aún muy operativo.

Este enfoque táctico genera eficiencia inmediata, pero el verdadero valor —y el mayor desafío— está en escalar la IA hacia un uso estratégico. Aunque el 67 % de los directivos de RR. HH. planea ampliar su adopción, sólo uno de cada cuatro dispone de una estrategia clara para hacerlo. Es decir, la intención es alta, pero la madurez organizativa sigue siendo baja.

Además, estamos asistiendo a un fenómeno preocupante: el BYOIA («bring your own AI»). Según el estudio de FFW, el 50% de los profesionales de RRHH admite utilizar herramientas de IA no proporcionadas por su empresa. Esto abre brechas críticas en materia de seguridad, gobernanza y cumplimiento normativo. A ello se suma el estudio IA+Igual, que revela que un 60 % de los profesionales expresa preocupaciones éticas.

En Zertia impulsamos el uso estratégico de la IA en la gestión del talento. Por eso promovemos marcos como ISO 42001, que estructuran sistemas de gestión centrados en gobernanza, desempeño y responsabilidad. Esto es clave en procesos sensibles como la evaluación, selección o análisis del clima laboral.

2. En los procesos de selección, ¿cuáles son los beneficios más claros que la IA está aportando, y dónde crees que aún hay margen de mejora?

En los procesos de selección, la IA está transformando el enfoque tradicional basado en títulos y experiencia hacia uno centrado en habilidades. Esto permite identificar talento que, aunque no tenga credenciales formales, demuestra competencias relevantes, especialmente en sectores con escasez de profesionales con calificaciones sobre papel. La IA ayuda a filtrar grandes volúmenes de datos, agrupar candidatos por competencias y hacer predicciones sobre su potencial a largo plazo, lo que agiliza los procesos y mejora la precisión. Además, al priorizar habilidades, se multiplica hasta por once el acceso a talento, según LinkedIn.

El potencial de beneficio es tremendo. Sin embargo, como señala también el Reglamento de IA de la Unión Europea, su uso supone un alto riesgo por el impacto que, en un proceso como la selección, tiene en las carreras profesionales de los candidatos. Por esa razón, es fundamental tener un modelo de gobernanza, análisis y gestión de riesgos y cumplimiento que garantice transparencia, robustez y justicia, entre otras cosas.

Dicho esto, tampoco podemos tratar la IA como un oráculo infalible y, sí, verla como lo que es: un catalizador amplificado de nuestras capacidades y que, al igual que nuestro criterio, mejora con la experiencia y el tiempo. No se trata solo de mejorar algoritmos, sino de revisar los criterios, datos y lógicas que damos por válidos. Seguimos midiendo a las personas con patrones heredados que ya han fallado antes, solo que ahora lo hacemos más rápido, con menos fricción y menos responsabilidad. El riesgo no está en que la IA no sea infalible, sino en que repita nuestras injusticias a gran escala, sin la supervisión ni criterio de profesionales que la cuestione y controle.

3. Uno de los temas más delicados es el sesgo algorítmico. Desde tu experiencia, ¿cómo se puede mitigar este riesgo y garantizar procesos equitativos?

Mitigar el sesgo algorítmico es un reto que combina gobernanza, diversidad y transparencia. Desde nuestra experiencia, hay tres pilares clave:

i. Gobernanza estructurada y supervisión continua
No basta con hacer una auditoría puntual. Se necesita una estructura de gobernanza que incluya evaluación de riesgos, trazabilidad de decisiones y revisión periódica del desempeño del modelo. Marcos como ISO/IEC 42001 ayudan a establecer estos mecanismos de forma sistemática.

ii. Diversidad en los datos… y en los equipos
Si un modelo se entrena con historiales sesgados, replicará esas discriminaciones. Es clave trabajar con conjuntos de datos representativos y, aún más importante, con equipos diversos que definan, validen y supervisen los modelos. Un caso conocido lo protagonizó una gran tecnológica, cuyo sistema de IA para selección de personal aprendió a penalizar automáticamente los CV que contenían la palabra “women” o hacían referencia a universidades femeninas. El problema no fue el algoritmo, sino la falta de revisión crítica de los datos históricos que reflejaban un sesgo sistemático.

iii. Transparencia y explicabilidad

La transparencia permite entender cómo funciona el sistema, qué datos usa y bajo qué criterios decide. Es esencial para detectar sesgos, cumplir con la ley y generar confianza.

La explicabilidad permite justificar decisiones individuales. Si no podemos explicar por qué se ha tomado una decisión que afecta a una persona, ese sistema no debería estar usándose.

En definitiva, si queremos procesos justos, no podemos dejar que los algoritmos tomen decisiones al azar ni sin supervisión. Hacen falta reglas claras, datos cuidados y la capacidad de explicar cada paso.

4. A nivel europeo, ya se está avanzando en una regulación específica sobre inteligencia artificial (como la AI Act). ¿Cómo crees que afectará este tipo de normativas a las prácticas de RR. HH. y al desarrollo de soluciones tecnológicas en este ámbito? ¿Qué papel jugarán las certificaciones?

El AI Act de la Unión Europea está marcando un punto de inflexión en el uso de inteligencia artificial en Recursos Humanos. En vigor desde agosto de 2024, la norma clasifica los sistemas de IA según el nivel de riesgo que presentan estableciendo un marco legal estricto.

Este nuevo marco no solo regula, sino que directamente prohíbe ciertas prácticas ya presentes en algunas soluciones tecnológicas: sistemas que manipulan el comportamiento sin el conocimiento de las personas, que explotan vulnerabilidades (por ejemplo, por edad o discapacidad), o que aplican puntuaciones sociales con efectos discriminatorios. Un ejemplo especialmente sensible en entornos laborales y educativos es el uso de IA para monitorizar el bienestar emocional o psicológico —como medir estrés, ansiedad o aburrimiento—, algo prohibido salvo que exista un riesgo específico para la seguridad (por ejemplo, cuando una baja concentración podría generar accidentes con maquinaria).

Dentro del ámbito laboral, el Reglamento Europeo de IA considera como sistemas de alto riesgo aquellos que intervienen en procesos de selección y reclutamiento (incluyendo anuncios dirigidos y evaluación automatizada de candidaturas), promoción o despido, asignación de tareas basada en rasgos personales o conductas, y evaluación del rendimiento. Esta clasificación obliga a las organizaciones a cumplir requisitos como la supervisión humana efectiva, la transparencia con candidatos y empleados, la gestión activa de riesgos, controles de ciberseguridad frente a accesos no autorizados o manipulaciones, y una trazabilidad detallada de todas las decisiones automatizadas.

En este contexto, tanto las certificaciones como las evaluaciones de conformidad jugarán un papel estratégico. La norma ISO/IEC 42001, por ejemplo, ayuda a estructurar, auditar y demostrar la gobernanza de sistemas de IA de forma reconocida internacionalmente, generando confianza y reduciendo la exposición legal. Por su parte, la evaluación de conformidad es el equivalente a una auditoría de cumplimiento en IA: permite revisar de forma objetiva e independiente si el sistema se ajusta a los requisitos del Reglamento Europeo de IA.

El Reglamento Europeo de IA redefine los límites del uso de IA en Recursos Humanos, prohibiendo prácticas intrusivas y exigiendo controles rigurosos en sistemas de alto riesgo. Frente a este escenario, las certificaciones y auditorías de conformidad se convierten en herramientas clave para garantizar un uso ético y legal de la tecnología.

5. ¿Qué nuevas competencias deberían adquirir los profesionales de RR. HH. para trabajar de forma efectiva con herramientas de IA?

«El cambio más significativo proviene de la integración de agentes de IA en la fuerza laboral, un proceso que ya está en marcha. El 51 % de las organizaciones los está explorando, un 37 % está en fase piloto y un 12 % ya los ha desplegado a escala organizativa. IBM watsonx Orchestrate es un ejemplo claro: actúa como un trabajador digital en RR. HH., automatizando procesos de onboarding, entrevistas o promociones. Se conecta con más de 80 herramientas, no requiere programación y ha generado resultados medibles: 12.000 horas ahorradas en un trimestre y reducción del 50 % en los tiempos de gestión.

¿Qué implica esto para RR. HH.? Primero, las máquinas pueden trabajar 24/7, sin emociones ni distracciones. Los humanos no. Esto redefine nociones como mérito, potencial o productividad. RR.HH. debe asegurar que estas nuevas métricas se apliquen con equidad, transparencia y criterio humano. Workday, por ejemplo, ha creado un «Agent System of Record»: un registro laboral exclusivo para agentes de IA. Permite trazar cada acción, decisión y resultado generado por estos sistemas. Este nivel de control y vigilancia sería inaceptable y opresivo si se aplicara a humanos, pero es esencial con IA para garantizar transparencia, responsabilidad y seguridad operativa.

Para acompañar este cambio, será clave diseñar políticas de convivencia humano-máquina que protejan la dignidad y la salud, especialmente en entornos donde se prioriza productividad y velocidad sobre juicio humano, empatía o adaptación contextual. Se requieren marcos claros: cuándo actúa un agente y cuándo interviene un humano.

Por último,  será esencial que los profesionales del área desarrollen una base sólida de alfabetización tecnológica. No para programar, sino para entender cómo funciona la IA, cómo se entrena, sus límites y cómo auditar sus resultados. También es vital el upskilling de toda la organización para colaborar con IA. Esta capacidad crítica permitirá tomar decisiones informadas, colaborar eficazmente con perfiles técnicos y prevenir riesgos, asegurando siempre que la IA opere alineada a los valores de la empresa.

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba