CulturaDesarrolloInnovaciónOpiniónTecnología

La «automatización de la desigualdad»: Cómo la IA invisibiliza la discriminación laboral.

 Kobra Valadkhani, experta de la Universidad Internacional de Valencia (VIU), analiza cómo los algoritmos de filtrado de currículums transforman sesgos históricos en reglas automáticas de selección.
 La utilización de Big Data y procesamiento del lenguaje natural puede penalizar nombres extranjeros, acentos o trayectorias educativas que se aparten del patrón dominante aprendido por la máquina.
 Si los datos históricos han favorecido durante décadas a hombres o a determinadas universidades, el sistema puede transformar esa preferencia en una regla automática, penalizando a mujeres o personas
migrantes de forma no consciente pero efectiva.

 A pesar de la creciente preocupación por los «sesgos algorítmicos», muchas organizaciones agilizan sus procesos sin analizar con profundidad los efectos sociales de estas herramientas.

En un mercado laboral donde las empresas delegan cada vez más la gestión de candidaturas en sistemas de Inteligencia Artificial, surge un riesgo crítico: la conversión de desigualdades sociales en infraestructuras digitales de clasificación. La doctora Kobra Valadkhani, profesora de Humanidades en la Universidad Internacional de Valencia (VIU), perteneciente a la red de educación superior Planeta Formación y Universidades, y experta en tecnopolítica e IA, advierte que estos sistemas no descubren el talento de forma neutral, sino que organizan oportunidades basándose en patrones del pasado.
El sesgo del «espejo retrovisor»


Los algoritmos de selección analizan miles de currículums en segundos buscando variables como formación, experiencia y palabras clave asociadas a perfiles contratados anteriormente. Según explica la experta de VIU, el problema reside en que la IA aprende de decisiones humanas previas que ya contienen desigualdades.
«Los algoritmos no inventan los criterios de selección: aprenden de cómo hemos contratado en el pasado», señala Valadkhani. De esta forma, si los datos históricos han favorecido durante décadas a hombres o a determinadas universidades, el sistema puede transformar esa preferencia en una regla automática, penalizando a mujeres o personas migrantes de forma no consciente pero efectiva.
La penalización de la diversidad cultural

El uso de sistemas de procesamiento del lenguaje natural (PLN) añade una capa
adicional de riesgo. Estos algoritmos identifican estructuras gramaticales y patrones lingüísticos considerados «exitosos». «Un algoritmo no entiende la diversidad cultural: solo detecta lo que se aparta del patrón que ha aprendido», explica la Dra. Valadkhani.
Como consecuencia, nombres poco frecuentes, acentos o trayectorias educativas fuera del patrón dominante son interpretados por el sistema como anomalías.
Esta automatización tiene la capacidad de amplificar las barreras de acceso ya existentes, convirtiendo la tecnología en una herramienta que refuerza la estructura social previa en lugar de abrirla.
Responsabilidad legal y ética empresarial
A pesar de la creciente preocupación por los «sesgos algorítmicos», muchas organizaciones agilizan sus procesos sin analizar con profundidad los efectos sociales de estas herramientas. Valadkhani es tajante al respecto: «La eficiencia tecnológica no puede sustituir a la responsabilidad social de las empresas».
En el marco normativo europeo, las empresas siguen siendo responsables de las decisiones de sus sistemas, los cuales deben ser transparentes y auditables. «Un algoritmo no puede convertirse en una excusa para eludir responsabilidades humanas», afirma la experta, subrayando que no es válido justificar una decisión discriminatoria basándose únicamente en el dictamen de la máquina.
El riesgo de la discriminación invisible
Para evitar que la innovación reproduzca desigualdades, la experta de la Universidad Internacional de Valencia propone medidas transversales:
 Auditorías independientes de los algoritmos y revisión de los datos de entrenamiento.
 Equipos interdisciplinarios que incluyan voces de las humanidades, la sociología y la ética.
 Supervisión humana constante, ya que la IA no debe sustituir el juicio crítico por la mera eficiencia técnica.
«El mayor riesgo de la IA es que la desigualdad se vuelva invisible», concluye Valadkhani. Al integrar sesgos en procesos técnicos difíciles de interpretar, la tecnología puede dar una apariencia de objetividad a decisiones que, en el fondo, organizan el poder y las oportunidades en la sociedad digital de forma problemática.

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba