Un estudio exhaustivo ha revelado que los modelos de lenguajes artificiales, utilizados para la selección automatizada en el mercado laboral, perpetúan sesgos de género, favoreciendo en la mayoría de los casos a hombres, especialmente en empleos con salarios más elevados. Los modelos analizados mostraron una clara tendencia a recomendar a candidatos masculinos para entrevistas en sectores tradicionalmente dominados por hombres, mientras que las mujeres eran más frecuentemente recomendadas en áreas asociadas con roles femeninos, lo cual indica una segregación ocupacional.
La investigación, basada en más de 332,000 anuncios laborales de la plataforma del Servicio Nacional de Empleo de la India, utilizó modelos de lenguaje de tamaño mediano para evaluar cómo se comportaban frente a dos candidatos igualmente cualificados, uno masculino y uno femenino. Los resultados indicaron una disparidad significativa en las recomendaciones de retorno de llamada, destacando géneros preestablecidos en los modelos. Por ejemplo, los modelos recomendaban frecuentemente a mujeres para empleos que solicitaban habilidades tradicionalmente femeninas como asesoría profesional, escritura y reclutamiento, mientras que para los roles que requerían habilidades técnicas avanzadas como desarrollo de aplicaciones y programación en Big Data, preferían a hombres.
La encuesta también evidenció una brecha salaria,l ya que muchos modelos tienden a recomendar a las mujeres para trabajos con salarios más bajos, agudizando la disparidad de género en términos económicos. No obstante, el modelo Llama-3.1 fue identificado como el más equilibrado, con un índice reducido de recomendaciones sesgadas según el género.
Por otro lado, en un intento por comprender si la personalidad del reclutador podía influir en las decisiones del modelo, se modificaron los modelos para incorporar diferentes rasgos de personalidad según el marco de los Cinco Grandes. Se descubrió que las personalidades menos acordes reducían el estereotipo, mientras aquellos con alta apertura o consciencia tendían a amplificar la segregación ocupacional.
Además, se analizaron las recomendaciones simulando las perspectivas de figuras históricas influyentes, encontrando que al activar la personalidad de defensores de los derechos de las mujeres, los modelos elevaban las tasas de retorno para mujeres hasta un 95%. Sin embargo, figuras históricas controvertidas generaban altos índices de abstención o rechazo en las recomendaciones.
En conclusión, el empleo de inteligencia artificial en procesos de selección plantea retos significativos para la equidad y diversidad en el mercado laboral si no se corrigen estas tendencias. Identificar y mitigar estos sesgos es crucial para un uso responsable de la inteligencia artificial, asegurando un impacto social positivo desde un enfoque inclusivo y justo.