Una nueva investigación de la Universidad de Harvard, encabezada por Jamelle Watson-Daniels, ha arrojado luz sobre las complejidades en la intersección entre los algoritmos y la ideología del racismo cromáticamente ciego, un concepto que se describe como el encubrimiento de las desigualdades raciales bajo la aparente neutralidad. Este estudio pone su enfoque en cómo los métodos algorítmicos empleados en contextos sociales pueden perpetuar o incluso agravar las disparidades raciales existente, a la vez que, paradójicamente, se presentan como herramientas imparciales.
La investigación destaca casos específicos en áreas como el cuidado de la salud y la contratación, donde los algoritmos o bien muestran un sesgo que favorece a individuos de tez más clara o muestran resultados menos favorables para personas identificadas como negros y de tez más oscura. Ejemplos destacados incluyen el estudio de ProPublica sobre el algoritmo de evaluación de riesgo COMPAS de 2016, que infamemente sesgó sus resultados de riesgo penal hacia personas negras.
Aun habiéndose avanzado notablemente en el desarrollo de algoritmos más justos, los investigadores se enfrentan a obstáculos cuando las nociones raciales se diluyen con conceptos de imparcialidad algorítmica. Se evidencia que, al eliminar las consideraciones raciales, no solo se oscurecen las rutas hacia la solución de problemas históricos, sino que también se perpetúa la segregación impuesta por el racismo cromáticamente ciego.
El trabajo también menciona estudios recientes en procesamiento de lenguaje natural donde se identifican percepciones sesgadas hacia dialectos de comunidades afroamericanas y chicanas, poniendo de manifiesto más ejemplos de cómo los modelos de lenguaje aún perpetúan estereotipos racistas.
La conclusión del documento de Watson-Daniels es clara: el objetivo no es interrumpir la progresión de las investigaciones algorítmicas, sino impulsar una reorientación y reconexión constantes con las realidades del racismo estructural. Reconocer las corrientes ideológicas que influyen en la falsa neutralidad puede desenmascarar áreas donde es necesario mejorar la integración entre los métodos algorítmicos y el contexto racial en el que son aplicados.