La creciente implementación de la inteligencia artificial (IA) en decisiones de alto impacto, como la concesión de créditos, la salud o el control de vehículos autónomos, ha despertado preocupaciones significativas sobre la transparencia y responsabilidad de estas tecnologías. Uno de los conceptos emergentes en el ámbito regulador es la contestabilidad de los sistemas explicables de IA (XAI), entendida como la capacidad de los afectados para desafiar y pedir revisión de las decisiones automatizadas.
Recientes estudios han abordado esta temática al definir de manera formal y multidimensional la contestabilidad, proporcionando un marco modular que incluye interfaces centradas en humanos, procesos legales, arquitecturas técnicas y flujos de trabajo organizacionales. Este marco también introduce una Escala de Evaluación de la Contestabilidad, compuesta por más de veinte criterios cuantitativos, diseñada para medir cómo un sistema XAI trata la contestabilidad.
En la práctica, la contestabilidad se traduce en ofrecer recourse y responsabilidad genuinos en los sistemas IA. Sin embargo, se reconoce que, a pesar del avance teórico, la práctica real en muchas áreas de aplicación aún está en desarrollo. Los estudios de caso realizados han mostrado deficiencias donde los sistemas actuales no cumplen con los estándares propuestos, dejando espacio para mejoras en la adaptación y respuesta basada en el análisis de contestaciones por parte de las organizaciones.
Los reguladores en la Unión Europea, con el Acta de IA, y en Australia han comenzado a enfatizar la contestabilidad como un requisito para las prácticas IA seguras, insistiendo en que los actores puedan desafiar los resultados generados por máquinas. Sin embargo, la falta de consenso sobre las dimensiones de la contestabilidad y de un sistema de métricas cuantitativas aún representa un desafío significativo hacia su implementación efectiva.
A modo de conclusión, este enfoque para estandarizar la contestabilidad en XAI no solo busca alinear a los sistemas de IA con los mandatos regulatorios emergentes, sino que también coloca a los usuarios finales en el centro de las decisiones automatizadas. La implementación responsable de estas métricas podría cerrar la brecha actualmente existente entre la gobernanza de la IA y su aplicación práctica, promoviendo así sistemas más justos y transparentes.