Un innovador enfoque para el auditar la inteligencia artificial generativa, denominado WeAudit, ha sido desarrollado por un equipo de la Universidad Carnegie Mellon. Este sistema está diseñado para permitir que los usuarios identifiquen y evalúen comportamientos perjudiciales en los sistemas de inteligencia artificial, combinando la experiencia del usuario final con las observaciones de los profesionales del sector de la IA.
WeAudit fue evaluado minuciosamente a través de un estudio de tres semanas con 45 auditores de usuarios y entrevistas con 10 profesionales de la industria de la inteligencia artificial generativa. Los resultados demostraron cómo los auditores de usuarios fueron capaces de encontrar sesgos previamente no detectados, lo cual fue valorado por los profesionales de la industria como información útil para mitigar efectos adversos en los sistemas de IA.
Dentro del sistema WeAudit, se utilizaron características comparativas que ayudaron a los usuarios a identificar diferencias significativas entre las salidas generadas por diferentes prompts de texto a imagen. Esto resultó especialmente útil al examinar diferencias como la calidad de imagen entre grupos étnicos específicos, lo cual proporcionó una evidencia directa de sesgos.
Entre las principales funciones de WeAudit destacan la Comparación por Pares, un Historial de Prompts y un Repositorio de Ejemplos Trabajados. A través de esto, los auditores pudieron explorar y desarrollar nuevas direcciones de auditoría, enriqueciendo la amplitud de sus descubrimientos sobre los sesgos y perjuicios de los sistemas de inteligencia artificial generativa. Además, se incluyó una herramienta de aumentación social que mostró lo que otros usuarios han estado identificando, alentando una participación más diversificada y abarcadora entre los auditores.
Las empresas de tecnología y los profesionales de la industria vieron el potencial para integrar estas funcionalidades directamente en sus procesos de auditoría. Se observó interés en desarrollar características adicionales para contextualizar mejor los hallazgos de los usuarios dentro de sus propias interfaces de desarrollo de productos de IA.
Un aspecto crucial destacado en el estudio fue la articulación de los informes de auditoría. Los auditores encontraron que la estructura del portal de informes ayudó a clarificar y comunicar mejor sus observaciones, facilitando un feedback más valioso para los desarrolladores de IA. Sin embargo, el estudio también identificó oportunidades para mejorar la estructura de los informes de auditoría para ofrecer una interpretación más consistente de los hallazgos.
Conclusivamente, la implementación del sistema WeAudit ha demostrado ser un paso significativo para involucrar de manera efectiva a los usuarios en los procesos de auditoría de IA generativa, incentivando una colaboración más cercana entre usuarios y desarrolladores en la reducción responsable de sesgos y perjuicios algorítmicos. Este enfoque no solo genera datos procesables para la industria IT, sino que también promueve una mayor conciencia y comprensión de los sesgos de la IA, aumentando la vigilancia crítica sobre estos sistemas.