Solo noticias

y ya

lunes 19 de de 2025

Prototipo de modelo de lenguaje aborda ética en IA

Investigadores de la Universidad de Tampere en Finlandia han desarrollado un prototipo basado en modelos de lenguaje de gran escala (LLMs) que ofrece soluciones a cuestiones éticas en sistemas de inteligencia artificial. El sistema utiliza múltiples agentes con roles propios para discutir y abordar problemas éticos extraídos de bases de datos de incidentes de IA. La estructura de comunicación está cuidadosamente diseñada para evaluar la transparencia, detección de sesgos, y cumplimiento con normativas como la GDPR y el Acta de IA de la UE.

Durante el estudio, se implementó un sistema prototipo capaz de generar extensas líneas de código y documentación detallada, lo que representa un avance respecto a pruebas base previas. Se llevaron a cabo análisis en casos concretos relacionados con reclutamiento, detección de deepfakes y clasificación de imagen, mostrando cómo este sistema abarca múltiples áreas en el proceso de desarrollo de software.

El análisis temático resultante del sistema reveló códigos en torno a temas de responsabilidad ética, transparencia y reducción de sesgos, además de encontrarse con desafíos operativos como el manejo de dependencias. La agrupación jerárquica asociada mostró que las palabras claves estaban claramente alineadas con la evaluación ética en desarrollo de problemas prácticos y teóricos de ética en IA.

No obstante, el estudio revela que existen obstáculos prácticos para desarrolladores debido a problemas con integración de código y gestión de dependencias obsoletas. Este proceso presenta desafíos en su aplicación práctica, aunque sienta un precedente en cómo operativizar principios éticos dentro del desarrollo de sistemas basados en IA.

A pesar de inquietudes sobre las pruebas prácticas del código generado y sus capacidades funcionales, el estudio sugiere que las técnicas de mejora de confianza en LLM pueden ser útiles para el desarrollo ético de software basado en IA. Con una prometedora proyección para futuros estudios, se espera que este tipo de sistemas pueda facilitar la adherencia a lineamientos éticos desde la concepción misma de proyectos de IA.