La inteligencia artificial para el bien social ha captado la atención de la academia, la industria y el gobierno, buscando resolver desafíos sociales complejos con el poder de sus sistemas. Desde problemas locales en redes de tránsito hasta la preservación de la vida silvestre, uno de los mayores obstáculos es la escasez de profesionales capaces de definir adecuadamente los problemas que pueden ser resueltos por IA, limitando el alcance de estas iniciativas.
A fin de abordar esta dificultad, un grupo de investigadores ha propuesto un Agente de Delimitación de Problemas basado en modelos generativos de lenguaje (LLM, por sus siglas en inglés). Este agente automatizaría un proceso tradicionalmente laborioso y costoso, generando propuestas de proyectos comparables a las elaboradas por expertos. Detectada esta escasez de habilidades combinadas entre técnicos y expertos del tema, los LLM pueden desempeñar un rol central en generar ideas de proyectos de IA dentro de organizaciones del sector público, sectores muchas veces alejados de la tecnología.
En experimentos recientes, este marco de Agente de Delimitación de Problemas demostró ser tan eficiente como profesionales humanos en la mayoría de los casos, abordando el desafío de conectar las limitaciones tecnológicas con los problemas sociales de manera práctica y efectiva.
Este enfoque representa un avance significativo no solo en el proceso de delimitación de problemas, sino también en el diseño de soluciones más adecuadas y personalizadas para desafíos sociales urgentes. Sin embargo, el uso de LLMs en estos escenarios es una espada de doble filo: aunque ofrecen un potencial increíble para simplificar tareas de información intensiva, también pueden generar contenido falso o inadecuado si no se usan con precaución y conocimiento.
La exploración de los LLMs para la delimitación automatizada de problemas es un paso importante hacia la mejora de las iniciativas de IA para el bien social, sobre todo cuando se implementa con una revisión cuidadosa y la integración de conocimientos reales y literarios. Future trabajos deberían centrarse en refinar estas metodologías para minimizar las incertidumbres asociadas e incluir evaluaciones humanas constantes para corroborar la relevancia y eficacia de estas soluciones automatizadas en un contexto de impacto social.