Una reciente investigación ha expuesto desafíos significativos en la capacidad de composición de modelos de lenguaje de gran tamaño (LLMs) cuando se enfrentan a problemas de razonamiento matemático, especialmente al lidiar con problemas trampa diseñados para evaluar esta habilidad. Este estudio, liderado por investigadores de la Universidad de Fudan, presenta un conjunto de datos llamado MATH TRAP que incorpora trampas lógicas en problemas matemáticos existentes, evaluando así la capacidad de los LLMs para combinar elementos de conocimiento de manera eficiente.