Tema: Alucinaciones
2025
Phare: Evaluando la Seguridad de los Modelos de Lenguaje
Phare se presenta como una herramienta crítica para descubrir vulnerabilidades en la seguridad de los grandes modelos de lenguaje, destacando problemas como la alucinación y los sesgos sociales.
2025
Finetune-RAG: La Nueva Frontera en Precisión de Modelos de Lenguaje
Un innovador enfoque mejora la precisión factual en grandes modelos de lenguaje enfrentando el problema de las "alucinaciones"
2025
Alucinaciones inducidas en LLMs: un reto de confiabilidad
Estudio revela cómo la fusión conceptual eleva el riesgo de respuestas alucinadas en modelos de lenguaje a gran escala.
2024
Reduciendo Alucinaciones en Modelos Visión-Lenguaje
Un nuevo método mejora la estabilidad y precisión de los modelos multimodales
2024
SeND: Innovador protocolo para reducir alucinaciones en modelos de lenguaje
Un enfoque revolucionario enfrenta la variabilidad de aprendizaje con el protocolo Sensitive Neuron Dropout y la métrica Efficient EigenScore.
2024
Innovaciones y desafíos en los Modelos de Lenguaje Visual: Un panorama de las alucinaciones
Los Modelos de Lenguaje Visual (LVLM) enfrentan retos importantes con las alucinaciones de datos, abriendo paso a innovaciones para mejorar su confiabilidad.
2024
Alucinaciones Gráficas en Modelos de Lenguaje: Un Nuevo Enfoque Estructural
Investigadores revelan inconsistencias en los modelos de lenguaje al reproducir gráficos conocidos, proponiendo nuevas métricas de evaluación