Tema: Seguridad en LLMs
2025
Vulnerabilidades y avances en la seguridad de los LLMs
Investigación estudia las amenazas a la seguridad de los modelos de lenguaje y propone soluciones
2024
Riesgos de Explicaciones Adversariales en Modelos de Lenguaje
La investigación expone cómo los LLMs pueden inducir interpretaciones erróneas en problemas complejos.