Tema: Explicaciones Adversariales
2024
Riesgos de Explicaciones Adversariales en Modelos de Lenguaje
La investigación expone cómo los LLMs pueden inducir interpretaciones erróneas en problemas complejos.
Solo noticias
La investigación expone cómo los LLMs pueden inducir interpretaciones erróneas en problemas complejos.