Tema: VLMs
2025
S AFE C OT: Un avance en la seguridad de modelos de lenguaje visual
Una nueva propuesta para mejorar la seguridad y precisión de VLMs en escenarios de riesgo
2025
DIS-CO: Revolución en la detección de contenido protegido en modelos de lenguaje y visión
Una metodología innovadora que permite identificar contenido protegido en datos de entrenamiento de modelos de visión-lenguaje.
2024
VIVA: Evaluación de Modelos de Lenguaje Visuales con Valores Humanos
Nuevos experimentos revelan limitaciones y potenciales en la integración de valores humanos en la inteligencia artificial.
2024
La Inteligencia Artificial se Nutre del Comportamiento Humano para Mejorar su Comprensión
Investigaciones demuestran que los modelos de lenguaje y visión pueden entrenarse eficazmente utilizando señales de comportamiento humano, potenciando su capacidad para entender contenido multimedial.