Solo noticias

y ya

miércoles 11 de de 2025

S AFE C OT: Un avance en la seguridad de modelos de lenguaje visual

La implementación de prácticas seguras en el creciente campo de los modelos de lenguaje visuolingüístico (VLM) es crucial dada su capacidad para interpretar entradas visuales y textuales. Sin embargo, con este avance vienen retos significativos en la interpretación segura de contenidos visuales ambiguos, donde errores podrían permitir que contenidos peligrosos sean aceptados indiscriminadamente. Aquí es donde surge S AFE C OT, un marco que se enfoca en mejorar la capacidad de los VLM para rechazar entradas inseguras sin omitir aquellas que son benignas.

S AFE C OT se destaca por usar un enfoque ligero donde los métodos tradicionales suelen necesitar grandes cantidades de datos de anotación. Este modelo se basa en la supervisión mínimamente invasiva para instruir a los VLM a razonar contextualmente por qué ciertas entradas deberían ser rechazadas. Mediante el uso de cadenas de razonamiento (CoT) basadas en reglas, S AFE C OT permite a los modelos textuales y visuales generalizar las diferencias entre entradas seguras e inseguras.

Las pruebas realizadas han mostrado resultados prometedores. En diversos bancos de pruebas, el modelo no solo redujo el número de rechazos innecesarios, sino que también mejoró su habilidad de rechazo justificado incluso con datos limitados. Esto subraya la flexibilidad de S AFE C OT para trabajar en condiciones de datos restringidas sin comprometer su eficacia.

El desarrollo de ejemplos mediante plantillas basadas en reglas permite que estas razonamientos explícitos, aunque simplificados, resulten eficaces a la hora de alinear el comportamiento de seguridad del VLM. S AFE C OT se basa en diseños previos que enfatizan estudiar la categoría de riesgo y formular racionales de rechazo sin que el modelo tenga que deducir la categoría a partir del contenido visual, lo que disminuye las alucinaciones.

El modelo es sometido a pruebas en varios conjuntos de datos como OR-Bench o MSSBench, que revelan comportamientos de sobre-rechazo. Estos bancos de pruebas comprenden ejemplos de imágenes-texto que pueden ser ambiguos o peligrosos. La aplicación de CoT antes de emitir una respuesta asegura que el VLM priorice rechazar únicamente aquellos casos necesarios.

S AFE C OT también se ha evaluado a lo largo de varios modelos populares de VLM, mostrando cómo, al hacer rehusos explícitos basados en cadenas de razonamiento simples, se mejora tanto la seguridad como la adaptabilidad. Con CoT, cada respuesta que requiere rechazo viene acompañada de una explicación justificada, resultando en un sistema más transparente y ético.

Conclusivamente, este enfoque ofrece una vía para que los modelos VLM sean percibidos como más confiables. Al equilibrar la seguridad con la funcionalidad, S AFE C OT establece un nuevo estándar para prácticas AI responsables. Con una fundamentación en la eliminación de rechazos arbitrarios, asegura que las interacciones futuras sean tan seguras como precisas.