Solo noticias

y ya

martes 3 de de 2025

Nuevo Método para Estimar la Filtración de Privacidad en Modelos de Lenguaje

Un equipo de investigadores de la Universidad del Sur de California y TikTok ha desarrollado una nueva métrica para evaluar cómo los modelos de lenguaje pueden filtrar información privada cuando se les proporciona contexto adicional para tareas como el cuestionamiento. Esta métrica, denominada ‘context influence’, utiliza los principios de la privacidad diferencial para medir la filtración de información contextual.

A través de sus experimentos, el equipo demostró que el riesgo de filtración de privacidad se incrementa cuando la información contextual no coincide con el conocimiento intrínseco del modelo de lenguaje. Además, evaluaron cómo diferentes factores, como el tamaño del modelo y el tamaño del contexto, afectan la filtración de privacidad contextual.

Los investigadores llevaron a cabo experimentos utilizando diversos modelos disponibles públicamente, como OPT y GPT-Neo, en tareas de generación de texto a partir de artículos noticiosos y de preguntas de investigación biomédica. Descubrieron que los modelos pre-entrenados en datos específicos, como los resúmenes biomédicos de PubMed, tienen diferentes niveles de exposición a la filtración de privacidad, lo que subraya la importancia de considerar las fuentes de datos durante el preentrenamiento.

Asimismo, los resultados indican que la alineación con información de contexto puede aumentar el volumen de información filtrada si no se controla. Los modelos que han sido afinados para tareas específicas tienden a coincidir y extraer más a menudo del contexto proporcionado, lo que sugiere una mayor susceptibilidad a filtrar información detallada.

En conclusión, esta investigación sienta precedentes sobre la importancia de medir y mitigar el riesgo de privacidad asociado con el uso de contextos aumentados en modelos de lenguaje. Al proporcionar una herramienta para cuantificar dicha filtración, se espera que los practicantes puedan tomar medidas efectivas para minimizar los riesgos de privacidad en aplicaciones basadas en inteligencia artificial.