Solo noticias

y ya

lunes 5 de de 2025

Vulnerabilidades de Modelos de Lenguaje Expuestas por Ataques de Caché

En un mundo cada vez más interconectado, la seguridad y privacidad de los modelos de lenguaje de gran escala están bajo amenaza significativa. Un nuevo estudio ha revelado que estos modelos, fundamentales en aplicaciones como la atención al cliente y la sanidad, son vulnerables a ataques mediados por caché. Investigadores han demostrado la factibilidad de extraer tokens de los modelos de lenguaje mediante canales laterales de caché, lo que plantea serios desafíos de confidencialidad.

El ataque, denominado ‘Spill The Beans’, aprovecha la proximidad entre procesos de atacantes y víctimas en un mismo hardware para detectar patrones de acceso en las cachés del CPU. Estos patrones permiten inferir tokens y, por ende, datos sensibles que pudieran estar siendo procesados por modelos de lenguaje, revelando una vulnerabilidad significativa incluso en los modelos más sofisticados.

Este método se centra en los vectores de incrustación de los tokens, que son frecuentemente accedidos durante la inferencia, y alinea los ataques con diferencias de tiempo en la caché de Key-Value. Al manipular el tiempo de respuesta y analizando la latencia en el acceso a los tokens, los atacantes pueden reconstruir hasta el 90% de claves API de alta entropía y un 40% del texto en inglés en un solo intento.

A pesar de los esfuerzos recientes para implementar defensas a nivel de software, como el sistema KV-Shield que busca obfuscar las permutaciones de matrices, los modelos de lenguaje dependen en exceso de patrones de acceso a hardware que los dejan expuestos. Mitigaciones típicas, como la partición de caché, reducen el impacto de estos ataques, pero generalmente con un coste en términos de rendimiento.

En términos de prevención, diversificar y aleatorizar el acceso a los vectores de incrustación podría dificultar la correlación entre el acceso y el uso real de tokens, pero sería necesario encontrar un balance para no afectar significativamente el rendimiento de las inferencias.

El estudio subraya la necesidad de un enfoque más coordinado entre desarrolladores de hardware y software para crear defensas robustas que puedan proteger a largo plazo la integridad de estos sistemas. A medida que los modelos de lenguaje se integran más profundamente en los aspectos críticos de nuestra vida diaria, garantizar su operación segura es de máxima prioridad.