El despliegue de modelos de lenguaje grande (LLM) ha tomado por asalto el panorama tecnológico, con 320,102 servicios identificados a nivel global. La seguridad de estos despliegues, sin embargo, ha dejado mucho que desear, tal como lo revela un estudio empírico a gran escala. Las plataformas como Ollama y ComfyUI son ejemplos prominentes de servicios ampliamente accesibles sin las adecuadas medidas de seguridad, exponiendo operativas críticas al mundo entero sin autenticación o salvaguardias.
El estudio desvela una alarmante falta de prácticas de configuración segura. Más del 40% de los servicios carecen de cifrado TLS apropiado, y muchos utilizan puertos no estándar sin encriptación alguna. Esto no solo abre la puerta a interceptaciones de datos, sino que también facilita a los atacantes manipular y robar información sensible. En concreto, se descubrió que Ollama permite acceder a un 75.26% de las operaciones críticas sobre modelos sin exigir autenticación, ilustrando un problema de seguridad significativo en la gestión de estos servicios.
Otro hallazgo perturbador es la alta centralización geográfica de tales despliegues, con Estados Unidos liderando el conteo por un amplio margen, lo que sugiere una concentración de capacidades de inteligencia artificial en pocos países. Sin embargo, existe una larga cola de despliegues en regiones menos tecnológicamente maduras, aunque con prácticas operativas inconsistentes.
La implementación por defecto de configuraciones inseguras sigue siendo un talón de Aquiles. Los marcos suelen asumir que el entorno local es confiable, pero esto no podría estar más lejos de la realidad. Incluso cuando se usan en ambientes de desarrollo local, las interfaces pueden ser accesibles para actores malintencionados a través de redes de área local mal configuradas o conexiones inadvertidas a internet.
Con todas estas preocupaciones sobre la mesa, no sorprende ver desconfiguraciones sistémicas que ponen en riesgo la estabilidad y confidencialidad de los servicios. La exposición de API sin restricciones permite ataques de denegación de servicio o manipulaciones maliciosas en la generación de contenido, acentuando la necesidad de prácticas de despliegue más seguras y estandarizadas.