Tema: Ataques Adversariales
2025
La defensa de ViTs contra ataques mejora con Low-Rank Adaptation
Clarkson University avanza en la resistencia de modelos de visión artificial contra perturbaciones adversariales.
2025
Sistemas RAG: Innovación y desafíos de seguridad emergentes
Descubriendo vulnerabilidades en el auge de los sistemas Retrieval-Augmented Generation
2025
Innovador Sistema Protege Modelos de Lenguaje de Gran Escala sin Reentrenamiento
Científicos de Notre Dame desarrollan método avanzado para fortalecer LLMs contra ataques maliciosos, minimizando costos computacionales.
2024
Atacan la seguridad de los sistemas de reconocimiento facial
Nuevas metodologías desatan amenazas sobre el campo del reconocimiento facial mientras las defensas avanzan para contrarrestarlas.
2024
Hackeando la Voz: Vulnerabilidades en Modelos de Reconocimiento de Voz Multi-Tarea
Investigadores descubren una forma sencilla pero poderosa de modificar el comportamiento de modelos como Whisper, revelando vulnerabilidades críticas.