Tema: Seguridad en IA
2025
Vulnerabilidades del Data Poisoning en Modelos de Lenguaje
El Estudio Revela cómo el Aprendizaje en Contexto Puede ser Comprometido por Perturbaciones en el Texto
2025
XGUARD: Innovación en la Evaluación de Contenidos Extremistas Generados por IA
Un nuevo marco que distingue y categoriza la severidad de fallas en modelos de lenguaje amplios, señalando brechas de seguridad y posibles soluciones.
2025
Sistemas RAG: Innovación y desafíos de seguridad emergentes
Descubriendo vulnerabilidades en el auge de los sistemas Retrieval-Augmented Generation
2025
Exponen Vulnerabilidades de Seguridad en IA Basada en LLM
Un estudio revela potenciales riesgos de seguridad en sistemas de IA al mostrar cómo ataques de puerta trasera pueden comprometer su funcionamiento seguro.
2024
Innovadora metodología mejora la seguridad de modelos de IA visuales
Investigadores desarrollan un método eficaz para eliminar conceptos no deseados sin comprometer otros aspectos del modelo
2024
Desafíos y Oportunidades de la IA Generativa en Máquinas Autónomas
Las máquinas autónomas impulsadas por inteligencia artificial enfrentan preocupaciones de seguridad y requieren avances en la gestión de riesgos.
2024
Innovaciones en el Entrenamiento Adversarial: Mejorando la Robustez de los Modelos de Aprendizaje Profundo
La investigación reciente expande el uso del entrenamiento adversarial para diversas aplicaciones, optimizando la robustez y rendimiento en modelos complejos.
2024
Avances en Jailbreaking para Modelos de Lenguaje: Optimización del Control de Atención
Investigadores incrementan la efectividad de ataques contra LLMs manipulando el enfoque de atención de los modelos.
2024
Newsom Veta Proyecto de Ley Sobre Seguridad en IA
El Gobernador de California Rechaza Normativa Estricta para Regular la Inteligencia Artificial
2024
OpenAI refuerza su seguridad: Altman fuera del comité
OpenAI establece un nuevo comité de seguridad excluyendo a Sam Altman, enfoques en transparencia y colaboración internacional.