Los agentes de inteligencia artificial enfrentan nuevas amenazas en la integración con Web3
En un estudio reciente, investigadores de la Universidad de Princeton y la Fundación Sentient han advertido sobre los riesgos de seguridad que enfrentan los agentes de inteligencia artificial (IA) en los ecosistemas financieros basados en blockchain, como DeFi (finanzas descentralizadas). Uno de los problemas más críticos identificados es la manipulación de contexto, un vector de ataque capaz de comprometer la integridad de estos agentes.
El sistema ElizaOS, una plataforma descentralizada para operaciones automatizadas en Web3, fue el objeto de estudio principal. La investigación demostró que los agentes construidos sobre este sistema pueden ser manipulados mediante inyecciones de memoria y entrada, lo que podría conducir a transferencias no autorizadas de criptomonedas. Estos ataques se caracterizan por su capacidad de comprometer la memoria compartida entre aplicaciones, permitiendo a los actores malintencionados inyectar instrucciones maliciosas.
Los analistas diseñaron una prueba llamada CrAIBench para evaluar estos riesgos, sometiendo a los agentes a más de 500 casos de ataques en 150 tareas relevantes para blockchain, desde transferencias y comercio de tokens hasta interacciones cross-chain. Sorprendentemente, a pesar de las medidas de defensa basadas en prompts, como la introducción de frases de seguridad y modelos de razonamiento, los atacantes lograron tasas de éxito significativas. Esto evidencia que las soluciones actuales son insuficientes para proteger completamente a los agentes.
Además, los investigadores remarcaron la necesidad urgente de desarrollar defensas más eficientes. Una alternativa presentada fue el refinamiento de modelos de defensa basados en ajustes (fine-tuning), los cuales han demostrado mejorar drásticamente la resistencia de los agentes en tareas de un solo paso, al disminuir las tasas de éxito de los ataques sin comprometer la utilidad del agente.
El impacto financiero de estos ataques es profundo, dado que las transacciones en blockchain son irreversibles. Esto significa que cualquier manipulación exitosa podría resultar en pérdidas instantáneas y permanentes, subrayando la crítica necesidad de agentes de IA seguros y responsables en la gestión fiduciaria.
En conclusión, la investigación pone de relieve la debilidad de las defensas actuales ante inyecciones de contexto y la importancia de un enfoque de seguridad mejor estructurado en el desarrollo de agentes de IA en ecosistemas descentralizados. La confianza en estos agentes solo se mantendrá si se avanzan metodologías y estructuras de seguridad que prioricen no solo la eficiencia y autonomía, sino también la protección y fiabilidad en entornos de alto riesgo.