Durante los últimos cinco años, la investigación sobre la gobernanza de la inteligencia artificial (IA) ha experimentado un notable cambio, centrándose principalmente en riesgos previos al despliegue, mientras quedan sin abordar importantes áreas de riesgo en los despliegues reales. Un análisis exhaustivo de 1,178 trabajos sobre seguridad y fiabilidad, extraídos de 9,439 publicaciones en IA generativa entre 2020 y 2025, evidencia esta preocupante tendencia.
Las principales empresas de tecnología como Anthropic, Google DeepMind y OpenAI han dominado la investigación en IA, pero su foco prioritario ha sido la alineación de modelos y las evaluaciones y pruebas teóricas en laboratorio. Mientras tanto, los dilemas asociados con la implementación práctica, tales como los sesgos del modelo, la persuasión del usuario y la desinformación, no han recibido atención equivalente.
Los estudios en estos campos, que son cruciales para la comprensión de los impactos en el mundo real, son escasos. Solo el 4% de las publicaciones corporativas de AI revisan áreas de alto riesgo como el contexto médico, financiero y la convincente destreza de los modelos a influir en la conducta humana, aun cuando ya se han planteado demandas que señalan riesgos tangibles.
Resulta alarmante que las empresas con amplia capacidad para recoger datos de inteligencia en tiempo real sean, efectivamente, las menos incentivadas a compartir sus hallazgos con el público, dejando una peligrosa brecha de conocimiento para investigadores independientes.
Para mitigar este desbalance en la información, expertos proponen un acceso estructurado a los datos de telemetría posteriores al despliegue. Esta medida podría democratizar el acceso a información vital, permitiendo la vigilancia objetiva y la formulación de políticas fundamentadas. Sin estas intervenciones, la comprensión de los riesgos de la IA seguirá adoleciendo de evidencias y dependerá unívocamente de intereses corporativos.
En resumen, en un contexto donde el despliegue de sistemas de IA evoluciona aceleradamente, el ecosistema de investigación debe redirigir sus esfuerzos hacia el estudio de los impactos en el mundo real. Sólo una industria colaborativa puede asegurar que las innovaciones tecnológicas expliciten beneficios sin comprometer la integridad ni los derechos individuales de los usuarios, fomentando un futuro donde la tecnología sirva tanto a empresas como a la sociedad en su conjunto.