Solo noticias

y ya

martes 6 de de 2025

La Fundación Vital de la Seguridad en AI

La seguridad en la inteligencia artificial (IA) ha surgido como una disciplina clave como respuesta a las crecientes preocupaciones sobre los peligros potenciales que estos sistemas podrían desencadenar. El concepto principal que perpetúa esta discusión se denomina “Concepción de Seguridad”, que busca prevenir o mitigar daños causados por sistemas de IA. Esta concepción agrupa, bajo su paraguas, tanto peligros evidentes y catastróficos como aquellos más sutiles y sociales.

Los estudiosos de la seguridad en IA se dividen a menudo en dos categorías: quienes se enfocan en los potenciales riesgos catastróficos que la tecnología futura podría traer consigo, y aquellos que se concentran en los daños actuales que los sistemas existentes ya están causando. Entre estos potenciales riesgos se incluyen el bioterrorismo, la diseminación de desinformación a gran escala y la manipulación de procesos democráticos. En contraste, los daños actuales pueden incluir problemas como la discriminación algorítmica, la invasión de privacidad y la difusión de contenido tóxico.

A pesar de la clara línea divisoria entre estas dos corrientes, el discurso dentro de la comunidad de seguridad en IA sugiere que se debería adoptar una visión más unificada. La “Concepción de Seguridad” podría servir como un puente que permita una integración disciplinaria más profunda, promoviendo la colaboración entre expertos que trabajan en riesgos catastróficos y aquellos más centrados en riesgos sociales, ambos dentro del amplio paraguas de la seguridad y gobernanza de la IA.

Una parte clave de este enfoque es considerar la seguridad de la IA como una rama de la ingeniería de seguridad, lo que implica aplicar técnicas y lecciones de la ingeniería para mitigar los riesgos de los sistemas de IA. Sin embargo, este enfoque podría dejar de lado ciertos trabajos teóricos y filosóficos que también tienen valor en la mitigación del daño del IA, argumentan algunos expertos.

Por ello, la “Concepción de Seguridad” podría ser el esquema más práctico y efectivo para orientar y priorizar la investigación. Con este enfoque, se sugiere que se establezcan prioridades de investigación basadas en el mérito potencial del proyecto para prevenir o mitigar daños, permitiendo una asignación más situada de recursos y considerando todas las voces expertas, ya sea de aquellos entrenados en ingeniería aplicada o en investigación filosófica. Este enfoque abrazaría un amplio espectro de disciplinas, promoviendo una inteligencia artificial más segura y alineada con los intereses humanos.