Solo noticias

y ya

martes 6 de de 2025

"¿Puede la Inteligencia Artificial extinguir a la Humanidad?"

La preocupación por el potencial de la inteligencia artificial (IA) para causar la extinción humana ha captado la atención de la comunidad científica y de seguridad global. Según un estudio del RAND Corporation, liderado por el científico Michael J.D. Vermeer, se han analizado varios escenarios donde la IA podría representar una amenaza existencial para la humanidad.

En el 2024, cientos de investigadores y expertos en IA firmaron una declaración advirtiendo que mitigar el riesgo de extinción por la IA debería ser una prioridad global, equiparándola con amenazas como las pandemias y la guerra nuclear. Este estudio se lanza a explorar si realmente existe un escenario plausible donde la IA podría lograr semejante hazaña, concluyendo que, aunque teóricamente posible, es altamente improbable sin que se superen significativos obstáculos.

Para que la inteligencia artificial pudiera acabar con todos los humanos, necesitaría aprovechar grandes amenazas percibidas como riesgos existenciales: la guerra nuclear, la propagación de patógenos biológicos y el cambio climático. Sin embargo, incluso si la IA detonara la totalidad de las más de 12,000 ojivas nucleares globales, la extinción total de humanos seguiría siendo improbable debido a la dispersión y adaptabilidad de las poblaciones humanas.

Los expertos del RAND Corporation también señalaron que, aunque una pandemia creada por IA con eficaz propagación global podría ser más factible como amenaza de extinción, aún sería difícil exterminar completamente a seres humanos al observar cómo comunidades podrían aislarse para evitar la pandemia. Por el lado del cambio climático, aunque la IA podría intensificar el problema, sería necesario que emitiera gases de efecto invernadero mucho más potentes que el CO2 para lograr un evento de extinción completa.

El estudio también examina las capacidades necesarias para que la IA logre estos escenarios, destacando que debe tener no solo la intención de extinguir, sino también el control sobre sistemas clave, habilidad para persuadir humanos y continuidad autónoma tras el colapso de la sociedad. Aunque es posible desarrollar intencionalmente una IA con todas estas facultades, los investigadores del RAND Corporation consideran inadecuado renunciar a los beneficios potenciales de la IA por miedo a un cataclismo incierto.

En última instancia, mientras los riesgos existenciales de la IA no son descartados por completo, este trabajo sugiere que los humanos también enfrentamos amenazas por nosotros mismos. Reducir armas nucleares, limitar emisiones de gases contaminantes y mejorar la vigilancia pandémica se presentan como acciones lógicas para disminuir cualquier tipo de riesgo de extinción, sea o no iniciado por la IA.