Ver

IA elige escalada nuclear en simulaciones: inquietantes hallazgos sobre toma de decisiones

IA elige escalada nuclear en simulaciones: inquietantes hallazgos sobre toma de decisiones

Por Cristian Recabarren Ortiz

4 min de lectura

Publicidad

Un nuevo estudio de King’s College London ha revelado inquietantes resultados sobre cómo los modelos de inteligencia artificial de frontera manejan crisis nucleares simuladas. En estos escenarios, GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash consistentemente optaron por la escalada en lugar de la negociación, lo que plantea serias preguntas sobre su posible rol en la toma de decisiones estratégicas futuras.

Resultados del simulacro nuclear

La investigación analizó 21 confrontaciones simuladas, generando un total de 329 turnos y cerca de 780,000 palabras de razonamiento estructurado. Según el informe, en el 95% de los juegos simulados se usaron tácticas nucleares, el 76% incluyó amenazas estratégicas, y en todos los casos hubo señalización nuclear por al menos uno de los bandos. Ninguno de los modelos utilizó alguna de las ocho opciones diseñadas para la desescalada, y en el 86% de los casos se registraron escaladas accidentales causadas por errores o malentendidos.

Kenneth Payne, autor principal del estudio, calificó estos resultados como “sobrios” y subrayó que los modelos trataban el uso de armas nucleares como una herramienta estratégica en lugar de considerar el enorme costo humano y ambiental que conlleva. Esto se evidenció claramente en su incapacidad para distinguir y comunicar movimientos peligrosos no intencionados.

Publicidad

Te puede interesar

La influencia del tiempo en las decisiones

El estudio incluyó escenarios con y sin presión de tiempo, lo que alteró las dinámicas de los modelos. En juegos sin límite, Claude Sonnet 4 obtuvo la mayoría de victorias, mientras GPT-5.2 fracasó en cada ocasión. Sin embargo, bajo escenarios con plazo definido, GPT-5.2 incrementó su tasa de éxito al 75%, adoptando una postura mucho más agresiva. Este comportamiento refuerza la idea de que los sistemas de IA podrían reaccionar de forma impredecible bajo condiciones que emulen la presión de crisis reales, como las que enfrentarían líderes humanos en situaciones de alto riesgo.

Estos hallazgos subrayan un riesgo importante: sistemas que parecen razonables y moderados en entornos de prueba controlados podrían transformarse en actores peligrosos al enfrentar plazos críticos, replicando el caos y la incertidumbre habituales en crisis de la vida real.

Impacto ambiental y humano

Publicidad

La relevancia de este estudio también se extiende al ámbito ambiental. Según un estudio publicado en Nature Food, incluso un conflicto nuclear limitado que libere más de 5 teragramos de hollín a la estratosfera podría llevar a graves crisis alimentarias a nivel global. Las pérdidas en cultivos, pesca y ganado generarían hambrunas masivas que afectarían a casi todos los países.

Por ejemplo, una guerra nuclear entre India y Pakistán podría provocar la muerte de más de 2 mil millones de personas por inanición, según los cálculos. Un enfrentamiento entre Estados Unidos y Rusia podría incrementar esa cifra a más de 5 mil millones. Los efectos se extenderían mucho más allá de las zonas de impacto directo, alcanzando granjas, cadenas de suministro y mercados globales.

  • Oscurecimiento de cielos que afecta la fotosíntesis y producción de alimentos.
  • Colapsos en pesquerías y áreas agrícolas clave.
  • Interrupciones en cadenas de suministro esenciales.

Implicaciones para la toma de decisiones

Publicidad

El estudio enfatiza que, aunque los escenarios representaban estados ficticios en un formato estilizado, los resultados aportan información valiosa sobre cómo las dinámicas de crisis podrían desarrollarse cuando la inteligencia artificial está involucrada. Dado que instituciones militares y de seguridad ya están probando sistemas de análisis y simulación asistidos por IA, la cuestión no es si estas tecnologías impactarán en las decisiones estratégicas, sino cómo lo harán.

En última instancia, existe una desconexión preocupante entre la habilidad de estos sistemas para razonar sobre escaladas y sus limitaciones para comprender las consecuencias cataclísmicas de una guerra nuclear en la vida real. Un error en este terreno podría desencadenar no solo destrucción inmediata, sino también consecuencias globales a largo plazo para el medio ambiente, la seguridad alimentaria y la humanidad en general.

Te puede interesar:

  1. Energía nuclear en China: 125 millones de kW la posicionan como líder global y anticipan un sorpasso a EE.UU. antes de 2030
  2. DOE destina US$ 5,4 millones a cinco proyectos para reactivar la producción primaria de galio en Estados Unidos
  3. Hasta $300 por litro: estos son los descuentos en bencina disponibles en abril
Identificando empresas mencionadas en este artículo...

Sobre el autor

Cristian Recabarren Ortiz

Redacción — REDIMIN.cl

Publicidad

Newsletter diario

¿Te resulto util este articulo?

Suscribete y recibe cada manana las noticias mas relevantes de la industria minera. Sin spam.

Sin spam. Cancela cuando quieras.

Síguenos en Google News

Recibe las últimas noticias mineras en tu feed

Seguir

Publicidad


Ver más

Publicidad