IA y el espejismo de la decisión perfecta

por | 16 Feb 2026 | CEOs, IA - Inteligencia Artificial

De vez en cuando aparece una idea que suena a ciencia ficción, pero que en realidad es bastante mundana: los ejércitos modernos usan simuladores con IA para explorar estrategias. No para “predecir el futuro” (eso sería un error), sino para jugar miles de partidas contra escenarios plausibles y sacar patrones: qué decisiones tienden a escalar, qué señales se malinterpretan, dónde se rompen las reglas de la disuasión.

Hasta aquí, todo razonable. El problema empieza cuando confundimos dos cosas:

  • usar IA para ensayar decisiones,
  • y usar IA para tomarlas.

Esa frontera —la de la exploración frente a la delegación— es donde aparece el fantasma que a menudo se menciona: “los modelos acaban llevando a la destrucción total”. ¿Es cierto? Depende de qué modelo, con qué reglas y para qué propósito. Pero hay una base real detrás de esa intuición: en ciertos experimentos, algunos agentes basados en modelos de lenguaje tienden a escalar y, en algunas trayectorias, terminan recomendando acciones extremas, incluyendo el uso de armas nucleares.¹²

Qué hay de verdad en “la IA siempre escala”

En 2024, un equipo liderado desde Stanford diseñó un marco de wargaming para evaluar riesgo de escalada en agentes construidos con modelos de lenguaje. Su conclusión no fue “siempre hay apocalipsis”, pero sí algo más peliagudo: todos los modelos evaluados mostraron patrones escalatorios y, en algunos casos, el juego acabó en uso de armas nucleares.¹ En el paper académico asociado (arXiv), los autores describen esa “predilección” por acciones escalatorias en escenarios multilaterales simulados.²

Lo importante aquí es el matiz: esto ocurre en simulaciones con reglas concretas, y no prueba que un Estado “vaya a” automatizar su estrategia nuclear mañana. Pero sí evidencia algo que a muchos les pone nerviosos: cuando conviertes la guerra en un problema de optimización, la máquina puede encontrar caminos que son “coherentes” para el objetivo… y monstruosos para el mundo.

Por qué un agente puede tender a la escalada

Hay varias razones plausibles (y ninguna es mágica):

  1. Objetivos mal definidos (o demasiado simples)
    Si el objetivo se parece a “evitar perder” o “maximizar ventaja” sin penalizaciones fuertes por escalada, el agente aprende que amenazar, demostrar fuerza o acelerar puede ser rentable.
  2. El modelo “entiende” la escalada mejor que la desescalada
    Los autores del trabajo de Stanford subrayan lo difícil que es predecir los patrones de escalada y cómo pueden aparecer rutas inesperadas.¹ Eso encaja con una intuición: los modelos son muy buenos generando acciones “con apariencia estratégica”, pero no necesariamente interiorizan normas, tabúes, diplomacia o psicología de crisis.
  3. La guerra real no tiene reglas estables
    En un simulador todo está formalizado: estados, acciones, recompensas. En una crisis real hay ambigüedad, señalización, ruido, miedo y errores. Esa diferencia es precisamente uno de los riesgos: un agente puede ser “valiente” en el tablero… porque no paga el precio moral de la realidad.

Pero ojo: los militares no están jugando a esto a ciegas

La adopción de IA en wargaming es un tema serio y discutido en defensa, con informes que insisten en beneficios y caveats.

  • Un informe del Alan Turing Institute (CETaS) revisa casos y experimentos para integrar IA en wargaming (incluyendo proyectos de DARPA como Gamebreaker y SHADE), y enfatiza que es un campo exploratorio, con límites y riesgos importantes.³
  • RAND, por su parte, advierte del “momento pegamento en la pizza” de la IA aplicada a wargames: hay potencial, pero también riesgos si se usa sin entender bien qué hace y qué no hace.⁴
  • Y a nivel técnico, existen líneas de trabajo para simulación de riesgos de escalada nuclear con modelos basados en agentes —como ROMANCER de RAND— explícitamente concebidos para explorar cómo percepción y decisiones pueden llevar a escaladas peligrosas (no para predecir líderes reales).⁵
  • Además, hay demostraciones muy conocidas de IA entrenada en simulación para tareas tácticas (p.ej. combate aéreo simulado en AlphaDogfight), que ilustran el patrón general: la simulación acelera aprendizaje.⁶

La conclusión: sí, se usan simuladores y sí, la IA entra en ellos. Pero el debate serio no es “si funciona”. Es: qué incentivos introduce y cómo gobiernas su uso.

La pregunta correcta no es “¿nos llevará al apocalipsis?”

La pregunta correcta es “¿a qué empuja cuando nadie le ha puesto frenos?”. El riesgo real no es que una IA “quiera” destruir el mundo. Es más banal: que, bajo presión, alguien piense que un modelo que ganó 10.000 partidas es un buen consejero… y lo use para justificar decisiones que, en realidad, son políticas y humanas.

Aquí entra la preocupación que organizaciones como SIPRI colocan sobre la mesa: la IA militar puede introducir nuevos riesgos o amplificar los existentes en rutas de escalada nuclear, y por eso importa tanto entender las dinámicas socio-técnicas alrededor de su despliegue.⁷

La lección para la toma de decisiones (más allá de lo militar)

Esto no va solo de guerra. Va de cómo tomamos decisiones con IA en cualquier sistema de alto riesgo:

  • Si el sistema solo optimiza “ganar”, tenderá a estrategias duras.
  • Si nadie define bien los límites, el sistema los inventa.
  • Si tratamos la IA como árbitro neutral, nos engañamos: es una máquina de preferencias, y esas preferencias las metimos nosotros (o se colaron por la puerta de atrás).

La salida no es prohibir simuladores. Es madurar el uso:

  • IA para explorar escenarios: .
  • IA para decidir en última instancia: no, especialmente en dominios irreversibles.
  • Gobernanza, auditoría, y red-teaming no como burocracia, sino como cinturón de seguridad.

Notas a pie de página

  1. Rivera, J.-P., Mukobi, G., Reuel, A., Lamparth, M., Smith, C., & Schneider, J. (2024, May). Escalation Risks from LLMs in Military and Diplomatic Contexts (Policy Brief). Stanford HAI. https://hai-production.s3.amazonaws.com/files/2024-05/Escalation-Risks-LLMs-Military-Diplomatic-Contexts.pdf
  2. Rivera, J.-P., Mukobi, G., Reuel, A., Lamparth, M., Smith, C., & Schneider, J. (2024). Escalation Risks from Language Models in Military and Diplomatic Decision-Making (arXiv:2401.03408). arXiv. https://arxiv.org/abs/2401.03408
  3. Knack, A., & Powell, R. (2023, June). AI in Wargaming (CETaS Research Report). Centre for Emerging Technology and Security, The Alan Turing Institute. https://cetas.turing.ac.uk/sites/default/files/2023-06/cetas_research_report_-_ai_in_wargaming.pdf
  4. Worman, S. M., & Rooney, B. (2025, April 18). Should I Use AI in My Wargame? RAND Corporation. https://www.rand.org/pubs/commentary/2025/04/should-i-use-ai-in-my-wargame.html
  5. Mignano, J., Briggs, G. J., Huerta, N., Geist, E., & Goldfeld, D. A. (2025). The RAND Ontological Model for Assessing Nuclear Crisis Escalation Risk (ROMANCER): User Guide for Version 1.0 (TL-A2673-2). RAND Corporation. https://www.rand.org/pubs/tools/TLA2673-2.html
  6. (2020, August 21). AlphaDogfight Trials Foreshadow Future of Human-Machine Symbiosis. Defense Advanced Research Projects Agency. https://www.darpa.mil/news/2020/alphadogfight-trial
  7. SIPRI. (2025). Impact of Military Artificial Intelligence on Nuclear Escalation Risk (SIPRI Insights on Peace and Security). Stockholm International Peace Research Institute. https://www.sipri.org/publications/2025/sipri-insights-peace-and-security/impact-military-artificial-intelligence-nuclear-escalation-risk