Apuntes | Cómo la IA reescribe los supuestos operativos, éticos y epistemológicos de la guerra moderna

Anuario Internacional CIDOB 2026
Fecha de publicación: 11/2025
Autor:
Aymeric Vo Quang, estudiante de doctorado en Relaciones Internacionales y Ciencias Políticas en el Institut National des Langues et Civilisations Orientales (INALCO)
Descargar PDF

La ilusión de la velocidad

En un artículo publicado en abril de 2024, el estratega estadounidense Peter W. Singer comparaba los conflictos actuales con la Guerra Civil española (véase «The AI revolution is already here», Defence One, 14 de abril de 2024). «En 1936» ‒escribe‒ ambos bandos seguían usando artillería y cavando trincheras. No obstante, en paralelo, el conflicto contemplaba la llegada del tanque, la radio y el avión. Estas innovaciones marcaron el comienzo de una profunda transformación de la guerra, que superaba con creces los métodos que aún se empleaban sobre el terreno». Así mismo, Singer señalaba que la Inteligencia Artificial (IA) está induciendo una mutación tecnológica en las guerras de Ucrania y Gaza, las primeras denominadas «guerras de la IA». En la línea de sus observaciones, la introducción de la IA en la guerra moderna, aunque pueda parecer marginal en comparación con otras formas de combate más convencionales y que aún son mayoritarias, supone un punto de inflexión, cuyos efectos se extenderán más allá de lo militar, para impactar al derecho, la ética o la política. 

La irrupción de la IA en el ámbito militar no se limita al uso de armas de alta tecnología en el campo de batalla. Como ha señalado Michael C. Horowitz (véase «Artificial Intelligence, International Competition, and the Balance of Power», Texas National Security Review, mayo de 2018), la IA no es un «arma» en el sentido tradicional, sino una tecnología instrumental, comparable a la electricidad o a un motor de combustión: reconfigura profundamente los modos de acción y la propia arquitectura bélica. En este sentido, su creciente integración en las operaciones militares debe analizarse desde una perspectiva crítica. En el presente artículo se postula que la variación de velocidad y la automatización introducidas por la IA en la guerra plantean tres retos principales: primero, aumentan las decisiones automatizadas y plantean dilemas éticos; segundo, los sistemas de IA pueden llegar a ralentizar, no acelerar, la toma de decisiones operativas y estratégicas; y tercero, la IA pulveriza los marcos epistemológicos tradicionales que hasta ahora circunscribían las relaciones conflictivas entre estados.

Velocidad, automatización y ética

El software Lavender, utilizado por el ejército israelí desde octubre de 2023 en Gaza, constituye una reveladora manifestación de la automatización de la guerra. Este sistema de IA ha sido diseñado para identificar, a partir de la agregación masiva de datos, a individuos sospechosos de pertenecer a Hamás. Según las investigaciones de +972 Magazine y Local Call (véase «‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza», +972 Magazine), Lavender seleccionó hasta 37.000 objetivos humanos, con una supuesta tasa de error del 10%. Llama especialmente la atención la modulación de la velocidad inducida por los métodos basados en IA: los agentes israelíes a menudo disponían de solo 20 segundos para aprobar un ataque, esencialmente, para verificar que el objetivo era un ser humano. Uno de los operativos que dieron su testimonio afirmaba que: «en esta fase, invertía 20 segundos por cada objetivo, y hacía docenas de ellos cada día. Mi valor añadido como humano era prácticamente nulo, ya que me limitaba a dar el visto bueno. Sin duda, se ahorró mucho tiempo» (véase Bethan McKernan, «The machine did it coldly’: Israel used AI to identify 37,000 Hamas targets», The Guardian, 3 de abril de 2024). Esto significa que los agentes no estaban obligados a revisar concienzudamente, caso por caso, las identificaciones del sistema de IA, ya que el objetivo era ahorrar tiempo y aumentar el número de objetivos sin otros condicionantes.

Esto tiene que ver con la priorización de los recursos en tiempo de guerra, que disminuye la prioridad de diferenciar entre objetivos, y casi mecánicamente, aumenta la tolerancia al error. Por ejemplo, los individuos considerados militantes de bajo rango no justifican ‒a ojos de algunos oficiales israelíes‒, una inversión significativa de tiempo o de personal. Este razonamiento va acompañado de un mayor uso de la IA, que ya comporta un margen de error aceptado. Por tanto, a medida que se reduce el tiempo, el riesgo de daños colaterales es mayor. Este proceso ilustra una transformación del ciclo «objetivo-detección-acción», reducido a una simple ‒y necesariamente imperfecta‒ validación de la decisión algorítmica tras el tratamiento masivo de datos. Esta aceleración extrema debida a los «tiempos de guerra» crea un desfase entre la rapidez de tratamiento de datos de la IA y el tiempo necesario para tomar una decisión ética en un marco de legalidad. Esta obsesión por la velocidad esconde la pérdida de control humano y una mayor tolerancia a los errores. Se sacrifican la responsabilidad y la capacidad de acción en aras de la eficacia.

Más información, menos decisión: el uso de la IA en situaciones de crisis

Este artículo cuestiona la idea de que la IA permita una toma de decisiones más rápida y eficaz, y señala que también puede ralentizarla, sobre todo en contextos de crisis con altos niveles de incertidumbre. De hecho, se ha estudiado cómo el ritmo acelerado de la guerra y el «diluvio de datos» que la acompaña pueden perjudicar la capacidad de juicio humana, ya que las operaciones militares tienden a volverse demasiado rápidas para la comprensión humana. Los responsables de la toma de decisiones corren el riesgo de verse ahogados en una avalancha de información, incapaces de ejercer su comprensión, debido a la velocidad a la que reacciona el sistema (Véase Amélie Férey y de Roucy-Rochegonde, «De l'Ukraine à Gaza: l'Intelligence artificielle en guerre», Politique étrangère, vol. 89, otoño de 2024, p. 47). El ser humano ya no está en condiciones de aprehender y dominar el sistema, ni de comprender plenamente el entorno en el que se despliega.

Un informe de la Fundación Carnegie para la Paz Internacional (véase Christopher S. Chivvis, «How AI Might Affect Decisionmaking in a National Security Crisis», CEIP, 17 de junio de 2024), dedicado al uso de la IA por China en situaciones de crisis (como el bloqueo de Taiwán), muestra que la masa de datos producida por los sistemas de IA puede provocar una sobrecarga de decisiones para el Gobierno estadounidense. En primer lugar, aunque la IA puede acelerar el análisis de la información e identificar tendencias, también podría ralentizar la toma de decisiones al generar más datos que evaluar. De hecho, los sistemas de IA producen ambigüedad estratégica: más datos, más dudas, y menos tiempo para decidir. En segundo lugar, los sistemas de IA ralentizan la toma de decisiones, ya que tienen que reflexionar sobre si el adversario también puede estar utilizando la IA y cómo, por ejemplo, mediante la generación de deepfakes que influyen en la opinión nacional. Esto hace que las intenciones de cada bando resulten ilegibles, creando incertidumbre. En estas situaciones, la IA no disipa la niebla de guerra clausewitziana1, sino que la digitaliza.

Ruptura epistemológica: reconceptualización de los marcos conflictivos entre estados

La integración de la IA en la guerra moderna trasciende su conceptualización actual como elemento multiplicador de fuerzas o «facilitador», ya que pone en tela de juicio los marcos epistémicos tradicionales que sustentan las relaciones interestatales, y modifica las temporalidades de los regímenes. El creciente uso de la IA trastoca conceptos de seguridad tradicionales y bien arraigados, tales como: el equilibrio de poder (véase Horowitz, op.cit),la disuasión (véase Alex Wilner, «AI and the Future of Deterrence: Promises and Pitfalls», CIGI, 28 de noviembre de 2022), y el dilema de seguridad (véase Christopher Meserole, «Artificial intelligence and the security dilemma», Brookings, 6 de noviembre de 2028), ya que se basan en las premisas de una intención humana distinguible y en cierto modo predecible, por lo que cada vez resulta más difícil captar los efectos de unos datos de IA rápidos, opacos y que se autoperpetúan.

Tomemos como ejemplo la disuasión: esta presupone un tiempo para comunicar las intenciones, advertir y, finalmente, desescalar. Sin embargo, el ciclo acelerado «objetivo-identificación-acción» inducido por la IA puede provocar un cortocircuito en estos pasos. Un sistema algorítmico puede detectar una amenaza y reaccionar sin una validación humana completa, desencadenando una espiral de escalada involuntaria. En este contexto, las actuales lógicas de disuasión se vuelven inoperativas: en el mejor de los casos son demasiado lentas y, en el peor, inadecuadas.

Ante esta situación, las lagunas teóricas hacen necesaria la (re)invención de nuevas herramientas epistemológicas y marcos conceptuales para evitar malinterpretar la guerra impulsada por la IA y las dinámicas de escalada. Ya no son solo los estados o los humanos los que participan en la toma de decisiones: los conceptos y marcos teóricos deben ser capaces de dar cuenta de esta pluralidad de agentes, temporalidades y ambigüedades.

En conclusión, la integración de la IA en la dinámica militar no supone un simple cambio de escala, sino de temporalidad y de naturaleza. De este artículo se desprenden tres lecciones: en primer lugar, la aceleración algorítmica crea una brecha entre la velocidad de la acción y el tiempo necesario para la toma de decisiones éticas, debilitando el control humano y diluyendo la responsabilidad. En segundo lugar, la IA no garantiza una toma de decisiones más veloz: puede provocar una avalancha de información, una parálisis en la toma de decisiones y un aumento de la incertidumbre. Y, en tercer lugar, la modulación de las temporalidades vuelve obsoletos los conceptos tradicionales de seguridad, en particular la disuasión. Cada vez resulta más necesario inventar nuevos imaginarios metodológicos, que fusionen campos como la historia militar, el derecho internacional, la ética, la informática e incluso el arte. Frente a la idea convencional entre los expertos estratégicos de que el papel humano disminuirá en la guerra contemporánea, o «el fin del monopolio humano sobre la guerra» (Singer, 2010, p. 17), sostengo que el papel humano adquirirá más bien una nueva dimensión. La IA no nos libera de la carga de la toma de decisiones humanas, sino que exacerba la complejidad, la urgencia y las responsabilidades éticas de las decisiones informadas en tiempos de guerra.

Nota:

1- N. del Ed.: la noción de la «niebla de guerra» se atribuye habitualmente al militar prusiano Carl von Clausewitz, quién nunca la empleó literalmente en sus escritos, pero que parafrasea una idea expresada en su canónico manual De la Guerra (1832-1835)«la guerra es el reino de incertidumbre, donde tres de cada cuatro factores en que se basan las acciones bélicas están envueltas en una niebla de mayor o menor incertidumbre».