Apunts | Com la IA reescriu els supòsits operatius, ètics i epistemològics de la guerra moderna
La il·lusió de la velocitat
En un article de 2024, l’estrateg estatunidenc Peter W. Singer comparava els conflictes actuals amb la Guerra Civil espanyola (vegeu «The AI revolution is already here», Defence One, 14 d’abril de 2024). «L’any 1936 –escrivia– ambdós bàndols continuaven fent servir artilleria i excavant trinxeres. No obstant això, paral·lelament, el conflicte contemplava l’arribada del tanc, la ràdio i l’avió. Aquestes innovacions van marcar l’inici d’una transformació profunda de la guerra, que superava amb escreix els mètodes que encara s’empraven sobre el terreny». Així mateix, Singer assenyalava que la Intel·ligència Artificial (IA) està induint una mutació tecnològica a les guerres d’Ucraïna i Gaza, les primeres denominades «guerres de la IA». La IA aplicada a la guerra moderna suposa un punt d’inflexió, els efectes de la qual s’estendran més enllà del camp militar i afectaran el dret, l’ètica o la política.
La irrupció de la IA en l’àmbit militar no es limita a l’ús d’armes d’alta tecnologia al camp de batalla. Com ha assenyalat Michael C. Horowitz (vegeu «Artificial Intelligence, International Competition, and the Balance of Power», Texas National Security Review, maig de 2018), la IA no és una «arma» en el sentit tradicional, sinó una tecnologia instrumental, comparable a l’electricitat o a un motor de combustió: reconfigura profundament les formes d’acció i la mateixa arquitectura bèl·lica. En aquest sentit, la seva integració creixent en les operacions militars s’ha d’analitzar des d’una perspectiva crítica. En aquest article es postula que la variació de velocitat i l’automatització introduïdes per la IA a la guerra plantegen tres reptes principals: en primer lloc, augmenten les decisions automatitzades i generen dilemes ètics; en segon lloc, els sistemes d’IA poden arribar a alentir, en comptes d’accelerar, la presa de decisions operatives i estratègiques; i, finalment, la IA trenca els marcs epistemològics tradicionals que fins ara circumscrivien les relacions conflictives entre estats.
Velocitat, automatització i ètica
El programari Lavender, utilitzat per l’exèrcit israelià des de l’octubre de 2023 a Gaza, il·lustra clarament l’automatitzacióde la guerra. Aquest sistema d’IA ha estat dissenyat per identificar, a partir de l’agregació massiva de dades, individus sospitosos de pertànyer a Hamàs. Segons les investigacions de +972 Magazine i Local Call (vegeu «‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza», +972 Magazine), aquest programari va seleccionar a l’entorn de 37.000 objectius humans, amb un suposat marge d’error del 10%. Crida especialment l’atenció la modulació de la velocitat induïda pels mètodes basats en IA: els agents israelians sovint disposaven de només vint segons per aprovar un atac, essencialment, per verificar que l’objectiu era un ésser humà. Un dels operatius que va donar el seu testimoni afirmava que: «Arribat a aquest punt, invertia uns vint segons per objectiu. Vaig veure clar el valor afegit nul com a ésser humà. I va estalviar-nos molt de temps» (vegeu Bethan McKernan, «The machine did it coldly’: Israel used AI to identify 37,000 Hamas targets», The Guardian, 3 d’abril de 2024). Això implica que els agents no estaven obligats a revisar acuradament les identificacions del sistema d’IA, ja que l’objectiu era estalviar temps i augmentar el nombre d’objectius.
Aquesta cerca de la rapidesa respon a la priorització dels recursos en temps de guerra: la necessitat de diferenciar els objectius deixa de ser tan prioritària i, conseqüentment, augmenta la tolerància a l’error. Per exemple, els individus considerats militants de baix rang no justifiquen ‒a parer d’alguns oficials israelians‒ una inversió significativa de temps o de personal.
Lògicament, a mesura que es redueix el temps, augmenta el risc de danys col·laterals. Aquest procés il·lustra una transformació del cicle «objectiu-identificació-acció», reduït a una simple ‒i necessàriament imperfecta‒ validació de la decisió algorítmica després del tractament massiu de dades. Aquesta acceleració extrema, deguda als «temps de guerra», crea un desfasament entre la rapidesa del processament de dades de la IA i el temps necessari per prendre una decisió ètica dins un marc de legalitat. L’obsessió per la velocitat amaga la pèrdua de control humà i una tolerància més gran als errors. La responsabilitat i la capacitat d’acció se sacrifiquen en nom de l’eficàcia.
Més informació, menys decisió: l’ús de la IA en situacions de crisi
Aquest article qüestiona la idea que la IA permeti una presa de decisions més ràpida i eficaç, i assenyala que també la pot alentir. De fet, s’ha estudiat com el ritme accelerat de la guerra i el «diluvi de dades» que l’acompanya poden perjudicar la capacitat humana de judici, ja que les operacions militars tendeixen a esdevenir massa ràpides per a la comprensió de les persones. Els responsables de la presa de decisions corren el risc de veure’s ofegats en una allau d’informació, incapaços d’exercir-ne la comprensió, a causa de la velocitat amb què reacciona el sistema (vegeu Amélie Férey i Laure de Roucy-Rochegonde, «De l’Ukraine à Gaza: l’Intelligence artificielle en guerre», Politique étrangère, vol. 89, tardor de 2024, p. 47). Davant de l’allau d’informació, l’ésser humà ja no està en condicions d’aprehendre i dominar el sistema, ni de comprendre plenament l’entorn en què es desplega.
Un informe de Carnegie Endowment for International Peace (vegeu Christopher S. Chivvis, «How AI Might Affect Decisionmaking in a National Security Crisis», CEIP, 17 de juny de 2024), sobre l’ús de la IA per part la Xina en situacions de crisi (com el bloqueig de Taiwan), mostra que la massa de dades produïda pels sistemes d’IA pot provocar una sobrecàrrega de decisions per al Govern estatunidenc. En primer lloc, encara que la IA pugui accelerar l’anàlisi de la informació i identificar tendències, també genera més dades que cal avaluar i podria endarrerir la presa de decisions. És per això que s’afirma que els sistemes d’IA poden produir ambigüitat estratègica: més dades, més dubtes i menys temps per decidir. Els sistemes d’IA també alenteixen la presa de decisions en un altre sentit: ens obliguen a reflexionar sobre si l’adversari també pot estar utilitzant la IA i de quina manera, per exemple, mitjançant la generació de deepfakes que influeixin en l’opinió pública nacional. Això fa que les intencions reals de cada bàndol resultin inintel·ligibles, un fet que augmenta la incertesa. En aquestes situacions, la IA no dissipa la boira de guerra clausewitziana1, sinó que la digitalitza.
Ruptura epistemològica: reconceptualització dels marcs conflictius entre estats
La integració de la IA a la guerra moderna transcendeix la seva conceptualització actual com a element multiplicador de forces o «facilitador», ja que qüestiona els marcs epistèmics tradicionals que sostenen les relacions interestatals. L’ús creixent de la IA trastoca conceptes de seguretat tradicionals ben arrelats, com ara l’«equilibri de poder» (vegeu Horowitz, op.cit), la «dissuasió» (vegeu Alex Wilner, «AI and the Future of Deterrence: Promises and Pitfalls», CIGI, 28 de novembre de 2022) o el «dilema de seguretat» (vegeu Christopher Meserole, «Artificial intelligence and the security dilemma», Brookings, 6 de novembre de 2028), ja que es basen en les premisses d’una intenció humana discernible i, fins a cert punt, previsible.
Agafem com a exemple la dissuasió, que pressuposa un temps per comunicar les intencions, advertir i, finalment, desescalar. Tanmateix, el cicle accelerat «objectiu-identificació-acció» induït per la IA pot curtcircuitar tot aquest procés. Un sistema algorítmic pot detectar una amenaça i reaccionar sense una validació humana completa, desencadenant una espiral d’escalada involuntària.
Davant d’aquesta possibilitat, les llacunes teòriques fan necessària la (re)invenció de les eines epistemològiques i dels marcs conceptuals per evitar una interpretació errònia del que comporta la guerra impulsada per la IA i el seu impacte en les dinàmiques d’escalada. Els estats o els humans ja no són els únics que participen en la presa de decisions i cal que conceptes i els marcs teòrics s’adeqüin a la nova pluralitat d’agents, temporalitats i ambigüitats.
En conclusió, la integració de la IA en la dinàmica militar no comporta només un canvi d’escala, sinó també de temporalitat i de naturalesa. Se’n desprenen tres lliçons: en primer lloc, que l’acceleració algorítmica crea una bretxa entre la velocitat de l’acció i el temps necessari per a la presa de decisions ètiques, i que això debilita el control humà i dilueix la responsabilitat. En segon lloc, la IA no garanteix una presa de decisions més ràpida: ben al contrari, pot provocar una allau d’informació, una paràlisi en la presa de decisions i un augment de la incertesa. I, en tercer lloc, la modulació de les temporalitats fa que els conceptes tradicionals de seguretat esdevinguin obsolets, en particular la dissuasió. Cada vegada resulta més necessari inventar nous imaginaris metodològics que fusionin camps com la història militar, el dret internacional, l’ètica, la informàtica i, fins i tot, l’art. Davant de la idea cada cop més estesa entre els experts en estratègia de que el paper dels humans es veurà minimitzat en la guerra contemporània ‒«la fi del monopoli humà sobre la guerra» (Singer, 2010, p. 17)‒, crec que l’aspecte humà adquirirà, més aviat, una nova dimensió. La IA no ens allibera de la càrrega de la presa de decisions humana, sinó que n’exacerba la complexitat, la urgència i les responsabilitats ètiques de les decisions informades en temps de guerra.
Nota:
1- N. de l’Ed.: la noció de la «boira de guerra» s’atribueix habitualment al militar prussià Carl von Clausewitz, que no la va emprar mai literalment en els seus escrits, però que parafraseja una idea expressada en el seu manual canònic De la guerra (1832-1835): «la guerra és el regne de la incertesa, on tres de cada quatre factors en què es basen les accions bèl·liques es troben embolcallats en una boira de més o menys incertesa».