Guerra algorítmica: la militarización de Silicon Valley y de la industria tecnológica
La escena ‒imaginada‒ que les propongo tiene lugar dentro de un año, en la estepa del suroeste de Groenlandia. Las tropas danesas, con la ayuda de soldados de otros países escandinavos, luchan contra una invasión por parte del ejército estadounidense. Semanas antes, tras varios intentos fallidos de comprar la isla más grande del mundo, el presidente de EEUU había declarado que, por una cuestión de seguridad nacional, tomaría el control de Groenlandia por la vía que fuera necesaria. A la luz de los acontecimientos, Dinamarca y sus aliados nórdicos acuerdan desplegar rápidamente sus tropas para defender la capital, Nuuk, y otros enclaves estratégicos.
De pronto, sin previo aviso, llegan los robots. La primera oleada consiste en una flota de embarcaciones autotripuladas; drones autónomos propulsados por una combinación de energía solar y eólica que surcan las frías aguas de Nuup Kangerlua, el estratégico fiordo groenlandés. Frente a los escarpados acantilados y los canales azul cobalto tallados durante eones por los glaciares, las máquinas espían los buques de guerra y los submarinos escandinavos al borde del Ártico.
Horas más tarde, bajo una resplandeciente aurora boreal, se desata el infierno. Drones submarinos en forma de raya y pilotados por Inteligencia Artificial (IA) atacan con torpedos un submarino noruego que patrulla la entrada del fiordo. Poco después, un enjambre de drones submarinos ejercen de precisos torpedos contra las fragatas danesas estacionadas a pocas millas de Nuuk. Las explosiones revientan los cascos, y las bolas de fuego iluminan el cielo. La flota no tarda en hundirse.
Al romper el día, oleadas de aviones de transporte C-130 lanzan desde el aire vehículos tácticos, y miles de soldados de la 82.ª División Aerotransportada del Ejército de Estados Unidos, se lanzan en paracaídas en las inmediaciones del aeropuerto internacional de Nuuk, al este de la capital. A lo lejos, una manada de majestuosos bueyes almizcleros permanece inmóvil, aturdida e hipnotizada por el espectáculo de los miles de paracaídas que descienden como medusas color esmeralda, en medio del estruendoso rugido de los motores de turbina.
Las tropas estadounidenses se despliegan rápidamente sobre el terreno, dotados de cascos con realidad aumentada mediante IA y visión térmica, ultravioleta y nocturna. Los visores sintetizan los datos captados por satélites de vigilancia, drones aéreos y perros huskies siberianos equipados con cámaras de vídeo. Poco después, los invasores utilizan munición merodeadora (drones kamikaze) para destruir aviones aliados estacionados en el aeropuerto. Las tropas danesas pierden rápidamente el control de las instalaciones.
Varios centenares de paracaidistas estadounidenses se dirigen hacia el centro de la ciudad al día siguiente, acompañados de perros robot armados. En su itinerario de cuatro millas pasan por docenas de viviendas evacuadas, en su mayoría casas de madera con tejado a dos aguas y fachadas de colores brillantes.
Pero a medida que se acercan al Nuuk Center, el alto edificio moderno que alberga la sede del Gobierno de Groenlandia, las cosas se complican. En su búsqueda de francotiradores escandinavos, los perros autómatas fallan y comienzan a disparar en todas las direcciones. El brillo de incontables proyectiles sobrevuela amenazador las cabezas de todos los presentes. Los soldados estadounidenses corren para ponerse a cubierto, pero los cuadrúpedos equipados con IA van en su caza. Cuando el humo se disipa, los cuerpos sin vida de 152 militares cubren las silenciosas calles del centro de Nuuk. La 82.ª División Aerotransportada no había perdido tantos efectivos en una sola operación desde el «día D», el desembarco en Normandía de junio de 1944.
Un escenario de este tipo podría ser menos improbable de lo que imaginamos1. Todas las tecnologías mencionadas están siendo desarrolladas en este momento o se encuentran ya en producción, y las empresas tecnológicas emergentes del ámbito de la defensa están empleándose a fondo para hacerlas realidad: la empresa Saildrone se dedica a la construcción de embarcaciones autónomas de superficie para la Marina de Estados Unidos; Northrop Grumman (junto con PacMar Technologies) está probando un prototipo de submarino sin tripulación llamado «Manta Ray» para DARPA (la Agencia de Proyectos de Investigación Avanzada en Defensa de Estados Unidos); Anduril Industries está desarrollando sumergibles autónomos y los cascos con realidad aumentada del ejército estadounidense; Skydio y Shield AI están proporcionando drones aéreos autónomos a los militares; AeroVironment fabrica la línea «Switchblade» de drones kamikaze; y Ghost Robotics está construyendo «perros» robots a los que se puede equipar con armas. Con cada avance de estas innovaciones tecnologías, se reduce un poco más la separación entre la ciencia ficción y las ciencias aplicadas.
El nuevo complejo militar-industrial
Este artículo trata de cómo, a lo largo de la última década, el centro de gravedad del complejo militar-industrial de Estados Unidos se ha ido desplazando gradualmente del Capital Beltway ‒el cinturón viario que rodea Washington DC, Maryland y Virginia‒ a Silicon Valley y la industria tecnológica. Si bien una gran porción del presupuesto anual del Pentágono ‒que asciende a 886.000 millones de dólares‒, se gastaba en sistemas de armas convencionales fabricados por los gigantes más consolidados del ámbito de la defensa, como Lockheed Martin, Raytheon-RTX, Northrop Grumman y General Dynamics, recientemente estamos asistiendo al surgimiento de una nueva simbiosis, impulsada por grandes empresas tecnológicas, fondos de capital riesgo y pequeñas empresas emergentes.
En su empeño de dotarse de sistemas seguros operados por la IA y de servicios en la nube, el Departamento de Defensa de Estados Unidos está otorgando contratos multimillonarios y plurianuales a Microsoft, Amazon, Google y Oracle. En paralelo, el Pentágono está otorgando financiación a un amplio espectro de empresas tecnológicas emergentes del ámbito de la defensa, más pequeñas pero que no tienen reparos en atajar y sacudir los mercados existentes, regidas por el lema «moverse rápido y romper cosas»2. Entre estos proveedores no solo encontramos a algunas de las mencionadas anteriormente, sino también otros cientos que están pivotando hacia el campo de la defensa3.
Este artículo examina cómo las prioridades de la industria tecnológica, los imperativos de las empresas de capital riesgo y el modelo de las startups de Silicon Valley pueden conducir a productos de alta tecnología costosos que, al emplearse en condiciones reales, resultan ineficaces, impredecibles e inseguros. Muchas de estas tecnologías se desarrollan a marchas forzadas para insuflar el valor monetario de las empresas tecnológicas que las producen y, con demasiada frecuencia, la seguridad nacional y global son sólo consideraciones secundarias.
Además, este texto sugiere que la elevada inversión que las empresas de Silicon Valley están dedicando a la emergente tecnología de datos, puede hacer aumentar la probabilidad de futuras guerras de IA, debido a que estas organizaciones se han comprometido a devolver un alto rendimiento a la inversión (en el caso de los fondos de capital riesgo) o a crear valor para sus accionistas (si se trata de grandes empresas tecnológicas). Una vez que las agencias militares y de inteligencia adopten de forma masiva los sistemas autónomos de vigilancia y de armas, los drones con IA, los medicamentos biofarmacéuticos y otras innovaciones de la industria tecnológica de defensa, se multiplicarán los incentivos financieros para mantener la venta de estos productos dado el «estado de movilización permanente para la guerra» en que se encuentra Estados Unidos4. Paradójicamente, la búsqueda de la seguridad nacional de Estados Unidos puede estar causando la inseguridad global de los próximos años.
La creciente demanda militar de tecnología asistida por IA y servicios en la nube es consecuencia de desarrollos anteriores. Quizás el más determinante sea el fácil acceso a cantidades masivas de datos digitales recopilados por satélites, drones, cámaras de vigilancia, teléfonos inteligentes, publicaciones en redes sociales, mensajes de correo electrónico y otros, que han despertado el interés en los coordinadores del Pentágono por encontrar mecanismos eficaces de análisis de esta información. Esto, junto con el pábulo que se le da desde hace años a la IA por parte de líderes tecnológicos, inversores en capital riesgo, periodistas empresariales y académicos, ha desatado el interés actual de los líderes militares, que se han convencido de que las innovaciones que promete Silicon Valley serán instrumentos de guerra indispensables. El giro del ejército estadounidense hacia la IA y la guerra basada en datos se enmarca en una ola de cambios profundos que afectan al conjunto de agencias e industrias gubernamentales, y que se extienden también al resto de sectores5.
Los acontecimientos mundiales han acrecentado la demanda de tecnologías de Silicon Valley por parte del Pentágono ‒incluyendo el despliegue de drones y sistemas de armamento con IA en Ucrania y Gaza‒, que ya era elevada por efecto de la carrera armamentista mundial en torno a la misma IA. La amenaza de la guerra cibernética extranjera y de las campañas de desinformación también ha impulsado al Departamento de Defensa a realizar grandes inversiones en nuevas tecnologías digitales. De ahí surgen los planes para ampliar las flotas de drones autónomos aéreos, marítimos y terrestres para transporte, vigilancia y combate, adquirir capacidades comerciales de servicios en la nube para el intercambio, almacenamiento y conectividad garantizados de datos, reforzar los sistemas de ciberseguridad de Estados Unidos y emplear la IA para ejercicios de entrenamiento y simulación de combate.
Es probable que estas tendencias se intensifiquen en el contexto político actual, dado que los ejecutivos de la industria tecnológica y los inversores en capital riesgo están teniendo un papel sin precedentes en el desmantelamiento de las agencias reguladoras y en la reducción radical del Gobierno en curso. Incluso antes de que la segunda Administración de Trump tomara el poder en enero de 2025, muchos analistas, e incluso trabajadores de Silicon Valley, expresaron su preocupación por la creciente participación de Google, Amazon, Microsoft y otras empresas en el negocio de la guerra. En 2024, destacados ejecutivos de la industria tecnológica y líderes del capital riesgo, como Elon Musk, Peter Thiel, Marc Andreesen y Ben Horowitz, hicieron grandes aportaciones económicas a la campaña de Trump, y fueron secundados por otros dirigentes de la industria tecnológica, que hicieron donaciones de un millón de dólares al fondo inaugural del presidente electo6. Tal vez sea Musk la manifestación más evidente de la alianza entre la alta tecnología y el liderazgo de la defensa, pues además de servir como director ejecutivo de SpaceX (una compañía a la que el Pentágono ha asignado al menos 5.000 millones de dólares en contratos), tuvo un papel protagonista en las primeras semanas de la nueva administración, al frente del polémico Departamento de Eficiencia Gubernamental de Estados Unidos7.
Velocidad y guerra
Casi con toda certeza, las guerras futuras incorporarán tecnologías cada vez más avanzadas, como el despliegue masivo de drones aéreos, marítimos y terrestres, y de sistemas antidrones. Actualmente, se dedican grandes recursos de investigación al desarrollo de sistemas de navegación autónoma, sistemas de identificación de objetivos y algoritmos de toma de decisiones. Todos estos elementos, sumados a otros también en desarrollo, son necesarios para que un dron autónomo actúe independientemente de los operadores humanos. Tanto los críticos como los defensores de las armas autónomas letales están llamando la atención sobre la existencia de una carrera armamentista mundial por incorporar la IA en el armamento, en la que Estados Unidos, China, Rusia y otros países se apresuran a desarrollar drones autónomos armados; es lo que algunos militares estadounidenses identifican como infraestructuras de aprendizaje automático que tomen control «desde el sensor al disparador»8. En este sentido, la aeronave autónoma experimental XQ-58A Valkyrie, descrita por el New York Times como un «copiloto robot» con IA para pilotos de caza, puede ser un anticipo de lo que vendrá9.
Si la incorporación de esta alta tecnología se generaliza, la velocidad operativa de la guerra puede aumentar de forma drástica y, en última instancia, también la destrucción de la vida humana. Tal vez ningún otro teórico es tan relevante en este ámbito como Paul Virilio, cuyo trabajo exploró los efectos humanos de las tecnologías aceleradoras del conflicto. El trabajo de Virilio se aplica a los riesgos de una guerra regida por algoritmos: «La velocidad es la esencia de la guerra», escribió, citando a Sun Tzu. «Este progreso amenaza con reducir a poco o nada el tiempo en el que la decisión humana puede intervenir en el sistema»10. En el ámbito de los sistemas armamentísticos y de identificación de objetivos dotados de IA esto significa que el personal militar podría tener que tomar decisiones de vida o muerte en una cadencia demasiado rápida para un juicio humano razonado.
La guerra de represalia del ejército israelí en Gaza ofrece un claro ejemplo de cómo los nuevos enfoques impulsados por la IA pueden multiplicar el número de muertes. En paralelo a la respuesta militar israelí a los ataques de Hamás del 7 de octubre de 2022, surgieron informes que vinculaban en parte el gran número de víctimas civiles en Gaza al uso por parte del ejército israelí de un programa informático llamado Habsora («el Evangelio»), que utiliza IA para generar objetivos «casi automáticamente, a un ritmo que desborda lo que hasta entonces era posible». Supuestamente Habsora permitió a las Fuerzas de Defensa de Israel (FDI) lanzar ataques contra edificios residenciales a gran escala para eliminar a agentes de Hamás. Un antiguo oficial de inteligencia israelí se refirió al sistema como «una fábrica de asesinatos masivos»11.
Varios meses después, una investigación reveló que las FDI estaban utilizando en Gaza otros dos programas basados en IA: Lavender, que utiliza algoritmos para identificar y atacar a los agentes de Hamás en función de varias bases de datos; y Where’s Daddy?, un programa diseñado para rastrear geográficamente a los agentes de Hamás hasta sus hogares, antes de atacarlos12. Al parecer, este último programa utiliza un algoritmo que permite matar entre 15 y 20 civiles por el asesinato de cada agente de bajo nivel de Hamás, y hasta 100 civiles por cada agente de alto nivel. Un oficial de inteligencia israelí reflexionaba sobre las consecuencias de este programa que consideraba absurdo ya que: «la mayoría de las personas asesinadas eran mujeres y niños»13.
Los sistemas basados en IA, como Habsora, Lavender y Where’s Daddy?, no son armas autónomas, pero tienden a acelerar los ataques letales y a hacer que matar sea un proceso más autónomo. Al agregar datos de dispositivos como cámaras de vigilancia y teléfonos celulares, los programas pueden generar supuestamente el perfil de un agente de Hamás basándose en la edad, la apariencia física, los patrones de movimiento y las redes sociales. Un aspecto clave de los programas basados en IA es su capacidad para aumentar la tasa de ataques, hasta el punto de hacer irrelevante el papel de los humanos responsables de la toma de decisiones. En términos de velocidad y escala, esta iniciativa difiere de programas anteriores de elaboración de objetivos: «Lo que cambia la IA es la velocidad con la que los objetivos pueden determinarse algorítmicamente y el mandato a la acción resultante. El uso de esta tecnología ha dado lugar a la aniquilación desapasionada de miles de objetivos intencionados (e inintencionados) a gran velocidad y sin mucha supervisión humana. Esto da lugar a una lógica de velocidad y aumento de los resultados que supera todo lo demás»14.
La revista +972 Magazine, que fue la primera en informar sobre el uso de la IA por parte de las FDI, incluyó entrevistas con oficiales de inteligencia israelíes que situaron el alcance de los cambios introducidos por las nuevas tecnologías. Habsora les permitió aumentar drásticamente la capacidad de identificación del objetivo: de 50 al año pasaron a 100 objetivos diarios15. Un oficial explicaba cómo la IA aceleró su trabajo: «Llegados a este punto invertía unos 20 segundos por objetivo. Vi claro el valor añadido nulo como ser humano. Ahorró mucho tiempo»16. El resultado final es una profunda transformación de la interfaz hombre-máquina, en la que el personal militar se limita básicamente a validar los resultados generados mediante IA, ya que los que sufren la violencia de tales acciones están efectivamente deshumanizados.
Aunque las capacidades de Israel en IA son formidables ‒el país tiene una industria tecnológica en auge y muchas empresas tecnológicas de defensa avanzada‒, es importante reconocer el papel de las empresas estadounidenses en el apoyo otorgado a las FDI en su expansión de la guerra en Gaza. A principios de 2025, algunos documentos filtrados revelaron que los sistemas de IA de Microsoft y su tecnología computacional en la nube resultaron cruciales para el ejército israelí durante las fases más intensivas de sus campañas de bombardeo en Gaza17. Incluso antes de que comenzara la guerra de Gaza, Amazon y Google también estaban profundamente comprometidos a ayudar a las FDI a reforzar sus capacidades de computación en la nube y de IA. En enero de 2020, las dos compañías firmaron un contrato para proporcionar estas innovadoras tecnologías al Ministerio de Defensa israelí por valor de 1.200 millones de dólares, conocido como proyecto Nimbus.
Si se realiza un análisis general, es importante considerar las repercusiones que tienen estas formas de guerra acelerada para las víctimas, que son los afectados de una manera más directa. Como se ha señalado en una crítica reciente a los programas de IA de las FDI, los efectos agravantes de la guerra algorítmica van más allá de las muertes, lesiones y destrucción creadas por las herramientas de IA militarizadas. Los efectos también incluyen una forma de «prisión psíquica en la que las personas saben que están bajo vigilancia constante, pero no saben qué “características” físicas o de comportamiento utilizará la máquina»18.
La carrera armamentística tecnológica
Los planificadores militares de varios países tienen miedo de perder la carrera por la velocidad en incorporar esta nueva guerra tecnológica, algo que, desde su perspectiva, es comparable a perder la carrera por la bomba atómica. La situación actual recuerda sorprendentemente la Guerra Fría y la escalada armamentista nuclear entre Estados Unidos y la Unión Soviética. El peligro de destrucción mutua era claro en este caso, pero los planificadores también estaban aterrorizados ante la perspectiva de quedarse atrás19. Hoy en día, muchos oficiales militares entienden los peligros que plantea una carrera armamentista en torno a la IA, pero entienden con aún más nitidez los peligros de perderla. En estas circunstancias, la guerra total operada por algoritmos puede convertirse en una profecía autocumplida.
Aun así, las compañías tecnológicas de defensa estadounidenses siguen haciendo caja. Valga el ejemplo de Palantir, empresa a la que el Pentágono otorgó recientemente un contrato exclusivo para suministrar software de vigilancia e identificación de objetivos basado en IA, y uno de cuyos productos está siendo utilizado por las fuerzas ucranianas20. Tal vez no resulte sorprendente que el director de Palantir, Alex Karp, rechace la idea de «pausar» la IA y haya apoyado firmemente su uso para aplicaciones militares, declarando que ha llegado el «momento Oppenheimer» de Estados Unidos21. El director de Anduril Industries, Palmer Luckey, ha expresado pareceres similares: «Anduril salvará la civilización occidental y ahorrará a los contribuyentes cientos de miles de millones de dólares al año», dijo al Financial Times22. Palantir y Anduril, junto a casi una docena de otras compañías de defensa, están uniendo fuerzas con otras empresas tecnológicas del mismo ámbito para formar un consorcio que licitará conjuntamente para contratos multimillonarios del Pentágono.
Mirando hacia un futuro en el que las crecientes batallas con drones y otras formas de guerra virtual probablemente dejen de ser ciencia ficción para convertirse en una realidad mayor, tal vez valga la pena plantearse cómo será la experiencia de los conflictos armados. Si las tendencias actuales en tecnologías autónomas e IA continúan, ¿es posible que la experiencia de la guerra cambie hasta el punto de que los combatientes vivan una existencia aparentemente ordinaria, incluso banal? ¿En qué medida pueden estas transformaciones disipar aún más la responsabilidad moral de matar?
Muchos analistas han sugerido que, en el contexto del capitalismo global, las tecnologías basadas en IA cada vez desplazarán a más trabajadores. Si se asume que esto sucederá, puede que algún día descubramos que gran parte del trabajo de la guerra esté siendo realizado por programadores y científicos de datos que, en apariencia, parecen estar muy alejados de los campos de batalla virtuales. De hecho, hoy ya podemos ver cambios en el campo de la vigilancia, donde muchas tareas se han transferido a expertos en ciberseguridad que piratean sistemas operativos de teléfonos inteligentes desde parques empresariales suburbanos, o ingenieros de Silicon Valley que pulen algoritmos de cámaras biométricas desde sus oficinas en casa, o soldados de civil analizando datos de geolocalización para un ataque con drones.
Las agencias militares en los EEUU y en otros lugares están haciendo grandes inversiones en investigación sobre IA, y un número creciente de empresas tecnológicas está compitiendo por contratos de defensa. Colectivamente, estas organizaciones se están embarcando en una carrera armamentista por la IA que algún día puede tener terribles consecuencias. Cabe imaginar escenarios futuros en los que sean los programas de ordenador quienes decidan cuándo matar y cuándo no, a pesar de que las máquinas no entiendan el sufrimiento humano. También es concebible un mundo en el que las batallas se libren a un ritmo tan veloz que los humanos no sean capaces de comandarlas. Quizás la consideración más importante es la cuestión de crímenes de guerra cometidos por máquinas, por los que ningún ser humano podrá ser considerado legal o éticamente responsable.
Antes de que sea demasiado tarde, es sin duda necesario abrir un debate sobre el posible giro hacia una IA militarizada; un debate que debe ser liderado por científicos e investigadores, que están especialmente bien situados para entender su relevancia.
Referencias bibliográficas:
Besteman, Catherine y Gusterson, Hugh (eds.). Life by Algorithms: How Roboprocesses Are Remaking Our World. Chicago: University of Chicago Press, 2019.
González, Roberto J. War Virtually: The Quest to Automate Conflict, Militarize Data, and Predict the Future. Oakland: University of California Press, 2022.
Lutz, Catherine. Homefront: A Military City and the American 20th Century. Boston: Beacon Press, 2001.
Suchman, Lucy. «Imaginaries of Omniscience: Automating Intelligence in the US Department of Defense». Social Studies of Science, n.º 53(5) (2022), p. 761-786.
Virilio, Paul. Velocidad y política. Traducción de Víctor Goldstein. Buenos Aires: La marca, 2017.
Notas:
1- Este relato de ficción se basa en las palabras del director de Anduril Industries, Palmer Luckey. Después de que esta empresa emergente de California se convirtiera en el principal contratista del programa de cascos con realidad aumentada del Ejército de los Estados Unidos (que contó con un presupuesto de 22. 000 millones de dólares), Luckey habló de la posibilidad de «convertir a los soldados en superhéroes» y «magos tecnológicos». Predijo que la nueva tecnología inauguraría una era en la que los soldados estadounidenses «superarían las limitaciones de la forma y la cognición humanas, al ser asociados a un continuo en el que los humanos quedarían potenciados con una gran cantidad de compañeros robóticos y biológicos». Véase: Palmer Luckey «Turning Soldiers into Superheroes», blog de Palmer Luckey, 11 de febrero de 2025, (en línea) https://palmerluckey.com/turning-soldiers-into-superheroes/
2- El mantra «muévete rápido y rompe cosas» se le suele atribuir al director ejecutivo de Facebook-Meta, Mark Zuckerberg. Véase: Meghan Bobrowsky. «Zuckerberg Debuts “Real Mark” in Push to Woo Trump». Wall Street Journal, 14 de enero de 2025.
3- González, R. J.: «How Big Tech and Silicon Valley Are Transforming the Military-Industrial Complex», proyecto «Costs of War» de la Universidad Brown (Rhode Island), 17 de abril de 2025. Véase también González (2022).
4- Véase Lutz (2001).
5- En Estados Unidos, los procesos algorítmicos y la IA han transformado la banca, el sector inmobiliario, la educación superior, la atención médica, el entretenimiento, el transporte público, los seguros y mucho más. Véase Besteman, C. et al. (2019).
6- Theodore Schleifer y David Yaffe-Bellany. «In Display of Fealty, Tech Industry Curries Favor with Trump». New York Times, 14 de diciembre de 2024. (en línea) https://www.nytimes.com/2024/12/14/technology/trump-tech-amazon-meta-openai.html.
7- De 2020 a 2024, los contratos gubernamentales de SpaceX casi se cuadruplicaron, pasando de poco más de 1.000 millones de dólares a casi 4.000 millones de dólares, impulsados por el gasto del Pentágono y la NASA. Véase Eric Lipton. «Musk Is Positioned to Profit Off Billions in New Government Contracts». New York Times, 23 de marzo de 2025. (en línea) https://www.nytimes.com/2025/03/23/us/politics/spacex-contracts-musk-doge-trump.html; y Soo Rin Kim. «As Musk Works to Slash Federal Spending, His Own Firms Have Received Billions in Government Contracts». ABC News, 10 de febrero de 2023. (en línea) https://abcnews.go.com/US/musk-works-slash-federal-spending-firms-received-billions/story?id=118589121.
8- Véase Suchman (2022).
9- Eric Lipton. «AI Brings the Robot Wingman to Aerial Combat». New York Times, 27 de agosto de 2023. (en línea) https://www.nytimes.com/2023/08/27/us/politics/ai-air-force.html.
10- Véase Virilio (2017).
11- Yuval Abraham. «“A Mass Assassination Factory”: Inside Israel’s Calculated Bombing of Gaza». +972 Magazine, 30 de noviembre de 2023. (en línea) https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/.
12- Yuval Abraham. «“Lavender”: The AI Machine Directing Israel’s Bombing Spree in Gaza». +972 Magazine, 3 de abril de 2024. (en línea) https://www.972mag.com/lavender-ai-israeli-army-gaza/.
13- Ibid.
14- Elke Schwarz. «Israel Using AI to Identify Human Targets, Raising Fears that Innocents Are Being Caught in the Net». The Conversation, 12 de abril de 2024. (en línea) https://theconversation.com/gaza-war-israel-using-ai-to-identify-human-targets-raising-fears-that-innocents-are-being-caught-in-the-net-227422.
15- Lauren Gould, Linde Arentze y Marijn Hoijtink. «Artificial Intelligence Is Changing the Speed of Targeting and Scale of Civilian Harm in Unprecedented Ways». The Conversation, 23 de abril de 2024. (en línea) https://theconversation.com/gaza-war-artificial-intelligence-is-changing-the-speed-of-targeting-and-scale-of-civilian-harm-in-unprecedented-ways-228050
16- Citado en Yuval Abraham (2024), op. cit.
17- Harry Davies y Yuval Abraham. «Microsoft Deepened Ties with Israeli Military to Provide Tech Support during Gaza War». The Guardian, 23 de enero de 2025. (en línea) https://www.theguardian.com/world/2025/jan/23/israeli-military-gaza-war-microsoft.
18- Lauren Gould, Linde Arentze y Marijn Hoijtink. «Artificial Intelligence Is Changing the Speed of Targeting and Scale of Civilian Harm in Unprecedented Ways». The Conversation, 23 de abril de 2024. (en línea) https://theconversation.com/gaza-war-artificial-intelligence-is-changing-the-speed-of-targeting-and-scale-of-civilian-harm-in-unprecedented-ways-228050.
19- Agradezco a Hugh Gusterson la articulación de estos puntos.
20- Jack Poulson. «Pentagon Certified Palantir as Only Supplier for Artificial Intelligence Targeting Tool Known as “Maven Smart System”». All-Source Intelligence Fusion, 13 de mayo de 2023. (en línea) https://jackpoulson.substack.com/p/pentagon-certified-palantir-as-only
21- Alex Karp. «Our Oppenheimer Moment: The Creation of AI Weapons». New York Times, 25 de julio de 2023. (en línea) https://www.nytimes.com/2023/07/25/opinion/karp-palantir-artificial-intelligence.html
22- Citado en Polly Thompson. «Palmer Luckey Says Anduril Is Working on AI Weapons That “Give Us the Ability to Swiftly Win Any War”». Business Insider, 28 de marzo de 2024. (en línea) https://www.businessinsider.com/palmer-luckey-anduril-defense-startup-ai-weapons-war-2024-3
Imagen: © JD Hancock - Flickr