Apuntes | Guerras cognitivas: la mente humana como campo de batalla

Anuario Internacional CIDOB 2026
Fecha de publicación: 11/2025
Autor:
Carme Colomina, investigadora sénior y editora, CIDOB
Descargar PDF

Internet ha redimensionado el viejo concepto de «guerra cognitiva». Las técnicas manipulativas de la Guerra Fría –de la propaganda a la difusión de mensajes inventados, datos falsos o desinformación– se han visto amplificadas exponencialmente por la tecnología y la hiperconectividad, que han multiplicado su potencia y su sofisticación. El espacio digital es un nuevo frente de disputa. Un territorio virtual para la conquista de la mente y de la conformación de opinión, donde los procesos cognitivos como la atención, la memoria y las respuestas emocionales pueden ser distorsionados o explotados. La preeminencia de las redes sociales ha facilitado el acceso a esta manipulación de los procesos de deliberación y toma de decisiones. Una cantidad ingente de datos personales, y la plataformización de nuestra vida, nuestras preferencias y necesidades, facilitan una nueva forma de dominación que, según el filósofo Byung-Chul Han, «no se ejerce mediante la opresión, sino mediante la comunicación». La información no solo informa, «sino que también crea forma». La palabra lleva implícita un marco mental y unos valores concretos, que se han convertido en el arma híbrida de esta confrontación cognitiva.  

La tecnología ha multiplicado las oportunidades de identificar determinadas audiencias, y las estrategias más eficientes para llegar a ellas. Las posibilidades son ingentes: desde la amplificación y aceleración algorítmica de mensajes que penetran en la capilaridad de la sociedad a la creación de imágenes virtuales específicas (deepfakes, realidad virtual), memes, desinformación y comunidades en redes sociales que permiten la viralización, contagiosa y sin filtros, de un contenido diseñado para la erosión. Su objetivo es cambiar no solo lo que la gente piensa, sino también cómo actúa. Busca sembrar la duda; erosionar la creencia en la facticidad; introducir narrativas contradictorias; polarizar la opinión, radicalizar grupos y alimentar acciones que puedan perturbar o fragmentar una comunidad. Se trata de identificar y explotar vulnerabilidades previas y fracturas sociales, amplificar el hostigamiento, irrumpir en espacios civiles y desestabilizarlos. Los linchamientos digitales llevan a la autocensura. Aumenta el miedo y la inseguridad. Y, todo ello, erosiona aún más el derecho a la información de calidad como un bien público imprescindible para garantizar la pluralidad de los espacios de discusión democrática.

La manipulación de las métricas sociales se lleva a cabo mediante diversas herramientas: cuentas falsas automatizadas; plataformas de usuarios freelance a sueldo de estrategias de amplificación; intercambios de «me gusta»; software malicioso (malware) que actúa sin el permiso del usuario, por ejemplo, a través de extensiones del navegador; o a través de técnicas de hostigamiento e intimidación online… El ecosistema de redes sociales presenta numerosas vulnerabilidades, tanto técnicas como cognitivas, que pueden explotarse desde las zonas grises donde operan estos servicios… y estas técnicas de influencia se venden en el mercado negro de la manipulación online.

La geopolítica de la posverdad ha transformado amenazas y estrategias. Pero, en este espacio confuso, la Inteligencia Artificial ofrece unas posibilidades ingentes de sofisticación de las zonas grises. La nueva propaganda exige análisis forenses. Las imágenes recicladas, las falsas transmisiones en vivo o incluso la utilización de fragmentos de videojuegos como supuestas escenas de combate que proliferaron en otros conflictos, conviven hoy con vídeos generados con IA, como los que inundaron las redes sociales en los 12 días de conflicto entre Irán e Israel, o con la manipulación de chatbots de Inteligencia Artificial (una técnica conocida como «Large Language Models Grooming») para alterar las respuestas facilitadas a usuarios en busca de fuentes fiables, como se vio durante las protestas en la ciudad de Los Ángeles en el verano de 2025. Los bots también inventan y pueden contribuir al caos informacional. El sesgo algorítmico puede verse influenciado y alimentado tanto por la desinformación como por la información errónea que inunda el espacio digital, pero su impacto se multiplica exponencialmente cuando los datos utilizados para entrenar un modelo de IA son en sí mismos una muestra sesgada. Esta realidad refuerza la tendencia de que la desinformación del futuro no será creada por humanos, sino por puro poder computacional, lo que potenciará su carácter elusivo e incontrolable. El propio concepto de «represión algorítmica» ahonda en el poder de las empresas de tecnología y de las redes sociales, junto con los actores estatales, en la perpetuación del control hegemónico y la represión de la disidencia. 

Desde el lanzamiento de ChatGPT en noviembre de 2022, los ataques de phishing (que falsifican comunicaciones online o websites reales) se han multiplicado por más de cuarenta. Los deepfakes, que imitan fotos, vídeos y audios de personas reales, se han multiplicado por más de veinte. La capacidad de alterar la información o los datos, factores decisivos para la obtención del poder, se ha convertido en una amenaza para los procesos democráticos. El «análisis automatizado de sentimientos» permite que las máquinas comprendan e interpreten el lenguaje humano para descifrar el tono emocional subyacente del contenido textual. Las herramientas avanzadas de análisis de sentimientos no solo identifican emociones, sino que también pueden detectar patrones y tendencias, revelando cómo el sentimiento podría cambiar con el tiempo o en respuesta a eventos específicos. 

En esta proliferación de instrumentos, la viralización del contenido falso o engañoso convive con la capacidad de manipulación cognitiva del comportamiento en un contexto cada vez más difuso y poblado de actores internos y externos, privados y estatales. Todo ello complica cada vez más el entorno geopolítico y la propia cohesión social. Facilita la penetración de entidades extranjeras que pueden influir en la intención de voto; puede sembrar dudas entre la opinión pública mundial sobre lo que ocurre en zonas de conflicto; o puede utilizarse para perjudicar la imagen de productos, países o individuos. Si algo había caracterizado la idea primigenia del espacio digital global era el debilitamiento del principio de territorialidad, superado por espacios difusos, descentralizados e hiperconectados. Nada más lejos de la situación actual. Internet se ha convertido, cada vez más, en un territorio fragmentado, y no solo por la confrontación de relatos y la compartimentación del debate online en burbujas de visiones y supuestas verdades contrapuestas. El espacio digital es un frente de competición tecnológica y militar. Sin embargo, entender la desinformación y la injerencia como consecuencia directa de una amenaza exterior es limitado, sesgado. Las líneas entre actores internos y externos son difusas. Hay una nebulosa de grupos creadores o propagadores de la desinformación y la propaganda que no están delimitados geográficamente ni organizados centralmente. Investigaciones europeas demuestran que las campañas de desinformación dependen en mayor medida de recursos nacionales. 

Los conflictos siempre han incluido una fuerte dimensión de ideación pero, en la guerra cognitiva, la mente humana se convierte en el campo de batalla. Un espacio de dominio geopolítico que, a la vez, satisface la necesidad humana de conectividad social. La digitalización y el uso cotidiano del ciberespacio han convertido este dominio artificial en un lugar de consecuencias reales.