Apunts | Guerres cognitives: la ment humana com a camp de batalla

Anuari Internacional CIDOB_2026
Data de publicació: 11/2025
Autor:
Carme Colomina, investigadora sènior i editora, CIDOB
Descarregar PDF

Internet ha redimensionat el vell concepte de «guerra cognitiva». Les tècniques manipuladores de la Guerra Freda ─de la propaganda a la difusió de missatges inventats, dades falses o desinformació─ s’han amplificat exponencialment gràcies a la tecnologia i la hiperconnectivitat, que n’han multiplicat la potència i sofisticació. L’espai digital és un nou front de disputa. Un territori virtual per a la conquesta de la ment i de la conformació d’opinió, on els processos cognitius com ara l’atenció, la memòria i les respostes emocionals poden ser distorsionats o explotats. La preeminència de les xarxes socials ha facilitat l’accés a aquesta manipulació dels processos de deliberació i presa de decisions. Una quantitat ingent de dades personals, i la plataformització de la nostra vida, les nostres preferències i necessitats, faciliten una nova forma de dominació que, segons el filòsof Byung-Chul Han, «no s’exerceix mitjançant l’opressió, sinó mitjançant la comunicació». La informació no solament informa, «sinó que també crea forma». La paraula duu implícita un marc mental i uns valors concrets, que s’han convertit en l’arma híbrida d’aquesta confrontació cognitiva. 

La tecnologia ha multiplicat les oportunitats d’identificar determinades audiències, i les estratègies més eficients per arribar-hi. Les possibilitats són nombroses: des de l’amplificació i l’acceleració algorítmica de missatges que penetren en la capil·laritat de la societat fins a la creació d’imatges virtuals específiques (deepfakes, realitat virtual), mems, desinformació i comunitats en xarxes socials que permeten viralitzar, de forma contagiosa i sense filtres, un contingut dissenyat per a l’erosió. El seu objectiu és canviar no solament el que la gent pensa, sinó també com actua. Busca escampar el dubte; erosionar la creença en la facticitat; introduir narratives contradictòries; polaritzar l’opinió, radicalitzar grups i alimentar accions que puguin pertorbar o fragmentar una comunitat. Es tracta d’identificar i explotar vulnerabilitats prèvies i fractures socials, amplificar la fustigació, irrompre en espais civils i desestabilitzar-los. Els linxaments digitals duen a l’autocensura. Augmenta la por i la inseguretat. I tot això erosiona encara més el dret a la informació de qualitat com un bé públic imprescindible per garantir la pluralitat dels espais de discussió democràtica.

La manipulació de les mètriques socials es duu a terme mitjançant eines diverses: comptes falsos automatitzats; plataformes d’usuaris freelance a sou d’estratègies d’amplificació; intercanvis de likes; software maliciós (malware) que actua sense permís de l’usuari, per exemple, a través d’extensions del navegador; o a través de tècniques de fustigació i intimidació en línia… L’ecosistema de xarxes socials presenta nombroses vulnerabilitats, tant tècniques com cognitives, que es poden explotar des de les zones grises on operen aquests serveis… i aquestes tècniques d’influència es venen al mercat negre de la manipulació en línia. 

La geopolítica de la postveritat ha transformat amenaces i estratègies. Però, en aquest espai confús, la Intel·ligència Artificial ofereix unes possibilitats enormes de sofisticació de les zones grises. La nova propaganda exigeix anàlisis forenses. Les imatges reciclades, les falses transmissions en viu o, fins i tot, l’ús de fragments de videojocs, com suposades escenes de combat que van proliferar en altres conflictes, conviuen avui amb vídeos generats amb IA, com els que van inundar les xarxes socials durant els dotze dies de conflicte entre l’Iran i Israel, o amb la manipulació de chatbots d’Intel·ligència Artificial (una tècnica coneguda com a Large Language Models Grooming) per alterar les respostes facilitades a usuaris a la recerca de fonts fiables, com es va poder veure durant les protestes a Los Angeles l’estiu de 2025. Els bots també inventen i poden contribuir al caos d’informació. El biaix algorítmic pot estar influenciat i alimentat tant per la desinformació com per la informació errònia que omple l’espai digital, però el seu impacte es multiplica exponencialment quan les dades utilitzades per entrenar un model d’IA són, en si mateixos, una mostra esbiaixada. Aquesta realitat reforça la tendència que la desinformació del futur no serà creada per humans, sinó per un poder computacional, un fet que potenciarà el seu caràcter elusiu i incontrolable. El concepte mateix de «repressió algorítmica» s’endinsa en el poder de les empreses tecnològiques i de les xarxes socials, juntament amb els actors estatals, en la perpetuació del control hegemònic i la repressió de la dissidència. 

Des del llançament de ChatGPT el novembre de 2022, els atacs de phishing (que falsifiquen comunicacions en línia o llocs web reals) s’han multiplicat per més de quaranta. Els deepfakes, que imiten fotos, vídeos i àudios de persones reals, s’han multiplicat per més de vint. La capacitat d’alterar la informació o les dades, factors decisius per a l’obtenció del poder, s’ha convertit en una amenaça per als processos democràtics. «L’anàlisi automatitzada de sentiments» permet que les màquines comprenguin i interpretin el llenguatge humà per desxifrar el to emocional subjacent del contingut textual. Les eines avançades d’anàlisis de sentiments no identifiquen només emocions, sinó que també poden detectar patrons i tendències, mostrant de quina manera el sentiment podria canviar amb el temps o com a resposta a esdeveniments concrets. 

En aquesta proliferació d'instruments, la viralització del contingut fals o enganyós conviu amb la capacitat de manipulació cognitiva del comportament en un context cada cop més difús i poblat d’actors interns i externs, privats i estatals. Tot plegat complica cada vegada més l'entorn geopolític i la cohesió social mateixa. Facilita la penetració d'entitats estrangeres que poden influir en la intenció de vot; pot sembrar dubtes entre l'opinió pública mundial sobre el que passa en zones de conflicte; o pot utilitzar-se per perjudicar la imatge de productes, països o individus. Si alguna cosa havia caracteritzat la idea primigènia de l'espai digital global era l'afebliment del principi de territorialitat, superat per espais difusos, descentralitzats i hiperconnectats. Res més lluny de la situació actual. Internet s'ha convertit, cada cop més, en un territori fragmentat, i no solament per la confrontació de relats i la compartimentació del debat en línia en bombolles de visions i suposades veritats contraposades. L'espai digital és un front de competició tecnològica i militar. Tanmateix, entendre la desinformació i la ingerència com a conseqüència directa d'una amenaça exterior és limitat i esbiaixat. Les línies entre actors interns i externs són difuses. Hi ha una nebulosa de grups creadors o propagadors de la desinformació i la propaganda que no estan delimitats geogràficament ni organitzats de manera centralitzada. Investigacions europees demostren que les campanyes de desinformació depenen principalment de recursos nacionals.

Els conflictes sempre han inclòs una forta dimensió d’ideació, però, en la guerra cognitiva, la ment humana esdevé el camp de batalla. Un espai de domini geopolític que satisfà alhora la necessitat humana de connectivitat social. La digitalització i l’ús quotidià del ciberespai han convertit aquest domini artificial en un lloc de conseqüències reals.