Prova (1)

È mezzanotte e il feed tiene accesa la stanza: una valanga di voci, smentite, video verticali che chiedono di credere “subito, adesso”. Ma non è solo informazione; è architettura dell’attenzione, un modo di disegnare il nostro campo visivo ed emotivo affinché certe cose diventino importanti e altre scompaiano. Nei documenti strategici questo ha un nome preciso cognitive warfare, la competizione per la dimensione cognitive. Le istituzioni militari e civili descrivono una corsa aintegrare strumenti d’influenza in tutti i domini (terra, mare, aria, spazio, cyber) per produrre effetti nella mente: condizionare attenzione, memoria, emozioni, decisioni. È una guerra di narrative che opera lungo l’intero continuum tra pace e conflitto, amplificando anche gli effetti cinetici quando serve. 

La NATO parla sempre più di “cognitive superiority”: eccellere in comprensione e decisione, difendendo l’ecosistema mentale dei cittadini e dei decisori.  L’UE, con la Strategic Compass, sviluppa strumenti contro la Foreign Information Manipulation and Interference (FIMI); i report 2025 dell’EEAS documentano campagne coordinate che sfruttano vulnerabilità cognitive e spaccature sociali. 

La guerra cognitiva, si sviluppa attualmente in tre mosse (informare, interferire, alterare)

Informare (per orientare)
Disinformazione, reflexive control, marketing politico, uso tattico delle echo-chambers (bolle di consnso): non si chiede di credere a una menzogna, si spinge a dubitar di tutto tranne che della propria tribù. Gli attori efficaci entrano in narrazioni preesistenti e le polarizzano. 

Interferire (per saturare)
Sovraccarico informativo, botnet, micro-targeting comportamentale: l’obiettivo è rompere il ciclo attentivo e frammentare il sense-making. Nel lessico NATO-ACT, la guerra cognitiva sfrutta biase scorciatoie mentali per degradare la razionalità.

Alterare (per spostare)
Tra le frontiere emergenti: neurotecnologie dual-use, interfacce cervello-macchina, neuromodulazione, farmacologia cognitiva. Una letteratura ormai ampia discute lo scenario della “neurowar”: tecnologie capaci di modulare stati mentali, emozioni e comportamento. Servono regole etiche e soglie di deterrenza prima che “neuropotenziamenti” e neuroweapons escano dal laboratorio. 

Il cervello è il prossimo teatro di guerra

La mente cosciente copre una parte minima del nostro processo decisionale; la quota inconscia, dove vivono bias, identità, paure, è il vero bersaglio. 

Eccesso di stimoli → filtri mentali → spin emotivo → scelta rapida

 lo schema ideale per chi progetta influenza. 

Per questo i “colpi” più efficaci non sono “fake clamorose”, ma minimi spostamenti cumulativi: la cornice, l’ordine degli argomenti, le domande che non facciamo più.

La Royal Society (2012) avvertiva: potenziamenti, neuromodulazione, neuro-sensing hanno implicazioni militari e di law-enforcement, richiedono tutele legali per militari e civili, vigilanza sul dual-use, limiti chiari su agenti incapacitanti e neurostimolazione. In breve: progresso sì, ma con paletti.
Oggi il dibattito si è allargato: non basta “respingere” la disinformazione, serve una governance della sfera cognitiva: trasparenza sugli algoritmi, audit delle piattaforme, red teaming delle narrative, alfabetizzazione neuro-media.

Da qui si scivola nel politico quasi senza accorgersene: la stessa logica—produrre effetti nellamente—diventa industriale quando entra nei cicli dell’algoritmo e della propaganda computazionale. 

Da anni l’Oxford Internet Institute fotografa l’uso organizzato dei social da parte di governi e partiti: cyber troops, astroturfing (reti coordinate che imitano attivismo organico) e micro-targeting(che semina stimoli emotivi dove attecchiscono meglio). 

Dentro questa cornice le traiettorie dei leader sono diversi esercizi della stessa partitura. 

In Russia, dopo il 2022, Facebook e Instagram sono stati banditi e Meta bollata come “organizzazione estremista”: una scelta giudiziaria e politica che chiude il perimetro dell’ecosistema informativo, mentre all’esterno la linea è corrodere la fiducia nelle democrazie con campagne coordinate che le piattaforme smantellano periodicamente. Il messaggio parla alla base interna (“noi assediati dalle menzogne”) e al contempo lavora nelle fratture degli altri (“voi non credete più a nessuno”). È la guerra della fiducia: chi spezza il cemento del terreno comune, vince tempo e spazio. 

Negli Stati Uniti l’era Trump ha mostrato come dati e piattaforme possano diventare megafoni identitari: lo scandalo Cambridge Analytica ha reso pubblico il valore della filiera dati-profili-messaggi, e la sanzione record della FTC a Facebook—5 miliardi di dollari—ha segnato un confine, almeno sul piano della privacy. Poi la ricerca ha fatto il suo mestiere: esperimenti su Facebook e Instagram durante il 2020 hanno misurato effetti minori sulla persuasione diretta, ma cambiamenti reali nell’esposizione alle notizie, nella partecipazione e, soprattutto, nel calore emotivo con cui sentiamo “gli altri”. Che, in fondo, è dove la politica vince o perde oggi: non sulle idee concrete o idologie, ma sulla temperatura affettiva che ci tiene in bolla. 

In Israele, durante i governi Netanyahu, l’ecosistema filo-governativo ha sperimentato strumenti che coordinano messaggi e “missioni” online: il caso Act.IL è stato studiato come political astroturfing. Più di recente Meta ha smantellato una rete legata a una società israeliana (STOIC) che usava commenti verosimilmente generati da AI per apparire come studenti e cittadini “preoccupati”. È un passaggio storico: la coordinated inauthentic behavior diventa testuale e generativa, a basso costo, replicabile, capace di saturare sezioni commenti con voci che non esistono. Non dimostra che tutto sia falso; mostra quanto sia semplice truccare il brusio di fondo che ci fa sembrare “ovvio” ciò che passa di bocca in bocca. 

E poi c’è l’altra forma di bolla: quella strutturale. In Europa, l’Ungheria racconta che cosasignifica media capture: concentrazioni proprietarie, pubblicità statale selettiva, controllo della TV pubblica e un ecosistema dove il pluralismo è formalmente vivo ma sostanzialmentesbilanciato. Ed è in questo paesaggio che la libertà di informarsi diventa una questione pratica di accessi, pesi, tempi. 

Ma perché funziona su chiunque, persino su chi pensa di non cascarci? Perché gli attacchi non cercano di convincerti del falso con un colpo di teatro; ti spostano di pochi gradi, tante volte. Segmentano l’attenzione, danno priorità a ciò che conferma la tua tribù, riducono l’esposizione incrociata e accendono emozioni che semplificano lo sforzo cognitivo. Anche quando “non mi hai convinto”, hai regolato il tuo tempo in piattaforma, i link che hai aperto, le persone con cui hai parlato. La persuasione resta modesta, ma il paesaggio mentale cambia: meno terreno comune, più salienze identitarie, più facilità a vedere nell’altro una minaccia. Intanto le reticoordinate -statali, para-statali, private- si infilano nelle fessure con testi generati automaticamente che sembrano “la gente”, e le rimozioni trimestrali delle piattaforme sono la cronaca in tempo reale dell’evoluzione di questa industria. 

In questo quadro saturo, la Global Sumud Flotilla ha messo in mare un gesto che fa attrito al tempo degli algoritmi: decine di barche, attivisti da più di quaranta Paesi, l’idea semplice e ostinata di portare aiuti e rimettere al centro il principio umanitario. Una contro-narrazione che non urla, ma insiste, documenta, chiama testimoni, costruisce ponti diplomatici e mediatici perché il mare non diventi un fuori campo. Anche quando la rotta è stata segnata da attacchi attribuiti a droni, sabotaggi, jamming e respingimenti, la risposta è stata mobilitare protezioni istituzionali, chiedere inchieste indipendenti, mantenere aperti i canali con giornalisti e osservatori. Qui la notizia non è il colpo di scena, l’esplosione nella notte, il video che brucia, ma la capacità di una comunità concreta, umana e transnazionale di restare visibile, leggibile, verificabile, imponendo a tutti la domanda più semplice e più politica: che cosa significa davvero sicurezza quando a bordo ci sono solo civili? 

A questo punto, se “la guerra è nel cervello”, la risposta più radicale non è un contromissile informativo: è un diverso modo di stare nel tempo. Lentezza come prima linea: leggere fino in fondo, verificare le fonti, lasciare che la rabbia scenda, che la paura non decida per noi. Dall’altra parte dell’urgenza scopriamo che l’approfondimento non è uno spiegone, ma un gesto di cura: cucire contesti, legare fatti, esplicitare ciò che sappiamo e ciò che non sappiamo. E poi parlare, davvero: piccoli cerchi regolari, dal vivo e online, dove il confronto non è un’arena ma un tavolo, e l’obiettivo non è vincere l’argomento ma capirlo insieme. L’ascolto, qui, diventa mestiere: domande che aprono (“cosa intendi davvero?”), restituzioni che accertano (“ti ho capito così, è corretto?”), limiti che proteggono (“ci fermiamo, riprendiamo domani”). Anche il conflitto cambia pelle: si gestisce senza spettacolo, con tempi morti quando sale la temperatura, regole semplici, la libertà di non avere l’ultima parola. Così la rete torna tessuto: newsletter lente, incontri cadenzati, laboratori di verifica, storie che non cercano il colpo ma la continuità. È un modo “improduttivo” per gli algoritmi e per questo prezioso per noi: rallentare per scegliere, approfondire per riconoscersi, dialogare per restare in relazione, ascoltare per trasformare un feed in una comunità. Nell’epoca che ci spinge a reagire in ogni istante, la contro-mossa più potente è imparare a rispondere, con calma, e a costruire insieme il terreno comune su cui la mente può ancora respirare. Forse in Apical abbiamo cominciato a percorrere proprio questa strada. Insieme.

A cura di Daniele Casolino.