Macchina di Propaganda Digitale contro Francesca Albanese. Il Branco contro Uno. Lavinia Marchetti.

Marco Tosatti

Cari amici e nemici di Stilum Curiae, offriamo alla vostra attenzione questo post pubblicato su Facebook da Lavinia Marchetti, a cui va il nostro grazie. Buona lettura e condivisione.

§§§

 

LA MACCHINA DELLA PROPAGANDA DIGITALE CONTRO FRANCESCA ALBANESE
di Lavinia Marchetti
Avrete notato che, sotto il mio post sull’odio verso Francesca Albanese, si sono accumulati più di mille commenti: sgrammaticati, violenti, pieni di insulti personali e accuse gratuite. È una galleria di frustrazioni scaricate contro una singola persona, con formule che si ripetono fino alla nausea. Qui ne vedete una selezione nelle immagini. Molti di questi profili presentano tratti ricorrenti: poche centinaia di “amici”, bacheca quasi vuota, impostazioni di privacy che lasciano intravedere poco o nulla della vita reale. Lo sciame restituisce l’impressione di una folla costruita ad arte, confezionata algoritmicamente sul nome di Francesca Albanese, per delegittimarla. Una platea artificiale che serve a dare volume a uno stesso messaggio: Francesca Albanese va ridicolizzata, ridotta a macchietta filoterrorista, così il bersaglio si sposta dalla strage di Gaza alla figura che la denuncia. Dentro questo coro si mescolano persone reali e profili che paiono seriali, forse gestiti in modo coordinato. Il risultato, però, è identico per chi scorre la pagina: un’ondata di odio che appare spontanea, “popolare”, e che rende socialmente accettabile l’aggressione verbale a una relatrice speciale dell’ONU. È da questa massa indistinta di commenti che prende senso il discorso sulla macchina della propaganda digitale che sto cercando di costruire da un po’. Vi rimando anche all’articolo che scrissi tempo fa scaricabile da qui: https://www.academia.edu/…/COME_FA_FACEBOOK_A_SPEGNERE…
ESISTE UN QUADRO DOCUMENTATO SULLA FACCENDA
la sensazione è, appunto, che molti commenti non appartengano a persone reali, oppure che seguano uno schema ripetitivo, preformattato.
Meta, nel 2024, pubblica nel suo Adversarial Threat Report un caso che rivela molto del modo in cui la propaganda digitale israeliana opera. La società annuncia di aver chiuso una rete coordinata di 510 account Facebook, 32 account Instagram, 11 pagine e un gruppo riconducibili a una società israeliana con sede a Tel Aviv chiamata STOIC, specializzata in marketing politico e intelligence commerciale. Questi account fingevano di appartenere a cittadini statunitensi o canadesi, scrivevano in inglese e si presentavano come profili di studenti, attivisti o semplici utenti preoccupati per l’antisemitismo. In realtà erano parte di una campagna di influenza politica costruita con strumenti automatizzati e, in molti casi, con contenuti generati da intelligenza artificiale. Pubblicavano commenti sotto i post di grandi testate internazionali e parlamentari americani, lodando l’operato dell’esercito israeliano, attaccando l’UNRWA, invocando la liberazione degli ostaggi israeliani e screditando qualsiasi voce critica verso il governo di Tel Aviv. Meta spiega che la rete era stata scoperta nelle prime fasi della sua espansione e che l’operazione usava infrastrutture di proxy nordamericani per celare l’origine israeliana. Alcuni di questi account acquistavano like e follower falsi, soprattutto da mercati digitali del Sud-Est asiatico, per simulare popolarità. Quando il sistema automatizzato di Meta ne bloccava una parte, gli operatori dietro la campagna creavano rapidamente nuovi profili, probabilmente provenienti da account farm. La stessa Meta sottolinea che si trattava di una violazione della sua policy contro le “operazioni coordinate per manipolare il dibattito pubblico a fini strategici”. Dopo l’indagine, la società invia a STOIC una lettera ufficiale di divieto permanente e di richiesta di cessazione immediata di qualsiasi attività sulle sue piattaforme. L’azienda israeliana non ha risposto alle domande dei giornalisti. La tempistica è importante: la rete agiva nei mesi immediatamente successivi al 7 ottobre 2023, quando Israele lanciava la sua offensiva su Gaza. I messaggi diffusi dagli account di STOIC seguivano una precisa struttura narrativa: difesa preventiva di Israele, negazione dei crimini di guerra, ridicolizzazione dei report ONU, insinuazioni contro i difensori dei diritti umani. L’obiettivo era spostare il dibattito globale: non più sulla devastazione di Gaza, ma sulla presunta “manipolazione pro-Hamas” dei media occidentali. Meta ha riconosciuto anche che parte dei contenuti pubblicati era stata generata con modelli linguistici di intelligenza artificiale, e che la campagna operava simultaneamente su altre piattaforme, X (ex Twitter) e YouTube, per amplificarne la portata. Questo rende l’operazione di STOIC uno dei primi casi documentati di propaganda politica gestita con AI a livello statale o para-statale. Il collegamento con ciò che è accaduto sotto il mio post è evidente.
OpenAI, nello stesso periodo, annuncia di aver chiuso un cluster di account che usavano i suoi modelli per scrivere articoli, commenti e tweet in una campagna di influenza politica a favore di Israele e contro Hamas, l’UNRWA e gli studenti pro-Palestina nelle università statunitensi (Nick Robins-Early, «OpenAI says Russian and Israeli groups used its tools to spread disinformation», The Guardian, 31 maggio 2024, https://www.theguardian.com/…/openai-disinformation…; Muhammed Yasin Güngör, «OpenAI disrupts Israeli firm over propaganda content», Anadolu Agency, 31 maggio 2024, https://www.aa.com.tr/…/openai-disrupts-israeli…/3236289). I testi venivano poi incollati su Instagram, Facebook, X, confezionati come opinioni di “studenti ebrei” o “cittadini afroamericani” indignati dalle proteste contro Israele.
Sul versante palestinese, il centro 7amleh, Arab Center for the Advancement of Social Media, pubblica un position paper, «A War Without Bullets», in cui descrive la disinformazione come un fronte di guerra parallelo: il governo israeliano utilizza intelligenza artificiale, propaganda a pagamento, cyberattacchi, account falsi, manipolazione algoritmica e censura della stampa per creare una realtà distorta che giustifica il genocidio a Gaza e plasma la coscienza dei giovani (7amleh – The Arab Center for the Advancement of Social Media, «Digital Rights Weekly Update: 10–16 October», 17 ottobre 2025, https://7amleh.org/post/weekly-update-16-october-en).
L’Al Jazeera Media Institute, con il lungo saggio di Ahmad Al-Arja «Weaponized Artificial Intelligence: The Unseen Threat to Fact-Checking», ricostruisce il modo in cui la guerra contro Gaza diventa laboratorio per la propaganda automatizzata: immagini sintetiche, video manipolati, voci clonate, bot che riempiono gli spazi dei social con contenuti filoisraeliani e con finte smentite, fino ai casi in cui la stessa intelligenza artificiale viene usata per falsificare dichiarazioni di esponenti politici e per mettere in dubbio la veridicità della sofferenza palestinese (Ahmad Al-Arja, «Weaponized Artificial Intelligence: The Unseen Threat to Fact-Checking», Al Jazeera Media Institute, 18 maggio 2025, https://institute.aljazeera.net/en/ajr/article/2861).
A questo si aggiungono le campagne pubblicitarie dichiarate. Il Washington Post descrive, ad esempio, gli annunci pagati dal ministero degli Esteri israeliano su YouTube, in cui si mostra un mercato pieno di frutta, verdura e dolci a Gaza per affermare che «there is food in Gaza», proprio mentre gli organismi ONU parlano di carestia in espansione. Immagini vere, ma decontestualizzate, montate per negare la fame prodotta dall’assedio («Google email shows it ruled Israel’s ads claiming “There is food in Gaza” aren’t misleading», The Washington Post, agosto 2025, https://www.washingtonpost.com).
The New Arab racconta il reclutamento di influencer filoisraeliani attraverso società come Bridges Partners, con il cosiddetto “Esther Project”: fino a 7.000 dollari a post per ripetere, in chiave pop e giovanile, la versione governativa della guerra su Gaza («Narrative warfare: Inside Israel’s battle for influence on social media», The New Arab, ottobre 2025, https://www.newarab.com).
Su Gizmodo, l’analisi «The Destruction in Gaza Is What the Future of AI Warfare Looks Like» collega la devastazione materiale della Striscia all’uso militare dell’intelligenza artificiale: sistemi come “The Gospel” elaborano enormi quantità di dati e producono elenchi di obiettivi da colpire, trasformando Gaza in un banco di prova per la guerra algoritmica («The Destruction in Gaza Is What the Future of AI Warfare Looks Like», Gizmodo, maggio 2025, https://gizmodo.com).
L’articolo «The Eighth Front: Israel’s digital Iron Dome and the narrative battle», pubblicato da The Cradle, descrive la dimensione più esplicitamente propagandistica: campagne di geofencing rivolte alle chiese evangeliche negli Stati Uniti, decine di milioni spesi in inserzioni su Google, X e reti pubblicitarie internazionali, un aumento drastico dei fondi stanziati dal ministero degli Esteri israeliano per la “percezione globale”. L’idea è quella di costruire una cupola digitale che protegga l’immagine di Israele e colpisca chi la mette in discussione («The Eighth Front: Israel’s digital Iron Dome and the narrative battle», The Cradle, luglio 2025, https://thecradle.co).
Infine, la lettera aperta di Access Now, Amnesty International, Human Rights Watch, Electronic Frontier Foundation, Fight for the Future e 7amleh indirizzata a Microsoft mostra il lato infrastrutturale di questa guerra: l’uso di Azure e delle tecnologie AI da parte di unità militari come la 8200 per alimentare sistemi di sorveglianza di massa e di targeting contro la popolazione palestinese in Gaza e in Cisgiordania (Access Now, Amnesty International, Human Rights Watch, Electronic Frontier Foundation, Fight for the Future e 7amleh, «Letter to Microsoft on its role in Israel’s war on Gaza», 26 settembre 2025, https://www.accessnow.org).
LA FUNZIONE DEL BRANCO CONTRO UNO SOLO
I commenti raccolti sotto il mio post ripetono gli stessi copioni descritti dalle inchieste: sessismo esplicito, accusa di complicità con Hamas, delegittimazione professionale, sospetto di corruzione, assimilazione al terrorismo. La persona viene ridotta a caricatura, la sua funzione istituzionale cancellata, le sue analisi giuridiche respinte in blocco.
Che parte di questa marea arrivi da account artificiali e parte da persone reali produce comunque lo stesso effetto psichico: chi scorre la pagina percepisce una marea compatta. L’odio diventa paesaggio, normalità. La presenza di bot e account coordinati amplifica certe frasi, rende marginale qualsiasi voce dissonante, costruisce l’impressione che “tutti” pensino la stessa cosa. Una forma di linciaggio digitale che serve a rendere accettabile l’eliminazione simbolica di chi racconta Gaza.
marchetti albanese
§§§

Aiutate Stilum Curiae

IBAN: IT79N0200805319000400690898

BIC/SWIFT: UNCRITM1E35

***

Banner 250x115

1 commento su “Macchina di Propaganda Digitale contro Francesca Albanese. Il Branco contro Uno. Lavinia Marchetti.”

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.

Se hai letto « Macchina di Propaganda Digitale contro Francesca Albanese. Il Branco contro Uno. Lavinia Marchetti. » ti può interessare:

Torna in alto