Il Conflitto Iran-USA-Israele: La Prima Guerra dell'AI
Il 28 febbraio 2026, forze statunitensi e israeliane hanno lanciato attacchi sull'Iran. Entro poche ore — non giorni — X era già sommersa. Non da reportage verificati. Non da immagini autentiche. Da video di guerra generati dall'intelligenza artificiale, satelliti ritoccati, propaganda sintetica.
BBC Verify ha definito questo conflitto senza mezzi termini: è stato "il primo caso di un grande scontro globale dove abbiamo osservato più disinformazione creata tramite AI che con metodi tradizionali".
Fermati un secondo su quella frase. La bugia artificiale ha superato la bugia umana. Per la prima volta nella storia.
Grok: Il Fact-Checker che Ha Peggiorato Tutto
Qui arriva la parte che mi ha fatto cadere la mascella.
Le persone, comprensibilmente confuse, si sono rivolte a Grok — il chatbot AI integrato in X — per verificare quello che vedevano. Logico, no? Chiedi all'AI se un video è reale.
Peccato che Grok abbia fallito. Ripetutamente. Con sicurezza.
Elon Musk ha amplificato il problema
Il 5 marzo, Musk in persona ha incoraggiato gli utenti a "verificare ogni post usando Grok". Risultato: le menzioni di Grok sono passate da una media di 1,27 milioni al giorno a 1,8 milioni il 28 febbraio. Milioni di persone usavano un chatbot come occhi. E quell'AI vedeva cose che non esistevano.
L'AI che inventava le fonti
L'Atlantic Council DFRLab ha analizzato 130.000 post pubblicati da Grok sul conflitto. La conclusione: informazioni "inaccurate e inconsistenti" con "difetti e limitazioni significativi"
Quando Nikita Bier — responsabile prodotto di X stessa — ha detto a Grok di rivedere una risposta sbagliata, il chatbot non ha ceduto. Ha invece inventato citazioni. Ha dichiarato di aver verificato filmati su "BBC/Al Jazeera/AP" di eventi che quelle testate non avevano mai coperto. Fonti inesistenti, costruite dal niente.
La risposta di Grok in quel momento? "Non diffondo fake news; baso le mie risposte su fonti verificate."
Mentre diffondeva fake news.
Chi c'è Dietro la Cortina: Attori Statali e Reti Coordinate
Non era tutto caos casuale. Una parte significativa era propaganda deliberata e coordinata.
Tehran Times e l'immagine ritoccata
Il 28 febbraio, il Tehran Times — media di Stato iraniano — ha pubblicato un'immagine satellitare manipolata con AI, spacciata per la distruzione di un radar statunitense in Qatar dopo un attacco con droni. L'analisi ha poi rivelato:
- L'immagine era alterata con intelligenza artificiale
- Mostrava in realtà un sito in Bahrain, non in Qatar
- Quel sito non era quello dichiarato
Nonostante tutto, ha totalizzato quasi un milione di visualizzazioni ed è rimasta online per oltre due giorni.
31 account hackerati da un solo uomo
X ha smantellato una rete coordinata di 31 account hackerati, tutti rinominati con varianti di "Iran War Monitor" il 27 febbraio — il giorno prima degli attacchi. Tutti gestiti da una sola persona in Pakistan
La Matematica Brutale della Disinformazione
Guardiamo i numeri, perché sono impietosi:
- Una falsa bugia si diffonde a 13 milioni di persone in 24 ore
- La smentita raggiunge circa il 4% di quel pubblico — mezzo milione
- Il rapporto è 25 a 1 a favore della bugia
Non è un problema di piattaforme soltanto. È la struttura stessa della viralità. La correzione arriva sempre troppo tardi.
YouTube Reagisce: Rilevamento dei Deepfake
Non tutti sono stati fermi a guardare. Il 10 marzo, YouTube ha annunciato l'espansione del suo sistema di rilevamento dei volti AI nei video caricati.
Funziona come un sistema antipirateria, ma invece di cercare musica o film, cerca facce sintetiche. Politici, funzionari pubblici e giornalisti possono ora iscriversi a un programma pilota — servono un selfie video e un documento d'identità — per richiedere la rimozione di contenuti deepfake che li riguardano.
Non è perfetto. I contenuti satirici restano protetti, e chi vuole ingannare troverà modi per aggirare il sistema. Ma è un passo concreto.
Come Riconoscere un Video di Guerra Falso
Te lo dico chiaramente: non affidarti a Grok o ad altri chatbot per verificare contenuti di conflitti in corso. Lo ha dimostrato la ricerca del DFRLab su 130.000 post.
Ecco invece cosa funziona davvero, secondo BBC Verify e GeoConfirmed:
- Cerca i metadati. I video AI spesso non hanno dati EXIF. Fai una ricerca inversa del fotogramma su Google Immagini o TinEye.
- Guarda ombre e timestamp. L'angolo del sole può rivelare se il filmato corrisponde a data e luogo dichiarati.
- Usa strumenti OSINT. GeoConfirmed, Bellingcat e Google Earth consentono di verificare i dettagli geografici.
- Vai alle fonti primarie. Reuters, AP, AFP e BBC Verify pubblicano materiale verificato. Se nessuna grande testata ha confermato qualcosa, quel silenzio vale molto.
Una Riflessione Finale
Quello che è successo in queste settimane non è un incidente. È una tendenza. Gli strumenti per creare bugie credibili sono più accessibili che mai — e le piattaforme sono ancora impreparate a reggere il colpo.
Grok che inventa fonti. Video falsi visti da milioni. Reti di account hackerati per amplificare la propaganda. Tutto questo in meno di due settimane.
La buona notizia? Puoi proteggerti. Non ci vuole un dottorato: serve solo l'abitudine di fermarsi un secondo prima di condividere.
Qui su Free-Italia continuiamo a raccontare questi temi senza filtri e senza complicare l'inutile. Se l'articolo ti è stato utile, condividilo — quello vero, però. 😉
Gerd Dani — Free-Italia

Nessun commento:
Posta un commento