Comunicazione

Questioni di immagine. 2. Manipolazione e verità

La generazione di immagini false o la manipolazione per sottolineare tesi o argomentazioni ha raggiunto un nuovo livello: quando a utilizzare «deepfake» o «deeptrue» è la comunicazione istituzionale a perdere è la tenuta della credibilità.

La manipolazione delle immagini, sia con intenti seri che per ottenere effetti assurdi o scherzosi, o ancora per orientare l’opinione pubblica con messaggi politici e sociali, non è un fenomeno nuovo: al Rijksmuseum di Amsterdam hanno persino organizzato una mostra di collage e composizioni fotografiche realizzate tra il 1860 e il 1940 con procedimenti meccanici: per quanto raffiguranti scene assurde o impossibili che nessuno avrebbe potuto scambiare per reali, dimostrano come già fosse labile il confine tra falso e autentico nelle foto (L’esposizione si intitola «Fake! Early Photo Collages and Photomontages» ed è al museo dal 6 febbraio al 25 maggio 2026).

Con la tecnologia digitale – prima solo per la postproduzione, poi già in fase di scatto – manipolare video e foto è diventato piuttosto semplice, anche grazie al proliferare incontrollato di applicazioni (spesso per smartphone) in grado di ottenere risultati strabilianti; l’evoluzione delle AI e la loro diffusione anche a livello grafico ha espanso ulteriormente il campo delle possibilità per la costruzione di quelle che genericamente sono definite «fake pictures», utilizzate per avvalorare una tesi, per diffondere una notizia falsa, per disinformare o anche soltanto per divertirsi.

Ma l’uso di foto manipolate sui giornali, che dall’inizio del 2026 ha trovato diverse applicazioni, è un ulteriore salto di livello: l’immagine che documenta il funerale delle bambine uccise nel bombardamento della scuola di Minab, nel corso dell’attacco americano all’Iran di inizio marzo, è diventata il simbolo del dolore della popolazione e anche del dissenso per quella operazione; ha avuto una circolazione virale, con grandi condivisioni, anche da parte di quotidiani italiani; a diffonderla è stato il giornalista pakistano Harmeet Singh, che a richiesta ha confermato di averla generata con l’Intelligenza artificiale con valore simbolico «per rappresentare la dimensione della tragedia».

Il post di Haarmet Singh su X

Qualche settimana prima, il 31 gennaio, a Torino, in occasione della manifestazione a sostegno del centro sociale Askatasuna poi degenerata in guerriglia urbana, vengono ferite e ricoverate negli ospedali cittadini oltre cento persone, tra cui 29 agenti di Polizia; le cronache di agenzia riportano stime anche più alte tra le forze dell’ordine, ma a fare il giro del web è un video che mostra un gruppo di manifestanti che aggredisce un poliziotto rimasto isolato, soccorso poi da un collega che lo trascina via. Successivamente l’account ufficiale della Polizia di Stato pubblica sui canali social un post di solidarietà ai due agenti, ritratti nella foto significativa di un abbraccio che significa la salvezza e che viene inviato all’ANSA, poi da lì alle testate nazionali.
Tuttavia, un controllo dei fatti dimostra come – abbastanza evidentemente – la foto sia stata pesantemente manipolata con l’Intelligenza artificiale.

A sinistra, la foto pubblicata dalla Polizia di Stato su Instagram; a destra, un fotogramma del video

La Polizia di Stato giustifica in maniera piuttosto opaca la trasmissione della foto – di cui nel frattempo si trovano varie versioni, a diversi stati di manipolazione – alle agenzie di stampa. L’effetto boomerang è forte: una foto falsa, creata per rafforzare la verità, diventa l’arma degli avversari per negarla («se la Polizia ha falsificato quell’immagine, chissà che altro»).

Nel primo caso l’evento (un «deepfake», cioè un contenuto falso generato per sostenere una tesi) ha coinvolto un giornalista, il cui operato dovrebbe essere legato ai principi di base della verità sostanziale dei fatti e della continenza espressiva e al quale la deontologia professionale imporrebbe la responsabilità di rendere esplicito l’utilizzo dell’intelligenza artificiale nella produzione e nella modifica di contenuti (comprese le immagini e i sonori); nel secondo caso si è trattato di un contenuto diffuso da un’istituzione, cui per definizione viene attribuita una certa credibilità, che sostenendo la verità dei fatti con la generazione di un falso («deeptrue, cioè fondato su una base autentica ma alterato per rafforzare la realtà) finisce per alimentare – anche involontariamente, ma in questo caso con una scelta editoriale, dunque con una certa consapevolezza e non per un errore casuale – quello che viene definito il «dividendo del bugiardo» («liar’s dividend»: una definizione recente, utilizzata nel 2019 da Bobby Chesney e Danielle Citron nell’articolo Deepfakes and the New Disinformation War, «Foreign Affairs», 98, 1 [2019], pp. 147-155), cioè l’idea che le manipolazioni diffuse attraverso l’intelligenza artificiale, pur potendo portare qualche vantaggio immediato, conducono a dubitare della veridicità delle informazioni in futuro e finiscono per sminuire la credibilità delle notizie e dell’emittente stesso dei contenuti.
Che poi le agenzie di stampa e le testate giornalistiche abbiano diffuso l’immagine (anche perché proveniente dall’istituzione) senza alcun controllo non aiuta.

Il fatto che in entrambi i casi il fine fosse «positivo» non è una giustificazione sufficiente: aggiustare la realtà può generare, come hanno dimostrato diverse affermazioni del Presidente USA, degli spettacoli circensi – dei veri suicidi dell’informazione – che il pubblico poi prende per veri.

EDUCatt EPeople