Nel tempo segnato dai conflitti di ogni sorta scorgere in lontananza una Torre Eiffel circondata da trattori e balle di fieno può generare disorientamento. Così se ancora oggi un’immagine vale più di mille parole, quella che è stata realizzata da Vincent Smadja ha suscitato una miriade di post, stories, video e commenti. Un tam-tam social che ha allarmato anche le autorità locali parigine. D’altronde il rischio era evidente: nei giorni segnati dalle proteste degli agricoltori quei focolai di dissenso in tutta Europa gettavano benzina sul fuoco di un fronte già caldo. Questione di ordine pubblico e di buon senso.

Torniamo a Vincent Smadja, l’AI artist francese noto in rete con il nickname If Only e diventato una celebrità creando scenari surreali grazie all’intelligenza artificiale. Tutto falso, o quasi. Perché nelle sue creazioni i monumenti sono veri, ma ciò che sta intorno no. Così decodificare l’immagine diventa impresa ardua. La sua pagina Instagram conta oltre 90mila follower e ogni creazione diventa virale. «L’AI non è una semplice innovazione, bensì una rivoluzione. Porterà nuove pratiche e persino un nuovo modo di pensare e di vedere la realtà soprattutto tra le generazioni più giovani», ha dichiarato alla stampa francese. Quella foto fake pubblicata e rimossa (ma troppo tardi per evitare l’effetto moltiplicatore) è stata rilanciata anche dall’account Instagram da 12 milioni di follower Thetrillionairelife e dal profilo X Gen.Reality, vicino alle posizioni americane repubblicane. Lo chiamano “effetto farfalla”. Quel batter d’ali in Brasile può provocare un tornado in Texas, come ha scritto nel lontano 1972 il matematico e meteorologo statunitense Edward Norton Lorenz.

Allarme disinformazione del World Economic Forum

Ma negli anni segnati dagli stream senza fine quel tornado corre in rete, aumentando di potenza. È quanto ha denunciato anche il World Economic Forum nel report sui rischi globali 2024: la disinformazione è il pericolo numero uno. A seguire le condizioni meteorologiche estreme e i cambiamenti critici nei sistemi. Il rapporto si basa sulle opinioni di oltre 1.400 esperti, politici e leader internazionali. «L’instabilità è dettata da narrazioni polarizzanti. Il nesso tra informazioni falsificate e disordini sociali è centrale», ha commentato Saadia Zahidi, ceo del World Economic Forum. Niente è come sembra nel «deepfake», parola coniata nel recentissimo anno 2017 come definizione di una tecnica di sintesi dell’immagine umana basata sull’intelligenza artificiale, usata per combinare e sovrapporre contenuti multimediali esistenti con video o immagini originali.

Fake news vecchie e nuove

Così si moltiplicano bufale e truffe. Nulla di nuovo sotto il sole. Più di tre secoli fa (e molto prima delle bacheche social) le caffetterie britanniche alimentavano le fake news. Nel Diciassettesimo Secolo il panico coinvolse i circoli reali perché questi luoghi di aggregazione erano diventati piazze di dissenso politico. Così nel 1672 Carlo II emanò un proclama per contenere la diffusione di notizie false che alimentavano le malelingue sulla corona. «In passato solo i governi e i potenti potevano manipolare l’opinione pubblica presentando bugie come verità. Oggi lo può fare chiunque abbia accesso a Internet perché la nozione stessa di verità si è frammentata», ha affermato lo scrittore indiano Kenan Malik sul Guardian. «Ma le foto fake sono l’ultimo dei problemi. Quando insegno ai miei studenti la parte relativa alla percezione della realtà, sostengo che è un oggetto socialmente negoziato. Tutto ciò significa che c’è una narrazione che si alimenta in base a ciò che si vuole vedere. Oggi semplicemente la tecnologia crea qualcosa di verosimile da far rientrare nella nostra finestra di attenzione. Non si necessita di una cosa perfetta, ma di qualcosa che lo è abbastanza per porci in errore nel giro di pochi secondi. Il problema vero sono i video perché ci traggono in inganno e non si è abituati a distinguere il vero dal falso», afferma Matteo Flora, docente alla business school londinese European School of Economics con la cattedra di sicurezza delle AI e delle super intelligenze.

Flora: «C’è consapevolezza: la gente dubita di tutto»

Ma il bicchiere può essere anche mezzo pieno. «Tutto ciò che sta accadendo si sta diffondendo ai consumatori finali. Se prima queste creazioni erano appannaggio di pochi soggetti governativi, ora qualsiasi utente può crearsi il proprio mondo. Ma c’è maggiore consapevolezza perché la gente inizia a dubitare di tutto, riuscendo a intercettare eventuali artefatti, cosa che alcuni fa non sarebbe accaduta. Quindi c’è un’evoluzione nel fare debunking che coinvolge più utenti. D’altronde il sistema immunitario dell’informazione sociale si adatta a qualsiasi contesto: abbiamo perso l’illusione che immagini e video siano vere», precisa Flora. Intanto si moltiplicano le start up in campo per decodificare la realtà. L’israeliana Clarity ha sviluppato un software per contrastare i deepfake e ha appena chiuso un round da 16 milioni di dollari. «I deepfake sono una vera minaccia. Sono preoccupato da ciò che sta accadendo nel mondo con più di quattro miliardi di individui chiamati alle urne», ha detto il ceo Michael Matias. Ma anche l’Italia gioca la sua partita su uno scacchiere sempre più digitale e globale. Perché se la realtà viene sempre più “pettinata” – come sosteneva Carlo Freccero – sta agli innovatori provare a decodificarla.



Source link