La prova provata

Indice

«Se non c’è la prova video quantomeno non è credibile». Eva, 7 anni, parlava eccitata della grande news che spopolava al campeggio: Livia e Leo si erano baciati! Qualcuno aveva detto di averli visti, tutti ne parlavano, ma Eva esigeva la prova provata! Il video! Si vociferava che qualcuno li avesse ripresi, ma Livia e Leo, imbarazzatissimi, avevano fatto di tutto per far sparire l’evidenza. A nulla valeva la parola di una sedicente testimone oculare! Eva, senza video, non avrebbe creduto a nulla e a nessuno. Erano passati 10 anni da quel giorno, ma Eva lo ricordava ancora come fosse ieri. A quel tempo tre strani figuri (si facevano chiamare hacker ma sembravano piuttosto dei buffoni con mille trucchi in tasca) l’avevano punzecchiata a lungo per questa sua convinzione: davvero credeva che l’unica garanzia di verità fosse un video? Le erano stati simpatici, sì, ma le erano sembrati un po’ matti. Ovvio che sì, ci credeva assai: quale garanzia migliore di una ripresa video a testimoniare un fatto di gossip, una tragedia o un tradimento? Solo oggi, dopo tutti quegli anni, capiva chiaramente, e sulla sua pelle, che un video non provava un bel nulla. Anzi! Su TikTok era circolato un video di lei che pomiciava con un tipo tutto rasato. Max, il suo ragazzo, l’aveva subito bloccata su tutti i social, non le rispondeva più al telefono e non rispondeva neanche ai messaggi di testo. Il suo profilo era stato invaso da commenti di odiatori che la insultavano per aver tradito il suo ragazzo. Eva non si aspettava davvero tutta questa attenzione. Certo, era parecchio popolare nel suo giro e contava 8K di contatti tra TikTok e Instagram, ma accidenti, quel maledetto video, postato da un profilo di un anonimo follower, la stava perseguitando; riceveva messaggi e insulti pesantissimi anche da persone che non conosceva! Eva non riusciva più a contattare Max, i suoi amici facevano quadrato attorno a lui: «Cosa ti aspettavi,» le diceva Clara, la sua migliore amica, «ma come ti è venuto in mente di baciare quel tipo, e poi chi era?» «Ma io che ne so, Clara! Non lo conosco ti giuro, ma soprattutto non l’ho mai baciato! Non sono io quella, ti giuro!!!» Clara pensò che l’amica si fosse sballata un po’ troppo a qualche party, ma Eva la rassicurò «Guarda, per quanto io possa essere ubriaca mi ricordo sempre tutto! Ti giuro che non sono io!» La somiglianza però non era impressionante: di più! Clara ed Eva riguardavano il video insieme, quella era proprio lei… Come era potuto accadere? «E poi è solo un bacio!» diceva Eva, «Ma ti immagini se fosse stato un porno?» «Aspetta,» disse Clara, «è successo anche a quella di Harry Potter, Emma Watson, ti ricordi? A un certo punto giravano in rete dei suoi video porno,» «Sì, ma ce la vedi Emma Watson a fare porno?» «Appunto!» Rispose Clara, «Fammi controllare». Fecero un po’ di ricerche: parola chiave «emma watson porno falsi» e si imbatterono nel mondo dei deepfake. Non ci potevano credere! Eva vittima di un deepfake. Sembrava qualcosa di ultrafantascientifico che riguardava solo le grandi stelle e invece ecco che una cosa così assurda arrivava a toccare anche la loro vita. Il video era falso, generato da un programma nutrito dai tanti video che Eva aveva fatto circolare sui profili social. Ripensò alle sue parole da bambina: «Se non c’è la prova video, quantomeno non è credibile.» Che ingenuità. Ora solo lei sapeva che non era vero, che non c’era stato nessun bacio, ma tutti credevano al video più che a lei. Eccetto la sua amica Clara, certo, ma senza la «prova provata», chi altro le avrebbe dato credito? Le parole pronunciate da bambina ora le si rivoltavano contro. Come avrebbe potuto recuperare la fiducia di Max e, soprattutto, la sua reputazione online?

La parola alla hacker

I deepfake sono immagini di sintesi in movimento generate da software che si avvalgono di sistemi di apprendimento automatico (machine learning). Il termine deepfake venne coniato nel 2017 sulla bacheca di Reddit, era il nick di un anonimo produttore di video falsi. Bastava avere il software giusto e un nutrito archivio di foto e video della vittima ed ecco che era possibile produrre materiale video assolutamente realistico dove la vittima faceva, o più spesso diceva, cose che altrimenti non avrebbe mai detto o fatto. Inizialmente a diffondersi furono i video in cui vari personaggi della scena politica dicevano cose che in realtà non avevano mai pronunciato. Successe a Barak Obama, Theresa May, Donald Trump, Adolf Hitler. Contemporaneamente esplose il fenomeno dei deepfake porno: Scarlett Johansson, Katy Perry, Natalie Portman. Nessuno era al sicuro, neanche Nicolas Cage, che cominciò ad apparire in centinaia di scene di diverse serie TV e film. Gli avvocati si erano subito dati da fare, ma era davvero difficile limitare i danni di un deepfake una volta che era stato rilasciato in rete. Lo Stato della California dichiarò illegali i video deepfake al termine del 2019, ma sembrava impossibile far rispettare una legge simile. Aziende di sviluppo software si affannavano a proporre soluzioni per arginare il fenomeno, a cominciare dall’individuazione (deepfake detection). Forse si poteva attenuare un poco (deepfake mitigation), ma ogni tecnica risultava macchinosa, e poco adatta a risolvere il problema alla radice. Le app andavano installate sul dispositivo con cui si scattavano foto e giravano video, questo avrebbe inserito delle informazioni nell’immagine (metadati) tali che potessero, in un secondo momento, essere messe a confronto con i deepfake per dimostrare l’autenticità delle prime e la falsità dei secondi. Un altro metodo, forse ancora più macchinoso, consisteva nell’analizzare i presunti video falsi andando ad osservare con accuratezza alcuni dettagli come le orecchie o il riflesso nelle pupille. Restava comunque una battaglia contro i mulini a vento. Scarlett Johansson, vittima di innumerevoli deepfake pornografici, nel dicembre del 2018 in un’intervista con il Washington Post dichiarava di ritenere ogni tentativo di rimozione dei deepfake «una causa persa» e non si considerava tanto preoccupata per se stessa, protetta dalla sua fama, quanto per tutte le donne comuni che potevano ritrovarsi a loro volta vittime inconsapevoli. L’evoluzione della tecnologia dei deepfake rese in effetti lo strumento molto più accessibile. Era possibile addirittura creare un deepfake a partire da una sola immagine, senza bisogno quindi di un nutrito archivio di foto o video del soggetto. Avete mai desiderato vedere la Monna Lisa parlare e respirare come un vero essere umano? Negli anni Dieci del III millennio esisteva la tecnologia per farlo.

La parola alla videomaker

Il fatto che il video non fosse una «prova provata» era già evidente ad alcuni di noi in tempi analogici non sospetti. Nell’epoca del pre-digitale sapevamo bene che era possibile manipolare una ripresa attraverso il montaggio per creare diverse interpretazioni o versioni della realtà. Eppure già alla fine del XX secolo un fatto era considerato vero perché «Lo aveva detto la TV». Noi smanettoni del video parlavamo piuttosto della verità come qualcosa che si va definendo attraverso molteplici punti di vista che insieme illuminano un unico punto. Nei nostri documentari non pretendevamo di raccontare il vero, ma piuttosto cercavamo di offrire una visione parziale delle cose, la nostra visione, il nostro irriducibile punto di vista. Ai miei occhi la tecnologia del deepfake offre un metodo più sofisticato per manipolare la realtà. Ancora una volta, gli anticorpi per non soccombere a questa vulnerabilità non sono digitali; piuttosto, si trovano nelle aspettative che riponiamo nella tecnologia, ed eventualmente nei livelli di delega (della verità, della correttezza, del sapere…). Ad esempio, in questo storia Clara crede ad Eva, nonostante la schiacciante prova video, solo perché le due sono amiche: la fiducia è stata costruita nel tempo e nella relazione.

Parla la scrittrice

«La vecchia idea che le immagini non mentono dovrà subire una drastica revisione». Lo scriveva l’autore di fantascienza Jack Wodhams1 in un racconto del 1986 1. Il fatto che già allora fosse dato per scontato un simile scenario la dice lunga: il problema, ancora una volta, non era tanto la tecnologia a disposizione e l’accuratezza di questa stessa, ma la fiducia nelle fonti e la rete di relazioni in cui si manifesta l’immagine falsificata. Come affrontare dunque un fenomeno come quello del deepfake senza cadere nel relativismo assolutista2 tipico dell’era delle post-verità? Un po’ di sano scetticismo, un pizzico di consapevolezza, due grani di fiducia in relazioni costruite con passione… se la verità unica perde di importanza restano le verità parziali che lette in filigrana, sospendendo il giudizio, possono portare a una visione più complessa del mondo che ci circonda.

Note a piè di pagina:

1

Un relativismo per nulla radicale! E invece ci vuole più relativismo, non meno: ma un relativismo di tutt’altra specie, che richiede attenzione e cura, non qualunquismo e sciatteria. Così racconta Tomás Ibáñez, Il libero pensiero. Elogio del relativismo, Elèuthera, Milano, 2013 [2007].

2

John Wodhams, Picaper, in Analog Science Fiction/Science Fact, Mid-December 1986, http://www.isfdb.org/cgi-bin/title.cgi?48679