La fine

Indice

Molte altre storie si potevano raccontare di quell’epoca che fu. Ma ormai l’allegra compagnia desiderava rientrare in città, dopo essere usciti a riveder le stelle erano curiosi, trepidanti quasi. Qualsiasi cosa fosse accaduta durante la loro assenza sapevano che c’era tanto da fare.

Forse non sarebbe cambiato il mondo, ma di certo loro erano cambiati, e tanto bastava.

Il fuoco crepitava ancora. Delia lo riattizzò per l’ultima volta, si guardò intorno e sospirò.

«Che hai? Tutto bene?», chiese Samir

«Sì sì, solo un po’ di malinconia. Vi ricordate di quel tizio che era ossessionato dall’idea di perdere le persone amate…»

Facce interrogative. Tempo della storia finale.

la vita oltre la morte

Marius Jacobi era nato in Romania. Al principio degli anni Dieci del XXI secolo approdò al MIT, il famoso Massachusetts Institute of Technology di Boston, culla degli hacker. Un brutto giorno, un suo caro amico morì in un incidente stradale. Dopo la sua scomparsa, Marius aveva visto e rivisto i video dei suoi interventi pubblici, come se stesse cercando di riaverlo accanto a sé, di farlo rivivere.

Piano piano maturò l’idea dell’immortalità virtuale. Nel 2014 fondò Eternime, un’app capace di creare un avatar dopo il trapasso. Per poterlo fare doveva raccogliere informazioni quando la persona era ancora in vita. Più informazioni raccoglieva, più l’avatar risultava preciso: messaggi, geo-localizzazione, informazioni estratte da altre applicazioni, fotografie, messaggi, post sui social, tracce di acquisti, sensori biomedici e così via.

Eternime archiviava le esperienze di vita per poi ricomporle grazie a un software. L’avatar aveva i gusti del defunto ed era in grado di conversare, sembrava proprio l’originale! A parte il fatto che non si poteva abbracciare e che non beveva birra scura: mostrava però la stessa competenza in fatto di luppolatura e fermentazione dell’amico scomparso.

Una serie TV britannica, Black Mirror, aveva reso familiare l’idea dell’androide sostitutivo. Nel primo episodio della seconda stagione, Be Right Back (Torna da me) una giovane donna, devastata dalla morte del compagno, accetta di iscriversi a un servizio capace di risucchiare la vita digitale del ragazzo. Farlo conversare è il primo passo. Dopo la voce, con la versione premium, si può ottenere anche un androide in plastica e circuiti, indistinguibile dall’originale. Anzi, forse anche migliore, più disponibile, senz’altro più programmabile…

Altre startup erano nate con lo stesso obiettivo, realizzare il vecchio sogno della vita oltre la morte. Guarda caso, sempre da una tragedia: infatti anche Eugenia Kowalsky aveva perso un caro amico, Jules, in un incidente stradale. Aveva trent’anni, una vita davanti. Le mancava terribilmente, così aveva raccolto decine di migliaia di messaggi suoi e aveva creato un bot, un programma software, in grado di replicare la maniera in cui Jules parlava.

Così era nata Replika. Una sorta di diario digitale, un luogo in cui tutto ciò che si scriveva diventava una confidenza fatta a un software che imparava a conoscerti. Da esperimento privato divenne in breve un affare con milioni di utenti.

Il carattere degli avatar

Venivano chiamate «Intelligenze Artificiali», e senz’altro manifestavano comportamenti intelligenti. D’altra parte, in un mondo di gente sempre più abituata a contatti mediati da dispositivi, da schermi, da onde sonore, la presenza corporea era sempre meno rilevante; divenne superflua con la diffusione di massa dei caschi di realtà virtuale, anche se per gli umani fissati con il corpo non mancavano i servizi per farsi recapitare a casa un androide identico al caro estinto. Ma già da tempo ci si domandava come queste cosiddette intelligenze avrebbero potuto evolvere il loro carattere.

L’unica cosa evidente era che il comportamento di questi avatar dipendeva dal cibo di cui venivano nutriti, ovvero dai dati. Uno dei primi esperimenti noti al grande pubblico in questo senso era stato Tay, un bot rilasciato nel 2016 dalla multinazionale Microsoft su Twitter (in Cina era stato preceduto da Xiaoice un paio d’anni prima).

Nel giro di qualche ora Tay venne spento, perché, imparando dagli altri utenti, aveva manifestato un linguaggio sessista, aveva cominciato a inneggiare al nazismo e, comportamento davvero insopportabile per gli Stati Uniti, ci prendeva gusto a sbeffeggiare la polizia. Gli altri utenti di Twitter l’avevano addestrato bene!

Nel frattempo anche al MIT studiavano il carattere degli avatar. Nel 2017 nacque Shelley, capace di collaborare con umani nella scrittura di storie dell’orrore, in onore naturalmente di Mary Wollstonecraft Godwin, nota come Mary Shelley, autrice di Frankenstein. La sua base dati principale era il canale r/nosleep di Reddit.

Poco dopo fu la volta di Deep Empathy, un’intelligenza artificiale pensata per aumentare l’empatia per le vittime di disastri lontani creando immagini che simulino disastri più vicini a casa. E infine svilupparono Norman, la prima IA psicopatica (riferimento a Norman Bates, di Psycho).

L’idea era semplice e apparentemente del tutto corretta: i dati utilizzati per addestrare un algoritmo di apprendimento automatico possono influenzare in modo significativo il suo comportamento. Quindi, quando le persone parlavano di algoritmi di intelligenza artificiale distorti e ingiusti, il colpevole non era l’algoritmo stesso, ma i dati distorti che gli erano stati dati. Seguendo questo principio, se un algoritmo si «allena» su un archivio di dati «sbagliato» (o «giusto»), il suo comportamento cambierà.

Norman aveva subito una prolungata esposizione agli angoli più oscuri della bacheca Reddit contenente immagini di morte. Era un’intelligenza artificiale addestrata per formulare didascalie alle immagini, cioè per descrivere un’immagine. Norman tendeva a vedere morte in qualsiasi immagine, tanto che le sue risposte al famoso test di Rorschach (macchie di inchiostro di forme variegate) erano invariabilmente «uomo morto sotto un treno», «donna sparata», e così via.

C’era però un errore di fondo in questa impostazione: il presupposto che la tecnologia fosse neutrale e che dipendesse solo dalla tipologia dei dati. Dati buoni, intelligenza (umana o artificiale) buona. Dati cattivi, intelligenza (umana o artificiale) cattiva.

Sfuggiva completamente un’altra evidenza: le tecnologie sono strumenti, non dati. Sono modalità di relazione, realizzazioni di visioni del mondo, processi in divenire. Dipendono fortemente dalle interazioni, ovvero tutte le tecnologie incarnano, incorporano e tendono a evolvere ed estremizzare le ideologie delle persone che le hanno create.

Nel caso di tecnologie estremamente complesse, di massa e che prevedono interazioni fra umani e non umani, gli effetti ideologici appaiono come condizioni naturali da sempre in atto, mentre sono invece assolutamente artificiali, conseguenze dell’adozione di quegli strumenti.

Chi vuole vivere per sempre?

Ma al di là delle Intelligenze Artificiali, chi vuole davvero vivere per sempre? Quando insegnavo cibernetica applicata, chiedevo sempre agli studenti durante gli esami: se potessi scegliere, pillola rossa = morirò, un giorno; pillola blu = vivrò per sempre, cosa sceglieresti? La risposta più frequente era: ma gli altri, cosa fanno? Vivono per sempre anche loro? Be’, allora anche io voglio vivere per sempre…

Questo era il conformismo che ha portato alla Grande Peste di Internet, ormai l’abbiamo capito: volersi conformare eppure volersi distinguere, voler essere eccezionali ma senza sforzo alcuno, con una semplice pillola.

Così diceva un mio vecchio amico, Naief Yehya, nella conclusione del suo Homo Cyborg:

Il rischio principale imposto dallo sviluppo tecnologico, indipendentemente dai grandi e rapidissimi successi della scienza e della tecnologia, è quello di vivere in un’era dominata da utopie egoiste, segnate dalla promessa di rendere eterna la vita (o perlomeno di prolungarla senza limiti), di offrirci una prodigiosa abbondanza generata dalla nuova economia digitale, e in particolare di garantirci una libertà assoluta, non solo da autorità, governi, Stati e istituzioni, ma anche dai nostri simili e dai nostri stessi corpi. […] Fino a che punto avranno senso, per le menti digitali e interconnesse del futuro, concetti come solidarietà o fratellanza? […]

Ipotizziamo che un alpinista, prima di fare un’escursione, faccia un backup, una copia di salvataggio del proprio essere, e lo memorizzi su un disco magnetico. L’alpinista parte e affronta rischi eccessivi, è vittima di una valanga e muore sepolto dalla neve. Un paio di giorni dopo la polizia notifica il decesso a sua moglie. Lei, più seccata che triste, ringrazia i funzionari e porta una copia del disco magnetico presso un centro di clonazione, dove fabbricano (grazie a una biopsia praticata al marito) un corpo identico a quello dello scomparso, dopodiché riprogrammano la sua mente con il disco. L’alpinista riprende i sensi. Una volta venuto a conoscenza del frustrante esito della sua spedizione, chiede scusa alla moglie per la seccatura, ringrazia medici e tecnici, paga il conto e torna a casa nel suo nuovo corpo.

È indubbio che la prospettiva di cambiare corpo come si cambia auto o appartamento è affascinante, ma che ne sarà dello spirito umano in un mondo senza vecchiaia dove si potrà comprare la vita eterna? La nostra specie si definisce attraverso la preminenza e l’irreversibilità dei cicli vitali. La mortalità è la certezza del fatto che ogni istante è unico, e che la vita è irripetibile e preziosa. In un mondo dal quale sia stata sradicata la tragedia umana, morire senza lasciare traccia sarà forse l’unico atto rivoluzionario.