Vita da bot

Indice

Elsa lavorava come social media manager per le multinazionali dell'intrattenimento. Uno dei suoi compiti consisteva nel moderare le discussioni, intervenire a nome della compagnia e monitorare le conversazioni private fra gli utenti e i chatbot. Elsa trascorreva lunghissime ore di lavoro a leggere migliaia di commenti per individuare domande da prendere in carico, criticità e temi ricorrenti. Ogni risposta veniva data a nome della compagnia, c'erano linee guida molto rigide da rispettare e non si poteva prendere nessuna iniziativa personale. Elsa e le sue colleghe avevano un documento con risposte standard alle domande più comuni e facevano del loro meglio per personalizzarle e renderle meno algide.

Era un lavoro molto faticoso e ripetitivo ma, nonostante ciò, Elsa prendeva davvero a cuore le lamentele e le istanze degli utenti, perorando le loro cause presso i suoi superiori: un abbonamento che non veniva attivato, un malfunzionamento nel servizio, i sottotitoli per non udenti che non si attivavano… insomma, Elsa ci teneva davvero.

Nonostante lei e le sue colleghe prendessero in carico le lamentele elencate nei commenti, i loro interlocutori erano convinti che fossero dei bot a rispondere: “Ma non vedete che è un bot?”, “Lasciate perdere, tanto vi sta rispondendo un bot”, “Ecco la solita risposta automatica!”.

Elsa, dal suo lato dello schermo, avrebbe voluto gridare: “Nooo! Sono umana come voi! Non sono un bot!”, ma non poteva fare nulla: aveva firmato un accordo di riservatezza, si sentiva come Philadelphia Burke in “La Ragazza collegata/”/, breve romanzo di fantascienza del 1973 di James Tiptree (pseudonimo di Alice Bradley Sheldon). La protagonista del romanzo viveva rinchiusa in una vasca di deprivazione sensoriale mentre il suo avatar Delphi si godeva la vita andando in giro per il mondo a promuovere prodotti commerciali.

Il colmo fu quando, proprio come Philadelphia Burke, Elsa scoprì che il chatbot che rispondeva alla messaggistica privata dei profili social aveva una vita affettiva migliore della sua.

Nell'immagine del profilo dell'account Instagram c'era il volto dell'attrice protagonista del film in promozione. Scrivendo un messaggio privato il chatbot rispondeva elencando le sale e gli orari dove il film era in programmazione:

Utente: “Ciao”.
Chatbot: “Ciao, grazie per averci scritto. Il film è in programmazione nelle seguenti sale”.
Utente: “Ho voglia di vederti”.
Chatbot: “Grazie per averci scritto. Fai una domanda se vuoi ricevere altre informazioni”.
Utente: “Ma tu mi ami?”.

Elsa a occhi sbarrati continuava a guardare l'ultimo messaggio lampeggiare sullo schermo: quell'utente non aveva capito che stava parlando con una macchina e lei non poteva intervenire! Provava un sottile senso di frustrazione: mentre il chatbot riceveva parole d'amore lei veniva trattata come un automa! Non poteva crederci… gli utenti interagivano con il bot pensando che fosse un'umana e con Elsa e le sue colleghe come fossero dei bot! Era forse finita in un racconto di fantascienza di serie B? Fu allora che Elsa cominciò a dubitare della sua umanità…

Automazione industriale e lavoro invisibile

Quando gli umani lavorano insieme agli esseri tecnici (tecnologie analogiche o digitali) devono acquisire comportamenti automatici, come ad esempio: sollevare una leva in modo ripetitivo, premere un bottone, schiacciare un pedale (pensate alle antiche macchine da cucire, ai telai o alle catene di montaggio). Così anche per lavorare con le tecnologie digitali è necessario acquisire i necessari automatismi.

Nei primi anni Venti del nuovo millennio, con l'accelerazione della cosiddetta intelligenza artificiale, gli umani entravano nel regno dell'automazione mentre le macchine assumevano sempre più caratteristiche umane che eravamo noi stesse a proiettare su di loro. Un fenomeno che più che intelligenza artificiale sarebbe stato il caso di chiamare automazione industriale.

Lo sviluppo dell'intelligenza artificiale a quell'epoca si basava sul modello connessionista, una branca delle scienze cognitive che proponeva un'ipersemplificazione del cervello umano. Semplificazione e quantificazione erano i metodi con i quali venivano addestrati i sistemi di machine learning per far sì che simulassero il linguaggio naturale. Ma per semplificare e quantificare il linguaggio era necessario l'intervento di umani che classificassero le parole e assegnassero pesi ed etichette: lavoratori e lavoratrici in carne e ossa, impegnate in microtask ripetitivi ed estenuanti, trascorrevano la loro giornata di fronte a uno schermo in un loop cibernetico con le macchine, realizzando traduzioni o notazioni di dati, oppure mettendo tag sulle immagini. Più invisibile era il lavoro sotto la superficie liscia e lucida dei nostri furbofoni, più era stupefacente la tecnomagia dell'Ai.

Rituali digitali

Tutte avevamo dei rituali digitali quotidiani, come scrollare il nostro social media preferito mentre facevamo colazione, chiedere aiuto a Google Maps per uno spostamento in città, impostare il risponditore automatico di Gmail quando andavamo in ferie. Più ci rivolgevamo ai dispositivi in modo meccanicamente semplice e non ambiguo, andando incontro alla tendenza degli algoritmi a semplificare e quantificare, più le macchine operavano “automaticamente” sembrando “intelligenti”. I nostri rituali digitali apparentemente innocui facevano di noi dei piccoli ingranaggi di un meccanismo ben più grande.

La parola alla cyberpunk

Il caso dell'utente che pensa di chattare con un'entità senziente e non con una macchina era piuttosto comune. Non ne era immune neanche chi progettava questi sistemi. Nel 2022 Google licenziò l'ingegnere Blake Lemoine convinto che LaMDA, il modello linguistico generativo su cui lavorava, avesse sviluppato un'anima e una coscienza. Sviluppare relazioni sintetiche significative con tecnologie digitali che erano state progettate e rilasciate sul mercato dalle Big Tech provocò manipolazione sociale su larga scala. I bot che accumulavano dati sul nostro modo di pensare, di parlare e di conversare diedero un durissimo colpo alla privacy usando contro di noi tutte le nostre vulnerabilità, le nostre confessioni più intime, le nostre paure e i nostri desideri e influenzando così le nostre scelte individuali, sociali e politiche. Ovvio, non era colpa delle macchine, ma responsabilità dei padroni che ne avevano ispirato la progettazione e di noi che volontariamente ci eravamo abbandonate a relazioni sintetiche con macchine… poco raccomandabili!

Noi hacker spesso diamo un nome alle macchine con cui entriamo in relazione. Ad esempio, l'hard disk con cui opero si chiama hc010. Non lo facciamo per umanizzarle quanto piuttosto per essere sempre consapevoli che ci troviamo in una relazione cibernetica con un “essere tecnico” che ha le sue proprie routine e le sue proprie caratteristiche “da progetto”. Conoscere il funzionamento della macchina con cui lavoriamo o che ci accompagna nelle nostre attività quotidiane ci aiuta a ridurre l'alienazione tecnica e a colmare il fossato scavato fra noi e il mondo tecnologico in cui viviamo. Sono le storie che ci raccontiamo a dare forma al mondo in cui ci relazioniamo. La storia dell'Ai di inizio millennio non era una storia che curava, ma una storia che avvelenava, una fiction fatta di prevaricazione, sfruttamento, spossessamento e asservimento del pianeta, delle sue risorse e delle sue abitanti.

Buone pratiche

Se proprio dovevamo usare l'Ai generativa, avremmo potuto almeno ricordarci che non eravamo di fronte a qualcuno che ne sapeva parecchio! La macchina commetteva moltissimi “errori” e formulava risultati imprecisi che saremmo dovute sempre andare a controllare con attenzione. L'Ai non poteva funzionare senza la supervisione umana. Fare una domanda a un chatbot o chiedergli di svolgere un compito era come un lancio di dadi. Trattandosi di macchine probabilistiche, vista la gran quantità di dati su cui venivano addestrate c'erano probabilità che il risultato del “lancio di dadi” ci tornasse utile, ma c'era anche la possibilità che fosse addirittura dannoso.

“Intelligenza artificiale” era in realtà una locuzione molto vaga che poteva indicare numerose tecnologie. In comune avevano la caratteristica di “simulare l'intelligenza umana”. A chi investiva in capitale di rischio non serviva che una tecnologia fosse utile o che funzionasse: serviva soltanto che le persone credessero che funzionasse, per un tempo sufficientemente lungo da rendere possibile un ritorno sugli investimenti.

Con un approccio femminista hacker potevamo sollevare gli strati delle interazioni di potere e situarci in quelle reti di saperi. Potevamo disertare la narrazione e le pratiche egemoniche delle tecnologie del dominio, ad esempio scegliendo di limitare o evitare del tutto l'utilizzo di applicazioni di messaggistica o di social media che tracciavano grafi delle nostre relazioni e osservavano i nostri comportamenti online. Potevamo usare motori di ricerca alternativi, conservare i nostri dati su cloud indipendenti. Potevamo utilizzare il meno possibile i large language model offerti gratuitamente da servizi proprietari online e installare piuttosto sui nostri computer modelli open source per sperimentare utilizzi diversi da quelli su cui si concentrava il marketing di allora.