Mi sono iscritto su Facebook nel lontano 2007, prima del massacro di Utøya, della Brexit, dello scetticismo vaccinale divampante e, soprattutto, dell’improbabile – fino al giorno prima – conquista della Casa Bianca da parte di Donald Trump.
Ai tempi la fauna sociale che abitava questi spazi digitali presentava dei connotati comportamentali completamente diversi: avevi quasi la sensazione di divertirti, di interagire in maniera innocua con persone che, alla fine della fiera, condividevano il tuo metro di pensiero.
Forse eravamo semplicemente più ingenui. Tutto normale: il Make America Great Again non aveva ancora agito come detonatore irrefrenabile di classi medie tradite, maschi bianchi terrorizzati e redneck armati fino ai denti, la declinazione in salsa grillina del concetto di “democrazia diretta” era poco più di una boutade da bar dello sport – per intenderci, nessuno avrebbe immaginato che, appena dieci anni dopo, 79mila anonimi digitali avrebbero sequestrato un intero Paese per dare il proprio assenso alla formazione di un governo: la piattaforma Russeau come dispositivo di controllo era ancora una materia oscura, humus narrativo da raffinati distopisti.
Poi, all’improvviso, qualcosa è cambiato: ci siamo resi contro che Facebook era quanto di più lontano possibile da un ente benefico. I nostri feed sono stati presi d’assalto da contenuti antisemiti, razzisti e omofobi, meme che amplificano la più becera propaganda da regime illiberale, attacchi gratuiti coordinati diretti a stigmatizzare determinate minoranze (ovviamente, puntualmente spacciati per “libertà d’espressione”) e chi più ne ha più ne metta, il tutto per gentile cortesia di un algoritmo impenetrabile e oscuro di cui conosciamo pochissimo.
Risvegliati dal sonno, abbiamo familiarizzato con questa macchina sregolata capace di fagocitare porzioni di opinione pubblica, catapultare teorie del complotto nello spazio del mainstream, incidere sui risultati elettorali e, secondo gli esperti di diritti umani delle Nazioni Unite, addirittura svolgere un “ruolo determinante” nel genocidio in Myanmar. Com’è stato possibile?
Lo racconta molto bene Max Fisher, editorialista del New York Times e finalista del Pulitzer, nel suo saggio La macchina del caos, pubblicato recentemente in Italia da Linkiesta Books con la traduzione di Leonardo Taiuti.
Nello spazio di poco più di quattrocento pagine, Fisher spiega come le piattaforme social abbiano devastato prima i nostri comportamenti privati a colpi di scariche di dopamina like–indotte e, in un secondo momento, la vita di tutti i Paesi del mondo, democratici e non.
Alla base di questa degenerazione c’è quel processo noto come “algoritmizzazione”: queste sequenze di operazioni, spiega Fisher, creano delle bolle da cui è difficile uscire; di conseguenza, anche se viviamo nella falsa convinzione di essere collegati con tutto il mondo, finiamo per rinchiuderci nell’isolazionismo più totale, segregandoci in un recinto costruito a nostra immagine e somiglianza dove tutti i nostri pregiudizi, così come le nostre opinioni (che siano fondate o meno), trovano immediatamente riscontro e approvazione.
Il problema è che i principali social non possono contare su un controllo puntuale del funzionamento di questi algoritmi. Una distorsione dovuta a una semplice ragione: è difficile capire se un parametro nato per creare maggiori interazioni e coinvolgimento da parte degli utenti sia funzionale non solo alla monetizzazione per la piattaforma, ma anche alla proliferazione di fake news e contenuti polarizzanti.
Il godimento dell’indignazione morale è uno dei sentimenti chiave che Fisher ritiene essere sfruttato dagli algoritmi ideati da Google (per YouTube) e Meta (per Facebook, Instagram e WhatsApp), che hanno scoperto di poter capitalizzare questo impulso attraverso la promozione di una sorta di “iper–partigianeria”.
Ecco perché gli algoritmi, potenzialmente, rappresentano un pericolo serio per la democrazia. Fisher riporta diversi esempi di questa minaccia, da quelli più strettamente contemporanei (la diffusione della retorica contro i vaccini durante la pandemia) agli sforzi della Russia per interferire con le elezioni statunitensi. Il più impressionante, però, ha a che fare con il genocidio dei rohingya in Myanmar, quando utenti legati all’esercito e ai gruppi ultranazionalisti buddisti avevano riempito Facebook di contenuti anti-musulmani e di fake news, come quelle che etichettavano gli appartenenti a questa minoranza come “invasori” pronti a perpetrare un colpo di stato di matrice islamista – in un post condiviso oltre 1000 volte, un difensore dei diritti umani dei rohingya era stato descritto come “traditore della nazione” e minacciato di morte. In uno dei commenti, si leggeva: “Questo è un musulmano. I musulmani sono cani che devono essere uccisi”. In un altro: “Non lasciamolo vivo. Eliminiamo tutta la sua razza. Il tempo sta scadendo”.
L’altro aspetto interessante de La macchina del Caos è lo sforzo di Fisher di tracciare una fenomenologia della cultura aziendale e filosofica introiettata dai tech–mogul della Silicon Valley, intrisa di maschilismo e superomismo e alimentata dai romanzi di Aldous Huxley.
Tuttavia, nella narrazione di Fisher non c’è spazio solo per i “cattivi”: l’autore, infatti, dedica la giusta attenzione anche agli eroici outsider e disertori della Silicon Valley che hanno lanciato l’allarme, rivelando cosa stesse accadendo dietro le porte chiuse di Big Tech. La macchina del Caos non è il classico libro distopico, disfattista e luddista, ma un atto di denuncia e un manifesto per un utilizzo più consapevole e inclusivo di strumenti che convivono con noi da anni, ma di cui conosciamo ancora troppo poco.