La vera natura dell’odio online 

Mezzo miliardo di commenti analizzati attraverso otto piattaforme social del presente e del passato nel corso di ben trentaquattro anni. L’importanza dello studio del Center of Data Science and Complexity for Society di La Sapienza di Roma è in questi numeri

Un’indagine mastodontica che parte da un assunto formulato negli anni Novanta dall’avvocato Mike Godwin sulla tossicità del Web: qualsiasi conversazione online, se sufficientemente lunga, porterà uno degli interlocutori a dare inevitabilmente all’altro del nazista. Appena pubblicata su Nature, che assieme a Science e a Proceedings of the National Academy of Sciences (Pnas) è una delle tre gradi riviste scientifiche mondiali, ha un titolo che dice poco: Persistent interaction patterns across social media platforms and over time, ovvero Modelli di interazione persistenti su tutte le piattaforme di social media e nel tempo.

 

Alcune delle fonti e dei temi analizzati dalla ricerca del Center of Data Science and Complexity for Society di La Sapienza di Roma

Eppure affronta un punto fondamentale: capire, oltre alla validità della cosiddetta legge di Godwin, quanto tempo è necessario affinché emerga il primo insulto e soprattutto se ci sono social network dove il fenomeno è più pronunciato rispetto ad altri. In ultima analisi quindi se il problema dell’odio in Rete o delle mille fratture e divisioni che vediamo tutti i giorni siano attribuibili almeno in parte ai vari Facebook, Gab, Reddit, Telegram, Twitter (X), Voat, YouTube e Usenet o se al contrario sono solo farina del nostro sacco.

“È molto complicato, come tutto ciò che riguarda il genere umano, e non c’è una risposta univoca”, mette le mani avanti Walter Quattrociocchi, a capo del gruppo di ricerca composto da Michele Avalle, Niccolò Di Marco, Gabriele Etta, Emanuele Sangiorgio, Shayan Alipour, Anita Bonetti, Lorenzo Alvisi, Antonio Scala, Andrea Baronchelli e Matteo Cinelli. “Ma abbiamo delle risposte interessanti”, prosegue. “Al di là del periodo preso in esame e del singolo social network, emerge che le persone tendono a comportarsi sempre alla stessa maniera. Le dinamiche di tossicità sono persistenti”. Per tossicità si intende qui un commento che a gamba tesa tenta di troncare la discussione.

Credits: Midjourney Bot

Lo studio finisce per mettere in dubbio l’esistenza dell’odiatore seriale perché non esisterebbe. Lo saremmo tutti alla fine, caschiamo di frequente nella trappola della polemica e dei commenti al vetriolo. In secondo luogo queste sparate così aspre non hanno l’effetto di uccidere il confronto come avverrebbe al bar, ma lo allungano aumentando le divisioni.

Il fatto che la tossicità sia immutata dai tempi delle usnet sembrerebbe ridurre di molto il ruolo degli algoritmi di raccomandazione, il sistema usato da buona parte dei social network per proporci i contenuti sulle nostre bacheche capaci di trattenerci il più a lungo possibile. Sono la base delle “camere dell’eco”: a forza di proporci commenti vicini alle nostre opinioni, perché si presuppone piacciano di più, vengono scartate le altre posizioni eliminando la diversità. Si formano così ambienti omogenei all’interno dei quali i commenti estremi hanno un risalto maggiore, scatenando un numero alto di reazioni rispetto a chi esprime posizioni pacate, finendo per trascinare gli altri in una “moltitudine urlante”.

“Le polarizzazioni sono sempre esistite nella storia dell’umanità”, ha sostenuto Mike Schroepfer, ex chief technology officer (cto) di Meta, cercando di scagionare Facebook e i suoi simili. Dimenticando però di menzionare gli enormi introiti della sua compagna dovuti agli incassi degli inserzionisti pubblicitari, dovuti proprio al tempo che miliardi di persone spendono sopra Facebook, Instagram o Whatsapp. Se le divisioni in seno alla società non sono cosa di oggi, è del tutto nuovo il potere di amplificazione che le piattaforme social offrono. Il gruppo di ricerca di Quattrociocchi è arrivato alla conclusione, sarà contenuta in un nuovo studio in via di pubblicazione, che gli algoritmi in effetti accelerano la tendenza umana di cercare conferma nel simile ma non la creano. Resta da vedere in quale proporzione.

Credits: Runway

Sullo sfondo c’è un altro tema che nell’anno delle elezioni, due miliardi di persone nel mondo si recheranno alle urne nel 2024 compresi europei e statunitensi, preoccupa. Si tratta del possibile potere che algoritmi avrebbero nel condizionare le opinioni. L’indagine del Center of Data Science and Complexity for Society è laterale rispetto a tutto ciò, ma legata al tema. Ridimensionando il ruolo delle piattaforme in fatto di tossicità, dà un’indicazione indiretta sul peso dei social nel formarsi delle prese di posizione degli utenti. Visone che non tutti condividono, specie considerando quel che potrebbe fare l’intelligenza artificiale generativa di ultima generazione.

Di recente Dario Amodei, l’ex vicepresidente di Open Ai e amministratore delegato di Anthropic, startup americana attiva nel campo dei modelli linguistici di grandi dimensioni (large language model, llm), al New York Times ha dichiarato di vedere dei rischi: “Un giorno, in futuro, dovremo preoccuparci – forse dovremmo farlo già adesso– del loro utilizzo nelle tornate elettorali e nelle pubblicità ingannevoli (…). Tra qualche anno dovremo badare che qualcuno non utilizzi un sistema di intelligenza artificiale per costruire una religione o qualcosa del genere (…). Se penso a cosa saranno in grado di fare i modelli linguistici in futuro, la prospettiva è piuttosto spaventosa dal punto di vista delle campagne di spionaggio e disinformazione straniere”.

In futuro. Per ora, restando ai social network, la capacità della tecnologia di influenzare l’opinione pubblica è terreno di dibattito se non apertamente messa in dubbio da studiosi come Quattrociocchi. Alexander Nix nel 2017, al tempo era ancora a capo di Cambridge Analytica e lo scandalo sull’uso dei dati durante le presidenziali statunitensi doveva ancora esplodere, disse che tecniche come lo psychographic microtargeting sono in grado di spostare una porzione molto bassa dell’elettorato. “Attorno ad uno o due punti percentuali, non di più”, aveva spiegato Nix. Ma è quanto basta in tornate contese come la Brexit o le stesse elezioni statunitensi del 2016.

Il microtargeting e la psicometria usati da Nix e dai suoi in quelle presidenziali, ovvero il prendere di mira con messaggi promozionali o di propaganda piccole comunità di cittadini facendo leva su paure e desideri specifici, erano pratiche già teorizzata fra gli altri da Michal Kosinski, oggi professore di Comportamento organizzativo alla Stanford University. Da sempre interessato ai modelli predittivi sulle attitudini delle persone non solo online, Kosinski è una figura discussa a causa di una serie di studi ai limiti accolti con scetticismo dalla comunità accademica. Di sicuro di quanto prodotto online dal progetto Alamo, il gruppo che operò sui social network per conto di Donald Trump nel 2015 guidato da Brad Parscale e che collaborò con Cambridge Analytica, non restano praticamente tracce. Difficile quindi capire l'efficacia della psicometria applicata alle elezioni.

A metà aprile il New Yorker ha dedicato un lungo articolo al tema intitolato Non credere a quello che ti dicono sulla disinformazione (Don’t Believe What They’re Telling You About Misinformation). Cita una serie di scritti recenti uniti dall’idea che il grande virus della nostra era si annidi sul Web. Ma giustamente si sottolinea come le risposte sul come e perché crediamo in qualcosa, poco importa poi che sia la terra piatta o altro, vadano in realtà cercate nel sociale e cognitivo che hanno radici ben più antiche di YouTube.

"La disinformazione non è qualcosa che accade, ma piuttosto qualcosa che in maniera complice le persone producono", racconta Dan Kahan, studioso di diritto a Yale. Con lui altri accademici come Daniel Williams e lo psicologo sperimentale Sacha Altay, vedono nella disinformazione un sintomo e non una malattia. Alla base ci sarebbe la sfiducia nelle istituzioni che nasce dalla crescente disuguaglianza economica del sistema liberista impostosi dagli anni Ottanta.

Inveire contro i social media per aver manipolato le nostre menti secondo loro sarebbe come maledire il vento per aver scoperchiato una casa lasciata andare in rovina. “L’affermare che il problema consiste in mittenti irresponsabili e destinatari creduloni, ci distrae dai nostri fallimenti collettivi, dalle condizioni che minano la fiducia e lasciano gran parte dei cittadini senza potere". Parola di Paul Thagard, filosofo della University of Waterloo. Coloro che puntano il dito solo sulle piattaforme Web, non si renderebbero conto che la tecnologia starebbe esacerbando i sintomi di patologie sociali profonde, le stesse che spingono le persone a radunarsi attorno a nuove credenze.

“Gli algoritmi sono bravissimi a darci quel che vogliamo”, conclude Quattrociocchi legandosi a quanto sostenuto da Thagard. Ma su questo, come già detto prima, hanno costruito un'industria che per capitalizzazione in borsa non ha precedenti. Regolare un simile settore significa quindi sapersi muovere in un mondo piuttosto intricato. Percorso in salita che sia in Europa sia negli Stati Uniti è però iniziato, basti pensare alla Legge sui servizi digitali (Dsa) entrata in vigore a novembre del 2022 qui da noi e che secondo alcuni esperti andrebbe migliorata.

Un’ultima nota su Mike Godwin. Lo abbiamo contattato di recente per chiedergli un parere. Oggi sulla soglia dei settant’anni, da sempre avvocato che si è occupato di digitale lavorando fra le altre cose alla Wikimedia Foundation, è difficile da intervistare e su X non risparmia quasi mai commenti caustici. Rispetto al Web di trent’anni fa e alla polarizzazione sostiene che “molto poco è cambiato. I social media hanno aumentato la portata per chiunque di avere un pubblico. Ma la volontà di alcuni gruppi di cercare attenzione, quella di sfogare la propria indignazione o di cercare conferme nelle proprie opinioni o ancora di turbare o disturbare gli altri, è qualcosa che abbiamo già visto durante tutta la storia della civiltà umana. Impulsi da sempre presenti, anche se più forti in alcuni individui e più deboli in altri. La Legge di Godwin è, tra le altre cose, un commento ironico sulla resistenza dell'umanità a venir smentita quando ha torto, perché è concepita per essere un esempio ovvio di tale limite. È sia una parodia che un esempio. Semplicistico e impreciso leggerla come una previsione scientifica: ne assume la forma ma è ovviamente priva di criteri di confutazione. Essendo una parodia di certe affermazioni categoriche, ha come punti di riferimento veri Jonathan Swift, Italo Calvino e Umberto Eco piuttosto che una vera legge naturale. È fondamentalmente un esercizio letterario fondato sulla filosofia della scienza di Popper, soprattutto perché è stata rinvigorita da Massimo Pigliucci e altri”. Insomma, anche in questo caso abbiamo preso sintomi per cause. Stavolta però i risultati di tale fraintendimento si stanno trasformando nei primi studi basati su grandi quantità di dati a proposito di quel che siamo oltre al come appariamo sui social network. Una buona notizia a tutti gli effetti.

 

Credits Copertina: Midjourney Bot