Il processo costruttivo delle bufale

Bufale
0 Flares Filament.io 0 Flares ×

Perché cerchiamo di smontare le bufale.

Gli eserciti di complottisti e debunker sono sempre più agguerriti.

Ciascuno convinto di portare avanti una missione salvifica e indispensabile.

Ma le ragioni reali del conflitto sono ben altre.

Siete venuti a sapere che il cugino di un vostro conoscente, grazie a un preparato omeopatico, è guarito da una brutta tosse senza dover ricorrere alla malvagia Big Pharma.

Oppure, ancora peggio, avete appreso con raccapriccio che l’alimentazione vegana cura i tumori.

Bufale

Bufale

E il piccolo Galileo che è in voi si è indignato: intollerabile che ci sia ancora qualcuno che ancora crede a queste fandonie, avete pensato.

Allora avete aperto il vostro profilo Facebook per raccontare al mondo l’assurdità dell’ennesima bufala, affilando le armi dialettiche e cercando i giochi di parole più brillanti. Il contatore dei mi piace è impazzito. Sono fioccati commenti entusiasti.

Qualcuno ha provato a protestare, ma, schiacciato dalle vostre argomentazioni iperrazionali, si è dileguato con la coda fra le gambe.

Avete messo alla berlina i complottari – così li avete chiamati, scimmiottando i loro “svegliaa!1!1!!” – e vi siete guadagnati una medaglia al valore sul campo dell’eterna battaglia contro la disinformazione online. Ora non resta che godervi il meritato riposo del guerriero.

Soddisfatti, vero? In realtà, a ben vedere, c’è poco di cui esaltarsi.

E i motivi sono almeno due. Anzitutto, sappiate che quel che vi spinge per davvero a combattere questa battaglia non è l’amore per la verità. È l’amore per voi stessi.

Il desiderio di apparire arguti e brillanti puntando il dito contro l’ottusità altrui.

Dietro i vostri post smontabufale c’è Narciso, più che Galileo.

E ancora: la vostra paziente opera di debunking, a conti fatti, non sta rendendo un grande servizio alla causa.

Nella maggior parte dei casi, è anzi addirittura controproducente.

I vostri bei calcoli su numero di Avogadro e diluizioni infinite, accompagnati da qualche motto di spirito sulla memoria dell’acqua, non faranno cambiare idea a nessun fan dell’omeopatia.

Lo renderanno soltanto ancora più incattivito, convincendolo che anche voi fate parte del grande complotto, e sempre meno disposto a darvi ascolto.

A dimostrarlo sono i numeri appena presentati da un’équipe di informatici, matematici, fisici e statistici dell’Imt Institute for Advanced Studies di Lucca, nel lavoro Emotional Dynamics in the Age of Misinformation, appena pubblicato sulla rivista Plos One, e in altri due studi caricati sul server di preprint ArXiv (qui e qui) e in attesa di pubblicazione.

Gli scienziati, in particolare, hanno analizzato un imponente corpus di contenuti Facebook (73 pagine, 270mila post, 9 milioni di mi piace, 1 milione di commenti, 18 milioni di condivisioni) per comprendere, per l’appunto, le dinamiche emotive alla base del comportamento degli utenti che propagano le bufale online e di quelli che cercano sistematicamente di smascherarli.

“La principale determinante che guida la selezione dei contenuti online”, ci ha raccontato Walter Quattrociocchi, coordinatore del team, “è il cosiddetto confirmation bias: la rete – e in particolare i social network – non serve per informarsi, ma per avere conferme a quello che già si conosce”.

Cioè per certificare la propria appartenenza a una tribù e rimanere protetti all’interno del gruppo dei propri simili.

Analizzando commenti e interazioni tra gli utenti, gli scienziati hanno infatti confermato l’esistenza di comunità (in gergo cluster) fortemente polarizzate e omofile: “Esistono due narrative contrastanti: una è quella che potremmo definire scientifica, l’altra è quella dei complottisti”, continua Quattrociocchi. “Sono due gruppi completamente scissi e non comunicanti, sia a livello di interazione che di rete sociale.

In altre parole, ciascuno dei due gruppi è capace soltanto di parlare alla propria pancia. Gli utenti che ne fanno parte sono esposti (anche grazie all’algoritmo selettivo di Newsfeed) solo a contenuti provenienti da altri membri dello stesso cluster, e interagiscono solo con questi ultimi. L’espressione coniata da Quattrociocchi e colleghi per descrivere il fenomeno è echo chamber, una “camera chiusa in cui risuona e si amplifica sempre e soltanto la propria voce”.

Come se non bastasse, analizzando i commenti degli utenti di entrambe le tribù (debunker e complottisti, per intenderci), gli scienziati hanno notato comportamenti e dinamiche quasi indistinguibili: “Abbiamo scoperto”, si legge nell’abstract, “che per entrambi i tipi di contenuti, più si allunga la discussione e più prevalgono i commenti dominati da sentimenti negativi [classificati automaticamente con un algoritmo di analisi semantica, nda].

Le discussioni all’interno delle echo chamber, insomma, tendono facilmente a degenerare in odio, insulti e irrisione.

E le (rare) incursioni all’esterno della propria nicchia, dicono gli scienziati, sono addirittura peggiori, caratterizzate da contenuti e commenti ancora più negativi, che non hanno altro risultato se non quello di alzare ulteriormente le barricate e abbassare la qualità complessiva dell’informazione.

Ecco qualche dato concreto: i mi piace degli utenti sono coagulati quasi esclusivamente sui contenuti di uno solo dei due cluster e non esistono utenti che interagiscono contemporaneamente con post complottisti e scientifici.

Per di più, gli scienziati hanno notato una correlazione lineare tra numero di amici con gusti simili ai propri (per esempio complottisti) e numero di mi piace sulla relativa narrativa.

E ancora: ogni mi piace su un argomento specifico all’interno di una echo chamber aumenta del 12% la probabilità di abbracciarne un altro: vuol dire che, se un utente interagisce positivamente, per esempio, con un post relativo alle scie chimiche, è più probabile che si comporterà allo stesso modo con un post che parla di autismo e vaccini.

Mentre nei post all’interno di una echo-chamber i commenti con emozioni negative sono pari al 54% (tra le pagine complottiste) e al 27% (tra le pagine anti-bufala), quando gli eserciti si affrontano a viso aperto, fuori dai rispettivi cluster, i contenuti negativi salgono al 60% del totale e crescono al crescere della lunghezza delle discussioni.

Continua a leggere questo fondamentale articolo su Wired.it

Lascia un commento da Facebook

Leave A Response

* Denotes Required Field