La pigrizia cognitiva che fa il gioco delle fake news

La maggior parte degli utenti di piattaforme social non condividerebbe intenzionalmente fake news e misinformazione. È la conclusione di un recente studio che punta il dito contro la disattenzione e la noncuranza, anziché la faziosità o l’incapacità di discernere contenuti legittimi da notizie false e fuorvianti. Invitare a ragionare sull’accuratezza dei contenuti, anche attraverso stimoli integrati nel design delle piattaforme, potrebbe prevenire alla radice il problema. E potrebbe offrire un’alternativa alla rincorsa con fact-checking e censura – spesso problematica – di pseudonotizie già integrate nell’ecosistema informativo.

Andra Meneganzin

Post-verità? 

È dalle elezioni presidenziali USA del 2016 che la diffusione di disinformazione (falsità strutturate, destinate a ingannare) e misinformazione (notizie scorrette ma non costruite ad arte, seppur ugualmente fuorvianti) ha inaugurato una nuova nicchia d’attenzione nel dibattito pubblico. E si sono coniati nuovi lessemi, come la nota “post-verità” (post-truth) che l’Oxford English Dictionary a elevato a parola dell’anno 2016. 

Più di recente, si è visto come la pandemia di COVID-19 abbia offerto gli elementi per creare una tempesta perfetta in grado di mettere a nudo il ruolo critico della diffusione di informazione in contesti disintermediati e altamente entropici come le piattaforme social. L’OMS ha battezzato col termine “infodemia” il fenomeno della sovrabbondanza di informazioni e la difficoltà per gli utenti di orientarsi tra fonti numerose e qualitativamente eterogenee, in un frangente in cui da una buona informazione dipendono scelte individuali e salute pubblica.   

Gli autori di un recente studio guidato da Gordon Pennycook (University of Regina, Canada) David Rand (MIT Sloan) sostengono che la narrativa della “post-verità” meriti di essere rivista. Si potrebbe essere tentati di concludere che siamo nel mondo della post-verità – commentano Pennycook e Rand su Scientific American – dove le persone sono effettivamente incapaci di distinguere realtà da finzione, sono ostinatamente ignoranti e condividono di proposito falsitàNon si tratta di una questione da pocoPerché se così fosse, le nostre democrazie sarebbero in guai grossi e, forse, non ci rimarrebbe che accettare (o addirittura implorare) una severa censura delle falsità da parte delle aziende di social media. 

La ricerca da loro pubblicata qualche giorno fa sulla prestigiosa rivista Nature mette in discussione questa letturail problema dell’aumento di misinformazione online non avrebbe a che fare con la disposizione degli utenti nei confronti della verità, ma con la loro attenzione. 

Lo studio 

La ricerca affronta due nodi cruciali della corrente crisi infodemica. Il primo riguarda le ragioni per cui gli utenti condividono (in gergo, sharing) cattiva informazione – palesi falsità o notizie fuorvianti (iper-faziose)Il secondo riguarda le soluzioni per limitarne la diffusione. I ricercatori hanno osservato che la veridicità di una notizia influenza solo in piccola parte l’intenzione dell’utente di condividerla, ma, contrariamente a quanto si potrebbe pensare, ha un grande impatto sulle valutazioni riguardo l’accuratezza. Questo “scollamento” sembra suggerire che la condivisione di un contenuto non implichi che venga valutato come esatto. Tuttavia, la maggior parte dei partecipanti ha dichiarato che ritiene importante condividere solamente notizie accurate. Un’apparente contraddizione che è stata affrontata dai ricercatori in una serie di indagini sperimentali, alcune condotte nel contesto di Facebook, altre su Twitter. 

In relazione alla prima questione – i motivi per cui viene condiviso un contenuto inesatto o fuorviante – si sono volute testare tre ipotesi tra loro alternative, secondo cui alla base (i) vi sarebbe una confusione su ciò che è accurato e ciò che non lo è; (ii) verrebbe data priorità ad altri fattori (ad esempio, schieramenti di parte); (iii) vi sarebbe una disattenzione verso l’accuratezza dell’informazione.  

I risultati 

In un primo esperimentosono stati proposti ad un gruppo di 1015 soggetti (americani) titoli, frasi di apertura e immagini di 36 articoli realmente comparsi sulle piattaforme socialDi questi, metà erano favorevoli ai Repubblicani, l’altra metà ai Democratici; metà erano notizie interamente false, l’altra metà vere. Ai partecipanti è stato chiesto in maniera casuale di valutare o la veridicità dei titoli (condizione dell’accuratezza) o di indicare se avrebbero condiviso un tale contenuto (condizione della condivisione) 

Riguardo l’accuratezza, si è visto che le notizie vere venivano valutate come accurate con frequenza significativamente più alta rispetto a quelle false e in proporzione maggiore rispetto alle valutazioni basate sull’orientamento politico. Lo schema s’inverte invece per la condivisione, dove la concordanza o la discordanza politica sono i principali predittori della volontà di cliccare sul tasto “Condividi”. Ad esempio, la notizia che “Oltre 500 migranti sono stati arrestati con indosso il giubbotto esplosivo” è stata valutata come accurata dal 15,7% dei Repubblicani coinvolti nello studio, ma ben il 51,1% ha dichiarato che l’avrebbe condivisa. Perché 

I ricercatori hanno avanzato l’ipotesi della disattenzione, l’idea cioè che l’accuratezza sia sì ritenuta importante, ma non influenzi i meccanismi di sharing perché il contesto delle piattaforme social canalizza l’attenzione degli utenti su altri fattori, come la volontà di attirare e compiacere sostenitori (followers) o di segnalare l’appartenenza a un gruppo. 

Un altro esperimento è stato condotto su utenti reali di Twitter, che avevano condiviso contenuti provenienti da siti ritenuti altamente inaffidabili (Breitbart e Inforwars)Tramite messaggio privato, è stato chiesto loro di valutare l’accuratezza di una singola notizia (non politica), e per le successive 24 ore è stata monitorata la loro attività sulla piattaforma. Gli autori hanno così osservato che attraverso una semplice domanda – un intervento che non proponeva un nuovo contenuto né prescriveva un diverso comportamento  la qualità media delle fonti delle notizie condivise era notevolmente più alta (e i link a Breitbart ridotti). Lo stesso risultato si è riscontrato proponendo nell’esperimento contenuti su COVID-19. 

“Spintarelle” o censura? 

Le piattaforme social guardano (per ribadire l’ovvio) alla dimensione sociale, interazionale. Per questo motivo l’attenzione degli utenti è rivolta a produrre, replicare e interagire con contenuti che creano coinvolgimento – questo è ciò che l’algoritmo premia. In un singolo scorrimento di pollice (scrolling) l’utente medio si imbatte in un mix di notizie e altri contenuti a impatto emotivo (immagini di animali domestici o di bambini) o contenuti satirici e ironici (meme): è molto semplice, sostengono gli autori, che l’attenzione venga dirottata dal considerare se si sta condividendo un’informazione corretta o meno. Da un punto di vista cognitivo, interverrebbe dunque un “pensiero pigro (lazy thinking), non doloso, nella proliferazione di cattiva informazione in rete. 

Ma questa non è necessariamente una brutta notizia. Se l’attuale design delle piattaforme ci distrae dall’accuratezza, esistono strumenti per invertire la tendenza. Pennycook e Rand sostengono che con dei nudges (“colpetti”, spinte gentili), come una semplice domanda o un avviso in una finestra automatica, è possibile riportare l’attenzione dei naviganti su accuratezza e veridicità. Organizzazioni della società civile e altri soggetti senza scopo di lucro potrebbero adottare un simile approccio, con inserzioni ad hoc per i soggetti più a rischio di misinformazione (persone in età avanzata non avvezze alle dinamiche del digitale o frequentatori di siti di disinformazione).  

Se questa soluzionegià esplorata nell’ambito dell’economia comportamentale, è consapevolmente una forma di paternalismo libertario  le “buone” scelte vengono orientate, ma la libertà individuale rispettata  essa potrebbe rappresentare una valida alternativa alle problematiche, inefficienti, e polarizzanti strategie di censura da parte delle piattaforme stesse di certificazione dell’affidabilità (da delegare a enti terzi) persino tramite contrassegnoQueste ultime, inoltrerendono ineludibile la domanda: chi sorveglierebbe i sorveglianti? 

Molto dibattuta è stata la recente decisione da parte di diverse piattaforme social di cancellare l’account di Donald Trump dopo i fatti di Capitol Hill. Tralasciando il fatto che in un contesto ideale questa drastica misura non dovrebbe spettare a un’azienda privatauna simile soluzione rispecchia un modello centralizzato di gestione dell’ecosistema informativo. Ciò che Pennycook e Rand sembrano suggerire è invece un modello distribuito, in cui ognuno, tramite scelta individuale (seppur “gentilmente incoraggiata”), fa la propria parte. Contare fino a 10 e ragionare sulla bontà del contenuto che si ha di fronte è una perdita di tempo trascurabile nell’economia attentiva del singolo individuo, ma moltiplicato per gli oltre due miliardi di utenti di Facebook può produrre un effetto cumulativo con esiti affatto irrisori. 

È evidente – gli stessi ricercatori ne sono consapevoli – che il complesso problema della dis-e misinformazione non verrà esaurito dalle strategie di nudging. Queste, al più, possono essere considerate come soluzioni complementari ad altre strategie preventive, dispendiose e di lungo periodo, come l’educazione e un’efficace comunicazione scientifica che riescano ad arginare la pigrizia cognitiva a cui siamo spesso soggetti. E che puntino a promuovere un senso critico nei confronti dei contenuti e a far fronte alla delicata crisi dell’autorevolezza che ha investito tutti gli ecosistemi informativi. Autorevolezza che, contrariamente a una narrativa comune, è propria di chi comunica, e non dei mezzi di comunicazione.  

 

SOSTIENI MICROMEGA

 



Ti è piaciuto questo articolo?

Per continuare a offrirti contenuti di qualità MicroMega ha bisogno del tuo sostegno: DONA ORA.

Altri articoli di Andra Meneganzin

Dalla nascita di Dolly la clonazione ha rivoluzionato l’epistemologia genetica, aprendo a sviluppi impensabili nella medicina rigenerativa.

Altri articoli di La Mela di Newton

In questo numero di MicroMega analizziamo le diverse forme di patriarcato e le risposte dei femminismi nel corso del tempo.

In questo numero di MicroMega analizziamo la nostra Costituzione antifascista e la sua disapplicazione al giorno d'oggi.

Una critica alle derive identitarie e un tentativo di recuperare la vocazione universalista della sinistra.