Social. Facebook fa decidere ai suoi utenti quali sono le fonti di notizie «affidabili»

Facebook nel 2017 supera i 2 miliardi di iscritti, 900mila persone vi accedono ogni minuto, più di 250mila foto e 70mila ore di video vengono viste dagli utenti del più grande social network del mondo ogni sessanta secondi.

Facebook – per dirla con Alberto Puliafito – è diventato una piattaforma dai superpoteri, talmente redditizia e grossa, da aver perso il controllo di sé, da non riuscire più a sorvegliare l’universo indistinto di contenuti che lo alimentano, tra cui anche notizie false che deformano la realtà e post che incitano alla violenza (“hate speech”).

Ora la domanda è semplice: si vuole che sia una piattaforma, che poi è un’azienda privata quotata in borsa che punta a fare profitti e non dedita al bene comune, a stabilire, arbitrariamente, se un articolo sia una fake news?

Ovviamente no. E questo lo sa anche Mark Zuckerberg, fondatore e amministratore delegato di Facebook, che per scrollarsi di dosso questa grande responsabilità ha appena annunciato un nuovo cambiamento dell’algoritmo: d’ora in avanti saranno le persone, iscritte a Facebook, ad avere la responsabilità di definire quali fonti di informazioni siano attendibili e quali no.

«La questione più difficile su cui abbiamo dibattuto è come decidere quali sono le fonti di notizie ampiamente ritenute affidabili in un mondo così diviso – aveva spiegato il fondatore Mark Zuckerberg nel suo post sul quale si sono scatenate molte letture e interpretazioni -. Avremmo potuto provare a prendere questa decisione da soli, ma non è qualcosa con cui ci sentivamo a nostro agio. Abbiamo preso in considerazione l’idea di chiedere a esperti indipendenti, cosa che ci avrebbe sollevati dal prendere la decisione noi stessi, ma che non avrebbe risolto il problema dell’obiettività. Oppure potevamo chiedere a voi – la community – e usare il vostro feedback per valutare le pagine. Abbiamo deciso che quest’ultima opzione è il metodo più obiettivo». Saranno le persone, quindi, a dire se si fidano delle testate da cui attingono le informazioni e, più una fonte sarà ritenuta attendibile, più i contenuti che pubblicano guadagneranno visibilità nel cosiddetto newsfeed, la homepage di Facebook.

Restano da sciogliere una serie di dubbi su come possa la qualità delle informazioni su Facebook essere gestita dagli utenti in modo imparziale e senza pregiudizi? Quello che si sa finora, lo riporta il Post, in un pezzo che prova a confrontare i rischi che si corrono facendo valutare l’attendibilità delle fonti di informazione dalla community: “Agli utenti – si legge – di Facebook sarà chiesto di individuare le fonti di notizie che conoscono e quali, tra quelle a loro note, ritengono essere affidabili. Facebook ha ideato questo sistema basandosi sull’idea che alcune fonti di notizie sono considerate affidabili solo da chi le segue, mentre altre vengono ritenute affidabili anche da chi non le usa, ma le conosce”.

Facendo un esempio concreto: un italiano su Facebook potrebbe valutare come fonte affidabile il quotidianoAvvenire, pur informandosi principalmente su Repubblica. Al tempo stesso potrebbe venirsi a creare un meccanismo distorsivo: un utente di Facebook che usa fonti di informazione connotate in modo diverso rispetto ad Avvenire potrebbe decidere di penalizzare la linea editoriale di questo quotidiano, definendolo una fonte non attendibile. Quest’ultimo è solo un esempio tra i tanti possibili – evidenziati anche dalla rivista online Intercept – che rientrano nello scenario proposto dall’americano Tom Gara, editorialista di BuzzFeed News: convinto che probabilmente il nuovo sistema danneggerà le fonti di notizie con un pronunciato orientamento politico: «Sembra un’ottima notizia per i media che non sono odiati né da una parte né dall’altra».

Di senso opposto è l’analisi di Will Oremus, altro studioso americano, esperto di tecnologie e social media, che sulla rivista Slate ha spiegato che il nuovo sistema non dovrebbe penalizzare le fonti di notizie poco conosciute, dato che il grado di affidabilità verrebbe stimato solo in base al rapporto tra il numero di persone che ritengono affidabile una data fonte di notizie e il numero di persone che la conoscono. Quello che potrebbe accadere però è che si venga ad accentuare quel senso di isolamento informatico, dovuto alla «bolla dei filtri» che su Facebook ci porta a vedere solo notizie di nostro gradimento e opinione su cui siamo d’accordo. Ecco, perché la proposta di Oremus si allarga e rilancia una supervisione umana all’algoritmo: in modo che si possano fare domande più complesse rispetto alle sole «Conosci questa fonte di notizie?» e «Ti fidi di quello che dice?».

da Avvenire