Giovedì il consiglio di supervisione della società madre di Facebook, Meta, ha raccomandato al gigante di social media di “mantenere la sua attuale politica” di rimozione della “disinformazione” COVID-19 dalla sua piattaforma fino a quando l’Organizzazione Mondiale della Sanità non dichiarerà la fine della pandemia globale.
Il consiglio ha formulato la raccomandazione nonostante la diffusa protesta per la censura dei social media dopo che i Twitter files e le diverse cause in corso hanno rivelato la collusione tra attori statali e aziende di social media per censurare le opinioni dissenzienti e le informazioni fattuali che contraddicono le narrazioni ufficiali, comprese quelle relative alla pandemia di COVID-19.
La raccomandazione è arrivata in risposta alla richiesta di Meta, presentata a luglio, che il consiglio di supervisione – un gruppo indipendente di esperti tecnologici e legali selezionati da Meta per valutare le questioni relative alla politica dei contenuti – valuti se “un approccio meno restrittivo” alla censura della disinformazione potrebbe “allinearsi meglio con i suoi valori e le sue responsabilità in materia di diritti umani”.
L’ attuale politica sulla disinformazione di Meta stabilisce diverse categorie di danni che un contenuto potrebbe causare, rendendolo soggetto a rimozione. Il contenuto viene censurato se la piattaforma ritiene che contribuisca al “rischio di danni fisici imminenti”, possa causare “interferenze” con il funzionamento di processi politici o contenga “alcuni mezzi di comunicazione manipolati altamente ingannevoli”.
Ma il consiglio non ha trovato incoerenze tra la “politica di disinformazione” di Meta e i suoi “valori e responsabilità in materia di diritti umani”. Ha invece affermato che le attuali “misure eccezionali” di Meta per eliminare la disinformazione sono “giustificate”.
Il consiglio ha anche esortato Meta a “iniziare un processo” per rivalutare quali “affermazioni fuorvianti” rimuove, a essere più trasparente sulle richieste di informazioni da parte del governo, a considerare di rendere più localizzate le sue politiche sulla “disinformazione” e ad indagare su come l’architettura della piattaforma faciliti la diffusione della disinformazione.
Giovedì Meta ha dichiarato che risponderà pubblicamente alle raccomandazioni non vincolanti del consiglio entro 60 giorni.
Suzanne Nossel, membro del consiglio e amministratore delegato di PEN America, ha dichiarato al Washington Post che le raccomandazioni del consiglio non sono rilevanti solo per la COVID-19, ma potrebbero determinare l’approccio di Meta alle future emergenze sanitarie globali.
“La decisione non riguarda tanto la pandemia di COVID in sé o esclusivamente, quanto piuttosto… il modo in cui Meta dovrebbe gestire le proprie responsabilità nel contesto di un’emergenza sanitaria in rapida evoluzione”, ha dichiarato.
Come Facebook e Instagram censurano la “disinformazione” COVID
La raccomandazione ha valutato specificamente la politica di Meta in materia di “disinformazione sulla salute durante le emergenze pubbliche”, in base alla quale vengono rimosse 80 distinte “affermazioni disinformative sulla COVID-19” pubblicate sulle sue piattaforme, come l’affermazione che le mascherine o il distanziamento sociale non sono efficaci o che i vaccini possono avere gravi effetti collaterali.
Tra marzo 2020 e luglio 2022, Facebook e Instagram, entrambi di proprietà di Meta, hanno rimosso 27 milioni di post di “disinformazione” COVID-19, 1,3 milioni dei quali sono stati ripristinati in appello.
Il gigante dei social media designa anche un secondo tipo di “disinformazione” COVID-19, che non raggiunge lo standard richiesto per la rimozione, ma è comunque soggetto a manipolazione da parte della piattaforma.
Per esempio, le informazioni di questa categoria vengono “verificate”, cioè vengono etichettate come “false” o “mancanti di contesto” e collegate a un articolo di verifica fattuale (o fact-checking). Questi contenuti vengono quindi retrocessi, in modo da apparire meno frequentemente e in modo meno evidente nei feed degli utenti.
Meta ha anche trattato altre informazioni con quelle che chiama “etichette neutre”, etichettando i post con affermazioni come “alcuni trattamenti per la COVID-19 non approvati possono causare gravi danni” e indirizzando poi le persone al centro informazioni COVID-19 di Meta, che fornisce informazioni approvate dalle autorità sanitarie pubbliche.
Lo scorso luglio, l’azienda ha dichiarato di aver collegato più di 2 miliardi di persone in 189 Paesi a “informazioni affidabili” attraverso il portale. Ma ha deciso di smettere di usare le etichette neutre nel dicembre 2022, per garantire la loro efficacia in altre emergenze sanitarie, secondo il rapporto del consiglio di supervisione.
Secondo la raccomandazione del consiglio e la pagina sulla politica di Facebook, la base per determinare cosa costituisca disinformazione è il fatto che l’informazione sia o meno conforme a ciò che viene ritenuto vero dalle autorità sanitarie pubbliche.
Ma nel corso della pandemia, le autorità sanitarie pubbliche hanno dovuto ammettere di essersi sbagliate su cose – e di aver mentito su cose – che in precedenza avevano dichiarato essere fatti scientificamente fondati.
Questi “fatti” includono, ad esempio, i cambiamenti di parere sulle mascherine, l’ipotesi della fuoriuscita dal laboratorio, l’efficacia dell’immunità naturale e numerose affermazioni sull’efficacia del vaccino, tra cui quella secondo cui bloccherebbe la trasmissione.
Ciò significa che le piattaforme hanno eliminato e retrocesso fatti e informazioni che erano veri. Anche la CNN ha ammesso che “l’azienda ha applicato le etichette a un’ampia gamma di affermazioni sia vere che false su vaccini, trattamenti e altri argomenti legati al virus”.
Questo tipo di abuso di potere dovrebbe spaventarci tutti”
Le raccomandazioni del consiglio non menzionano gli eventi che hanno portato Meta a prendere in considerazione la possibilità di cambiare le sue politiche: le polemiche sulle recenti rivelazioni su come i funzionari governativi abbiano costretto le aziende di social media a seguire la linea del governo.
Nel 2021, il presidente Biden ha criticato direttamente Facebook e altre piattaforme, affermando che hanno permesso la diffusione della “disinformazione sui vaccini” e hanno contribuito ai decessi causati dalla COVID-19.
Ha detto che stavano “uccidendo le persone” e che la pandemia era solo “tra i non vaccinati”.
Giornalista: “Qual è il suo messaggio alle piattaforme come Facebook?”
Il presidente Biden: “Stanno uccidendo le persone”. pic.twitter.com/jrAvQpG7i0
– The Hill (@thehill) 16 luglio 2021
Le accuse di Biden sono state accompagnate da minacce di interventi normativi da parte di membri di alto livello dell’amministrazione – tra cui la segretaria alla stampa della Casa Bianca Jennifer Psaki, il Surgeon general Vivek Murthy e il segretario del Dipartimento di Sicurezza Nazionale (DHS, acronimo di Department of Homeland Security) Alejandro Mayorkas – se le società di social media non si fossero adeguate.
Psaki ha detto che i funzionari governativi erano in contatto regolare con le piattaforme di social media, a cui dicevano cosa – e in alcuni casi chi – censurare, ha riferito Jenin Younes.
Il DHS ha persino creato un video nel 2021, poi rimosso da Youtube, che incoraggiava i bambini a denunciare i propri familiari a Facebook per “disinformazione”, se contestavano le narrazioni COVID-19 del governo degli Stati Uniti.
In un articolo pubblicato su Tablet Magazine questo mese, l’avvocato per le libertà civili Jenin Younes ha raccontato la storia di un gruppo di supporto su Facebook (per persone che avevano subito eventi avversi legati ai vaccini anti COVID-19) che è stato chiuso per aver diffuso “disinformazione” dannosa.
Il mese scorso, nel rilascio di Twitter Files sul progetto Virality dell’Università di Stanford, Matt Taiibbi ha rivelato che Stanford, con il sostegno di diverse agenzie governative, aveva creato un sistema di ticketing digitale multipiattaforma che elaborava le richieste di censura per tutte le piattaforme di social media, comprese quelle di Meta.
Il Virality Project ha dichiarato che il suo obiettivo “è quello di rilevare, analizzare e rispondere agli episodi di narrazioni false e fuorvianti relative ai vaccini anti COVID-19 negli ecosistemi online”.
Taibbi ha detto che il Virality Project “definisce le cose vere come disinformazione” [in inglese dis-, mis- e malinformation], il che significa “una nuova evoluzione del processo di disinformazione che si allontana dal tentativo di capire cosa sia vero e cosa non lo sia, per passare direttamente a una narrazione politica”.
Ciò riflette la politica di Meta di censurare le dichiarazioni non conformi alla dottrina ufficiale delle autorità sanitarie pubbliche, bollandole come “disinformazione”.
Le politiche di Meta non menzionano i suggerimenti e le indicazioni che riceve dalle agenzie governative in merito alla disinformazione.
Il senatore Rand Paul (Rep.-Kentucky) ha pubblicato martedì un articolo su The Hill in cui chiede la fine delle pratiche di censura, sottolineando che molte dichiarazioni sulla COVID-19 fatte su piattaforme come Facebook, ora supportate da prove, sono state segnalate come disinformazione.
“Molte affermazioni, comprese le mie, che il nostro governo un tempo etichettava come “disinformazione”, ad esempio sull’efficacia delle mascherine, sull’immunità acquisita naturalmente e sulle origini del [virus della] COVID-19, sono ora supportate da prove”, ha dichiarato.
“In realtà, la fonte più significativa di disinformazione durante la pandemia, con la maggiore influenza e il maggiore impatto sulla vita delle persone, è stato il governo degli Stati Uniti”, ha aggiunto.
Rand ha attirato l’attenzione sulle critiche agli “abusi di potere” del DHS fatte da organizzazioni come l’American Civil Liberties Union e ha evidenziato un rapporto del Brennan Center for Justice pubblicato il mese scorso che ha scoperto l’esistenza di almeno 12 programmi del DHS per il monitoraggio di ciò che gli americani dicono online.
“Questo tipo di abuso di potere dovrebbe spaventarci tutti, indipendentemente dallo schieramento in cui ci si trova”, ha dichiarato.