Mettendo in guardia da un “mondo oscuro di danni online” che deve essere affrontato, il World Economic Forum (WEF) questo mese ha pubblicato un articolo in cui si chiede una “soluzione” agli “abusi online”, che sarebbe resa possibile dall’intelligenza artificiale (IA) e dall’intelligenza umana.

La proposta prevede un sistema, basato sull’IA, che automatizzerebbe la censura della “disinformazione” e dei “discorsi d’odio” e servirebbe a superare la diffusione di “abusi sui minori, estremismo, disinformazione, discorsi d’odio e frodi” online.

Secondo l’autore dell’articolo, Inbal Goldberger, i “team per la fiducia e la sicurezza” umani non sono in grado di sorvegliare tali contenuti online da soli.

Goldberger è vicepresidente di ActiveFence Trust & Safety, un’azienda tecnologica con sede a New York e Tel Aviv che sostiene di “raccogliere automaticamente dati da milioni di fonti ed applicare l’IA contestuale per alimentare operazioni di fiducia e sicurezza di qualsiasi dimensione”.

Invece di affidarsi esclusivamente a team di moderazione umani, Goldberger propone un sistema basato su “intelligenza curata dall’uomo, multilingue e fuori piattaforma” – in altre parole, input forniti da fonti umane “esperte” che creerebbero dei “set di apprendimento” per addestrare l’IA a riconoscere contenuti presumibilmente dannosi o pericolosi.

Queste “informazioni fuori piattaforma” – più apprendimento automatico che IA di per sé, secondo Didi Rankovic di ReclaimTheNet.org – verrebbero raccolte da “milioni di fonti” e verrebbero poi collazionate e unite prima di essere utilizzate per “decisioni sulla rimozione di contenuti” da parte delle “piattaforme Internet”.

Secondo Goldberger, il sistema integrerebbe “un rilevamento automatico più intelligente con l’esperienza umana” e consentirebbe di creare “un’IA con intelligenza umana incorporata”.

Questo, a sua volta, fornirebbe una protezione contro “attori sempre più avanzati che abusano delle piattaforme in modi particolari”.

“Un moderatore umano esperto di supremazia bianca europea non sarà necessariamente in grado di riconoscere i contenuti dannosi in India o le narrazioni di disinformazione in Kenya”, ha spiegato Goldberger.

Tuttavia, “combinando in modo unico la potenza di una tecnologia innovativa, la raccolta di informazioni fuori piattaforma e l’abilità di esperti in materia che comprendono il modo in cui operano i perpetratori di minacce, il rilevamento scalare degli abusi online può raggiungere una precisione quasi perfetta”, in quanto questi set di apprendimento vengono “incorporati” nell’IA nel corso del tempo, ha affermato Goldberger.

Questo, a sua volta, consentirebbe ai “team per la fiducia e la sicurezza” di “bloccare le minacce che sorgono online prima che raggiungano gli utenti”, ha aggiunto.

Nella sua analisi di come potrebbe apparire in pratica la proposta di Goldberger, il blogger Igor Chudov ha spiegato che oggi il controllo dei contenuti sui social media avviene piattaforma per piattaforma.

Ad esempio, i moderatori dei contenuti di Twitter esaminano solo i contenuti pubblicati su quella particolare piattaforma, ma non i contenuti di un utente pubblicati al di fuori di Twitter.

Secondo Chudov, questo è il motivo per cui il WEF sembra sostenere la proposta di “andare oltre le principali piattaforme Internet, per raccogliere informazioni su persone e idee ovunque”.

“Un approccio di questo tipo”, ha scritto Chudov, “permetterebbe loro di sapere meglio quale persona o idea censurare – su tutte le principali piattaforme contemporaneamente”.

Le informazioni raccolte dal sistema da “milioni di fonti”, secondo Chudov, “rileverebbe i pensieri a loro sgraditi”, con conseguenti “decisioni di rimozione dei contenuti passate poi ai vari Twitter, Facebook e così via… un cambiamento importante rispetto alla situazione odierna, che vede ogni piattaforma decidere cosa fare in base ai messaggi pubblicati solo su quella piattaforma specifica”.

In questo modo, “la ricerca del pensiero sbagliato si globalizza”, conclude Chudov.

In risposta alla proposta del WEF, ReclaimTheNet.org ha sottolineato che “si può iniziare a discernere l’argomentazione qui … come una semplice pressione sui social network per iniziare a muoversi in direzione di una ‘censura preventiva'”.

Chudov ha affermato che il WEF sta promuovendo la proposta perché “comincia a preoccuparsi” in quanto “le opinioni non approvate stanno diventando sempre più popolari e i censori online non riescono a tenere il passo con milioni di persone che diventano più consapevoli e più inclini a parlare apertamente”.

Secondo il Daily Caller, “il documento del WEF non specificava come sarebbero stati individuati i membri del team di formazione dell’IA, come potessero poi essere ritenuti responsabili o se i governi avrebbero potuto esercitare controlli sull’IA”.

In un disclaimer che accompagna l’articolo di Goldberger, il WEF ha rassicurato il pubblico che il contenuto espresso nel pezzo “è l’opinione dell’autore, non del World Economic Forum”, aggiungendo che “questo articolo è stato condiviso su siti web che abitualmente travisano il contenuto e diffondono disinformazione”.

Tuttavia, il WEF sembra essere aperto a proposte come quella di Goldberger. Ad esempio, un articolo del maggio 2022 sul sito web del WEF propone l'”Oversight Board” di Facebook come esempio di “modello di governance del mondo reale” che può essere applicato alla governance nel metaverso.

E, come ha osservato Chudov, “la moderazione dei contenuti da parte dell’IA si inserisce direttamente nel sistema di valutazione del credito sociale dell’IA”.

Anche l’ONU, con il sostegno della Fondazione Gates, mira a “interrompere la catena della disinformazione”.

Il WEF non è l’unica entità che auspica un controllo più severo dei contenuti online e della “disinformazione”.

Ad esempio, l’UNESCO ha recentemente annunciato una partnership con Twitter, la Commissione europea e il Congresso ebraico mondiale che ha portato al lancio della campagna #ThinkBeforeSharing, per “fermare la diffusione delle teorie del complotto”.

Secondo l’UNESCO:

“La pandemia COVID-19 ha scatenato un preoccupante aumento della disinformazione e del complottismo.

“Le teorie del complotto possono essere pericolose: spesso prendono di mira e discriminano gruppi vulnerabili, ignorano le prove scientifiche e polarizzano la società con gravi conseguenze. Questo deve finire”.

Il direttore generale dell’UNESCO, Audrey Azoulay, ha dichiarato:

“Le teorie del complotto causano danni reali alle persone, alla loro salute e anche alla loro sicurezza fisica. Amplificano e legittimano idee sbagliate sulla pandemia e rafforzano stereotipi che possono alimentare la violenza e le ideologie estremiste violente”.

L’UNESCO ha dichiarato che la partnership con Twitter informa le persone che gli eventi che si verificano in tutto il mondo non sono “manipolati segretamente dietro le quinte da forze potenti con intenti negativi”.

L’UNESCO ha pubblicato una guida su cosa fare nel caso in cui si incontri un “complottista” online: bisogna “reagire” immediatamente pubblicando nei commenti un link pertinente a un “sito web di verifica dei fatti”.

L’UNESCO fornisce anche consigli al pubblico nel caso in cui qualcuno incontri un “complottista” in carne e ossa. In questo caso, l’individuo dovrebbe evitare di discutere, poiché “qualsiasi argomentazione può essere presa come prova che si fa parte del complotto e rafforzare questa convinzione”.

La campagna #ThinkBeforeSharing fornisce una serie di infografiche e materiali di accompagnamento volti a spiegare cosa sono le “teorie del complotto”, come identificarle, come segnalarle e come reagire ad esse in modo più ampio.

Secondo questi materiali, le teorie del complotto hanno sei cose in comune, tra cui:

  • Un “presunto complotto segreto”.
  • Un “gruppo di cospiratori”.
  • “Prove che sembrano supportare la teoria del complotto”.
  • Suggerimenti che affermano “falsamente” che “nulla accade per caso e che non esistono coincidenze” e che “nulla è come appare e tutto è collegato”.
  • Dividono il mondo in “buoni o cattivi”.
  • Fanno uso di individui e gruppi di persone come capri espiatori.

L’UNESCO non respinge del tutto l’esistenza delle “teorie del complotto”, ammettendo invece che “esistono davvero delle vere piccole e grandi cospirazioni”.

Tuttavia, sostiene l’organizzazione, tali “cospirazioni” sono “più spesso incentrate su singoli eventi autoconclusivi o su un individuo, come un assassinio o un colpo di Stato” e sono “reali” solo se “portate alla luce dai media”.

Oltre al WEF e all’UNESCO, all’inizio di quest’anno il Consiglio dei diritti umani delle Nazioni Unite ha adottato “un piano d’azione per affrontare la disinformazione”.

Il “piano d’azione”, sponsorizzato da Stati Uniti, Regno Unito, Ucraina, Giappone, Lettonia, Lituania e Polonia, sottolinea “il ruolo primario dei governi nel contrastare le false narrazioni”, esprimendo al contempo preoccupazione per:

“L’impatto negativo crescente e di vasta portata sul godimento e la realizzazione dei diritti umani della creazione e della diffusione deliberata di informazioni false o manipolate destinate a ingannare e fuorviare il pubblico, sia per causare danni che per guadagno personale, politico o finanziario”.

Anche i Paesi che non hanno approvato ufficialmente il piano del Consiglio dei diritti umani hanno espresso preoccupazione per la “disinformazione” online.

Ad esempio, la Cina ha identificato tale “disinformazione” come “un nemico comune della comunità internazionale”.

Una precedente iniziativa delle Nazioni Unite, in collaborazione con il WEF, ha “reclutato 110.000 volontari dell’informazione” che, secondo le parole del direttore delle comunicazioni globali delle Nazioni Unite Melissa Fleming, avrebbero agito come “forze di primo soccorso digitale” in caso di “disinformazione online”.

L’iniziativa delle Nazioni Unite #PledgeToPause, anche se recentemente è circolata come un nuovo sviluppo sui social media, era stata annunciata nel novembre 2020 ed era stata descritta dalle Nazioni Unite come “la prima campagna globale di cambiamento dei comportamenti sulla disinformazione”.

La campagna fa parte di una più ampia iniziativa delle Nazioni Unite, “Verified”, che mira a reclutare partecipanti per diffondere “contenuti verificati e ottimizzati per la condivisione sociale”, direttamente dal dipartimento di comunicazione delle Nazioni Unite.

Fleming ha detto che l’ONU stava anche “lavorando con le piattaforme di social media per raccomandare dei cambiamenti” per “aiutare a interrompere la catena della disinformazione”.

Sia la campagna “Verified” che la campagna #PledgeToPause risultano ancora attive al momento in cui scriviamo.

L’iniziativa “Verified” è gestita in collaborazione con Purpose, un gruppo attivista che ha collaborato con la Bill & Melinda Gates Foundation, la Rockefeller Foundation, Bloomberg Philanthropies, l’Organizzazione Mondiale della Sanità, la Chan Zuckerberg Initiative, Google e Starbucks.

Già nel 2019, l’ONU ha avviato una partnership strategica con il WEF basata su sei “aree di interesse”, una delle quali è la “cooperazione digitale”.