L’amministrazione Biden sta finanziando la ricerca sugli strumenti di intelligenza artificiale (IA) per identificare e censurare la “disinformazione” e la “malinformazione” online, secondo un rapporto intermedio della Camera dei Rappresentanti degli Stati Uniti pubblicato lunedì.
“Questi progetti finanziati con i soldi dei contribuenti hanno lo scopo di sviluppare strumenti di censura e propaganda basati sull’intelligenza artificiale che possono essere utilizzati dai governi e dai giganti della tecnologia (o Big Tech) per plasmare l’opinione pubblica”, ha dichiarato martedì in un comunicato stampa il Subcommittee on the Weaponization of the Federal Government (Sottocommissione sulla trasformazione del governo federale come arma da guerra).
Martedì il rapporto è stato seguito da una controversa udienza davanti alla sottocommissione, incentrata sull’uso dell’IA per la censura.
Lunedì, l’Onorevole Jim Jordan (Rep.-Ohio), presidente della sottocommissione e della Commissione giudiziaria della Camera, ha pubblicato i “file Amazon” su X, precedentemente noto come Twitter. I file contengono documenti che evidenziano come l’amministrazione Biden abbia esercitato pressioni su Amazon perché censurasse i libri critici verso i vaccini anti COVID-19.
Il rapporto della sottocommissione cita documenti non pubblici e si concentra sulle sovvenzioni che la National Science Foundation (NSF) ha concesso a istituzioni accademiche e non profit per sviluppare strumenti di IA.
L’NSF ha finanziato i progetti nell’ambito dei suoi “Trust & Authenticity in Communication Systems” (Sistemi di fiducia e autenticità nella comunicazione), parte di una più ampia iniziativa dell’NSF lanciata nel 2021, che mira a identificare la “disinformazione” e a sviluppare “materiali didattici e formativi” per coloro che presentano “vulnerabilità ai metodi della disinformazione”.
Secondo il rapporto, questi strumenti consentirebbero una moderazione dei contenuti più rapida e più ampia di quella che può essere realizzata dagli esseri umani. Gli strumenti potrebbero essere messi a disposizione dei giganti dei social media per aiutarli a rimuovere le narrazioni non approvate dal sistema, come i post che mettono in dubbio la sicurezza e l’efficacia dei vaccini anti COVID-19.
Questi sforzi rientrano nei 38,8 milioni di dollari spesi dall’NSF per combattere la “disinformazione” durante l’amministrazione Biden fino al novembre 2022, secondo un rapporto pubblicato il mese scorso dalla Foundation for Freedom Online.
Le nuove rivelazioni sono state oggetto di dibattito durante l’udienza di martedì, che ha visto la testimonianza dell’ex ambasciatore degli Stati Uniti nella Repubblica Ceca Norman Eisen, del giornalista investigativo Lee Fang, del presidente e amministratore delegato della Foundation for Individual Rights and Expression Greg Lukianoff e della giornalista della Daily Caller News Foundation Katelynn Richardson.
Nelle precedenti udienze, la sottocommissione ha ascoltato testimonianze su altri aspetti di quello che è stato descritto come il “complesso industriale della censura“, compresa la testimonianza, nel luglio 2023, del presidente di Children Health Defense (CHD) in congedo, Robert F. Kennedy Jr.
Gli esperti che hanno parlato con The Defender hanno detto che le ultime rivelazioni sono un segno che il governo federale sente che sta perdendo il controllo della narrazione su questioni chiave.
“I social media sono una delle cose migliori che siano mai accadute all’umanità, perché significa che ora siamo noi i notiziari”, ha dichiarato l’avvocato Greg Glaser.
“Chiunque abbia un canale di social media popolare può essere influente come un grande network, e questo spaventa a morte la vecchia guardia… Prevedibilmente, i censori stanno cercando di spaventare anche noi utilizzando strumenti di censura di intelligenza artificiale”, ha dichiarato Glaser a The Defender.
Durante l’incontro annuale del World Economic Forum del mese scorso, i relatori hanno espresso il loro disagio per la perdita di controllo dei media tradizionali sull’informazione e sull’opinione pubblica e per il potenziale dell’IA di contribuire a diffondere la cosiddetta “disinformazione”, portando all’elezione dei “leader sbagliati“.
Il giornalista indipendente Paul D. Thacker, che in precedenza ha pubblicato i “Twitter Files”, documenti che rivelavano la censura governativa, ha dichiarato: “Continuano a venir fuori documenti che dimostrano che il governo federale ha un programma esteso a più agenzie per censurare gli americani e finanziare la ricerca accademica in questo settore”.
“I finanziamenti federali per la scienza della censura sono molto interessanti perché questa ricerca aiuterà il governo a capire come censurare in modo più efficace e a comprare le università in modo che i professori non critichino le politiche di censura”, ha detto Thacker.
Mark Crispin Miller, autore e professore di studi sui media alla New York University, la cui ricerca si concentra sulla propaganda, ha dichiarato a The Defender:
“Mentre gridano senza sosta, in perfetto unisono, che Trump rappresenta un chiaro e attuale pericolo di fascismo, i ‘liberal’ [progressisti] che appoggiano Biden in tutto il governo e nei media – e lo stesso Biden – chiudono tutti e due gli occhi sulle pratiche fasciste di questa amministrazione, dal momento che una tale collusione tra Stato e aziende contro i nostri diritti di libertà di parola è un classico segno di governo fascista”.
Probabilmente le rivelazioni di questa settimana avranno implicazioni legali per più parti. Martedì scorso, la Commissione giudiziaria della Camera ha citato in giudizio il direttore dell’NSF, Sethuraman Panchanathan, chiedendogli di consegnare personalmente tutti i documenti interni riguardanti la restrizione o la soppressione dei contenuti online entro le ore 9 del 28 febbraio.
🚨 #BREAKING: @Jim_Jordan cita in giudizio la National Science Foundation per il suo ruolo nel censurare gli americani. pic.twitter.com/jJsguDcbBz
– Weaponization Committee (@Weaponization) 6 febbraio 2024
Secondo il rapporto provvisorio, “la NSF non ha ancora ottemperato adeguatamente alla richiesta di documenti rilevanti” e “sta cercando di ostacolare le indagini del Congresso”.
Martedì, la Commissione giudiziaria della Camera ha citato in giudizio anche l’agente dell’FBI Elvis Chan, accusandolo di non aver rispettato un mandato di comparizione riguardante le pratiche di censura dell’amministrazione Biden.
La causa in corso Murthy et al. contro Missouri et al. e le precedenti pubblicazioni dei “Twitter Files” hanno visto il coinvolgimento di Chan negli sforzi dell’amministrazione Biden per costringere le piattaforme di social media a censurare i contenuti che si opponevano alle sue posizioni sulla COVID-19 e sull’interferenza elettorale.
La causa Murthy contro Missouri, precedentemente nota come Missouri et al. contro Biden et al., che denuncia la violazione da parte del governo delle protezioni del Primo Emendamento per la libertà di parola, potrebbe a sua volta essere influenzata dalle rivelazioni di questa settimana, secondo STAT News. La Corte Suprema degli Stati Uniti dovrebbe emettere una decisione in merito entro giugno.
Kennedy et al. contro Biden et al., depositato da Kennedy e CHD, avanza richieste simili in base al Primo Emendamento. È stata consolidata con Missouri et al. contro Biden et al. nel luglio 2023.
Violazioni “eclatanti” del Primo Emendamento
Secondo il rapporto intermedio, l’amministrazione Biden ha perseguito la “collusione con parti terze, tra cui università, organizzazioni non profit e imprese, per censurare i discorsi protetti sui social media”, nel tentativo di eludere il divieto stabilito dal Primo Emendamento nei confronti del governo di censurare i discorsi.
Il rapporto ha descritto questa situazione come una “eclatante” violazione del Primo Emendamento. Ma il rapporto afferma anche che la censura umana dei contenuti online è un processo lento e incompleto, a causa dei limiti posti dai costi e dall’uso di esseri umani per moderare i contenuti. Secondo il rapporto, gli strumenti di intelligenza artificiale possono accelerare ed espandere in modo significativo tali sforzi.
Il rapporto chiede:
“Cosa succede se la censura viene automatizzata e i censori sono macchine? Non c’è bisogno di turni o di enormi team di persone per identificare e segnalare i discorsi problematici online. Gli strumenti guidati dall’intelligenza artificiale possono monitorare i discorsi online su una scala che supererebbe di gran lunga anche il più grande team di burocrati e ricercatori di “disinformazione”. …
“I progetti finanziati dall’NSF minacciano di contribuire a creare un regime di censura che potrebbe ostacolare in modo significativo i diritti fondamentali di milioni di americani garantiti dal Primo Emendamento, e potrebbe farlo potenzialmente in modo istantaneo e in gran parte invisibile alle sue vittime”.
Kim Mack Rosenberg, consigliere generale di CHD, ha dichiarato a The Defender che queste sovvenzioni “si avvicinano pericolosamente al limite della censura da parte del governo stesso”. Il fatto che i dollari dei contribuenti paghino questi schemi dovrebbe far riflettere tutti”.
Il rapporto nomina l’NSF come “un attore chiave nel ‘complesso industriale della censura'”, poiché negli ultimi anni “con il pretesto di combattere la cosiddetta disinformazione, l’NSF ha finanziato strumenti guidati dall’intelligenza artificiale e altre nuove tecnologie che possono essere utilizzati per censurare o propagandare il discorso online”.
La NSF, istituita nel 1950, si è concentrata a lungo sulla scienza e l’ingegneria. Tuttavia, secondo il rapporto, la missione dell’agenzia “si è spostata nel corso degli anni per includere le scienze comportamentali e sociali”.
Il rapporto evidenzia in particolare il Convergence Accelerator Grant Program (Programma di sovvenzioni per accelerare la convergenza) dell’NSF, lanciato nel 2019, che cerca di “riunire più discipline, idee, approcci e tecnologie per risolvere ‘sfide sociali su scala nazionale’ allineate con specifiche ‘linee’ (tracks) di ricerca che ‘hanno il potenziale per un impatto nazionale significativo'”.
Il programma prevede 13 linee di finanziamento, una delle quali è la “Track F”, la linea “Trust & Authenticity in Communication Systems” (Fiducia ed autenticità nei sistemi di comunicazione), istituita nel 2021. Descritto dal rapporto come “il Programma Censura”, l’NSF ha concesso 21 milioni di dollari di finanziamenti a questa linea per “affrontare la manipolazione o gli ‘effetti negativi imprevisti’ dei sistemi di comunicazione”.
In un’e-mail citata nel rapporto, Michael Pozmantier, responsabile del programma della Track F, ha descritto la linea come “incentrata sulla lotta alla mis/disinformazione”.
Secondo il rapporto, nel marzo 2021 l’NSF ha lanciato un’opportunità di finanziamento per la Track F, sollecitando proposte per “soluzioni che coinvolgano strumenti alimentati dall’IA per aiutare le aziende Big Tech a combattere la disinformazione e a fornire ‘materiali didattici e formativi’ per i bambini nelle scuole e per le comunità che potrebbero ‘mostrare diverse vulnerabilità ai metodi di disinformazione'”.
A settembre 2022, sei candidati avevano ricevuto finanziamenti Track F per i loro progetti. Il rapporto si concentrava su quattro di questi progetti: lo strumento WiseDex dell’Università del Michigan, lo strumento Co-Insights di Meedan, lo strumento CourseCorrect dell’Università del Wisconsin-Madison e la piattaforma Search Lit del Massachusetts Institute of Technology (MIT).
Secondo il rapporto, i ricercatori dell’Università del Michigan hanno dichiarato all’NSF che lo strumento WiseDex cercava di “sviluppare processi che avessero una legittimità pubblica [and] che le piattaforme di social media avrebbero potuto utilizzare per intraprendere azioni di contrasto alla disinformazione”, compreso un servizio che indicherebbe alle piattaforme quali contenuti “meritino di essere attaccati” e quanto sia “vero” un contenuto.
L’Università del Michigan ha descritto WiseDex come uno strumento che i responsabili politici delle piattaforme di social media potrebbero utilizzare per “affidare a terzi la difficile responsabilità della censura”. Una presentazione successiva ha descritto WiseDex come uno strumento che consente di “ampliare il raggio di applicazione delle politiche contro la disinformazione”.
Meedan viene descritto nel rapporto come uno strumento “per contrastare la disinformazione online” e “far progredire lo stato dell’arte nella ricerca sulla disinformazione”, che sfrutterebbe le sue “relazioni e l’esperienza” con piattaforme come WhatsApp, Telegram e Signal per costruire approcci che “identificano e limitano la suscettibilità alla disinformazione” e alle “informazioni pseudoscientifiche”.
Una presentazione di Meedan alla NSF affermava che lo strumento utilizzava l’intelligenza artificiale per “monitorare 750.000 blog e articoli dei media ogni giorno, oltre ad estrarre i dati dalle principali piattaforme di social media” e che lo strumento utilizzava il “miglior sistema al mondo per abbinare i post dei social media alle verifiche dei fatti”.
Il Dr. Scott A. Hale, direttore della ricerca di Meedan, è citato nel rapporto per aver detto alla NSF in un’e-mail che, nel suo “mondo dei sogni”, le aziende Big Tech sarebbero in grado di sviluppare strumenti di “rilevamento automatico” per censurare automaticamente i contenuti – e qualsiasi discorso simile.
CourseCorrect è stato sviluppato come strumento per “potenziare gli sforzi di giornalisti, sviluppatori e privati cittadini per verificare i fatti”, quelli che sono stati descritti come “informazioni delegittimanti” sull'”integrità delle elezioni e sull’integrità dei vaccini” sui social media, consentendo ai “verificatori di fatti di eseguire test a ciclo rapido dei messaggi di verifica dei fatti e di monitorare[ing] le loro prestazioni in tempo reale nelle comunità online a rischio di esposizione alla disinformazione”.
Il rapporto rileva che CourseCorrect, che ha utilizzato anche tecnologie di intelligenza artificiale e di apprendimento automatico, era “specificamente focalizzato ad “affrontare[ing] due crisi democratiche e di salute pubblica che riguardano gli Stati Uniti: lo scetticismo riguardo l’integrità delle elezioni statunitensi e l’esitazione relativa ai vaccini anti COVID-19″”.
Lo strumento Search Lit dell’MIT ha cercato di sviluppare “interventi efficaci” che, secondo il rapporto, erano destinati a “istruire gli americani – in particolare quelli che secondo i ricercatori dell’MIT ‘possono essere più vulnerabili alle campagne di disinformazione’ – su come discernere i fatti dalla finzione online”.
“Questo è orwelliano!”
.@RepThomasMassie spiega nei dettagli come l’MIT abbia indirizzato i propri sforzi verso una serie “proattiva” di strumenti di moderazione dei contenuti. pic.twitter.com/gAm20bF2jd
– Weaponization Committee (@Weaponization) 6 febbraio 2024
Le comunità in questione prese di mira da Search Lit includevano “conservatori, minoranze e veterani”, nonché comunità rurali e indigene e adulti anziani che, secondo il rapporto, erano considerati “incapaci di valutare la veridicità dei contenuti online” e suscettibili ai “contenuti digitali pericolosi”.
Il team di ricerca di Search Lit ha anche evidenziato gli americani che considerano “sacre” la Costituzione e la Bibbia, suggerendo che queste “persone comuni” tendono a “diffidare… dei giornalisti e degli accademici” e, di conseguenza, a cercare fonti primarie di informazione invece di fidarsi del “consenso professionale”.
Secondo il rapporto, i risultati “dimostrano che… gli accademici della ‘disinformazione’ intendevano il loro lavoro come parte di un progetto politicamente schierato; e… i burocrati e i cosiddetti ‘esperti’ in questo spazio hanno un totale disprezzo per la maggior parte della popolazione americana”.
Una ricercatrice di disinformazione citata nel rapporto, Renee DiResta dello Stanford Internet Observatory – anche lei coinvolta nei “Twitter Files” – ha riconosciuto la torbidezza costituzionale di tali pratiche, affermando in occasione di una presentazione del 2021 che vi erano “autorità legali poco chiare, comprese questioni molto reali relative al 1° emendamento”.
“Esempi come questi illustrano l’enorme influenza che questi cosiddetti ricercatori della ‘disinformazione’ hanno sulle piattaforme di social media e il motivo per cui il governo federale si rivolge spesso a questi accademici esenti da responsabilità quando cerca un esecutore delle sue attività di censura”, si legge nel rapporto.
“Il governo non è l’arbitro della verità”
L’udienza di martedì, che si è basata sui contenuti del rapporto intermedio, è rapidamente sfociata nella polemica.
“Metteranno i soldi delle vostre tasse nello sviluppo di software per censurare i vostri discorsi”, ha detto Jordan. “L’IA, che può censurare in tempo reale e su scala dovrebbe spaventare tutti noi”.
Ma secondo il Daily Caller, l’On. Stacey Plaskett (Dem.-Virgin Islands), capo del gruppo di minoranza, “ha speso quasi sette minuti… per mettere in guardia dalla minaccia ‘dittatoriale’ che si suppone sia rappresentata dall’ex presidente Donald Trump”. Queste osservazioni sono state riprese da altri membri democratici della sottocommissione e da Eisen, l’unico testimone per i democratici.
Alcuni dei risultati del rapporto intermedio sono stati resi noti dalla Daily Caller News Foundation nel febbraio 2023. Nella sua testimonianza di martedì, Richardson ha detto che la sua indagine ha rivelato “uno sforzo multimilionario per costruire… un complesso industriale della censura, usando i dollari dei contribuenti come finanziamento di partenza per vari progetti”.
GUARDA: @katesrichardson del @DailyCaller testimonia sulla minaccia dell’intelligenza artificiale e della censura ⬇️ pic.twitter.com/JRZPDMr1FU
– Weaponization Committee (@Weaponization) 6 febbraio 2024
“Questo sforzo si inserisce nella tendenza più ampia del crescente coinvolgimento del governo federale nella censura online, dalle segnalazioni di post da parte dei Centri per il controllo delle malattie (durante la pandemia di COVID-19) all’FBI che ha collaborato con le società di social media per sopprimere la storia del laptop di Hunter Biden”, ha dichiarato.
Richardson ha anche detto:
“Il governo non è l’arbitro della verità. I nostri fondatori lo avevano capito, ed è per questo che abbiamo il Primo Emendamento. Avevano capito il pericolo che il governo dicesse alla gente cosa deve credere e che prendesse di mira le opinioni contrarie alla narrazione ufficiale. Il controllo dell’informazione attraverso il finanziamento di organizzazioni esterne è una minaccia alla libertà di parola e di stampa non meno di quanto lo sia un governo tirannico”.
Fang, nella sua testimonianza, ha detto che i suoi rapporti investigativi hanno “fatto luce sui tentativi di entità private di controllare e limitare il discorso pubblico su importanti aree di politica pubblica”.
.@lhfang è un giornalista investigativo che si è occupato dei Twitter Files e della sorveglianza online degli americani.
La sua testimonianza illustra l’inaudita capacità di monitorare e censurare i discorsi tramite l’intelligenza artificiale. 👇 pic.twitter.com/g7obbNRSeW
– Weaponization Committee (@Weaponization) 6 febbraio 2024
Questi sforzi hanno incluso i Public Good Projects (Progetti di pubblica utilità) – finanziati da lobbisti di “biofarma che rappresentavano Moderna e Pfizer” – che “hanno collaborato con Twitter durante la pandemia per censurare specifici account di social media perché criticavano le opinioni dell’establishment sui vaccini anti COVID-19, amplificando invece gli account a sostegno dei vaccini e dei punti di vista del governo”, ha detto Fang.
Fang, che in precedenza ha pubblicato i documenti dei “Twitter Files”, ha detto che i Public Good Projects sono “sforzi” continui “per influenzare il discorso sui vaccini”, in collaborazione con Moderna e la società di intelligenza artificiale Talkwalker “per monitorare le conversazioni relative ai vaccini su 150 milioni di siti web”.
Ha inoltre evidenziato che Logically, un’azienda britannica di intelligenza artificiale, ha ricevuto contratti dal governo britannico “per combattere la disinformazione sulla pandemia di COVID-19” e ha collaborato con Meta “per sopprimere ed etichettare automaticamente i contenuti considerati come disinformazione”.
Osservando che la censura “colpisce le voci dissenzienti di tutti gli schieramenti ideologici”, Fang ha “implorato questa commissione di elevarsi al di sopra delle partigianerie e di trattare la minaccia rappresentata dalla sorveglianza e dalla censura online come una questione americana, che riguarda tutti noi allo stesso modo”.
Il giornalista investigativo .@lhfang denuncia come l’IA e la censura siano diventate una questione di parte negli ultimi anni. pic.twitter.com/X5CuapPXiM
– Weaponization Committee (@Weaponization) 6 febbraio 2024
il Dr. Michael Rectenwald, autore di “Google Archipelago: The Digital Gulag and the Simulation of Freedom” (L’arcipelago Google: il gulag digitale e la simulazione della libertà), ha dichiarato a The Defender che “nelle mani dello Stato, l’IA rappresenta un percorso sicuro verso il totalitarismo”, aggiungendo che “l’IA è un codice progettato principalmente per colpire determinati punti di vista ritenuti dai suoi autori ‘falsi’ o ‘dannosi'”.
L’avvocato Richard Jaffe ha dichiarato a The Defender: “Il governo non dovrebbe occuparsi di regolamentare il contenuto o il punto di vista dei discorsi, certamente non di qualcosa di così rapido e incerto come la COVID, e [and] non dovrebbe occuparsi di finanziare entità private per sviluppare strumenti più efficienti [che] [that are] hanno il compito di censurare”.
La Casa Bianca si è lamentata degli “alti livelli” di “disinformazione” su Amazon
Lunedì, Jordan ha pubblicato gli “Amazon Files” in un thread su X. Secondo le sue rivelazioni, l’amministrazione Biden ha fatto pressioni su Amazon perché censurasse i libri in cui si criticavano la sicurezza e l’efficacia dei vaccini anti COVID-19 e l’azienda si è “piegata” a queste pressioni.
I documenti, che la Commissione giudiziaria della Camera ha ottenuto tramite un mandato di comparizione, includono un’e-mail interna di Amazon del marzo 2021 in cui si chiedeva se l’amministrazione Biden stesse “chiedendo [loro] di rimuovere dei libri”.
Le e-mail interne mai pubblicate prima, richieste dal @JudiciaryGOP, rivelano che la Casa Bianca di Biden faceva pressioni su Amazon perché censurasse i libri che esprimevano opinioni non approvate dalla Casa Bianca.
“L’amministrazione di [Biden] ci sta chiedendo di rimuovere dei libri”? pic.twitter.com/ZsAN9BZAcX
– On. Jim Jordan (@Jim_Jordan) 5 febbraio 2024
Queste richieste provenivano da Andy Slavitt, ex consigliere COVID-19 della Casa Bianca, che è coinvolto nei “Twitter Files”. Nel marzo del 2021, contattò Amazon per segnalare “gli alti livelli di propaganda e disinformazione di Amazon”.
Inizialmente, Amazon decise di non “fare un intervento manuale” per censurare i libri.
Perché? Non per rispetto verso la libertà di parola, ma perché farlo sarebbe stato “troppo visibile” per il pubblico americano e avrebbe potuto suscitare critiche da parte dei media conservatori. pic.twitter.com/166wXiPsha
– On. Jim Jordan (@Jim_Jordan) 5 febbraio 2024
Inizialmente Amazon aveva deciso di non effettuare “un intervento manuale” per colpire specifici libri disponibili sulla sua piattaforma – sulla base del fatto che tale azione sarebbe stata “troppo visibile” al pubblico e perché “i rivenditori sono diversi rispetto alle comunità di social media”.
Il 9 marzo 2021, tuttavia, i rappresentanti di Amazon incontrarono dei funzionari della Casa Bianca, secondo Jordan, che ha citato un’e-mail interna di Amazon in cui si afferma che l’azienda “sentiva la pressione della Casa Bianca”.
Perché Amazon accettò di partecipare a questo incontro? Perché “sentivano la pressione della Casa Bianca” pic.twitter.com/n7Xe0D5lhH
– On. Jim Jordan (@Jim_Jordan) 5 febbraio 2024
Lo stesso giorno dell’incontro, “Amazon attivò la funzione ‘Non promuovere’ per i libri che esprimevano il parere ‘che i vaccini non fossero efficaci”, ha scritto Jordan, aggiungendo che inoltre l’azienda “considerò anche altri modi per ‘ridurre la visibilità‘” dei libri in questione.
Dopo che la Casa Bianca passò una settimana a rimproverare Amazon, cosa fece la libreria online?
A partire dal 9 marzo – lo stesso giorno dell’incontro con la Casa Bianca – Amazon abilitò la funzione “Non promuovere” per i libri che esprimevano il parere che i vaccini non erano efficaci. pic.twitter.com/8YEXjAL8BD
– On. Jim Jordan (@Jim_Jordan) 5 febbraio 2024
Rosenberg ha dichiarato che gli “Amazon Files” sono “preoccupanti” e “profondamente inquietanti, sia come avvocato che come cittadina statunitense”.
The Defender pubblica occasionalmente contenuti relativi alla missione no-profit di Children’s Health Defense che riportano il punto di vista del signor Kennedy sulle questioni che CHD e The Defender trattano regolarmente. In conformità con le regole della Commissione elettorale federale, questo contenuto non rappresenta un’approvazione del signor Kennedy, che è in congedo da CHD ed è candidato come indipendente alla presidenza degli Stati Uniti.