Censura sistematica di contenuti politici sui social media, milionari che influenzano il processo elettorale, attori privati che tentano di accaparrarsi una posizione di autorità sulla gestione del sistema finanziario futuro… Insomma, quello che non va mai dimenticato è che ogni elezione americana non riguarda davvero il candidato, ma i suoi sponsor.
ph. Dieter Noss House Museum, Lanzarote, 2022 (Alice Rondelli)
Il sito web Accountable Tech spiega la sua “missione” con queste parole: «Le grandi aziende tecnologiche fungono da moderni guardiani delle informazioni, delle comunicazioni e del commercio, mettendo un potere senza pari nelle mani di poche aziende con pochissima supervisione. Queste aziende, come Meta, X, Google, Amazon e Apple, non sono state progettate per servire il bene pubblico, ma piuttosto per generare crescita e profitti. Queste aziende operano secondo un modello di business di pubblicità di sorveglianza tossica, consentendo ai bad actors di utilizzare come armi piattaforme ricche di dati per manipolare i consumatori, creare camere di risonanza e false realities per i loro utenti e non riescono a creare politiche significative che non solo affrontino, ma prevengano la miriade di danni sociali che causano. La proliferazione dell’intelligenza artificiale generativa ha aggiunto nuove e maggiori minacce alla nostra sicurezza e privacy, accrescendo la necessità di un’azione immediata per mitigare le crescenti minacce delle Big Tech.»
In un post pubblicato su Instagram, intitolato: «Latino voters are targets of misleading AI-generated political ads in Spanish. Meta’s Llama 3 is one of the worst offenders», si spiega che «giorni prima delle elezioni, gli elettori latinoamericani stavano affrontando un vero e proprio attacco di pubblicità in lingua spagnola, generate dall’Intelligenza Artificiale, piene di false affermazioni sui diritti di voto. I ricercatori hanno posto varie domande alle chatbots sull’idoneità al voto e hanno scoperto che Llama 3 di Meta ha fornito risposte errate ⅔ delle volte, più di qualsiasi altro chatbot. In confronto, solo il 43% delle risposte in lingua inglese conteneva informazioni inesatte.
Ecco cosa succede quando gli sviluppatori di AI sono guidati esclusivamente dal profitto, piuttosto che dal bene comune. I loro prodotti non sono sottoposti a supervisione e test, quindi hanno il potere di diffondere false narrazioni a danno della democrazia».
A questo proposito, poche ore prima dell’elezione di Trump come 47° presidente degli Stati Uniti, il The Washington Post ha scritto: «Donald Trump è sulla buona strada per essere il primo candidato presidenziale a vincere la contea di Miami-Dade in più di trent’anni, accaparrandosi la contea più popolosa della Florida – considerata una roccaforte liberale – dove gli ispanici costituiscono la maggioranza degli elettori».
A quanto pare: tutto torna.
Il 24 ottobre 2024 un giudice di Philadelphia aveva sospeso una causa contro le ingenti elargizioni in denaro da parte di Elon Musk agli elettori degli stati in bilico. Il procuratore distrettuale ha affermato che una lotteria da 1 milione di dollari al giorno sponsorizzata da Musk e America PAC (il comitato di azione politica creato da Musk con il sostegno di numerosi importanti imprenditori del settore tecnologico per supportare la campagna presidenziale del 2024 di Donald Trump) ha violato le leggi statali sulla lotteria e sulla tutela dei consumatori. Il giorno precedente alla decisione del giudice, gli avvocati di Musk avevano presentato una mozione per trasferire la causa alla corte federale e nel frattempo il giudice Angelo Foglietta ha rifiutato di bloccare i giveaway, ovvero i premi.
Larry Krasner, il procuratore distrettuale di Philadelphia, dopo l’udienza ha dichiarato che il suo ufficio avrebbe combattuto per mantenere la causa nel tribunale statale e nel giro di poche ore ha presentato una mozione chiedendo al giudice federale di rinviare il caso.
La legge federale proibisce di pagare le persone per votare o registrarsi per votare, e il piano di Musk di offrire denaro agli elettori ha suscitato preoccupazioni da parte di esperti di diritto elettorale, del Dipartimento di Giustizia federale e dei legislatori.
A inizio ottobre, America PAC aveva iniziato a offrire un incentivo in denaro per indirizzare gli elettori registrati a firmare una petizione, confermando di aver inviato assegni per un totale di almeno 8 milioni di dollari.
Rick Hasen (professore di diritto elettorale all’Università della California) ha scritto che gli incentivi per il rinvio delle petizioni erano di «dubbia legalità». I premi della lotteria da 1 milione di dollari, che Musk ha annunciato in un’assemblea cittadina a Harrisburg il 19 ottobre, secondo Hansen, si sono trasformati in «un acquisto di voti chiaramente illegale».
«Il comportamento di Elon Musk è solo l’ultimo, e il più eclatante, esempio di milionari con interessi “speciali” che distorcono il processo politico a spese degli elettori comuni», ha affermato il Campaign Legal Center in una dichiarazione. «È estremamente problematico che l’uomo più ricco del mondo possa impiegare i suoi soldi nel tentativo di influenzare direttamente l’esito delle elezioni».
Il Dipartimento di Giustizia ha subito avvisato America PAC che la lotteria avrebbe potuto violare la legge federale; ma nonostante l’avvertimento, Musk ha continuato a emettere assegni sostanziosi e Krasner ha intentato causa presso la corte statale della Pennsylvania. La sua denuncia si basava esclusivamente su presunte violazioni della legge statale che regola le lotterie.
«America PAC e Musk stanno cullando i cittadini di Philadelphia, e altri nel Commonwealth (…) affinché forniscano le loro informazioni identificative personali e facciano una promessa politica in cambio della possibilità di vincere 1 milione di dollari», si legge nella denuncia.
La mozione del procuratore distrettuale Krasner per spostare il caso alla corte federale è stato definito dagli avvocati di Musk una «causa motivata politicamente».
In un articolo del primo novembre 2024, il The Columbia Chronicle scrive: «All’inizio di quest’anno, Meta ha modificato il modo in cui gli utenti visualizzano i contenuti politici. (…) Le nuove impostazioni predefinite consigliate sono state accolte con critiche da parte delle grandi aziende tecnologiche, dei legislatori del Texas e dei creatori di contenuti, a causa della mancanza di trasparenza per i post che sono specificamente in linea con i contenuti politici.
In precedenza, sotto la direzione del CEO Mark Zuckerberg, Meta ha utilizzato il feedback degli utenti per ridurre temporaneamente la distribuzione di contenuti politici nei News Feed di Facebook. Ciò si basava sul feedback negativo degli utenti che suggerivano che i contenuti politici prendevano il sopravvento sul News Feed e sul feedback negativo sui post su argomenti politici (…). Gli utenti, al momento, continueranno a vedere contenuti politici se scelgono di seguire un creatore di contenuti che pubblica qualcosa che rientra nelle limitazioni; tuttavia, le piattaforme Meta non consiglieranno contenuti politici su Reels, Threads, la pagina Explore o le raccomandazioni in-feed. Questi controlli sono stati implementati a partire dal 4 settembre 2024 su Facebook e Instagram».
Meta ha pubblicato un aggiornamento nel suo centro per la trasparenza affermando: «Utilizziamo sistemi di intelligenza artificiale per personalizzare i contenuti che vedi in base alle scelte che fai; miriamo a evitare di fare raccomandazioni su Facebook, Instagram e Thread che potrebbero essere di natura politica».
Una domanda sorge spontanea: evitare di mostrare contenuti di natura politica non è fare politica?
I social media svolgono un ruolo importante nel consumo di notizie per i giovani adulti. Secondo Pew Research circa il 54% degli adulti usa Instagram, con il 20% che cerca regolarmente informazioni sulla piattaforma.
Il filtro delle preferenze politiche di Meta ha fatto sì che i post rimanessero limitati anche dopo aver optato per i contenuti politici, ogni volta che l’app veniva riaperta. Inoltre, non si specifica cosa è incluso nella riduzione di ulteriori contenuti falsi o alterati. I contenuti alterati che sono stati esaminati da un fact-checker di terze parti non verranno rimossi dai social media, a meno che non violino gli standard della community, che sono separati dai contenuti falsi segnalati.
Per questo motivo Accountable Tech ha collaborato con i creatori per inviare una lettera aperta al responsabile di Instagram, Adam Mosseri, chiedendo linee guida più chiare, sostenendo che il filtro dei contenuti politici limita l’inclusione e la democrazia partecipativa.
Anche Human Rights Watch ha accusato Meta di aver messo a tacere le voci pro-Palestina nel contesto della crescente censura sui social media dal 7 ottobre 2023.
In un articolo pubblicato il 21 dicembre 2023, l’organizzazione non-governativa scrive: «Questa censura online sistemica è aumentata sullo sfondo di una violenza senza precedenti (…) in gran parte causata dagli intensi bombardamenti israeliani. (…) Tra ottobre e novembre 2023, Human Rights Watch ha documentato oltre 1.050 rimozioni e altre soppressioni di contenuti (…) pubblicati dai palestinesi e dai loro sostenitori, compresi quelli riguardanti violazioni dei diritti umani. (..) Dei 1.050 casi esaminati per questo rapporto, 1.049 riguardavano contenuti pacifici a sostegno della Palestina che erano stati censurati o indebitamente soppressi, mentre un caso riguardava la rimozione di contenuti a sostegno di Israele. I casi documentati includono contenuti provenienti da oltre 60 paesi in tutto il mondo, principalmente in inglese, tutti di pacifico sostegno alla Palestina, espressi in modi diversi».
Human Rights Watch ha definito la censura dei contenuti relativi alla Palestina «sistemica e globale», sottolineando come Meta abbia una storia ben documentata di repressioni eccessive sui contenuti relativi alla Palestina. Il rapporto dell’organizzazione si basa e integra anni di ricerca, documentazione e attività di advocacy da parte di organizzazioni palestinesi, regionali e internazionali per i diritti umani e i diritti digitali, in particolare 7amleh, l’Arab Center for the Advancement of Social Media e Access Now.
Nell’esaminare le prove e il contesto associati a ciascun caso segnalato, Human Rights Watch ha identificato sei modelli chiave di censura indebita, ciascuno ricorrente almeno 100 volte, tra cui:
1) rimozione di post, storie e commenti;
2) sospensione o disabilitazione permanente degli account;
3) restrizioni alla possibilità di interagire con i contenuti, come mettere “Mi piace”, commentare, condividere e ripubblicare storie, per un periodo di tempo specifico, che va da 24 ore a tre mesi;
4) restrizioni alla possibilità di seguire o taggare altri account;
5) restrizioni all’uso di determinate funzionalità, come Instagram/Facebook Live, monetizzazione e raccomandazione di account a chi non è un follower;
6) “shadow banning”, ovvero la significativa diminuzione della visibilità dei post, delle storie o dell’account di un individuo, senza notifica, a causa di una riduzione della distribuzione o della portata dei contenuti o della disabilitazione delle ricerche degli account.
Inoltre, decine di utenti hanno segnalato di non essere riusciti a ripubblicare, mettere “mi piace” o commentare il post di Human Rights Watch, che è stato contrassegnato come “spam”.
L’analisi dei casi condotta da Human Rights Watch suggerisce quattro fattori sistemici sottostanti che hanno contribuito alla censura:
1) Difetti nelle policy di Meta, principalmente la sua politica sulle organizzazioni e gli individui pericolosi (DOI), che esclude dalle sue piattaforme organizzazioni o individui “che proclamano una missione violenta o sono coinvolti nella violenza”. Comprensibilmente, la politica proibisce l’incitamento alla violenza; tuttavia, contiene anche divieti radicali su categorie vaghe di discorso, come “lode” e “supporto” di “organizzazioni pericolose”, che si basa in gran parte sulle liste designate del governo degli Stati Uniti di organizzazioni terroristiche per definizione. La lista degli Stati Uniti include movimenti politici che hanno ali armate, come Hamas e il Fronte Popolare per la Liberazione della Palestina. I modi in cui Meta applica questa politica vietano efficacemente molti post che sostengono importanti movimenti politici palestinesi e soffocano la discussione su Israele e Palestina;
2) Applicazione incoerente e opaca delle policy di Meta, in particolare per quanto riguarda le eccezioni relative ai contenuti degni di nota, vale a dire i contenuti che Meta consente rimangano visibili nell’interesse pubblico, anche se violano in altro modo le sue policy;
3) Apparente deferenza alle richieste dei governi di rimozione di contenuti, come le richieste della Cyber Unit di Israele e delle unità di riferimento Internet di altri paesi di rimuovere contenuti;
4) Forte ricorso a strumenti automatizzati per la rimozione dei contenuti al fine di moderare o tradurre i contenuti relativi alla Palestina.
Inoltre, in oltre 300 casi documentati gli utenti hanno segnalato e fornito prove di non essere riusciti a presentare ricorso contro la restrizione del loro account alla piattaforma, il che ha impedito loro di segnalare possibili violazioni della piattaforma e di accedere a un rimedio efficace.
Meta è da tempo a conoscenza del fatto che le sue politiche hanno portato al silenzio delle voci palestinesi e dei loro sostenitori sulle sue piattaforme. Nel 2021 le pianificate acquisizioni da parte delle autorità israeliane di case palestinesi nel quartiere Sheikh Jarrah della Gerusalemme Est occupata hanno innescato proteste e violenze insieme alla censura di contenuti pro-Palestina su Facebook e Instagram
Nel 2021 l’Oversight Board di Meta (un organismo esterno creato per appellarsi alle decisioni di moderazione dei contenuti e fornire linee guida politiche non vincolanti) ha incaricato un’entità indipendente (il Business for Social Responsibility) di indagare se Facebook avesse applicato la sua moderazione dei contenuti in arabo ed ebraico, incluso l’uso dell’automazione, senza pregiudizi.
A settembre 2022, Business for Social Responsibility ha pubblicato un report nel quale documentava che le azioni di Meta sembravano aver avuto un impatto negativo sui diritti umani, sui diritti degli utenti palestinesi alla libertà di espressione, alla libertà di riunione, alla partecipazione politica e alla non discriminazione, e quindi alla capacità dei palestinesi di condividere informazioni e approfondimenti sulle loro esperienze così come si sono verificate.
In base ai Principi guida delle Nazioni Unite su imprese e diritti umani (UNGP), le aziende hanno la responsabilità di evitare di violare i diritti umani, identificare e affrontare gli impatti sui diritti umani delle loro operazioni e fornire un accesso significativo a un rimedio a coloro i cui diritti sono stati violati. Per le aziende di social media, tra cui Meta, questa responsabilità include l’allineamento delle loro politiche e pratiche di moderazione dei contenuti con gli standard internazionali sui diritti umani, assicurando che le decisioni di rimuovere i contenuti siano trasparenti e non eccessivamente ampie o parziali e applicando le loro politiche in modo coerente.
Le informazioni sopracitate aiutano a comprendere quanto le piattaforme social siano rilevanti nello spostare le preferenze degli utenti da un candidato elettorale all’altro in ogni Paese del mondo.
Come Donald Trump ha potuto godere – e giovare, vista la sua recente rielezione – del sostegno del proprietario del social network X, Elon Musk, anche Kamala Harris non è stata esente da provvidenziali sostegni.
Tra i principali finanziatori della campagna elettorale 2024 di Kamala Harris, infatti – con una donazione di 6,434,951 di dollari – figura Alphabet Inc. di Google (che è divisa in quattro settori: tecnologia, biotecnologie, investimenti finanziari e ricerca), del valore di 182,5 miliardi di dollari e che, certamente, ha una enorme influenza nel campo dell’accesso alle informazioni online.
Tra gli altri, Santa Harris ha potuto beneficiare di una cospicua donazione di 8,807,375 dollari da parte di Sequoia Capital (una società di venture capital da 85 miliardi di dollari, che si focalizza principalmente sul settore industriale tecnologico) e di un’altra del valore di 11,687,371 dollari da parte di Ripple, un sistema di trasferimento di fondi in tempo reale (Real-time gross settlement), nonché network per gli scambi in valute. Un articolo del 2016 (ora cancellato) pubblicato sul sito web di Ripple, titolava: «The Road to Davos: Ushering in the Fourth Industrial Revolution» e discuteva circa il potenziale ruolo del network nello sviluppo di uno standard globale per i pagamenti come parte della più ampia della Quarta Rivoluzione Industriale. Si spiegava che «tutti i risultati previsti dal World Economic Forum si basano, non solo su sistemi globali interoperabili per la messaggistica e la comunicazione, ma anche su un sistema altrettanto fluido per il trasferimento di valuta e questo è ciò su cui Ripple sta lavorando. L’inclusione finanziaria e la crescita economica sono attualmente intrappolate nello stesso collo di bottiglia: la tecnologia esiste, ma la cooperazione e la regolamentazione la frenano. È a questo problema che applichiamo le nostre soluzioni. Se il mondo avesse uno standard globale per i pagamenti, ciò potrebbe portare ad economie più forti e più inclusive, riducendo le disuguaglianze e inaugurando quello che secondo Deloitte sarà un periodo di crescita esponenziale».
Come ho scritto nel pezzo To the stars, senza ritorno, le élite stanno utilizzando il loro obiettivo dichiarato di “inclusione finanziaria” per mascherare quello reale: ovvero l’implementazione diffusa e l’interoperabilità delle valute digitali. Lo sviluppo e la proprietà di uno “standard globale per i pagamenti” – o di un’infrastruttura finanziaria adiacente – porrebbero Ripple in una posizione di autorità sulla gestione del sistema finanziario futuro, verosimilmente rendendolo più potente degli attori statali tradizionali.
Quello che non va mai dimenticato è che ogni elezione americana non riguarda davvero il candidato, ma i suoi sponsor.