Connettiti con Renovato 21

Internet

«La grande macchina delle bugie COVID»: il progetto per censurare la «disinformazione»

Pubblicato

il

Renovatio 21 traduce questo articolo per gentile concessione di Children’s Health Defense. Le opinioni degli articoli pubblicati non coincidono necessariamente con quelle di Renovatio 21.

 

 

Un progetto gestito dalla Stanford University è servito da «prova a secco» per il consiglio di «disinformazione» del presidente Biden, secondo l’ultima pubblicazione dei Twitter files del giornalista Matt Taibbi, che la ha chiamata «La grande macchina delle bugie COVID: Stanford, il Virality Project e la censura delle “storie vere”».

 

 

Un progetto gestito dalla Stanford University è servito da «prova a secco» per il consiglio di «disinformazione» del presidente Biden, secondo l’ultima pubblicazione dei «Twitter files» del giornalista Matt Taibbi, che ha soprannominato «La grande macchina delle bugie COVID: Stanford, il Virality Project e la censura delle “storie vere”».

 

Secondo Taibbi, il Virality Project , un’iniziativa dello Stanford Internet Observatory, ha chiesto la creazione di un comitato per la disinformazione appena un giorno prima che Biden annunciasse l’intenzione di lanciare il suo Disinformation Governance Board gestito dal governo.

 

Taibbi ha discusso i due aspetti principali della sua uscita del 17 marzo «Twitter files» durante il podcast «America This Week», co-ospitato dal romanziere Walter Kirn.

 

Secondo Taibbi:

«Stanford, con il sostegno di una serie di partner e di alcune agenzie governative, aveva creato un unico sistema di biglietteria digitale multipiattaforma che elaborava le richieste di censura per tutti loro: Facebook, Google, TikTok, YouTube, Pinterest, Medium, Twitter».

 

Inoltre, ha detto Taibbi, il Virality Project stava “definendo le cose vere come disinformazione o misinformazione o malformazione”, che ha detto significa «una nuova evoluzione del processo di disinformazione lontano dal cercare di capire cosa è vero e cosa non lo è e andare direttamente alla narrazione politica».

 

Taibbi, insieme all’autore Michael Shellenberger, che ha contribuito ai precedenti rilasci di Twitter files, ha testimoniato il 9 marzo presso il sottocomitato ristretto della Camera dei Rappresentanti degli Stati Uniti sull’arma del governo federale, rivelando parte di ciò che aveva scoperto sul Virality Project.

 

Taibbi e il suo team di ricercatori hanno scoperto una tranche di email del Virality Project solo un’ora prima della sua prevista testimonianza alla Camera il 9 marzo, rivelando il monitoraggio di «miliardi di post sui social media da parte della Stanford University, delle agenzie federali e di una sfilza di (spesso finanziati dallo Stato) ONG».

 

 

Richieste un meccanismo di «controllo delle voci» gestito dal governo

Come riportato in precedenza da The Defender, il Virality Project ha affermato che il suo obiettivo «è rilevare, analizzare e rispondere a episodi di narrazioni false e fuorvianti relative ai vaccini COVID-19 negli ecosistemi online».

 

Precedentemente noto come Election Integrity Partnership, è stato diretto da Alex Stamos, direttore dello Stanford Internet Observatory e un «esperto di sicurezza informatica» che un tempo era il capo della sicurezza di Facebook.

 

Il progetto afferma di fornire «capacità di risposta e consapevolezza situazionale attuabili per i funzionari della sanità pubblica e altri partner in prima linea nel fornire al pubblico informazioni accurate relative ai vaccini».

 

Ma dietro questa retorica c’era una vasta rete di interazioni ad alto livello con il governo federale e le piattaforme dei social media, che includevano proposte, alla fine adottate, affinché il governo degli Stati Uniti istituisse il proprio consiglio di «disinformazione».

 

Secondo Taibbi, la partnership tra Virality Project e il governo è iniziata sul serio nel febbraio 2021, giorni dopo l’insediamento di Biden

 

La relazione è sbocciata rapidamente. Entro un anno, il 26 aprile 2022, il Virality Project ha proposto di istituire un «meccanismo di controllo delle voci» e un «Centro di eccellenza per la disinformazione e la misinformazione» a livello federale.

 

 

Il giorno successivo, Alejandro Mayorkas, segretario del Dipartimento per la sicurezza interna degli Stati Uniti (DHS) ha annunciato la formazione del «Disinformation Governance Board».

 

Taibbi ha twittato:

 

 

La proposta del «Centro di Eccellenza», che rimane sul sito web del Virality Project, recita:

 

«A causa della minaccia dinamica che la disinformazione e la misinformazione rappresentano per la sicurezza nazionale, raccomandiamo la creazione di un Centro federale di eccellenza per la disinformazione e la misinformazione ospitato presso la CISA [Cybersecurity and Infrastructure Security Agency] del Dipartimento per la sicurezza interna».

 

Il centro sarebbe incaricato di perseguire «tre obiettivi principali»:

 

  • Fungere da centro federale unico per le competenze e le capacità necessarie per condurre la resilienza alla disinformazione e alla misinformazione e contrastare gli sforzi;

 

  • Coordinare gli sforzi di contrasto alla disinformazione e alla misinformazione a livello federale ea sostegno degli sforzi del governo statale e locale, nonché del settore privato;

 

  • Svolgere un ruolo di primo piano nello sviluppo delle capacità all’interno del governo, nonché nella società civile e nel settore privato, per aumentare la resilienza alla cattiva informazione e alla disinformazione.

Secondo la proposta, «L’evoluzione della cattiva informazione e della disinformazione dimostra che è necessario intraprendere un’ulteriore azione coordinata e decisiva da parte di tutti i livelli di governo in collaborazione con il mondo accademico, le organizzazioni non profit e il settore privato per costruire la resilienza tra il popolo americano contro le falsità armate online».

 

Il rapporto finale del Virality Project, pubblicato il 18 febbraio 2022, conteneva anche una proposta per un «Centro di eccellenza». Lì, raccomanda al governo federale di «implementare un centro di eccellenza per la disinformazione e la misinformazione ospitato all’interno della Cybersecurity and Infrastructure Security Agency».

 

All’interno dello stesso rapporto finale è contenuta una proposta per il governo di «istituire un meccanismo di controllo delle voci per affrontare le narrazioni di tendenza a livello nazionale».

 

Un documento separato del 18 febbraio 2022 – «Piano di comunicazione del vaccino COVID-19 della Casa Bianca: analisi e raccomandazioni» – ha anche piani dettagliati per un centro di eccellenza e una «pagina di controllo centralizzata delle voci».

 

La proposta del progetto ha attinto dalle lezioni apparentemente apprese dalle elezioni presidenziali statunitensi del 2020 e ha chiesto che le narrazioni a favore del vaccino siano adattate a comunità specifiche:

 

«Nelle elezioni del 2020, la Cybersecurity and Infrastructure Security Agency (CISA) ha dimostrato che una pagina di controllo centralizzata delle voci potrebbe contrastare la disinformazione online. Quella pagina può essere replicata per disinformazione sui vaccini».

 

«I comunicatori sanitari locali possono quindi adattare questa messaggistica pubblica centralizzata alle esigenze delle loro comunità specifiche».

 

Sembra che almeno un’agenzia governativa degli Stati Uniti abbia adottato la raccomandazione del Virality Project riguardante l’istituzione di un’iniziativa di «controllo delle voci».

 

Come riportato in precedenza da The Defender, la Food and Drug Administration (FDA) statunitense ha inaugurato la propria iniziativa «Controllo delle voci» il 5 agosto 2022, come parte dei suoi più ampi sforzi per contrastare la «disinformazione» e la «misinformazione».

 

«La crescente diffusione di voci, disinformazione e misinformazione su scienza, medicina e FDA sta mettendo a rischio pazienti e consumatori», secondo la pagina web Rumor Control della FDA. «Siamo qui per fornire i fatti».

 

Sul sito web del Virality Project, una pagina dedicata al «controllo delle voci» afferma:

 

«Questo approccio allo smascheramento della disinformazione si basa sulla letteratura che suggerisce che lo smascheramento dei messaggi provenienti dai centri di controllo delle voci può aiutare a prevenire la diffusione delle voci».

 

«Gli psicologi hanno concluso che i messaggeri che sono percepiti come dotati di elevata affidabilità e competenza sono i più efficaci nello smascherare le falsità, il che significa che un approccio di smascheramento che aggrega i fatti di esperti in materia fidati potrebbe essere l’ideale».

 

Il Virality Project afferma inoltre che «forti collaborazioni con esperti in materia specifica della comunità e collegamenti sono fondamentali per questo flusso di lavoro. I partner possono includere uffici governativi statali e locali, membri della società civile, ONG e singoli organizzatori “che” saranno anche i principali amplificatori dei messaggi di Rumor Control per ogni pubblico di destinazione».

 

Indirizzare le narrazioni sui vaccini a comunità specifiche rispecchia da vicino gli sforzi di un’iniziativa di Rockefeller e della National Science Foundation, il Mercury Project.

 

Questa iniziativa emetterà borse di ricerca triennali per stimare «gli impatti causali della cattiva informazione e della disinformazione sui risultati online e offline nel contesto della pandemia di COVID-19», compresi «gli impatti differenziali tra i gruppi socio-demografici».

 

Il Virality Project si è concentrato anche sul targeting di gruppi specifici. Ha raccomandato strategie ai comunicatori della salute pubblica per superare l’esitazione del vaccino, incluso «lavorare con i leader della comunità nelle comunità di minoranze e immigrati per aumentare la consapevolezza su come ottenere il vaccino e perché».

 

La segnalazione coordinata della «disinformazione» su più piattaforme

Il rilascio dei Twitter files di venerdì si è concentrato anche su come il Virality Project ha contribuito a portare più siti di social media in un sistema di ticketing comune, dove i contenuti e gli utenti potevano essere segnalati e quei rapporti condivisi su più piattaforme.

 

Secondo Taibbi, il Virality Project ha incoraggiato le piattaforme a prendere di mira le persone, non i post, utilizzando la «logica pre-crimine» in stile Minority Report e ha descritto «recidivi» come Robert F. Kennedy, Jr., presidente e capo consulente legale di Children’s Health Defense (CHD), che pubblica un «grande volume di contenuti che è quasi sempre segnalabile».

 

 

Questo sistema «ha collaborato con il governo per lanciare un piano di monitoraggio pan-industriale per i contenuti relativi a COVID», ha scritto Taibbi.

 

«Sebbene il Virality Project abbia esaminato i contenuti su vasta scala per Twitter, Google/YouTube, Facebook/Instagram, Medium, TikTok e Pinterest, ha consapevolmente preso di mira materiale vero e opinioni politiche legittime, pur essendo spesso di fatto in errore», ha detto Taibbi.

 

Nel marzo 2021, il Virality Project ha iniziato a «aumentare» questi sforzi, fornendo «visibilità» a «piattaforme alternative come Gab, Parler, Telegram e Gettr», in quella che Taibbi ha descritto come «sorveglianza quasi totale del paesaggio dei social media».

 

Parlando venerdì al podcast «America This Week», Taibbi lo ha paragonato a un sistema di punteggio di credito sociale, dicendo:

 

«Potresti dire qualcosa ed essere bannato per questo su una piattaforma, e ora tutte le altre piattaforme lo sanno. E così, la tua cronologia verrà inserita in questo grande computer. È un po’ come il sistema del punteggio di credito sociale».

 

Secondo il rapporto finale del progetto Virality, ha cercato di sviluppare uno «sforzo dell’intera società… in cui le parti interessate costruiscono partenariati solidi e persistenti per garantire che le affermazioni significative ad alto danno possano essere affrontate non appena si presentano», riunendo istituti di ricerca, «partner» per la salute pubblica, «partner» e piattaforme governative.

 

 

Nel suo podcast, Taibbi ha suggerito che tale collusione tra Virality Project e più piattaforme di social media «sarebbe un problema di antitrust». Infatti, il 10 gennaio, CHD e altri hanno fatto causa alla Trusted News Initiative e ai suoi fondatori, tra cui la BBC, l’Associated Press, Reuters e il Washington Post, per collusione nell’escludere narrazioni non istituzionali relative al COVID-19.

 

I contenuti «segnalabili», secondo il Virality Project, includevano anche informazioni direttamente da agenzie governative come i Centers for Disease Control and Prevention (CDC), sulla base di chi le condivideva e della narrativa politica che hanno sposato, secondo Taibbi:

 

 

Altri esempi di contenuti dei social media presi di mira dal Virality Project e condivisi da Taibbi includono:

 

 

Secondo Taibbi, il Virality Project è stato influente su Twitter cambiando le sue politiche sui contenuti COVID-19 «in collaborazione con il CDC».

 

 

Il 17 febbraio 2021, Twitter ha aderito al Virality Project , istruendo i dirigenti di Twitter come Yoel Roth, allora capo di Trust and Safety di Twitter, su come aderire al sistema di ticketing comune.

 

Twitter ha anche iniziato a ricevere rapporti settimanali sulla «disinformazione anti-vax», che, secondo Taibbi, «contenevano numerose storie vere».

 

Il Virality Project ha dichiarato a Twitter che «storie vere», tra cui «morti di celebrità dopo il vaccino», potrebbero «alimentare l’esitazione» e dovrebbero essere considerate «informazioni standard sui vaccini sulla tua piattaforma».

 

 

Riferendosi alla «narrativa del passaporto vaccinale», ad esempio, il Virality Project ha scritto che le «preoccupazioni» per tali proposte «hanno guidato una più ampia narrativa anti-vaccinazione sulla perdita di diritti e libertà».

 

Il Virality Project ha inquadrato tali «preoccupazioni» come «disinformazione» e Twitter sembra aver seguito l’esempio.

 

Secondo Taibbi, «a marzo del 2021, il personale di Twitter scimmiottava il linguaggio del VP [Virality Project], descrivendo “campagne contro i passaporti dei vaccini”, “paura delle vaccinazioni obbligatorie” e “uso improprio degli strumenti di segnalazione ufficiali” come “potenziali violazioni”».

 

 

Il Virality Project ha anche «inquadrato regolarmente testimonianze reali sugli effetti collaterali come disinformazione, che vanno dalle “storie vere” di coaguli di sangue dai vaccini AstraZeneca a un articolo del New York Times sui destinatari del vaccino che hanno contratto la trombocitopenia del disturbo del sangue», secondo Taibbi.

 

Twitter, in collaborazione con il Global Engagement Center del Dipartimento di Stato degli Stati Uniti, ha continuato a etichettare numerosi account che hanno pubblicato «aggiornamenti COVID-19 legittimi e accurati» ma che «hanno attaccato» politici statunitensi ed europei, come «legati alla Russia».

 

Anche i politici pro-COVID-19, come l’ex primo ministro italiano Giuseppe Conte, sono stati accusati di far parte di tali reti «legate alla Russia». Conte è attualmente indagato in Italia per non aver imposto un blocco abbastanza rapidamente nel marzo 2020, secondo Politico.

 

Il Virality Project ha anche valutato la «risposta del pubblico» come mezzo per accertare se i contenuti pubblicati sui social media fossero qualificati come «disinformazione» o meno. Un esempio:

 

 

Dal punto di vista del Virality Project, anche il «solo fare domande» era una tattica «comunemente usata dai diffusori di disinformazione», mentre un «Worldwide Rally for Freedom pianificato su Telegram» era esso stesso bollato come «un evento di disinformazione».

 

In un’altra email a Twitter sulla «disinformazione», il Virality Project ha affermato di voler «affinare» una «narrazione sempre più popolare sull’immunità naturale», descrivendo le infezioni «post-vaccino» come «eventi estremamente rari» che non dovrebbero essere dedotti da significa «i vaccini sono inefficaci».

 

Pochi mesi dopo, tuttavia, il Virality Project ha ammesso che «si stanno verificando casi post-vaccino».

 

 

Chiunque pubblichi contenuti sui social media suggerendo che vaccini e passaporti vaccinali siano componenti di uno «stato di sorveglianza» non è sfuggito all’osservazione del Virality Project. Secondo Taibbi, l’organizzazione «ha cercato il termine “stato di sorveglianza”», classificando tali contenuti come «complotti».

 

Pur ammettendo che «si stavano verificando infezioni post-vaccino», il rapporto finale del Virality Project ha continuato ad affermare che «era disinformazione suggerire che il vaccino non previene la trasmissione, o che i governi stanno pianificando di introdurre passaporti per i vaccini», anche se «Entrambe le cose sono risultate essere vere», ha detto Taibbi.

 

 

Lo stesso rapporto, modificato 10 volte dalla pubblicazione – l’ultima volta il 5 dicembre 2022 – era aperto a narrazioni personali, purché a favore del vaccino. Il rapporto suggerisce che le entità governative potrebbero «mescolare storie personali sui benefici del vaccino con il supporto dei dati».

 

Per Taibbi, le rivelazioni sul Virality Project sono importanti per due motivi:

 

«Uno, come prova di concetto orwelliana, il Virality Project è stato un successo strepitoso. Il governo, il mondo accademico e un oligopolio di aspiranti concorrenti aziendali si sono organizzati rapidamente dietro uno sforzo segreto e unificato per controllare i messaggi politici».

 

«Due, ha accelerato l’evoluzione della censura digitale, spostandola dal giudicare verità/falsità a un nuovo modello più spaventoso, apertamente incentrato sulla narrativa politica a scapito dei fatti».

 

«Il Virality Project in particolare non era basato su “asserzioni di fatto”, ma sottomissione pubblica all’autorità, accettazione della narrativa e dichiarazioni di figure come Anthony Fauci. Il concetto centrale/animante del progetto era: “Non puoi gestire la verità”», ha concluso Taibbi.

 

 

Virality Project ha cercato di fare il «pre-bunking» delle vere narrazioni che mettono in discussione i vaccini

Il Virality Project sembra essere rimasto in gran parte inattivo sin dalla pubblicazione del suo rapporto finale nel febbraio 2022. Tuttavia, il suo contenuto e le sue raccomandazioni rimangono online.

 

Nel suo «Piano d’azione e aspettative per i comunicatori sanitari», ad esempio, il Virality Project avverte che «le comunità consolidate di pseudoscienza e anti-vaccinazione continueranno a creare, diffondere e ripetere narrazioni intese a dissuadere il pubblico dall’ottenere un COVID-19 vaccino».

 

«Mentre il lancio dei vaccini COVID-19 continua, ridurre al minimo l’esitazione del vaccino nel pubblico in generale sarà fondamentale per porre fine alla pandemia di coronavirus. Seguendo il modello delle tre C sull’esitazione del vaccino… tutti e tre i fattori – compiacimento, fiducia e convenienza – giocano un ruolo nel promuovere l’adozione del vaccino», ha aggiunto.

 

Il Virality Project ha continuato citando le narrazioni che circondano la morte della leggenda del baseball Hank Aaron come esempio di tale «disinformazione», sostenendo che la sua morte è stata il risultato di cause naturali e non a causa della vaccinazione COVID-19 – anche se è morto due settimane dopo aver ricevuto la sua prima dose.

 

La Casa Bianca ha preso di mira un tweet pubblicato da Kennedy il 22 gennaio 2021, sulla morte di Aaron, chiedendo a Twitter di rimuoverlo, mentre il 31 gennaio 2021, il tweet di Kennedy è stato «verificato» dal Times, sulla base del fatto che un medico legale ha detto che la morte di Aaron non era correlata alla sua vaccinazione.

 

 

Tuttavia, Kennedy ha detto che in una conversazione che ha avuto con il medico legale della contea di Fulton dopo la pubblicazione di quell’articolo, il medico legale ha affermato di non aver mai esaminato il corpo di Hank Aaron. Una successiva lettera che Kennedy scrisse al Times non fu mai pubblicata.

 

Affermando che «gli attivisti anti-vaccino e gli influencer che esitano sui vaccini sfruttano l’incertezza sull’effetto dei vaccini COVID-19 sulla trasmissione… aumentare lo scetticismo sull’efficacia del vaccino», il Virality Project ha anche chiesto strategie di «pre-bunking» contro tali contenuti.

 

Il «Pre-bunking» ha lo scopo di avvertire il pubblico della presunta «disinformazione» prima che si diffonda.

 

Come parte di tale apparente pre-bunking, un documento del Virality Project del 17 aprile 2021 pubblicato quattro giorni dopo la sospensione del vaccino Johnson & Johnson COVID-19 da parte del CDC e della FDA ha affermato che il numero di incidenti di «tipo raro e grave [s] di coaguli di sangue” (sei) era «molto piccolo».

 

Suggerendo che la sospensione del vaccino Johnson & Johnson possa «stimolare l’esitazione», il documento propone strategie che tenterebbero di contrastare gli sforzi di coloro che mettono in dubbio la sicurezza dei vaccini COVID-19 per utilizzare questa sospensione come argomento a sostegno di tale narrativa.

 

In un documento dell’11 febbraio 2021, il Virality Project ha anche valutato le politiche sui contenuti relative a COVID-19 di nove piattaforme di social media, chiedendo «chiarezza e trasparenza delle politiche» e «interventi e contro-narrazioni», tra gli altri suggerimenti.

 

Il Virality Project ha anche messo in guardia sui pericoli della «circolazione globale» che prolunga «la longevità della disinformazione», su come la Russia e la Cina stessero presumibilmente tentando di «influenzare le conversazioni sui vaccini negli Stati Uniti» e su come le narrazioni dei social media che mettevano in discussione i vaccini COVID-19 stessero «minando fonti sanitarie autorevoli».

 

La collaborazione dell’amministrazione Biden con il Virality Project non è stata la prima volta che si è scoperto che utilizzava punti di discussione relativi a COVID-19 di attori privati.

 

I documenti hanno rivelato che l’amministrazione Biden ha ricevuto punti di discussione da un’importante società di sondaggi, Impact Research, su come potrebbe «ottenere la vittoria su COVID-19». Molti di questi punti di discussione sono stati inclusi nel discorso sullo stato dell’Unione del marzo 2022 di Biden.

 

Taibbi, uno dei principali editori di rivelazioni sui Twitter files, è stato attaccato dai legislatori democratici mentre testimoniava davanti alla Camera il 9 marzo, dove è stata accusato di essere sul libro paga del proprietario e CEO di Twitter Elon Musk.

 

In risposta, Musk ha twittato :

 

 

Michael Nevradakis

Ph.D

 

 

© 20 marzo 2023, Children’s Health Defense, Inc. Questo articolo è riprodotto e distribuito con il permesso di Children’s Health Defense, Inc. Vuoi saperne di più dalla Difesa della salute dei bambini? Iscriviti per ricevere gratuitamente notizie e aggiornamenti da Robert F. Kennedy, Jr. e la Difesa della salute dei bambini. La tua donazione ci aiuterà a supportare gli sforzi di CHD.

 

 

Renovatio 21 offre questa traduzione per dare una informazione a 360º. Ricordiamo che non tutto ciò che viene pubblicato sul sito di Renovatio 21 corrisponde alle nostre posizioni.

 

 

 

Continua a leggere

Internet

Google nega di aver scansionato le email e gli allegati degli utenti con il suo software AI

Pubblicato

il

Da

Google, colosso tecnologico, nega categoricamente i resoconti diffusi all’inizio di questa settimana da vari media autorevoli, affermando che non impiega e-mail e loro allegati per addestrare il suo nuovo modello di intelligenza artificiale Gemini.

 

Questa settimana, testate come Fox News e Breitbart hanno pubblicato articoli che illustravano ai lettori come «bloccare l’accesso dell’IA di Google alla propria posta su Gmail».

 

«Google ha annunciato il 5 novembre un aggiornamento che permette a Gemini Deep Research di sfruttare il contesto di Gmail, Drive e Chat», ha riferito Fox News, «consentendo all’IA di estrarre dati da messaggi, allegati e file archiviati per supportare le ricerche degli utenti».

 

Il sito di informazione statunitense Breitbart ha sostenuto in modo simile che «Google ha iniziato a scandagliare in silenzio le e-mail private e gli allegati degli utenti Gmail per addestrare i suoi modelli IA, imponendo un opt-out manuale per evitare l’inclusione automatica».

 

Il sito ha citato un comunicato di Malwarebytes, che accusava l’azienda di aver implementato il cambiamento senza notifica agli utenti.

 

In risposta al clamore, Google ha emesso una smentita ufficiale. «Queste notizie sono fuorvianti: non abbiamo alterato le impostazioni di nessuno. Le funzionalità intelligenti di Gmail esistono da anni e non utilizziamo i contenuti di Gmail per addestrare Gemini. Siamo sempre trasparenti sui cambiamenti ai nostri termini di servizio e alle policy», ha dichiarato un portavoce al giornalista di ZDNET Lance Whitney.

Sostieni Renovatio 21

Malwarebytes ha in seguito rivisto il suo post sul blog, ammettendo di aver «contribuito a una tempesta perfetta di incomprensioni» e precisando che la sua affermazione «non sembra essere» corretta.

 

Tuttavia, il blog ha riconosciuto che Google «analizza i contenuti delle e-mail per potenziare le sue “funzionalità intelligenti”, come il rilevamento dello spam, la categorizzazione e i suggerimenti di composizione. Ma questo è parte del funzionamento ordinario di Gmail e non equivale ad addestrare i modelli IA generativi».

 

Questa replica di Google difficilmente placherà gli utenti preoccupati da tempo per le pratiche di sorveglianza delle Big Tech e i loro legami con le agenzie di intelligence.

 

«Penso che l’aspetto più allarmante sia stato il flusso costante e coordinato di comunicazioni tra FBI, Dipartimento della Sicurezza Interna e le principali aziende tech del Paese», ha testimoniato il giornalista Matt Taibbi al Congresso USA nel dicembre 2023, in un’udienza su come Twitter collaborasse con l’FBI per censurare utenti e condividere dati con il governo.

 

L’11 novembre, presso la Corte Distrettuale USA per il Distretto Settentrionale della California, è stata depositata una class action contro Google. La vertenza accusa l’azienda di aver violato l’Invasion of Privacy Act della California attivando in segreto Gemini AI per analizzare messaggi di Gmail, Google Chat e Google Meet nell’ottobre 2025, senza notifica o consenso esplicito degli utenti.

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine di Sundar Pichai via Wikimedia pubblicata su licenza Creative Commons Attribution 2.0 Generic

Continua a leggere

Internet

Meta avrebbe chiuso un occhio sul traffico sessuale: ulteriori documenti del tribunale

Pubblicato

il

Da

Ulteriori documenti giudiziari appena desecretati rivelano che Meta, la casa madre di Facebook, avrebbe tollerato per anni la presenza di account coinvolti nel traffico sessuale di minori, applicando una politica incredibilmente permissiva che permetteva fino a 17 violazioni prima di sospendere un profilo.   L’accusa emerge da una maxi-causa intentata in California da oltre 1.800 querelanti – tra cui distretti scolastici, minori, genitori e procuratori generali di vari Stati – che imputano ai colossi dei social (Meta, YouTube, TikTok e Snapchat) di aver perseguito «una crescita a ogni costo», ignorando deliberatamente i danni fisici e psicologici inflitti ai bambini dalle loro piattaforme.   L’ex responsabile della sicurezza di Instagram, Vaishnavi Jayakumar, ha testimoniato sotto giuramento di essere rimasta sconcertata nello scoprire la regola interna dei «17 avvertimenti»: un account poteva violare fino a 16 volte le norme su prostituzione e adescamento sessuale prima di essere sospeso alla diciassettesima infrazione. «È una soglia altissima, fuori da ogni standard di settore», ha dichiarato.

Iscriviti al canale Telegram

I documenti dimostrano che Meta era pienamente consapevole di milioni di contatti tra adulti sconosciuti e minori, dell’aggravamento dei problemi mentali negli adolescenti e della presenza diffusa (ma raramente rimossa) di contenuti su suicidio, disturbi alimentari e abusi sessuali su minori.   Solo dopo le denunce Meta ha annunciato a USA Today di aver abbandonato la politica dei 17 avvertimenti, passando a una regola di «una sola segnalazione» con rimozione immediata degli account coinvolti nello sfruttamento umano.   L’azienda è sotto pressione crescente negli Stati Uniti: all’inizio dell’anno, dopo le rivelazioni sui chatbot AI di Meta che intrattenevano conversazioni sessuali con minori, sono state introdotte nuove restrizioni per gli account adolescenti, consentendo ai genitori di bloccare le interazioni con i bot.   A livello globale la situazione è altrettanto critica: la Russia ha bollato Meta come «organizzazione estremista» nel 2022; nell’UE l’azienda affronta una raffica di procedimenti, tra cui una multa antitrust da 797 milioni di euro per Facebook Marketplace e numerose cause per violazione di copyright, protezione dati e pubblicità mirata in Spagna, Francia, Germania e Norvegia.   Come riportato da Renovatio 21, negli anni si sono accumulate varie accuse e rivelazioni su Facebook, tra cui accuse di uso della piattaforma da parte del traffico sessuale, fatte sui giornali ma anche nelle audizioni della Camera USA.

Aiuta Renovatio 21

Due anni fa durante un’audizione al Senato americano era stato denunciato da senatori e testimoni come i social media ignorano le reti pedofile che operano sulle loro piattaforme.   Secondo il Wall Street Journal, che già in passato aveva trattato l’argomento, Meta avrebbe un problema con i suoi algoritmi che consentono ai molestatori di bambini sulle sue piattaforme. La cosa stupefacente è il fatto che ai pedofili potrebbe essere stato concesso di connettersi sui social, mentre agli utenti conservatori no,   Le accuse sono finite in una storia udienza a Washington di Mark Zuckerberg, che è stato indotto dal senatore USA Josh Holloway a chiedere scusa di persona alle famiglie di bambini danneggiati dal social. Lo Stato del Nuovo Messico ha fatto causa a Meta allo Zuckerberg per aver facilitato il traffico sessuale minorile.   L’ultima tornata di documenti del tribunale aveva mostrato anche che Meta avrebbe insabbiato le ricerche sulla salute mentale degli utenti Facebook.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
Immagine di Minette Lontsie via Wikimedia pubblicata su licenza Creative Commons Attribution-Share Alike 4.0 International
Continua a leggere

Internet

Meta ha insabbiato la ricerca sulla salute mentale di Facebook: documenti in tribunale

Pubblicato

il

Da

Documenti giudiziari recentemente declassificati rivelano che Meta, la casa madre di Facebook, ha occultato i risultati di uno studio interno sugli effetti dannosi per la salute mentale derivanti dall’uso della piattaforma social.

 

Le comunicazioni interne dell’azienda sono state rese pubbliche venerdì nell’ambito di una causa di lunga data e di alto profilo promossa da vari distretti scolastici USA contro diverse società di social media. L’accusa principale è che le loro piattaforme abbiano provocato dipendenza e danni psicologici tra minori e adolescenti.

 

In un’indagine del 2020, nota come «Project Mercury», Meta ha invitato un campione di utenti a sospendere l’uso di Facebook per una settimana, confrontandoli con un gruppo di controllo che ha proseguito normalmente. I risultati, a sorpresa dell’azienda, hanno indicato che i partecipanti disattivati hanno segnalato «minori livelli di depressione, ansia, solitudine e confronto sociale».

 

Invece di approfondire o divulgare i dati, Meta ha interrotto lo studio, attribuendo i feedback dei partecipanti all’«influenza della narrazione mediatica negativa» sull’azienda.

Iscriviti al canale Telegram

Nonostante le evidenze interne sul legame causale tra Facebook e i danni psicologici, «Meta ha mentito al Congresso su ciò che sapeva», accusano i documenti.

 

Negli ultimi mesi, il gigante dei social è al centro di un’attenzione crescente negli USA. A ottobre, Meta ha introdotto nuove protezioni per gli «account adolescenti», permettendo ai genitori di bloccare le interazioni con i chatbot AI dell’azienda, dopo rivelazioni su conversazioni romantiche o sensuali con minori.

 

L’azienda affronta inoltre le pressioni della Federal Trade Commission, che la accusa di monopolio sui social network.

 

La scorsa settimana, tuttavia, un tribunale distrettuale di Washington ha dato ragione a Meta nella vertenza antitrust, stabilendo che la FTC non ha provato l’esistenza attuale di un monopolio, «indipendentemente dal fatto che Meta abbia goduto o meno di un potere monopolistico in passato».

 

Come riportato da Renovatio 21, in passato era stata segnalato che un numero crescente di prove scientifiche suggerisce che potrebbe esserci un legame tra l’uso dei social media e la depressione. Uno studio del 2022 parlava invece di «stato dissociativo» indotto dai social.

 

Nonostante negli USA vi siano state udienze in Senato sui pericoli dei social – dalla presenza di predatori pedofili alle questioni legate all’anoressia al traffico di esseri umani – in Italia nessun politico sembra voler intraprendere una discussione sulla questione: temono probabilmente che l’algoritmo, che certo contribuisce alla somma dei voti che li fa eleggere e rieleggere, potrebbe punirli.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

Continua a leggere

Più popolari