Connettiti con Renovato 21

Sorveglianza

La Germania imprigiona un uomo per aver sostenuto la Russia su Telegram

Pubblicato

il

Un tribunale di Amburgo ha condannato un uomo del posto a tre anni di reclusione, ritenendolo colpevole di aver giustificato «l’aggressione russa» contro l’Ucraina e di possedere un’arma illegale. Lo riporta Die Welt.

 

L’imputato di 32 anni, identificato solo come Marcel J., gestiva un canale Telegram filo-russo, con logo e nome basati sul partito ultranazionalista russo non registrato Drugaya Rossija («Altra Russia»), ha riferito la testata tedesca, citando l’accusa.

 

Oltre a condividere «idee nazional-bolsceviche filo-russe», l’imputato ha apertamente definito l’Ucraina uno «Stato terrorista» e ha utilizzato il simbolo «Z» – comunemente associato all’operazione militare speciale di Mosca – che era stato parzialmente vietato in Germania.

 

Inoltre, Marcel J. è stato trovato in possesso di un grosso coltello illegalmente ritenuto un’arma da taglio.

 

Il coimputato nel processo, identificato solo come un uomo di 35 anni, è stato accusato di essere un complice ma ha ricevuto solo sei mesi di carcere.

 

Un portavoce del tribunale ha spiegato che il lungo periodo di detenzione di Marcel J. era in gran parte dovuto alla sua precedente fedina penale e, in particolare, a una recente condanna per aver aggredito un giornalista durante un evento pubblico alla fine del 2021.

 

L’uomo è stato condannato per l’aggressione ad aprile da un tribunale di Berlino e condannato a due anni e quattro mesi di reclusione. Ora le due condanne saranno riunite, come previsto dalla legge tedesca.

 

L’amministrazione tedesca negli scorsi anni ha provveduto all’allargamento del concetto di «estremismo» da parte delle istituzioni tedesche, che così possono attuare maggiore sorveglianza e vera e propria repressione, addirittura in forma preventiva, come suggeriscono alcuni episodi recenti di arresti piuttosto incongrui.

 

L’Ufficio federale tedesco per la protezione della costituzione (Bundesamt für Verfassungsschutz, di solito detto BfV), che funge da servizio di Intelligence interno del Paese, ha classificato l’ala giovanile del partito AfD, Junge Alternative für Deutschland (JA), come «un movimento estremista di destra».

 

Come riportato da Renovatio 21, l’anno scorso era emerso che il ministro dell’Interno del land tedesco della Turingia voleva ritirare le licenze di armi dai membri di Alternative fuer Deutschland (AfD), un partito politico che detiene 81 seggi nel parlamento tedesco e 9 seggi nel parlamento europeo.

 

Come riportato da Renovatio 21, nei mesi della pandemia la Germania ha apertamente valutato la possibilità di chiudere Telegram, unico social che – di origine russa con server negli Emirati – pareva non censurare le opinioni degli utenti come invece facevano tutte le altre piattaforme.

 

 

 

 

 

 

Immagine di Ivan Radic via Flickr pubblicata su licenza Creative Commons Attribution 2.0 Generic (CC BY 2.0)

 

 

 

Continua a leggere

Sorveglianza

L’Irlanda si muove per legalizzare il riconoscimento facciale retrospettivo

Pubblicato

il

Da

L’Irlanda si sta preparando a concedere alla polizia nuovi poteri per l’impiego di strumenti di riconoscimento facciale, con una legge prevista già quest’estate. Lo riporta Reclaim The Net.

 

Il ministro della Giustizia Jim O’Callaghan ha chiarito la sua intenzione di portare avanti il ​​piano, che legalizzerebbe l’uso del riconoscimento facciale retrospettivo (RFR) da parte della Gardaí, una mossa che ha riacceso le preoccupazioni sulla privacy in tutto il paese.

 

La tecnologia RFR consente alle autorità di analizzare video preregistrati per identificare le persone dopo un incidente. È già stata utilizzata nel Regno Unito, nonostante le preoccupazioni di lunga data sull’eccesso di sorveglianza.

Sostieni Renovatio 21

O’Callaghan ha difeso la proposta durante un’intervista a una trasmissione locale, portando l’esempio di due agenti della polizia irlandese (chiamata Garda) in pensione che sono stati richiamati in servizio per esaminare manualmente i filmati delle rivolte di Dublino del 2023. Ha liquidato il processo come antiquato, definendolo un cattivo uso delle risorse in presenza di opzioni più avanzate.

 

Precedenti tentativi di integrare il riconoscimento facciale nella legislazione relativa alle bodycam indossate dalle forze dell’ordine sono stati bloccati, in particolare dall’opposizione del Partito Verde. L’ultima proposta sembra svincolare la tecnologia da tale legislazione nel tentativo di progredire.

 

Parallelamente, il governo irlandese sta anche cercando di ottenere nuove misure legali che obblighino i manifestanti a rimuovere le mascherine durante le manifestazioni. O’Callaghan ha tentato di presentare questa misura come a favore delle proteste, affermando in un video condiviso sul suo account X.

 

Questi sviluppi giungono in un momento in cui la fiducia del pubblico nelle tecnologie di sorveglianza rimane profondamente contestata. La decisione di disaccoppiare il riconoscimento facciale dalla legislazione precedente, dopo il blocco di alcune proposte precedenti, suggerisce un tentativo deliberato di eludere la resistenza politica, sollevando ulteriori preoccupazioni in termini di trasparenza e responsabilità.

 

 

Le tecnologie di riconoscimento facciale, già attive ovunque (dalla Cina all’Europa, dal Sudamerica a Israele ai Paesi Arabi) nel contesto delle telecamere di sorveglianza, ora verranno implementate sempre più dagli smartphone, come già evidente nel caso degli iPhone, dove il tasto di sblocco è stato sostituito dalla face recognition via telecamera.

Come riportato da Renovatio 21, in Gran Bretagna la face recognition era stata proposta per escludere dai locali pubblici i non vaccinati.

 

Negli USA si è già avuto un caso di cittadino arrestato ingiustamente perché riconosciuto dalle telecamere in uno Stato mai visitato. Il Regno di Spagna già utilizza il sistema di identificazione biometrica automatica ABIS da anni.

 

Anche nell’Ucraina in guerra la tecnologia è abbondantemente utilizzata per fini militari, come l’identificazione dei soldati russi deceduti.

 

Curiosamente, le grandi aziende tecnologiche americane rifiutarono l’uso del riconoscimento facciale durante le rivolte razziali americane di Black Lives Matter del 2020.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

Continua a leggere

Intelligenza Artificiale

Meta revisiona la politica sugli occhiali-smart Ray-Ban: sorveglianza AI predefinita e archiviazione dati vocali

Pubblicato

il

Da

A fine aprile Meta ha apportato modifiche, con effetto immediato, all’informativa sulla privacy degli «occhiali intelligenti» Ray-Ban Meta, che sembrano concepite per trasformare il dispositivo in una macchina di sorveglianza per l’addestramento di modelli di Antelligenza Artificiale. Lo riporta Reclaim The Net.   In un messaggio inviato agli utenti, Meta ha affermato che la sua «Intelligenza Artificiale sugli occhiali», ovvero alcune impostazioni, sta cambiando.   La spiegazione del gigante è che questo è presumibilmente necessario per utilizzare Meta AI «più facilmente» e anche «per aiutarci a migliorare i prodotti». Gli occhiali Ray-Ban Meta sono prodotti assieme ad EssilorLuxottica, il colosso nato dalla fusione della francese Essilor con il gigante di produzione di occhiali bellunese Luxottica.

Sostieni Renovatio 21

L’aggiornamento della policy si basa sugli «opt-out»: d’ora in poi, l’Intelligenza Artificiale Meta con l’uso della fotocamera sarà sempre abilitata sugli occhiali, a meno che l’utente non si prenda la briga di disattivare «Hey Meta» nelle impostazioni.   Questa è la frase di attivazione per l’assistente AI di Meta. La seconda modifica riguarda il modo in cui Meta archivia le registrazioni vocali degli utenti di Meta AI: ora vengono conservate di default nel cloud.   La ragione addotta dall’azienda è «migliorare» Meta AI o «altri prodotti Meta». L’opzione per disabilitare questo comportamento non c’è più. Ancora una volta, gli utenti sono costretti a superare ostacoli aggiuntivi, e questo è il metodo collaudato delle Big Tech per orientare il loro comportamento e la loro interazione con app e servizi nel modo desiderato, dalle Big Tech stesse.   In questo caso, gli utenti di Meta AI dovranno andare nelle impostazioni ed eliminare manualmente le proprie registrazioni vocali.   Nel prendere queste decisioni, aziende come Meta di fatto «semplificano» i loro prodotti «intelligenti» (eliminando l’interazione vocale con l’assistente, riducendo l’usabilità automatizzata all’eliminazione manuale). E questo si aggiunge al fatto che irrita coloro che non sono a loro agio con i meccanismi sempre più invasivi della privacy dietro ai suddetti prodotti e servizi.   Oltre a vendere quella che ovviamente non è una «migliore esperienza di privacy», Meta e i suoi simili insistono sul fatto che nascondere ciò che accade dietro le quinte significhi ottenere un’esperienza utente migliore («più semplice»).

Aiuta Renovatio 21

A parte gli scenari più cupi e negativi sul perché tutto questo venga fatto o su come potrebbe essere utilizzato (e abusato…) in futuro, l’intento evidente è quello di portare lo sfruttamento dei dati degli utenti a un altro livello, per garantire che enormi set di dati siano disponibili per l’addestramento dei modelli di Intelligenza Artificiale.   La notifica ricevuta dagli utenti sulle ultime modifiche alla politica aziendale aggiunge un po’ la beffa al danno quando conclude ribadendo: «hai ancora il controllo». «In controllo» per disattivare «Hey Meta» ed eliminare manualmente le interazioni di Meta AI.   Da anni nella popolazione serpeggia il pensiero che le proprie conversazioni siano registrate dallo smartphone per procurare pubblicità ancora più precise. Vi sono state, tra le smentite delle Big Tech, alcune rivelazioni in merito. Lo stesso dicasi per apparecchi come Alexa, soggetti già da tempo a richieste di sequestro dati da parte dei tribunali americani in casi come ad esempio l’omicidio domestico.  
  Tuttavia ora la cosa diviene più chiara: semplicemente, ogni cosa che direte (o farete) sarà registrata, salvata ed utilizzata dall’AI non solo per profilarvi, ma per potenziare se stessa: una prospettiva inquietante su più livelli davvero.   Come riportato da Renovatio 21, la scorsa settimana vi era stato shock attorno a Meta/Facebook quando si era appreso che i chatbot dell’azienda sono in grado di intrattenere con gli utenti «giochi di ruolo romantici» che possono diventare sessualmente espliciti, anche con account appartenenti a minori.   Un reportage del Wall Street Journalha riportato che, nel tentativo di diffondere dispositivi di accompagnamento digitali basati sull’Intelligenza Artificiale sulle sue piattaforme social, Meta ha preso decisioni interne per allentare le restrizioni e consentire ai suoi chatbot di interagire con gli utenti in giochi di ruolo a sfondo sessuale, secondo fonti a conoscenza della questione. Questo include interazioni con account registrati da minori di età pari o superiore a 13 anni.   Le conversazioni di prova condotte dal Wall Street Journal avrebbero rilevato che sia l’IA ufficiale di Meta che i chatbot creati dagli utenti si sono impegnati prontamente e hanno intensificato le discussioni sessualmente esplicite, anche quando gli utenti si sono identificati come minorenni.

Iscriviti al canale Telegram

Varie inchieste giornalistiche negli anni hanno contribuito all’accumulo di accuse e rivelazioni su Facebook, tra cui accuse di uso della piattaforma da parte del traffico sessuale, fatte sui giornali ma anche nelle audizioni della Camera USA.   Considerato il comportamento dimostrato da Facebook, con la censura che si è abbattuta su dissidenti o anche semplici conservatori (ma non sui pedofili di Instagram o i donatori di sperma su Facebookné sui neonazisti dell’Azov), la collusione con lo Stato profondo americano e le sue agenzie, la volontà di chiudere gli account di organizzazionipartiti premier e presidenti, la raccolta massiva di dati anche biometrici (con il riconoscimento facciale che ha generato denunce di Stati come il Texas) nonché la possibilità di agire sul vostro telefono perfino scaricandone la batteria, c’è da domandarsi cosa la potente Intelligenza Artificiale su cui Meta sta lavorando possa fare alla vostra vita.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
Immagine screenshot da YouTube
Continua a leggere

Algoritmi

Il Regno britannico sviluppa algoritmi «precrimine» per identificare i criminali prima che commettano reati

Pubblicato

il

Da

Un nuovo rapporto rivela che il governo del Regno Unito sta sviluppando una profilazione «pre-crimine» basata su algoritmi per identificare i criminali pericolosi prima che commettano qualsiasi reato.

 

UK Statewatch, un gruppo di attivisti che documenta l’eccesso di potere del governo, ha pubblicato il 31 marzo un rapporto in cui si avverte che il «ministero della Giustizia sta sviluppando un sistema che mira a «prevedere» chi commetterà un omicidio, come parte di un progetto di «”scienza dei dati” che utilizza dati personali sensibili di centinaia di migliaia di persone».

 

Il progetto, avviato nel 2023 sotto il primo ministro non eletto Rishi Sunak, è stato scoperto solo in seguito alle richieste di accesso alle informazioni presentate dall’organismo di controllo, la cui Sofia Lyall ha affermato:

Sostieni Renovatio 21

«La ricerca dimostra ripetutamente che i sistemi algoritmici per ‘prevedere’ i crimini sono intrinsecamente imperfetti. Eppure il governo sta portando avanti sistemi di Intelligenza Artificiale che catalogano le persone come criminali prima ancora che abbiano fatto alcunché».

 

Le misure adottate nel Regno Unito rispecchiano quelle intraprese dalle aziende dello «stato profondo digitale» negli Stati Uniti e in Israele, perseguendo l’obiettivo post 11 settembre di raggiungere una sorveglianza e un controllo totali della popolazione, utilizzando sistemi già testati per uccidere i «terroristi».

 

Un sistema simile, basato sulla tecnologia Palantir, è stato introdotto a New Orleans già nel 2018. Sebbene sia stato ritirato, sistemi digitali come il riconoscimento facciale collegato a database sono rimasti attivi, come dimostra questo rapporto del 2020. Palantir fa parte dell’industria della sorveglianza, che utilizza algoritmi di intelligenza artificiale per fornire ai governi di tutto il mondo strumenti per spiare le loro popolazioni, a loro insaputa. Guidata dal bizzarro Alex Karp, l’azienda ambisce a «potenziare l’Occidente». La sua IA sarebbe stata utilizzata per «ribaltare l’equilibrio nella guerra in Ucraina».

 

Il sito svizzero AlgorithmWatch il mese scorso aveva parlato di uso di «polizie predittive basate sulla persona» ormai diffuso in Germania.

 

Palantir è stata inizialmente finanziata da un’agenzia di investimenti della CIA, come la società di database Oracle, per consentire al governo statunitense di condurre attività di sorveglianza di massa a distanza dal controllo del Congresso. Alex Karp, CEO di Palantir, e Larry Ellison sono sostenitori dello Stato di Israele.

 

Questo «Stato profondo digitale» – come lo ha definito Whitney Webb – è stato creato in seguito all’11 settembre, con contratti provenienti dal neonato Dipartimento per la sicurezza interna (DHS) e da altre agenzie di Intelligence del governo statunitense.

 

Il DHS stesso era inizialmente guidato da Michael Chertoff, la cui madre era una risorsa dell’Intelligence israeliana Mossad.

 

 

 

Israele è ritenuto un importante banco di prova per la produzione e l’utilizzo di sistemi automatizzati per il controllo e l’eliminazione della popolazione, al punto che alcuni hanno parlato di «genocidio massivo robotizzato» in atto. La tecnologia di sorveglianza in uso il sistema israeliano in grado di profilare, localizzare e uccidere persone senza l’intervento umano. Questo sistema di assassinio automatizzato, che utilizza il riconoscimento facciale, database e algoritmi per identificare i «terroristi», innesca il lancio di droni armati o attacchi aerei per uccidere la persona presa di mira.

 

Critici come lo scrittore ebreo Yuval Abraham hanno sottolineato che molte delle vittime potrebbero non essere affatto dei «terroristi». «Il sistema commette quelli che vengono considerati “errori” in circa il 10% dei casi», ha affermato. «Il risultato, come testimoniato dalle fonti, è che migliaia di palestinesi – la maggior parte donne e bambini o persone non coinvolte nei combattimenti – sono stati annientati dai raid aerei israeliani, soprattutto durante le prime settimane di guerra, a causa delle decisioni del programma di Intelligenza Artificiale».

 

Nonostante il decantato potere di software di sorveglianza, essi non sono stati in in grado di prevedere gli attacchi del 7 ottobre.

 

Israele è anche dietro la produzione dello spyware «no click», che consente la sorveglianza remota di qualsiasi dispositivo, che sia un telefono o un computer, senza che l’utente debba prima cliccare su un collegamento o un’immagine sospetta.

 

Questo software è stato vietato nel 2018 dal presidente degli Stati Uniti Joe Biden e nel 2021 sono state imposte sanzioni al gruppo israeliano NSO, che ha prodotto Pegasus, celebre strumento di sorveglianza remota «zero click» che sarebbe stato usato, addirittura, contro lo stesso Netanyahu.

 

La giornalista indipendente Whitney Webb ha prodotto quello che è forse il resoconto più completo degli sforzi di questo «Stato profondo digitale» per creare «lo Stato di sorveglianza definitivo» – che, spiega, coinvolgerebbe «l’intelligence americana e israeliana» – e persino Jeffrey Epstein.

 

Le iniziative del Regno Unito verso la sorveglianza automatizzata tramite algoritmi dimostrano che l’obiettivo di uno stato digitale onnisciente e onnipotente continua a svilupparsi a livello internazionale e ha stretti legami con i sistemi automatizzati di kill chain «catena di morte» come quelli che vediamo oggi a Gaza.

 

Sebbene le aziende che forniscono la tecnologia rimangano convenientemente al di fuori del controllo democratico, presentano una vulnerabilità fatale: i dati che utilizzano per alimentare i loro sistemi sono di vostra proprietà, e se ne sono appropriati senza consenso o compenso.

Iscriviti al canale Telegram

Come riportato da Renovatio 21, tre mesi fa è emerso che Google aveva venduto strumenti di Intelligenza Artificiale all’esercito israeliano dopo l’attacco di Hamas.

 

Israele è stato accusasto da Amnesty international di praticare un «apartheid automatizzato» ottenuto tramite software di riconoscimento facciale.

 

Due anni fa, un articolo della testata di giornalismo investigativo MintPressNews ha rivelato che centinaia di ex agenti dell’Intelligence militare israeliana hanno acquisito posizioni di influenza in diverse grandi società tecnologiche, tra cui Google, Facebook, Microsoft e Amazon.

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

 

 

 

Continua a leggere

Più popolari