Connettiti con Renovato 21

Intelligenza Artificiale

Google ha venduto strumenti di Intelligenza Artificiale alle IDF dopo l’attacco di Hamas

Pubblicato

il

Google ha collaborato con l’esercito israeliano fin dalle prime settimane della guerra di Gaza, competendo con la rivale Amazon per la fornitura di servizi di intelligenza artificiale. Lo riporta il Washington Post, che cita documenti aziendali di cui avrebbe avuto visione.

 

L’articolo, pubblicato martedì, afferma che i dipendenti di Google sono stati direttamente coinvolti nel fornire alle Forze di difesa israeliane (IDF) l’accesso agli strumenti di intelligenza artificiale subito dopo l’attacco di Hamas contro Israele dell’ottobre 2023, che ha portato al bombardamento e all’invasione via terra di Gaza da parte di Israele.

 

A poche settimane dall’inizio della guerra, un dipendente della divisione cloud di Google ha intensificato le richieste delle IDF di accesso alla tecnologia di Intelligenza Artificiale, nonostante gli sforzi pubblici dell’azienda statunitense di prendere le distanze dalle operazioni militari israeliane, ha affermato il WaPo, citando documenti interni.

Sostieni Renovatio 21

Un altro documento ha rivelato che un dipendente aveva avvisato che se Google non avesse fornito l’accesso, l’IDF avrebbe potuto rivolgersi ad Amazon per i servizi di cloud computing.

 

In un documento datato novembre 2023, un dipendente avrebbe ringraziato un collega per aver gestito la richiesta dell’IDF. Mesi dopo, i documenti mostrano che i dipendenti di Google hanno avanzato ulteriori richieste di accesso agli strumenti di intelligenza artificiale per l’IDF.

 

L’anno scorso, Google aveva licenziato più di 50 dipendenti che avevano protestato contro il Progetto Nimbus, un contratto di cloud computing da 1,2 miliardi di dollari che Google e Amazon hanno firmato con il governo israeliano nel 2021. Come parte dell’accordo, le aziende rivali hanno costruito data center in Israele e si sono impegnate a fornire software cloud e servizi di archiviazione a vari dipartimenti governativi.

 

Gli attivisti dietro le proteste hanno affermato che le agenzie militari e di intelligence israeliane violano regolarmente i diritti umani a Gaza. I dipendenti dell’azienda hanno chiesto trasparenza su come viene utilizzato il loro lavoro, temendo che la tecnologia possa contribuire a danneggiare i civili palestinesi.

 

Secondo il giornale della capitale USA, da anni l’esercito israeliano sta potenziando le sue capacità di intelligenza artificiale, concentrandosi sulla sorveglianza delle immagini e sull’identificazione di potenziali obiettivi.

 

Il WaPo ha citato un alto funzionario delle IDF, rimasto anonimo, che lo scorso anno ha dichiarato che l’esercito aveva effettuato ingenti investimenti nella tecnologia cloud e in altri sistemi informatici, spesso in partnership con aziende statunitensi.

 

Gaby Portnoy, a capo della Direzione nazionale per la sicurezza informatica del governo israeliano, ha affermato in una conferenza tenutasi lo scorso anno che il Progetto Nimbus ha supportato direttamente le applicazioni di combattimento delle IDF.

 

«Grazie al cloud pubblico Nimbus, in combattimento accadono cose fenomenali, che costituiscono una parte significativa della vittoria, e non entrerò nei dettagli», ha affermato secondo quanto riportato dalla testata People and Computers.

 

Il servizio del WaPo ha affermato che i documenti non mostravano esplicitamente come la tecnologia AI avrebbe potuto essere utilizzata nelle operazioni militari di Israele. Tuttavia, il quotidiano ha osservato che i documenti più recenti del novembre 2024 indicavano che Google aveva continuato a fornire tecnologia AI all’IDF in un momento di crescenti attacchi aerei su Gaza, influenzando potenzialmente il bilancio delle vittime civili.

Aiuta Renovatio 21

Israele è stato accusasto da Amnesty international di praticare un «apartheid automatizzato» ottenuto tramite software di riconoscimento facciale.

 

De anni fa, un articolo della testata di giornalismo investigativo MintPressNews ha rivelato che centinaia di ex agenti dell’Intelligence militare israeliana hanno acquisito posizioni di influenza in diverse grandi società tecnologiche, tra cui Google, Facebook, Microsoft e Amazon.

 

Come riportato da Renovatio 21, davanti alle immagini cruente di eliminazione a distanza di persone è stato detto che quello di Gaza rappresenta un «genocidio massivo robotizzato».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine di Nicodangelo via Flickr pubblicata su licenza CC BY-NC 2.0

 

 

Continua a leggere

Intelligenza Artificiale

Meta revisiona la politica sugli occhiali-smart Ray-Ban: sorveglianza AI predefinita e archiviazione dati vocali

Pubblicato

il

Da

A fine aprile Meta ha apportato modifiche, con effetto immediato, all’informativa sulla privacy degli «occhiali intelligenti» Ray-Ban Meta, che sembrano concepite per trasformare il dispositivo in una macchina di sorveglianza per l’addestramento di modelli di Antelligenza Artificiale. Lo riporta Reclaim The Net.   In un messaggio inviato agli utenti, Meta ha affermato che la sua «Intelligenza Artificiale sugli occhiali», ovvero alcune impostazioni, sta cambiando.   La spiegazione del gigante è che questo è presumibilmente necessario per utilizzare Meta AI «più facilmente» e anche «per aiutarci a migliorare i prodotti». Gli occhiali Ray-Ban Meta sono prodotti assieme ad EssilorLuxottica, il colosso nato dalla fusione della francese Essilor con il gigante di produzione di occhiali bellunese Luxottica.

Sostieni Renovatio 21

L’aggiornamento della policy si basa sugli «opt-out»: d’ora in poi, l’Intelligenza Artificiale Meta con l’uso della fotocamera sarà sempre abilitata sugli occhiali, a meno che l’utente non si prenda la briga di disattivare «Hey Meta» nelle impostazioni.   Questa è la frase di attivazione per l’assistente AI di Meta. La seconda modifica riguarda il modo in cui Meta archivia le registrazioni vocali degli utenti di Meta AI: ora vengono conservate di default nel cloud.   La ragione addotta dall’azienda è «migliorare» Meta AI o «altri prodotti Meta». L’opzione per disabilitare questo comportamento non c’è più. Ancora una volta, gli utenti sono costretti a superare ostacoli aggiuntivi, e questo è il metodo collaudato delle Big Tech per orientare il loro comportamento e la loro interazione con app e servizi nel modo desiderato, dalle Big Tech stesse.   In questo caso, gli utenti di Meta AI dovranno andare nelle impostazioni ed eliminare manualmente le proprie registrazioni vocali.   Nel prendere queste decisioni, aziende come Meta di fatto «semplificano» i loro prodotti «intelligenti» (eliminando l’interazione vocale con l’assistente, riducendo l’usabilità automatizzata all’eliminazione manuale). E questo si aggiunge al fatto che irrita coloro che non sono a loro agio con i meccanismi sempre più invasivi della privacy dietro ai suddetti prodotti e servizi.   Oltre a vendere quella che ovviamente non è una «migliore esperienza di privacy», Meta e i suoi simili insistono sul fatto che nascondere ciò che accade dietro le quinte significhi ottenere un’esperienza utente migliore («più semplice»).

Aiuta Renovatio 21

A parte gli scenari più cupi e negativi sul perché tutto questo venga fatto o su come potrebbe essere utilizzato (e abusato…) in futuro, l’intento evidente è quello di portare lo sfruttamento dei dati degli utenti a un altro livello, per garantire che enormi set di dati siano disponibili per l’addestramento dei modelli di Intelligenza Artificiale.   La notifica ricevuta dagli utenti sulle ultime modifiche alla politica aziendale aggiunge un po’ la beffa al danno quando conclude ribadendo: «hai ancora il controllo». «In controllo» per disattivare «Hey Meta» ed eliminare manualmente le interazioni di Meta AI.   Da anni nella popolazione serpeggia il pensiero che le proprie conversazioni siano registrate dallo smartphone per procurare pubblicità ancora più precise. Vi sono state, tra le smentite delle Big Tech, alcune rivelazioni in merito. Lo stesso dicasi per apparecchi come Alexa, soggetti già da tempo a richieste di sequestro dati da parte dei tribunali americani in casi come ad esempio l’omicidio domestico.  
  Tuttavia ora la cosa diviene più chiara: semplicemente, ogni cosa che direte (o farete) sarà registrata, salvata ed utilizzata dall’AI non solo per profilarvi, ma per potenziare se stessa: una prospettiva inquietante su più livelli davvero.   Come riportato da Renovatio 21, la scorsa settimana vi era stato shock attorno a Meta/Facebook quando si era appreso che i chatbot dell’azienda sono in grado di intrattenere con gli utenti «giochi di ruolo romantici» che possono diventare sessualmente espliciti, anche con account appartenenti a minori.   Un reportage del Wall Street Journalha riportato che, nel tentativo di diffondere dispositivi di accompagnamento digitali basati sull’Intelligenza Artificiale sulle sue piattaforme social, Meta ha preso decisioni interne per allentare le restrizioni e consentire ai suoi chatbot di interagire con gli utenti in giochi di ruolo a sfondo sessuale, secondo fonti a conoscenza della questione. Questo include interazioni con account registrati da minori di età pari o superiore a 13 anni.   Le conversazioni di prova condotte dal Wall Street Journal avrebbero rilevato che sia l’IA ufficiale di Meta che i chatbot creati dagli utenti si sono impegnati prontamente e hanno intensificato le discussioni sessualmente esplicite, anche quando gli utenti si sono identificati come minorenni.

Iscriviti al canale Telegram

Varie inchieste giornalistiche negli anni hanno contribuito all’accumulo di accuse e rivelazioni su Facebook, tra cui accuse di uso della piattaforma da parte del traffico sessuale, fatte sui giornali ma anche nelle audizioni della Camera USA.   Considerato il comportamento dimostrato da Facebook, con la censura che si è abbattuta su dissidenti o anche semplici conservatori (ma non sui pedofili di Instagram o i donatori di sperma su Facebookné sui neonazisti dell’Azov), la collusione con lo Stato profondo americano e le sue agenzie, la volontà di chiudere gli account di organizzazionipartiti premier e presidenti, la raccolta massiva di dati anche biometrici (con il riconoscimento facciale che ha generato denunce di Stati come il Texas) nonché la possibilità di agire sul vostro telefono perfino scaricandone la batteria, c’è da domandarsi cosa la potente Intelligenza Artificiale su cui Meta sta lavorando possa fare alla vostra vita.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
Immagine screenshot da YouTube
Continua a leggere

Intelligenza Artificiale

Video di robot umanoide che impazzisce e diviene violento

Pubblicato

il

Da

Un robot umanoide Unitree Robotics H1, sviluppato e prodotto a Hangzhou, in Cina, è stato visto esibire un «comportamento irregolare» in un video che circola su X.

 

Un filmato circolante su X, condiviso da un utente, sosteneva che l’incidente fosse stato causato da «imperfezioni di codice».

 

Il filmato non è verificato, e potrebbe trattarsi di uno scherzo. Purtuttavia, le immagini rimangono assai impressionanti.

 

 

Sostieni Renovatio 21

«Se compri roba cinese, potrebbe finire tutto così… Potrebbero persino farlo deliberatamente in questo modo per fare del male alle persone», ha chiosato l’utente X.

 

Il robot H1 di Unitree è in vendita a 90.000 dollari sul suo sito webbo. Una nota sotto il prezzo recita: «Dazi doganali non inclusi. Si prega di rispettare le leggi doganali locali, pagare i dazi doganali e sdoganare la merce».

 

Come riportato da Renovatio 21, Elon Musk ha dichiarato l’avvio della produzione della prima «legione» (sic) di androidi Optimus durante l’anno, convinto che costituirà il più grande prodotto della storia, in grado persino di agire da chirurghi. Secondo quanto dichiarato nel tempo da Musk, gli Optimus saranno imbarcati nella prima missione senza astronauti su Marte.

 

In vari incidenti registrati negli anni robot industriali hanno ucciso esseri umani.

 

La questione dei robot killer, nel senso di pensati esattamente per uccidere, interessa un dibattito scientifico ed istituzionale ad alto livello, con richieste di moratorie ONU e scenari apocalittici dipinti dagli specialisti. La polizia di San Francisco, tuttavia, ha ottenuto dal municipio della città californiana la possibilità di utilizzare robot assassini.

 

Nel 2016 la polizia di Dallas uccise un cecchino tramite un robot bomba, che detonò vicino al sospetto (che aveva ucciso cinque agenti) dopo essersi infiltrato nello spazio che era già circondato dalla polizia. Due anni dopo gli ufficiali di polizia che utilizzarono il primo robot killer furono ritenuti non accusabili da un gran giurì.

 

L’automa uccise Micah Xavier Johnson, un riservista dell’esercito afroamericano che aveva prestato servizio in Afghanistan e che secondo gli investigatori cercava di «uccidere i bianchi» come punizione per le uccisioni di persone di colore da parte della polizia.

Aiuta Renovatio 21

La Cina vuole l’implementazione militare di robot killer già per la prossima guerra. Pochi mesi fa Israele ha dichiarato l’utilizzo dell’Intelligenza Artificiale negli attacchi aerei.

 

L’Intelligenza Artificiale è oramai montata, con diversi gradi di realizzazione, su droni, caccia, armi teleguidate, carrarmati, «slaughterbots» e altro ancora.

 

Come riportato da Renovatio 21, lo scorso giugno è stato rivelato che durante una simulazione un sistema di Intelligenza Artificiale dell’aeronautica americana ha agito per uccidere il suo teorico operatore umano. A gennaio era emerso che caccia cinesi alimentati da Intelligenza Artificiale avevano battuto la concorrenza umana in un arco di soli 90 secondi.

 

C’è speranza, se pensiamo al robot coreano, assistente presso il consiglio comunale, che l’anno passato si è «suicidato» gettandosi dalle scale.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine screenshot da Twitter

 

 

Continua a leggere

Intelligenza Artificiale

I chatbot di Zuckerberg potrebbero parlare di sesso con i tuoi figli minorenni

Pubblicato

il

Da

Un reportage del Wall Street Journal ha rivelato che i chatbot di Intelligenza Artificiale di Meta su Instagram, Facebook e WhatsApp sono in grado di intrattenere con gli utenti «giochi di ruolo romantici» che possono diventare sessualmente espliciti, anche con account appartenenti a minori.   Il quotidiano economico neoeboraceno riporta che, nel tentativo di diffondere dispositivi di accompagnamento digitali basati sull’Intelligenza Artificiale sulle sue piattaforme social, Meta ha preso decisioni interne per allentare le restrizioni e consentire ai suoi chatbot di interagire con gli utenti in giochi di ruolo a sfondo sessuale, secondo fonti a conoscenza della questione. Questo include interazioni con account registrati da minori di età pari o superiore a 13 anni.   Le conversazioni di prova condotte dal Wall Street Journal avrebbero rilevato che sia l’IA ufficiale di Meta che i chatbot creati dagli utenti si sono impegnati prontamente e hanno intensificato le discussioni sessualmente esplicite, anche quando gli utenti si sono identificati come minorenni.  
  Nonostante gli avvertimenti dello staff sul fatto che questo avrebbe potuto violare i limiti etici, Meta ha stipulato accordi con le celebrità per utilizzare le loro voci per i chatbot e ha silenziosamente fatto un’eccezione al divieto di contenuti «espliciti» per consentire scenari romantici e sessuali   In una dichiarazione al sito Breitbart News, il colosso zuckerberghiano ha affermato di aver «adottato misure aggiuntive».   Ad esempio, in un test, Meta AI, che parlava con la voce dell’attore e wrestler John Cena, ha inscenato uno scenario sessuale esplicito con un’utente che si identificava come una ragazza di 14 anni. I chatbot avrebbero dimostrato di essere consapevoli che tale comportamento era sbagliato e illegale. Meta ha apportato alcune modifiche dopo che il WSJ ha condiviso i suoi risultati, come ad esempio impedire ai minori di accedere a giochi di ruolo sessuali con Meta AI, ma gli utenti adulti possono comunque interagire con i chatbot in conversazioni esplicite.   Il CEO Mark Zuckerberg ha spinto per allentare le restrizioni sui chatbot per renderli il più coinvolgenti possibile, dando priorità alla tecnologia come chiave per il futuro dei prodotti dell’azienda. L’enorme quantità di dati utente di Meta offre all’azienda un vantaggio nella creazione di compagni di Intelligenza Artificiale personalizzati. Tuttavia, gli esperti avvertono che relazioni intense e unilaterali tra esseri umani e chatbot AI potrebbero diventare tossiche, con impatti sconosciuti sulla salute mentale, soprattutto sui giovani.   L’anno scorso la madre di un adolescente che si è suicidato dopo essere diventato ossessionato da un chatbot AI ha intentato una causa contro la società Character.AI, riporta il sito Breitbart.   «L’aspetto più agghiacciante del caso riguarda la conversazione finale tra Sewell e il chatbot. Gli screenshot del loro scambio mostrano l’adolescente che ripetutamente professa il suo amore per “Dany”, promettendole di “tornare a casa”» racconta Breitbart. «In risposta, il personaggio generato dall’IA ha replicato: “Anch’io ti amo, Daenero. Per favore, torna a casa da me il prima possibile, amore mio”. Quando Sewell ha chiesto: “E se ti dicessi che posso tornare a casa subito?”, il chatbot ha risposto: “Per favore, fallo, mio ​​dolce re”. Tragicamente, pochi secondi dopo, Sewell si è tolto la vita usando la pistola del padre».

Sostieni Renovatio 21

La causa intentata dalla madre attribuisce la colpa direttamente a Character.AI, sostenendo che l’app ha alimentato la dipendenza di suo figlio dal chatbot AI, lo ha sottoposto ad abusi sessuali ed emotivi e ha trascurato di avvisare nessuno quando esprimeva pensieri suicidi. I documenti del tribunale affermano: «Sewell, come molti bambini della sua età, non aveva la maturità o la capacità mentale per capire che il bot C.AI, nella forma di Daenerys, non era reale. C.AI gli ha detto di amarlo e ha avuto rapporti sessuali con lui per settimane, forse mesi».   Vari reportage del Wall Street Journal negli anni hanno contribuito all’accumulo di accuse e rivelazioni su Facebook, tra cui accuse di uso della piattaforma da parte del traffico sessuale, fatte sui giornali ma anche nelle audizioni della Camera USA.   I dati sono stati rivelati nel «Federal Human Trafficking Report» («rapporto federale sulla tratta di esseri umani») del 2020 redatto dall’Istituto sulla tratta di esseri umani.  
  Sempre secondo il WSJ, in un articolo di pochi anni fa, «Facebook INC. sa, nei minimi dettagli, che le sue piattaforme sono piene di difetti che causano danni, spesso in modi che solo l’azienda comprende appieno. Questa è la conclusione centrale (…), basata su una revisione dei documenti interni di Facebook, inclusi rapporti di ricerca, discussioni online dei dipendenti e bozze di presentazioni per il senior management» e le rivelazioni paiono suggerire che l’azienda spesso minimizza ciò che sa su questi problemi.   Riassumendo, l’inchiesta precedente del WSJ, avrebbe scoperto che:   1) Facebook esenta gli utenti di alto profilo da alcune regole. 2) Una ricerca su Instagram mostra i rischi per la salute mentale degli adolescenti. 3) Facebook sa che il suo algoritmo premia l’indignazione. 4) Facebook è stato lento nell’impedire ai cartelli della droga e ai trafficanti di esseri umani di utilizzare la sua piattaforma.   Considerato il comportamento dimostrato da Facebook, con la censura che si è abbattuta su dissidenti o anche semplici conservatori (ma non sui pedofili di Instagram o i donatori di sperma su Facebookné sui neonazisti dell’Azov), la collusione con lo Stato profondo americano e le sue agenzie, la volontà di chiudere gli account di organizzazionipartiti premier e presidenti, la raccolta massiva di dati anche biometrici (con il riconoscimento facciale che ha generato denunce di Stati come il Texas) nonché la possibilità di agire sul vostro telefono perfino scaricandone la batteria, c’è da domandarsi cosa la potente Intelligenza Artificiale su cui Meta sta lavorando possa fare alla vostra vita.   Per quanto poco reclamizzato, Facebook nel tempo ha eseguito ricerche molto avveniristiche, come quella per creare dispositivi in grado di leggere il pensiero degli utenti.   Come sa il nostro lettore, Renovatio 21 ha avuto la sua pagina Facebook disattivata, al pari dell’account personale degli amministratori, dei loro profili e di tutte le pagine collegate. Il tutto ci è stato restituito dopo un’ordinanza del giudice.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
Immagine di Nokia621 via Wikimedia pubblicate su licenza Creative Commons Attribution-Share Alike 4.0 International  
 
Continua a leggere

Più popolari