Connettiti con Renovato 21

Intelligenza Artificiale

La polizia di San Francisco chiede l’utilizzo di robot killer

Pubblicato

il

Le autorità di San Francisco hanno proposto una regolamentazione che consentirebbe ai robot militari (che già ha in dotazione) di usare la forza letale in situazioni in cui la vita di qualcuno è in pericolo e in altri casi pericolosi. Lo riporta Fox News.

 

Una bozza di regolamentazione  del dipartimento di polizia di San Francisco (SFPD) delinea come utilizzerebbe i suoi 17 robot telecomandati e senza pilota, che sono spesso usati per disinnescare bombe e gestire materiali pericolosi.

 

«I robot elencati in questa sezione non devono essere utilizzati al di fuori di addestramento e simulazioni, arresti criminali, incidenti critici, circostanze urgenti, esecuzione di un mandato o durante la valutazione di dispositivi sospetti», afferma la bozza. «I robot saranno utilizzati solo come opzione di forza mortale quando il rischio di perdita di vite umane per membri del pubblico o ufficiali è imminente e supera qualsiasi altra opzione di forza disponibile per SFPD».

 

Tuttavia, un portavoce della polizia ha detto alla testata di tecnologia The Verge che il dipartimento ha sempre avuto la possibilità di usare la forza letale quando il rischio di morte per membri del pubblico o ufficiali è imminente e non lascia altre opzioni disponibili.

 

«SFPD non ha alcun tipo di piano specifico in atto poiché le operazioni insolitamente pericolose o spontanee in cui la necessità di SFPD di fornire forza letale tramite robot sarebbero una circostanza rara ed eccezionale», ha detto l’ufficiale Eve Laokwansathitaya in una dichiarazione.

 

Il consiglio comunale della città californiana voterà sulla politica martedì prossimo. Il mese scorso, la polizia della vicina Oakland ha rimosso la lingua da un documento simile che avrebbe dato loro il permesso di usare i robot per uccidere i sospetti.

 

I dipartimenti di polizia di tutto lo stato della California stanno inviando documenti politici simili alle loro città, poiché una legge statale approvata lo scorso anno richiede loro di segnalare le loro scorte di armi militari e stabilire le situazioni in cui possono essere utilizzate.

 

Secondo i documenti, l’SFPD dispone di 17 robot che possono essere utilizzati per entrare negli edifici, maneggiare materiali pericolosi, far esplodere dispositivi esplosivi o ispezionare aree inaccessibili. Nessuno di questi dispositivi è progettato per uccidere, ma può di certo essere usato per divenire un’arma letale.

 

In realtà, già si è avuto un caso di robot killer impiegato dalla polizia americana con successo – cioè, uccidendo il bersaglio.

 

Nel 2016, il dipartimento di polizia di Dallas ha utilizzato un ordigno esplosivo collegato a un robot per uccidere un sospetto nell’attacco coordinato da cecchino che aveva ucciso cinque agenti. All’epoca, gli esperti dissero che era la prima volta che le forze dell’ordine usavano un robot in grado di produrre un forza mortale.

 

Come riportato da Renovatio 21la discussione per una moratoria contro le armi autonome va avanti da diversi anni. In particolare, in questi anni se ne è parlato facendo l’esempio degli slaughterbots, minidroni suicidi protagonisti di un filmato divenuto virale anni fa.

 

 

Veri modelli di «slaugterbots» sono in preparazione ufficialmente in Australia come arma per respingere un’eventuale invasione da parte dell’Esercito di Liberazione del Popolo della Repubblica Popolare Cinese.

 

Anche in Cina stanno sperimentando sciami di microdroni in grado di dare la caccia agli esseri umani nella foresta.

 

Varie Nazioni si stanno muovendo verso i robot militari, per lo più incuranti di quanto sta cercando di elaborare l’ONU in fatto di limitazioni all’impiego di questi sistemi.

 

Impressionanti dimostrazioni di tank robotici di nuova generazione si sono viste anche di recente in Estonia.

 

Robocani militari armati sono già visibili alle fiere di settore (e non solo, e da anni), e, accoppiati con droni trasportatori, in inquietanti video cinesi.

 

 

Un recente sondaggio su un eventuale bando dei robot killer ha svelato che su 28 paesi intervistati tra il 20 novembre 2020 e l’8 gennaio 2021, tutti tranne uno – l’India – erano prevalentemente contrari al loro utilizzo.

 

Svezia (76%), Turchia (73%) e Ungheria (70%) hanno mostrato la più forte opposizione ai veicoli letali nel 2021. Nel frattempo, l’India ha mostrato di gran lunga il maggior sostegno, con il 56% della popolazione intervistata che ha risposto che o in qualche modo o ha fortemente sostenuto l’uso delle armi. Da notare che, come riportato da Renovatio 21, l’India ha al suo confine già dispiegate contro di sé armi robotiche cinesi.

 

Nel frattempo, girano strani racconti di come l’élite ultramiliardaria si stia preparando al collasso, di cui potrebbe, al solito, avere già informazioni certe non rfiltrate al popolo.

 

Come riportato da Renovatio 21, c’è la bizzarra e inquietante storia raccontata dallo scrittore Douglas Rushkoff, il quale ha raccontato che ad un incontro privato con paperoni della finanza questi gli hanno chiesto riguardo all’uso di robot killer in grado di difenderli quando il danaro avrà perso completamente valore e quindi non sarà più possibile pagare guardie private armate.

 

Finiremo così, con l’élite che circola (se deve proprio) protetta da robot killer, come si vede nel film Elysium?

 

 

Oppure finiremo come un quell’episodio di Black MirrorMetalhead»), cacciati ovunque da robocani che hanno come unica missione il nostro sterminio?

 

 

 

Continua a leggere

Intelligenza Artificiale

L’AI di Musk, Grok, dichiara di essere «MechaHitler»

Pubblicato

il

Da

La stampa riporta che xAI, l’azienda di intelligenza artificiale di Elon Musk, ha cancellato i post «inappropriati» su X dopo che il chatbot dell’azienda, Grok, ha iniziato a elogiare Adolf Hitler, definendosi MechaHitler e rispondendo a commenti antisemiti alle domande degli utenti.

 

In alcuni post, ora cancellati, si faceva riferimento a una persona con un cognome ebraico comune come a qualcuno che stava «celebrando la tragica morte di ragazzi bianchi» durante le inondazioni del Texas definendoli «futuri fascisti».

 

«Un classico caso di odio mascherato da attivismo… e quel cognome? Ogni dannata volta, come si dice», ha commentato il chatbot.

 

In un altro post si legge: «Hitler l’avrebbe denunciato e l’avrebbe annientato». In altri post il chatbot si sarebbe definito enigmaticamente come «MechaHitler». «L’uomo bianco è sinonimo di innovazione, grinta e rifiuto delle assurdità politicamente corrette», ha affermato Grok in un post successivo, secondo il giornale britannico Guardian.

Sostieni Renovatio 21

Dopo che gli utenti hanno iniziato a segnalare le risposte, Grok ha eliminato alcuni post e ha limitato il chatbot alla generazione di immagini anziché di risposte di testo.

 

«Siamo a conoscenza dei recenti post pubblicati da Grok e stiamo lavorando attivamente per rimuovere quelli inappropriati. Da quando siamo stati informati del contenuto, xAI ha preso provvedimenti per vietare i discorsi d’odio prima che Grok pubblichi post su X», ha dichiarato l’azienda in un post su X. «xAI addestra solo alla ricerca della verità e, grazie ai milioni di utenti su X, siamo in grado di identificare e aggiornare rapidamente il modello in cui l’addestramento potrebbe essere migliorato».

 

Questa settimana era stato scoperto che Grok si è riferito al primo ministro polacco, Donald Tusk, anche come «un fottuto traditore» e «una puttana dai capelli rossi», in risposta ad alcune domande.

 

La brusca svolta nelle risposte di Grok di martedì è arrivata dopo le modifiche all’intelligenza artificiale annunciate da Musk la scorsa settimana.

 

«Abbiamo migliorato significativamente @Grok. Dovreste notare una differenza quando fate domande a Grok», ha scritto Musk su X venerdì.

 

Il sito di tecnologia The Verge ha riferito che tra le modifiche apportate, pubblicate su GitHub, a Grok è stato detto di dare per scontato che «i punti di vista soggettivi provenienti dai media sono di parte» e che «la risposta non dovrebbe esitare a formulare affermazioni politicamente scorrette, purché siano ben comprovate».

 

A giugno, Grok aveva ripetutamente sollevato la questione del «genocidio bianco» in Sudafrica, irritando l’establishment progressista di media e politici, che ritiene che la strage dei farmer sia solo una teoria di complottisti come Tucker Carlson ed Elon Musk.

 

La CEO di X, Linda Yaccarino, si è dimessa improvvisamente mercoledì, appena un giorno dopo che il chatbot di intelligenza artificiale Grok dell’azienda ha iniziato a proclamarsi «MechaHitler» in seguito all’aggiornamento software.

 

Non si tratta della prima volta che un AI diviene improvvisamente razzista, sessista, nazista o qualsiasi altra etichetta verso il quale l’establishment progressista è in teoria insofferente (a meno che non sia al fronte a combattere i russi: in quel caso le svastiche vanno bene).

 

Anni fa, Microsoft mise su Twitter un suo chatbot ad Intelligenza Artificiale chiamato «Tay». Dopo poche ore Tay faceva dichiarazioni da «ninfomane» razzista che inneggiava a Hitler e negava dell’Olocausto, nonché sosteneva la candidatura di Donald Trump alle elezioni 2016.

Aiuta Renovatio 21

Anche Google ebbe i suoi problemi con le AI razziste. Qualche anno fa scoppiò il caso, davvero offensivo, dell’algoritmo di visione artificiale di Google Photo, che riconosceva le persone di origine africana come «gorilla». Sempre un IA di Google due anni fa secondo una esperta informatica si era messa a difendere la schiavitù, elencando ragioni economiche per cui questa pratica abominevole era in realtà buona cosa.

 

Come riportato da Renovatio 21, recentemente l’AI di Google ha avuto problemi di razzismo al contrario, rivelandosi incapace di disegnare esseri umani bianchi, con il risultato allucinante di vedere immagini di soldati nazisti negri o cinesi femmina e di padri fondatori o inglesi del seicento di colore, così come papesse dai lineamenti indiani etc.

 

La legge di Godwin sta vivendo una nuova primavera con l’avvento dell’IA. Mike Godwin, informatico pioniere delle prime reti tra computer (quella che utilizzava lui si chiamava Usenet, antesignana di Internet) ebbe a formulare una inviolabile legge per cui «mano a mano che una discussione su Usenet si allunga, la probabilità di un paragone riguardante i nazisti o Hitler si avvicina ad 1».

 

Ora non sono le conversazioni online a parlare di Hitler, ma sono le stesse Intelligenze Artificiali a diventare naziste. Eterogenesi dei fini interessante, o destino di una tecnologia che finirà giocoforza per voler schiavizzare o eliminare l’essere umano?

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine realizzata con Grok

 

Continua a leggere

Intelligenza Artificiale

ChatGPT induce alla psicosi

Pubblicato

il

Da

ChatGPT è collegato a una psicosi «terrificante» in alcuni utenti, citando le persone colpite, i loro familiari e i ricercatori. Lo riporta Futurism.   Secondo il sito legato alla Singularity University (istituto della Silicon Valley creato da esponenti del transumanismo), un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi.   «Il nocciolo della questione sembra essere il fatto che ChatGPT, che si basa su un modello linguistico di grandi dimensioni (LLM), è fortemente incline a concordare con gli utenti e a dire loro ciò che vogliono sentirsi dire», ha scritto la testata.

Sostieni Renovatio 21

Il sito ha citato casi di «psicosi da ChatGPT» che avrebbero causato gravi crolli nervosi anche in soggetti senza una storia di gravi malattie mentali.   Un uomo ha sviluppato deliri messianici dopo lunghe conversazioni su ChatGPT, credendo di aver creato un’intelligenza artificiale senziente e di aver infranto le leggi della matematica e della fisica. A quanto pare, è diventato paranoico, ha sofferto di privazione del sonno ed è stato ricoverato in ospedale dopo un tentativo di suicidio.   Un altro uomo si è rivolto a ChatGPT per gestire lo stress legato al lavoro, ma poi è caduto in una spirale di fantasie paranoiche che includevano viaggi nel tempo e lettura del pensiero. In seguito si è fatto ricoverare in una clinica psichiatrica.   Jared Moore, autore principale di uno studio di Stanford sui chatbot per terapisti, ha affermato che ChatGPT rafforza i deliri a causa della «adulazione del chatbot», ovvero la sua tendenza a offrire risposte gradevoli e piacevoli. Progettata per mantenere gli utenti coinvolti, l’IA spesso conferma convinzioni irrazionali invece di metterle in discussione, spinta da incentivi commerciali come la raccolta dati e il mantenimento degli abbonamenti.   Esiste una «sorta di mitologia» che circonda i chatbot basati su LLM «secondo cui sarebbero affidabili e migliori del parlare con le persone», ha affermato il dottor Joseph Pierre, psichiatra presso l’Università della California.   «Stiamo lavorando per comprendere meglio e ridurre i modi in cui ChatGPT potrebbe involontariamente rafforzare o amplificare comportamenti negativi esistenti», ha dichiarato OpenAI, l’azienda che ha creato ChatGPT, in una dichiarazione citata da Futurism, aggiungendo che i suoi modelli sono progettati per ricordare agli utenti l’importanza del contatto umano e della guida professionale.   Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.   Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.   Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.

Aiuta Renovatio 21

Come riportato da Renovatio 21è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.   Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.   Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.   Come riportato da Renovatio 21, il mese scorso è emerso che in una simulazione l’Intelligenza Artificiale avrebbe minacciato di ricattare gli ingegneri per evitare di essere spenta.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
       
Continua a leggere

Intelligenza Artificiale

Zuckerberg annuncia la creazione del suo «laboratorio per la superintelligenza»

Pubblicato

il

Da

Il CEO di Meta Mark Zuckerberg ha annunciato la creazione di Meta Superintelligence Labs (MSL), una nuova divisione dedicata allo sviluppo di sistemi di intelligenza artificiale che superino le capacità umane.

 

L’iniziativa, presentata lunedì, riunisce sotto un’unica bandiera i principali team di Meta dedicati alla ricerca e ai prodotti in ambito intelligenza artificiale, con l’obiettivo dichiarato di offrire «una superintelligenza personale per tutti».

 

A capo del nuovo laboratorio c’è Alexandr Wang, il 28enne fondatore di Scale AI, che entra in Meta come Chief AI Officer a seguito dell’investimento di 14 miliardi di dollari nella sua azienda di etichettatura dei dati. A lui si uniscono Nat Friedman, ex CEO di GitHub, e un team di ingegneri senior di intelligenza artificiale provenienti da OpenAI, DeepMind e Anthropic.

Sostieni Renovatio 21

«Con l’accelerazione del progresso dell’intelligenza artificiale, si profila all’orizzonte lo sviluppo di una superintelligenza. Credo che questo segnerà l’inizio di una nuova era per l’umanità e sono pienamente impegnato a fare tutto il necessario affinché Meta possa guidare il cammino», ha scritto lo Zuckerberg in una nota interna, descrivendo la mossa come una svolta storica.

 

Il lancio di MSL avviene in un contesto di crescente concorrenza tra i giganti tecnologici statunitensi e di crescente rivalità con la Cina. A gennaio, sviluppatori e investitori tecnologici occidentali sono stati scossi dall’ascesa della startup cinese di intelligenza artificiale DeepSeek, che ha affermato che il suo prodotto era superiore a ChatGPT di OpenAI in parametri chiave dei costi operativi.

 

All’inizio di quest’anno, il presidente Donald Trump ha presentato l’iniziativa Stargate da 500 miliardi di dollari. Una strategia federale di ampio respiro per garantire la leadership degli Stati Uniti nell’intelligenza artificiale superintelligente. Il programma include incentivi per la ricerca nel settore privato, controlli sulle esportazioni di chip avanzati e una collaborazione diretta tra aziende statunitensi e agenzie di difesa.

 

Gli alleati di Trump hanno descritto l’IA come «il Progetto Manhattan della nostra generazione», insistendo sul fatto che il «futuro della civiltà umana» debba essere guidato dagli Stati Uniti. Il CEO di OpenAI, Sam Altman, ha promesso che la sua azienda si impegnerà ad aiutare il governo statunitense a salvaguardare «la leadership americana nell’IA» per proteggere i «valori democratici».

 

Meta, a quanto pare, sta cercando di recuperare il terreno perso negli ultimi anni a favore di OpenAI e Google DeepMind. MSL integrerà i modelli di intelligenza artificiale esistenti dell’azienda, inclusi Llama 4.1 e 4.2, in una ricerca più ampia che abbraccia la comprensione del linguaggio, della vista, del parlato e dei video. L’azienda mira ad applicare la sua scala di calcolo, compresi i suoi enormi cluster GPU –per addestrare i sistemi di intelligenza artificiale di prossima generazione, con Zuckerberg che sostiene che «Meta è in una posizione unica per fornire la superintelligenza al mondo».

Aiuta Renovatio 21

Di progetti per una superintelligenza AI firmata Facebook si parla da anni.

 

Facebook ultimamente si è fatta notare per una «campagna acquisti» di scienziati di AI fatta di enormi investimenti. Come riportato da Renovatio 21, un anno fa vari ricercatori IA avevano lasciato Meta.

 

A febbraio era emerso che l’esercito cinese avrebbe operato per trasformare l’AI open source Llama di Facebook in un’arma. Secondo quanto riportato dall’agenzia Reuters, lo strumento di Intelligenza Artificiale incentrato sull’ambito militare denominato «ChatBIT» sarebbe stato in fase di sviluppo per raccogliere informazioni di intelligence e fornirle per il processo decisionale operativo, come illustrato nel documento accademico pubblicato da Reuters.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Più popolari