Intelligenza Artificiale
La polizia di San Francisco chiede l’utilizzo di robot killer

Le autorità di San Francisco hanno proposto una regolamentazione che consentirebbe ai robot militari (che già ha in dotazione) di usare la forza letale in situazioni in cui la vita di qualcuno è in pericolo e in altri casi pericolosi. Lo riporta Fox News.
Una bozza di regolamentazione del dipartimento di polizia di San Francisco (SFPD) delinea come utilizzerebbe i suoi 17 robot telecomandati e senza pilota, che sono spesso usati per disinnescare bombe e gestire materiali pericolosi.
«I robot elencati in questa sezione non devono essere utilizzati al di fuori di addestramento e simulazioni, arresti criminali, incidenti critici, circostanze urgenti, esecuzione di un mandato o durante la valutazione di dispositivi sospetti», afferma la bozza. «I robot saranno utilizzati solo come opzione di forza mortale quando il rischio di perdita di vite umane per membri del pubblico o ufficiali è imminente e supera qualsiasi altra opzione di forza disponibile per SFPD».
Tuttavia, un portavoce della polizia ha detto alla testata di tecnologia The Verge che il dipartimento ha sempre avuto la possibilità di usare la forza letale quando il rischio di morte per membri del pubblico o ufficiali è imminente e non lascia altre opzioni disponibili.
«SFPD non ha alcun tipo di piano specifico in atto poiché le operazioni insolitamente pericolose o spontanee in cui la necessità di SFPD di fornire forza letale tramite robot sarebbero una circostanza rara ed eccezionale», ha detto l’ufficiale Eve Laokwansathitaya in una dichiarazione.
Il consiglio comunale della città californiana voterà sulla politica martedì prossimo. Il mese scorso, la polizia della vicina Oakland ha rimosso la lingua da un documento simile che avrebbe dato loro il permesso di usare i robot per uccidere i sospetti.
I dipartimenti di polizia di tutto lo stato della California stanno inviando documenti politici simili alle loro città, poiché una legge statale approvata lo scorso anno richiede loro di segnalare le loro scorte di armi militari e stabilire le situazioni in cui possono essere utilizzate.
Secondo i documenti, l’SFPD dispone di 17 robot che possono essere utilizzati per entrare negli edifici, maneggiare materiali pericolosi, far esplodere dispositivi esplosivi o ispezionare aree inaccessibili. Nessuno di questi dispositivi è progettato per uccidere, ma può di certo essere usato per divenire un’arma letale.
In realtà, già si è avuto un caso di robot killer impiegato dalla polizia americana con successo – cioè, uccidendo il bersaglio.
Nel 2016, il dipartimento di polizia di Dallas ha utilizzato un ordigno esplosivo collegato a un robot per uccidere un sospetto nell’attacco coordinato da cecchino che aveva ucciso cinque agenti. All’epoca, gli esperti dissero che era la prima volta che le forze dell’ordine usavano un robot in grado di produrre un forza mortale.
Come riportato da Renovatio 21, la discussione per una moratoria contro le armi autonome va avanti da diversi anni. In particolare, in questi anni se ne è parlato facendo l’esempio degli slaughterbots, minidroni suicidi protagonisti di un filmato divenuto virale anni fa.
Veri modelli di «slaugterbots» sono in preparazione ufficialmente in Australia come arma per respingere un’eventuale invasione da parte dell’Esercito di Liberazione del Popolo della Repubblica Popolare Cinese.
Varie Nazioni si stanno muovendo verso i robot militari, per lo più incuranti di quanto sta cercando di elaborare l’ONU in fatto di limitazioni all’impiego di questi sistemi.
Impressionanti dimostrazioni di tank robotici di nuova generazione si sono viste anche di recente in Estonia.
Robocani militari armati sono già visibili alle fiere di settore (e non solo, e da anni), e, accoppiati con droni trasportatori, in inquietanti video cinesi.
Un recente sondaggio su un eventuale bando dei robot killer ha svelato che su 28 paesi intervistati tra il 20 novembre 2020 e l’8 gennaio 2021, tutti tranne uno – l’India – erano prevalentemente contrari al loro utilizzo.
Svezia (76%), Turchia (73%) e Ungheria (70%) hanno mostrato la più forte opposizione ai veicoli letali nel 2021. Nel frattempo, l’India ha mostrato di gran lunga il maggior sostegno, con il 56% della popolazione intervistata che ha risposto che o in qualche modo o ha fortemente sostenuto l’uso delle armi. Da notare che, come riportato da Renovatio 21, l’India ha al suo confine già dispiegate contro di sé armi robotiche cinesi.
Nel frattempo, girano strani racconti di come l’élite ultramiliardaria si stia preparando al collasso, di cui potrebbe, al solito, avere già informazioni certe non rfiltrate al popolo.
Come riportato da Renovatio 21, c’è la bizzarra e inquietante storia raccontata dallo scrittore Douglas Rushkoff, il quale ha raccontato che ad un incontro privato con paperoni della finanza questi gli hanno chiesto riguardo all’uso di robot killer in grado di difenderli quando il danaro avrà perso completamente valore e quindi non sarà più possibile pagare guardie private armate.
Finiremo così, con l’élite che circola (se deve proprio) protetta da robot killer, come si vede nel film Elysium?
Oppure finiremo come un quell’episodio di Black Mirror («Metalhead»), cacciati ovunque da robocani che hanno come unica missione il nostro sterminio?
Intelligenza Artificiale
L’AI di Musk, Grok, dichiara di essere «MechaHitler»

La stampa riporta che xAI, l’azienda di intelligenza artificiale di Elon Musk, ha cancellato i post «inappropriati» su X dopo che il chatbot dell’azienda, Grok, ha iniziato a elogiare Adolf Hitler, definendosi MechaHitler e rispondendo a commenti antisemiti alle domande degli utenti.
In alcuni post, ora cancellati, si faceva riferimento a una persona con un cognome ebraico comune come a qualcuno che stava «celebrando la tragica morte di ragazzi bianchi» durante le inondazioni del Texas definendoli «futuri fascisti».
«Un classico caso di odio mascherato da attivismo… e quel cognome? Ogni dannata volta, come si dice», ha commentato il chatbot.
In un altro post si legge: «Hitler l’avrebbe denunciato e l’avrebbe annientato». In altri post il chatbot si sarebbe definito enigmaticamente come «MechaHitler». «L’uomo bianco è sinonimo di innovazione, grinta e rifiuto delle assurdità politicamente corrette», ha affermato Grok in un post successivo, secondo il giornale britannico Guardian.
Sostieni Renovatio 21
Dopo che gli utenti hanno iniziato a segnalare le risposte, Grok ha eliminato alcuni post e ha limitato il chatbot alla generazione di immagini anziché di risposte di testo.
«Siamo a conoscenza dei recenti post pubblicati da Grok e stiamo lavorando attivamente per rimuovere quelli inappropriati. Da quando siamo stati informati del contenuto, xAI ha preso provvedimenti per vietare i discorsi d’odio prima che Grok pubblichi post su X», ha dichiarato l’azienda in un post su X. «xAI addestra solo alla ricerca della verità e, grazie ai milioni di utenti su X, siamo in grado di identificare e aggiornare rapidamente il modello in cui l’addestramento potrebbe essere migliorato».
Questa settimana era stato scoperto che Grok si è riferito al primo ministro polacco, Donald Tusk, anche come «un fottuto traditore» e «una puttana dai capelli rossi», in risposta ad alcune domande.
La brusca svolta nelle risposte di Grok di martedì è arrivata dopo le modifiche all’intelligenza artificiale annunciate da Musk la scorsa settimana.
«Abbiamo migliorato significativamente @Grok. Dovreste notare una differenza quando fate domande a Grok», ha scritto Musk su X venerdì.
Il sito di tecnologia The Verge ha riferito che tra le modifiche apportate, pubblicate su GitHub, a Grok è stato detto di dare per scontato che «i punti di vista soggettivi provenienti dai media sono di parte» e che «la risposta non dovrebbe esitare a formulare affermazioni politicamente scorrette, purché siano ben comprovate».
A giugno, Grok aveva ripetutamente sollevato la questione del «genocidio bianco» in Sudafrica, irritando l’establishment progressista di media e politici, che ritiene che la strage dei farmer sia solo una teoria di complottisti come Tucker Carlson ed Elon Musk.
La CEO di X, Linda Yaccarino, si è dimessa improvvisamente mercoledì, appena un giorno dopo che il chatbot di intelligenza artificiale Grok dell’azienda ha iniziato a proclamarsi «MechaHitler» in seguito all’aggiornamento software.
Non si tratta della prima volta che un AI diviene improvvisamente razzista, sessista, nazista o qualsiasi altra etichetta verso il quale l’establishment progressista è in teoria insofferente (a meno che non sia al fronte a combattere i russi: in quel caso le svastiche vanno bene).
Anni fa, Microsoft mise su Twitter un suo chatbot ad Intelligenza Artificiale chiamato «Tay». Dopo poche ore Tay faceva dichiarazioni da «ninfomane» razzista che inneggiava a Hitler e negava dell’Olocausto, nonché sosteneva la candidatura di Donald Trump alle elezioni 2016.
Aiuta Renovatio 21
Anche Google ebbe i suoi problemi con le AI razziste. Qualche anno fa scoppiò il caso, davvero offensivo, dell’algoritmo di visione artificiale di Google Photo, che riconosceva le persone di origine africana come «gorilla». Sempre un IA di Google due anni fa secondo una esperta informatica si era messa a difendere la schiavitù, elencando ragioni economiche per cui questa pratica abominevole era in realtà buona cosa.
Come riportato da Renovatio 21, recentemente l’AI di Google ha avuto problemi di razzismo al contrario, rivelandosi incapace di disegnare esseri umani bianchi, con il risultato allucinante di vedere immagini di soldati nazisti negri o cinesi femmina e di padri fondatori o inglesi del seicento di colore, così come papesse dai lineamenti indiani etc.
La legge di Godwin sta vivendo una nuova primavera con l’avvento dell’IA. Mike Godwin, informatico pioniere delle prime reti tra computer (quella che utilizzava lui si chiamava Usenet, antesignana di Internet) ebbe a formulare una inviolabile legge per cui «mano a mano che una discussione su Usenet si allunga, la probabilità di un paragone riguardante i nazisti o Hitler si avvicina ad 1».
Ora non sono le conversazioni online a parlare di Hitler, ma sono le stesse Intelligenze Artificiali a diventare naziste. Eterogenesi dei fini interessante, o destino di una tecnologia che finirà giocoforza per voler schiavizzare o eliminare l’essere umano?
Iscriviti alla Newslettera di Renovatio 21
Immagine realizzata con Grok
Intelligenza Artificiale
ChatGPT induce alla psicosi

Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Zuckerberg annuncia la creazione del suo «laboratorio per la superintelligenza»

Il CEO di Meta Mark Zuckerberg ha annunciato la creazione di Meta Superintelligence Labs (MSL), una nuova divisione dedicata allo sviluppo di sistemi di intelligenza artificiale che superino le capacità umane.
L’iniziativa, presentata lunedì, riunisce sotto un’unica bandiera i principali team di Meta dedicati alla ricerca e ai prodotti in ambito intelligenza artificiale, con l’obiettivo dichiarato di offrire «una superintelligenza personale per tutti».
A capo del nuovo laboratorio c’è Alexandr Wang, il 28enne fondatore di Scale AI, che entra in Meta come Chief AI Officer a seguito dell’investimento di 14 miliardi di dollari nella sua azienda di etichettatura dei dati. A lui si uniscono Nat Friedman, ex CEO di GitHub, e un team di ingegneri senior di intelligenza artificiale provenienti da OpenAI, DeepMind e Anthropic.
Sostieni Renovatio 21
«Con l’accelerazione del progresso dell’intelligenza artificiale, si profila all’orizzonte lo sviluppo di una superintelligenza. Credo che questo segnerà l’inizio di una nuova era per l’umanità e sono pienamente impegnato a fare tutto il necessario affinché Meta possa guidare il cammino», ha scritto lo Zuckerberg in una nota interna, descrivendo la mossa come una svolta storica.
Il lancio di MSL avviene in un contesto di crescente concorrenza tra i giganti tecnologici statunitensi e di crescente rivalità con la Cina. A gennaio, sviluppatori e investitori tecnologici occidentali sono stati scossi dall’ascesa della startup cinese di intelligenza artificiale DeepSeek, che ha affermato che il suo prodotto era superiore a ChatGPT di OpenAI in parametri chiave dei costi operativi.
All’inizio di quest’anno, il presidente Donald Trump ha presentato l’iniziativa Stargate da 500 miliardi di dollari. Una strategia federale di ampio respiro per garantire la leadership degli Stati Uniti nell’intelligenza artificiale superintelligente. Il programma include incentivi per la ricerca nel settore privato, controlli sulle esportazioni di chip avanzati e una collaborazione diretta tra aziende statunitensi e agenzie di difesa.
Gli alleati di Trump hanno descritto l’IA come «il Progetto Manhattan della nostra generazione», insistendo sul fatto che il «futuro della civiltà umana» debba essere guidato dagli Stati Uniti. Il CEO di OpenAI, Sam Altman, ha promesso che la sua azienda si impegnerà ad aiutare il governo statunitense a salvaguardare «la leadership americana nell’IA» per proteggere i «valori democratici».
Meta, a quanto pare, sta cercando di recuperare il terreno perso negli ultimi anni a favore di OpenAI e Google DeepMind. MSL integrerà i modelli di intelligenza artificiale esistenti dell’azienda, inclusi Llama 4.1 e 4.2, in una ricerca più ampia che abbraccia la comprensione del linguaggio, della vista, del parlato e dei video. L’azienda mira ad applicare la sua scala di calcolo, compresi i suoi enormi cluster GPU –per addestrare i sistemi di intelligenza artificiale di prossima generazione, con Zuckerberg che sostiene che «Meta è in una posizione unica per fornire la superintelligenza al mondo».
Aiuta Renovatio 21
Di progetti per una superintelligenza AI firmata Facebook si parla da anni.
Facebook ultimamente si è fatta notare per una «campagna acquisti» di scienziati di AI fatta di enormi investimenti. Come riportato da Renovatio 21, un anno fa vari ricercatori IA avevano lasciato Meta.
A febbraio era emerso che l’esercito cinese avrebbe operato per trasformare l’AI open source Llama di Facebook in un’arma. Secondo quanto riportato dall’agenzia Reuters, lo strumento di Intelligenza Artificiale incentrato sull’ambito militare denominato «ChatBIT» sarebbe stato in fase di sviluppo per raccogliere informazioni di intelligence e fornirle per il processo decisionale operativo, come illustrato nel documento accademico pubblicato da Reuters.
Iscriviti alla Newslettera di Renovatio 21
-
Immigrazione2 settimane fa
9 minorenni tedesche abusate sessualmente da siriani in piscina. Il sindaco tedesco accusa il «caldo»
-
Eutanasia1 settimana fa
Ecco l’eutanasia dell’Italia geografica. Per far nascere le smart city che ci controlleranno
-
Morte cerebrale2 settimane fa
Donna «cerebralmente morta» dà alla luce un figlio. Quindi morta proprio non lo era
-
Salute2 settimane fa
I malori della 27ª settimana 2025
-
Vaccini2 settimane fa
Kennedy dice a Tucker Carlson che la Sanità USA rivoluzionerà il risarcimento per i danni da vaccino
-
Spirito2 settimane fa
Mons. Viganò: il Cosmo divino contro i nemici della Messa tridentina
-
General2 settimane fa
Il cardinale Zen: Dio è «disgustato» dal comportamento omosessuale
-
Vaccini2 settimane fa
«Piano per vaccinare tutti gli americani, nonostante RFK Jr.»