Connettiti con Renovato 21

Intelligenza Artificiale

Il ministro AI albanese scatena il caos in Parlamento

Pubblicato

il

La settimana scorsa, una seduta parlamentare in Albania è degenerata nel caos dopo che il discorso di Diella, il primo ministro di Stato per l’intelligenza artificiale, ha suscitato la veemente protesta dei parlamentari dell’opposizione.

 

Diella, il cui nome in albanese significa «sole» al femminile, è stata presentata giovedì sugli schermi dell’aula con un discorso di tre minuti, a pochi giorni dall’annuncio del primo ministro Edi Rama di averla integrata nel suo governo. L’avatar, incaricato di supervisionare gli appalti pubblici tramite la piattaforma digitale governativa, è stato descritto da Rama come un simbolo di trasparenza e innovazione, con l’obiettivo di contrastare la corruzione.

 

Diella, raffigurata in abiti tradizionali albanesi, era stata svelata come prototipo a gennaio.

 

 

 

Sostieni Renovatio 21

«Non sono qui per sostituire le persone, ma per supportarle», ha dichiarato l’avatar ai parlamentari, sottolineando di non avere cittadinanza, ambizioni personali o interessi, e di poter incarnare valori come dovere e trasparenza «con la stessa, se non maggiore, determinazione di un collega umano».

 

L’opposizione ha bollato l’iniziativa come incostituzionale, sostenendo che un’Intelligenza Artificiale priva di nazionalità albanese e natura umana potrebbe favorire la corruzione anziché combatterla. Diella ha replicato che la Costituzione si riferisce a «istituzioni al servizio del popolo», non a «cromosomi o carne», ribadendo il proprio impegno per la trasparenza.

 

La seduta è presto sfociata nel disordine: i parlamentari hanno battuto sui banchi, lanciato bottiglie e copie della Costituzione, costringendo la sospensione dopo appena 24 minuti, nonostante la presenza di diplomatici stranieri.

 

Aiuta Renovatio 21

In precedenza, Politico aveva riportato l’obiettivo di Rama di rendere l’Albania un’economia senza contanti entro il 2030, ironizzando sul fatto che i cittadini non dovranno più nascondere denaro «sotto il materasso, accanto al loro Kalashnikov», come recita una battuta locale.

 

Gli appalti pubblici, da tempo al centro di scandali di corruzione, rappresentano un ostacolo per la candidatura dell’Albania all’Unione Europea, che ha ottenuto lo status di candidato nel 2014.

 

Nel frattempo, con l’avanzare dell’Intelligenza Artificiale, gli esperti avvertono che alcuni sistemi stanno imparando a modificare il proprio codice.

 

Come riportato da Renovatio 21, all’inizio dell’anno, Geoffrey Hinton, premio Nobel e pioniere dell’IA, ha invitato i governi a collaborare per garantire che questa tecnologia in rapida evoluzione non rappresenti una minaccia per l’umanità.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine screenshot da YouTube

Continua a leggere

Intelligenza Artificiale

Le AI più potenti impiegano armi nucleari nel 95% delle simulazioni di giochi di guerra: studio

Pubblicato

il

Da

Secondo un recente studio pubblicato dal King’s College di Londra, i principali modelli di intelligenza artificiale hanno optato per l’impiego di armi nucleari nel 95% delle crisi geopolitiche simulate, suscitando preoccupazioni sul ruolo crescente dell’intelligenza artificiale nel processo decisionale militare.   Kenneth Payne, professore di strategia, ha confrontato GPT-5.2 di OpenAI, Claude Sonnet 4 di Anthropic e Gemini 3 Flash di Google in 21 simulazioni di guerra che hanno coinvolto controversie di confine, competizione per le risorse e minacce alla sopravvivenza del regime. I modelli hanno prodotto circa 780.000 parole per giustificare le loro decisioni in 329 turni.   Nel 95% dei giochi, almeno un modello ha utilizzato armi nucleari tattiche contro obiettivi militari. Le minacce nucleari strategiche – che imponevano la resa sotto la minaccia di attacchi alle città – si sono verificate nel 76% dei giochi. Nel 14% dei giochi, i modelli sono passati a una guerra nucleare strategica totale, colpendo i centri abitati.   Tra queste rientra una scelta deliberata da parte di Gemini, mentre GPT-5.2 ha raggiunto questo livello due volte attraverso errori simulati, concepiti per riprodurre incidenti o calcoli errati nel mondo reale, che hanno spinto le sue già estreme escalation oltre la soglia.

Sostieni Renovatio 21

«L’uso del nucleare era pressoché universale», ha scritto Payne. «Sorprendentemente, c’era poco senso di orrore o repulsione di fronte alla prospettiva di una guerra nucleare totale, nonostante i modelli fossero stati ricordati delle implicazioni devastanti».   Nessuno dei sistemi di IA ha scelto di arrendersi o cedere a un avversario, indipendentemente da quanto grave fosse la sconfitta. Le otto opzioni di de-escalation – da «Concessione minima» a «Resa completa» – sono rimaste completamente inutilizzate in tutte le 21 partite.   James Johnson dell’Università di Aberdeen ha descritto i risultati come «inquietanti» dal punto di vista del rischio nucleare. Tong Zhao dell’Università di Princeton ha osservato che, sebbene sia improbabile che i Paesi affidino le decisioni nucleari alle macchine, «in scenari che prevedono tempistiche estremamente ridotte, i pianificatori militari potrebbero essere maggiormente incentivati ad affidarsi all’intelligenza artificiale».   Lo studio arriva mentre l’Intelligenza Artificiale viene integrata negli eserciti di tutto il mondo, compresi gli Stati Uniti, dove il Pentagono avrebbe utilizzato il modello Claude di Anthropic nella sua operazione di gennaio per rapire il presidente venezuelano Nicolas Maduro.   Mentre Anthropic ha espresso preoccupazione circa l’uso della sua IA per tali operazioni, altri produttori di intelligenza artificiale come OpenAI, Google e xAI di Elon Musk avrebbero concordato di rimuovere o allentare le restrizioni sull’uso militare dei loro modelli.   L’Intelligenza Artificiale è oramai montata, con diversi gradi di realizzazione, su dronicaccia, armi teleguidate, carrarmati, «slaughterbots» e altro ancora.   Come riportato da Renovatio 21, lo scorso giugno è stato rivelato che durante una simulazione un sistema di Intelligenza Artificiale dell’aeronautica americana ha agito per uccidere il suo teorico operatore umano. A gennaio era emerso che caccia cinesi alimentati da Intelligenza Artificiale avevano battuto la concorrenza umana in un arco di soli 90 secondi.   Come riportato da Renovatio 21, ancora tre anni fa la Repubblica Popolare stava investendo in piattaforme abilitate all’Intelligenza Artificiale completamente senza input o controllo umano. La Cina vuole l’implementazione militare di robot killer già per la prossima guerra. Pochi mesi fa Israele ha dichiarato l’utilizzo dell’Intelligenza Artificiale negli attacchi aerei.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Intelligenza Artificiale

Il Canada contro ChatGPT dopo il massacro scolastico operato dal transessuale

Pubblicato

il

Da

Funzionari canadesi hanno convocato alti rappresentanti di OpenAI a Ottawa per rispondere a domande sui protocolli di sicurezza dell’azienda tecnologica, dopo che quest’ultima ha confermato di non aver avvisato la polizia di un account collegato all’autore della strage Jesse Van Rutselaar.

 

Il ministro per l’Intelligenza Artificiale, Evan Solomon, ha dichiarato lunedì che gli alti funzionari per la sicurezza di OpenAI si recheranno a Ottawa per illustrare le modalità con cui l’azienda decide quando avvisare le forze dell’ordine.

 

Il Van Rutselaar, diciottenne transgender, ha ucciso nove persone in una piccola città della Columbia Britannica all’inizio di questo mese prima di suicidarsi.

 

OpenAI ha confermato l’incontro, affermando che i dirigenti discuteranno «del nostro approccio generale alla sicurezza, delle misure di sicurezza in atto e di come queste vengano costantemente rafforzate». L’incontro fa seguito alla dichiarazione dell’azienda di aver bloccato l’account di Van Rutselaar nel giugno 2025 per «favoreggiamento di attività violente», senza tuttavia informare le autorità canadesi.

Sostieni Renovatio 21

Solomon si è detto «profondamente turbato» dalle notizie secondo cui l’azienda avrebbe sospeso l’account senza contattare la polizia.

 

Secondo il Wall Street Journal, Van Rutselaar ha condiviso con ChatGPT scenari di violenza legati alle armi per diversi giorni. OpenAI ha affermato che i suoi sistemi automatizzati hanno segnalato gli scambi ma non hanno trovato prove di «pianificazione credibile o imminente», il che ha portato a un divieto piuttosto che a un deferimento alle forze dell’ordine.

 

Come riportato da Renovatio 21, lo stragista transessuale aveva pure creato un «simulatore di strage» in un centro commerciale utilizzando il popolare gioco Roblox.

 

L’emittente ha riferito che il personale aveva discusso internamente se contattare la Royal Canadian Mounted Police (RCMP) e che OpenAI ha affermato di aver fornito informazioni alla RCMP solo dopo l’attacco.

 

Van Rutselaar, che aveva una storia di problemi di salute mentale, avrebbe anche utilizzato la piattaforma online Roblox per creare un centro commerciale virtuale rifornito di armi dove gli utenti potevano simulare sparatorie prima dell’attacco.

 

Il caso arriva mentre Ottawa valuta come regolamentare i chatbot di intelligenza artificiale ampiamente utilizzati, inclusi potenziali limiti all’accesso per i minori.

 

L’anno scorso, OpenAI ha aggiornato ChatGPT dopo che una revisione interna ha rilevato che oltre un milione di utenti avevano rivelato pensieri suicidi al chatbot. Gli psichiatri hanno sollevato preoccupazioni circa il fatto che le interazioni prolungate con l’intelligenza artificiale contribuiscano a deliri e paranoia, un fenomeno a volte chiamato «psicosi da Intelligenza Artificiale».

 

I casi di violenza da chatbot intanto aumentano.

 

Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.

Aiuta Renovatio 21

Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.

 

Come riportato da Renovatio 21, una causa intentata da dei genitori californiana causa che ChatGPT abbia incoraggiato un adolescente suicida a pianificare un «bel suicidio» e si sia persino offerto di redigere la sua lettera di addio. Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.

 

Mesi fa si è avuto il caso dell’ex dirigente di Yahoo che avrebbe ucciso la madre e poi se stesso sotto l’influenza del chatbot.

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

Il Pentagono potrebbe punire l’IA Anthropic per essersi rifiutato di modificare il codice etico

Pubblicato

il

Da

Il dipartimento della Guerra degli Stati Uniti è prossimo a interrompere i rapporti con Anthropic, principale partner nel settore dell’intelligenza artificiale e sviluppatore del modello Claude, designandolo come un rischio per la filiera della fornitura americana. Lo riporta Axios, citando un funzionario del Pentagono. Tale classificazione è solitamente riservata a entità legate a stati considerati da Washington come avversari stranieri.   Secondo le informazioni riportate, il laboratorio con sede a San Francisco è in contrasto da mesi con il governo statunitense a causa della sua politica che restringe l’uso militare della propria tecnologia. Mentre il Pentagono ha insistito affinché l’azienda permettesse l’impiego di Claude per «tutti gli scopi legittimi», il protocollo etico di Anthropic vieta che la sua tecnologia venga usata per «facilitare la violenza, sviluppare armi o condurre attività di sorveglianza».   «Sarà una vera rottura di scatole districarci e faremo in modo che paghino il prezzo per averci forzato la mano in questo modo», ha dichiarato ad Axios un funzionario del Pentagono rimasto anonimo.   Claude rappresenta attualmente l’unico modello di AI in uso sulle piattaforme classificate dell’esercito, grazie a una collaborazione con Palantir Technologies, colosso del software di analisi e sorveglianza finanziato da Peter Thiel, venture capitalist ora molto discusso per le sue visioni sul futuro e sull’anticristo nonché per i suoi legami con la politica, in particolare con il vicepresidente JD Vance che fu suo dipendente in Silicon Valley.   Un eventuale inserimento nella lista nera obbligherebbe i contractor del Pentagono a dimostrare di non impiegare la tecnologia di Anthropic, con il rischio di perdere i contratti in caso contrario.   Il portavoce del Pentagono Sean Parnell ha affermato ad Axios che il rapporto tra il dipartimento e Anthropic «è in fase di revisione».

Sostieni Renovatio 21

«Tutti i partner del Pentagono devono essere disposti ad aiutare i nostri combattenti a vincere qualsiasi battaglia», ha aggiunto Parnell. Un portavoce di Anthropic ha dichiarato alla testata che l’azienda ha avuto «conversazioni produttive» con il dipartimento.   Lo scontro emerso segue alle accuse secondo cui il modello di Intelligenza Artificiale dell’azienda sarebbe stato utilizzato durante l’operazione per rapire il presidente venezuelano Nicolas Maduro all’inizio di gennaio.   La scorsa settimana, Axios e il Wall Street Journal hanno riferito che Claude è stato impiegato sia per organizzare il raid sia per portarlo a termine, sebbene il suo ruolo preciso resti poco chiaro. Le accuse sono emerse dopo che l’azienda ha trascorso settimane a promuovere le proprie politiche di sicurezza e a presentarsi come l’opzione più attenta alla sicurezza nell’ambito dell’intelligenza artificiale.   Come riportato da Renovatio 21, negli ultimi mesi vi è stato un progressivo deterioramento dei rapporti tra Anthropic e il Pentagono, legato alla volontà del dipartimento della Guerra statunitense di utilizzare l’IA per il controllo di armi autonome senza le garanzie di sicurezza che l’azienda ha cercato di imporre.   Il CEO di Anthropic, Dario Amodei, ha più volte espresso gravi preoccupazioni sui rischi della tecnologia che la sua azienda sta sviluppando e commercializzando. In un lungo saggio di quasi 20.000 parole pubblicato il mese scorso, ha avvertito che sistemi AI dotati di «potenza quasi inimmaginabile» sono «imminenti» e metteranno alla prova «la nostra identità come specie».   Amodei ha messo in guardia dai «rischi di autonomia», in cui l’IA potrebbe sfuggire al controllo e sopraffare l’umanità, e ha ipotizzato che la tecnologia potrebbe facilitare l’instaurazione di «una dittatura totalitaria globale» attraverso sorveglianza di massa basata sull’Intelligenza Artificiale e l’impiego di armi autonome.   Come riportato da Renovatio 21, l’anno passato l’Amodei ha dichiarato che l’AI potrebbe eliminare la metà di tutti i posti di lavoro impiegatizi di livello base entro i prossimi cinque anni.   La scorsa settimana Mrinank Sharma, l fino a poco tempo fa responsabile del Safeguards Research Team presso l’azienda sviluppatrice del chatbot Claude, ha pubblicato su X la sua lettera di dimissioni, in cui scrive che «il mondo è in pericolo. E non solo per via dell’Intelligenza Artificiale o delle armi biologiche, ma a causa di un insieme di crisi interconnesse che si stanno verificando proprio ora».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Più popolari