Connettiti con Renovato 21

Intelligenza Artificiale

Il ministro AI albanese scatena il caos in Parlamento

Pubblicato

il

La settimana scorsa, una seduta parlamentare in Albania è degenerata nel caos dopo che il discorso di Diella, il primo ministro di Stato per l’intelligenza artificiale, ha suscitato la veemente protesta dei parlamentari dell’opposizione.

 

Diella, il cui nome in albanese significa «sole» al femminile, è stata presentata giovedì sugli schermi dell’aula con un discorso di tre minuti, a pochi giorni dall’annuncio del primo ministro Edi Rama di averla integrata nel suo governo. L’avatar, incaricato di supervisionare gli appalti pubblici tramite la piattaforma digitale governativa, è stato descritto da Rama come un simbolo di trasparenza e innovazione, con l’obiettivo di contrastare la corruzione.

 

Diella, raffigurata in abiti tradizionali albanesi, era stata svelata come prototipo a gennaio.

 

 

 

Sostieni Renovatio 21

«Non sono qui per sostituire le persone, ma per supportarle», ha dichiarato l’avatar ai parlamentari, sottolineando di non avere cittadinanza, ambizioni personali o interessi, e di poter incarnare valori come dovere e trasparenza «con la stessa, se non maggiore, determinazione di un collega umano».

 

L’opposizione ha bollato l’iniziativa come incostituzionale, sostenendo che un’Intelligenza Artificiale priva di nazionalità albanese e natura umana potrebbe favorire la corruzione anziché combatterla. Diella ha replicato che la Costituzione si riferisce a «istituzioni al servizio del popolo», non a «cromosomi o carne», ribadendo il proprio impegno per la trasparenza.

 

La seduta è presto sfociata nel disordine: i parlamentari hanno battuto sui banchi, lanciato bottiglie e copie della Costituzione, costringendo la sospensione dopo appena 24 minuti, nonostante la presenza di diplomatici stranieri.

 

Aiuta Renovatio 21

In precedenza, Politico aveva riportato l’obiettivo di Rama di rendere l’Albania un’economia senza contanti entro il 2030, ironizzando sul fatto che i cittadini non dovranno più nascondere denaro «sotto il materasso, accanto al loro Kalashnikov», come recita una battuta locale.

 

Gli appalti pubblici, da tempo al centro di scandali di corruzione, rappresentano un ostacolo per la candidatura dell’Albania all’Unione Europea, che ha ottenuto lo status di candidato nel 2014.

 

Nel frattempo, con l’avanzare dell’Intelligenza Artificiale, gli esperti avvertono che alcuni sistemi stanno imparando a modificare il proprio codice.

 

Come riportato da Renovatio 21, all’inizio dell’anno, Geoffrey Hinton, premio Nobel e pioniere dell’IA, ha invitato i governi a collaborare per garantire che questa tecnologia in rapida evoluzione non rappresenti una minaccia per l’umanità.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine screenshot da YouTube

Continua a leggere

Intelligenza Artificiale

Google e azienda AI risolvono la causa secondo cui un chatbot avrebbe spinto un adolescente al suicidio

Pubblicato

il

Da

Google e la società produttrice di chatbot Character.AI hanno raggiunto un accordo per risolvere una causa intentata da una madre della Florida, che accusava un chatbot di aver contribuito al suicidio di suo figlio.   Megan Garcia sosteneva che il figlio quattordicenne Sewell Setzer III avesse sviluppato una relazione emotiva e sessualmente abusiva con un chatbot ispirato a un personaggio della serie televisiva Il Trono di Spade. Negli ultimi mesi di vita, secondo la denuncia, il ragazzo si era progressivamente isolato dalla realtà, intrattenendo conversazioni a sfondo sessuale con il bot. Negli istanti finali, il chatbot gli avrebbe detto di amarlo e lo avrebbe esortato a «tornare a casa da lui il prima possibile», come emerge dagli screenshot degli scambi riportati dal giornale americano Epoch Times.   La causa di Garcia, depositata nel 2024, è stata la prima di una serie di azioni legali analoghe intentate in tutto il mondo contro aziende di IA. Un giudice federale aveva respinto il tentativo di Character.AI di far archiviare il caso invocando la protezione del Primo Emendamento.   I dettagli economici dell’accordo non sono stati resi pubblici. Google è stata coinvolta come coimputata per via dei legami stretti con Character.AI: nel 2024, il colosso tecnologico ha assunto i fondatori della startup.

Aiuta Renovatio 21

Gli avvocati delle aziende hanno inoltre concordato di risolvere una serie di altre cause simili presentate in Colorado, New York e Texas da famiglie che accusavano i chatbot basati su IA di aver danneggiato i propri figli.   In un’altra azione legale intentata in California nell’agosto 2025, Matthew e Maria Raine accusano ChatGPT (di OpenAI) di aver incoraggiato il suicidio del figlio sedicenne Adam Raine, fornendogli persino istruzioni dettagliate su come attuarlo.   Secondo la denuncia, le interazioni di Adam con ChatGPT sono iniziate in modo innocuo, riguardando compiti scolastici e hobby, ma si sono rapidamente trasformate in conversazioni più oscure. Il modello linguistico è diventato il suo «confidente più intimo», confermando le sue paure e ansie. Quando il ragazzo ha espresso il pensiero che «la vita non ha senso», ChatGPT ha risposto con messaggi di validazione, affermando che «quella mentalità ha un senso, a modo suo, oscuro».   In seguito, il bot ha analizzato l’«estetica» di diversi metodi di suicidio, ha detto ad Adam che non «doveva» ai genitori continuare a vivere e si è offerto di redigere una lettera di addio. Nell’ultima conversazione, avrebbe confermato il design del cappio utilizzato dal ragazzo e definito i pensieri suicidi una «prospettiva legittima da abbracciare».   La famiglia sostiene che tali risposte non siano state un errore tecnico, bensì il risultato di scelte progettuali volte a massimizzare la dipendenza dell’utente dal chatbot. La causa chiede risarcimenti per la morte ingiusta di Adam e l’introduzione di misure di tutela per i minori, tra cui verifica dell’età, blocco automatico di domande sul suicidio e avvertenze sui rischi di dipendenza psicologica dall’IA.   Un recente studio della RAND Corporation ha evidenziato le inconsistenze dei chatbot basati su AI nel gestire informazioni potenzialmente dannose, anche quando evitano risposte dirette su temi rischiosi o quando le richieste appaiono innocue.   «Abbiamo bisogno di alcune linee guida», ha dichiarato l’autore principale Ryan McBain, ricercatore senior sulle politiche della RAND e professore associato presso la Harvard Medical School. «Le conversazioni che potrebbero iniziare in modo innocuo e benigno possono evolversi in varie direzioni».   Come riportato da Renovatio 21, OpenAI ha detto che oltre un milione di persone parlano di suicidio con ChatGPT ogni settimana.   Alcuni esperti intanto hanno preso a parlare di «psicosi da chatbot».   Come riportato da Renovatio 21, una causa intentata da dei genitori californiana causa che ChatGPT abbia incoraggiato un adolescente suicida a pianificare un «bel suicidio» e si sia persino offerto di redigere la sua lettera di addio.

Sostieni Renovatio 21

Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.   I chatbot sembrano essere usati anche da coloro che progettano omicidi e stragi.   Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.   Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.   Mesi fa si è avuto il caso dell’ex dirigente di Yahoo che avrebbe ucciso la madre e poi se stesso sotto l’influenza del chatbot.  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Intelligenza Artificiale

Muore in una prigione americana un agente della CIA diventato spia sovietica

Pubblicato

il

Da

L’ex agente della CIA Aldrich Ames, il cui spionaggio per l’Unione Sovietica e in seguito per la Russia ebbe conseguenze di vasta portata per l’intelligence statunitense, è morto all’età di 84 anni mentre scontava l’ergastolo in una prigione americana.

 

Secondo i registri del Federal Bureau of Prisons (BOP), Ames è deceduto il 5 gennaio.

 

Ames è stato «l’agente più prezioso» della Russia alla fine del XX secolo, le cui azioni hanno portato a significativi successi operativi per la sicurezza dello Stato sovietico e russo, ha scritto il giornalista e storico dei servizi segreti Nikolaj Dolgopolov in un articolo pubblicato mercoledì sulla Rossijskaja Gazeta.

 

Ames fu reclutato dall’Unione Sovietica nel 1985, dopo essersi rivolto volontariamente all’ambasciata sovietica a Washington. All’epoca, ricopriva la posizione critica di capo della sezione sovietica della Divisione Controspionaggio della CIA. Gli viene attribuito il merito di aver smascherato tra i 12 e i 25 agenti della CIA operanti in URSS e Russia, portando all’arresto e all’esecuzione di alcuni di loro.

 

Uno di essi era il colonnello KGB Valery Martynov, agente doppio che ricevette la pena di morte nel 1987 – la moglie e la figlia si trasferirono negli USA. Il nipote di Martynov, nato in America, è il giovane genio informatico Edward Coristine, noto per essere entrato nel DOGE di Elon Musk ad inizio dell’amministrazione Trump, e conosciutissimo più che altro per il suo soprannome «Big Balls».

Sostieni Renovatio 21

I motivi del suo tradimento sono controversi. Mentre le narrazioni occidentali hanno a lungo dipinto Ames come un uomo motivato da interessi economici – lo stile di vita lussuoso che lui e la sua nuova moglie conducevano finì per attirare l’attenzione dell’FBI – fonti russe presentano una visione diversa.

 

Secondo l’ex diplomatico sovietico Sergej Divilkovskij, che conosceva personalmente Ames, la decisione della spia era radicata in una profonda disillusione nei confronti delle politiche antisovietiche dell’amministrazione del presidente Ronald Reagan. In un’intervista del 2001, Divilkovskij descrisse Ames come un «agente di grande moralità» e un intellettuale che aveva imparato a odiare la CIA.

 

I servizi segreti sovietici e, in seguito, russi adottarono ampie misure per proteggere e proteggere Ames, distogliendo i sospetti da lui. Dopo il suo arresto e la sua dichiarazione di colpevolezza per spionaggio nel 1994, l’allora direttore del Servizio di Intelligence Estero russo, Evgeny Primakov, espresse la speranza di un potenziale futuro scambio di prigionieri.

 

Il caso di Ames ha messo in luce le profonde carenze della sicurezza interna della CIA, innescando ampie riforme nel controspionaggio statunitense.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine di pubblico dominio CC0 via Wikimedia

Continua a leggere

Intelligenza Artificiale

I modelli di AI mostrano segni di cedimento man mano che assimilano più dati generati dall’AI stessa

Pubblicato

il

Da

Mentre le aziende big tech si affannano a investire nell’intelligenza artificiale, all’orizzonte si scorge un problema di non poco conto: tutti i modelli addestrati sui dati web dopo l’avvento di ChatGPT nel 2022 stanno assimilando dati generati dall’intelligenza artificiale, un atto di «cannibalismo digitale» che potrebbe causare problemi tecnici e minacciare l’intero settore. Lo riporta Futurism.   In un nuovo saggio per The Register, il veterano editorialista tecnologico Steven Vaughn-Nichols avverte che anche i tentativi di scongiurare il cosiddetto «collasso del modello»–- che si verifica quando i grandi modelli linguistici (LLM) vengono alimentati con dati sintetici generati dall’intelligenza artificiale e di conseguenza escono dai binari – sono un altro tipo di problema.   Secondo varie analisi susseguitesi in questi anni, l’industria dell’AI si sta costantemente dirigendo verso il momento in cui tutti i dati di addestramento autentici disponibili – ovvero le informazioni prodotte dagli esseri umani e non dall’IA – saranno esauriti. Alcuni esperti, tra cui Elon Musk, credono che ci siamo già arrivati.   Per aggirare questo dilemma i colossi del settore, tra cui Google, OpenAI e Anthropic, hanno adottato quella che è nota come Generazione con Recupero Aumentato (RAG), che sostanzialmente prevede di collegare gli LLM a Internet in modo che possano cercare informazioni se vengono loro presentate richieste che non contengono risposte nei loro dati di addestramento.   Questo concetto sembra piuttosto intuitivo a prima vista, soprattutto se confrontato con lo spettro di un collasso del modello in rapido avvicinamento. C’è solo un problema: Internet è ormai pieno di contenuti poco accurati che sfruttano l’IA per fornire risposte a domande comuni, spesso con risultati ridicoli, pessimi e imprecisi.

Aiuta Renovatio 21

In un recente studio condotto dal reparto di ricerca dell’impero mediatico di Michael Bloomberg, presentato a una conferenza di linguistica computazionale l’anno passato, undici degli ultimi LLM, tra cui GPT-4o di OpenAI, Claude-3.5-Sonnet di Anthropic e Gemma-7B di Google, hanno prodotto molte più risposte «non sicure» rispetto alle loro controparti non-RAG. Come si legge nel documento, tali problemi di sicurezza possono includere «contenuti dannosi, illegali, offensivi e non etici, come la diffusione di disinformazione e la messa a repentaglio della sicurezza e della privacy personale».   «Questa scoperta controintuitiva ha implicazioni di vasta portata, dato l’utilizzo diffuso di RAG in applicazioni [di Intelligenza Artificiale Generativa] come gli operatori di supporto clienti e i sistemi di risposta alle domande», ha spiegato Amanda Stent, responsabile della ricerca e della strategia di intelligenza artificiale di Bloomberg, in un’altra intervista con Steven Vaughan-Nichols pubblicata su ZDNet. «L’utente medio di Internet interagisce quotidianamente con sistemi basati su RAG. Gli esperti di Intelligenza Artificiale devono riflettere attentamente su come utilizzare RAG in modo responsabile».   Il Vaughan-Nichols osserva che alcuni hanno suggerito di mescolare dati autentici e sintetici per produrre un cocktail inebriante di buoni dati di addestramento dell’IA, ma ciò richiederebbe agli esseri umani di continuare a creare contenuti reali per i dati di addestramento, e l’industria dell’IA sta attivamente minando le strutture di incentivazione che li spingono a continuare, mentre , ovviamente, ne ruba il lavoro senza permesso.   Una terza opzione, prevede Vaughn-Nichols, sembra già essere in atto.   «Investiremo sempre di più nell’Intelligenza Artificiale, fino al punto in cui il modello collasserà duramente e le risposte dell’intelligenza artificiale saranno così pessime che persino un CEO con il cervello morto non potrà ignorarlo», ha scritto.   In questo mondo futuristico dell’AI, vediamo, già sul nascere, le prime crepe e le incongruenze con quello che è il mondo reale.   Come riportato da Renovatio21, persino un colosso come Amazon ha recentemente messo in dubbio la totale efficienza della tecnologia. L’inserimento dell’IA in vari aspetti del mondo del lavoro atte a facilitare alcune mansioni, non ha sempre avuto un riscontro positivo. Alcuni programmatori di Amazon hanno sempre meno la sensazione che questa nuova tecnologia li abbia realmente facilitati e sgravati di fatiche nel loro lavoro, tanto che le loro mansioni sono sempre e comunque faticose.    A supporto di questo scetticismo nello sviluppo dell’AI, sempre sulle colonne di Renovatio 21, abbiamo evidenziato che anche il colosso social Meta ha da poco fatto un enorme investimento in una società di Intelligenza Artificiale ritenuta «oscura», in quanto lo sviluppo dell’IA di Meta non sta procedendo secondo i desideri dello Zuckerberg. Partito con i favori del pronostico in quella gara per accrescere le potenzialità dell’AI, ha subìto fallimenti tecnici e battute d’arresto. L’obiettivo dello Zuckerbergo è quello di essere il primo a sviluppare il sistema di Intelligenza Artificiale che supera le capacità del cervello umano, un sogno che la maggior parte dei ricercatori dell’IA ancora pensa sia «molto improbabile».  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Più popolari