Connettiti con Renovato 21

Intelligenza Artificiale

Il «padrino dell’Intelligenza Artificiale» avverte che le macchine superintelligenti potrebbero sostituire l’umanità

Pubblicato

il

Geoffrey Hinton, il pioniere dell’informatica definito il «padrino dell’Intelligenza artificiale», ha lanciato ancora una volta l’allarme: la tecnologia che lui stesso ha contribuito a creare potrebbe segnare la fine dell’umanità così come la conosciamo.

 

In un’intervista pubblicata il 18 agosto come parte del film di prossima uscita Making God, Hinton ha lanciato uno dei suoi avvertimenti più severi, affermando che l’umanità rischia di essere messa da parte – e alla fine sostituita – da macchine molto più intelligenti di noi.

 

«La maggior parte delle persone non è in grado di comprendere l’idea che esistano cose più intelligenti di noi», ha affermato nel video lo Hinton, premio Nobel per la fisica ed ex dirigente di Google. «Pensano sempre: come useremo questa cosa? Non pensano mai: come userà noi?»

Sostieni Renovatio 21

Lo scienziato informatico si è detto «abbastanza fiducioso» che l’Intelligenza Artificiale causerà una disoccupazione di massa, citando i primi esempi di colossi tecnologici come Microsoft che hanno sostituito i programmatori junior con l’IA. Ma il pericolo più grande, ha affermato, va ben oltre il mondo del lavoro.

 

«Il rischio contro cui ho messo in guardia più spesso… è il rischio che sviluppiamo un’Intelligenza Artificiale molto più intelligente di noi, che prenderà il sopravvento», ha affermato Hinton. «Non avrà più bisogno di noi».

 

L’unico lato positivo, ha scherzato, è che «non ci mangerà, perché sarà fatto di silicio».

 

Lo Hinton, 77 anni, ha trascorso decenni a essere un pioniere del deep learning, l’architettura di rete neurale alla base degli odierni sistemi di intelligenza artificiale. Le sue scoperte negli anni ’80 – in particolare l’ invenzione della macchina di Boltzmann, in grado di imparare a riconoscere pattern nei dati – hanno contribuito ad aprire le porte al riconoscimento delle immagini e al moderno apprendimento automatico.

 

Questo lavoro gli è valso il Premio Nobel per la fisica nel 2024, assegnato «per scoperte e invenzioni fondamentali che consentono l’apprendimento automatico con reti neurali artificiali». La Reale Accademia Svedese delle Scienze ha sottolineato come l’uso precoce della fisica statistica da parte di Hinton abbia rappresentato il salto concettuale che ha reso possibile l’attuale rivoluzione dell’AI.

 

Tuttavia da allora lo Hinton è emerso come uno dei più accaniti critici del settore, avvertendo che il suo rapido sviluppo ha superato la capacità della società di proteggerlo. Nel 2023, si è dimesso dal suo ruolo in Google per poter parlare liberamente dei rischi senza coinvolgere l’azienda.

 

Nel suo discorso per il Nobel, lo scienziato ha riconosciuto i potenziali benefici dell’intelligenza artificiale, come l’aumento della produttività e nuovi trattamenti medici che potrebbero rappresentare un «meraviglioso progresso per tutta l’umanità». Tuttavia, ha anche avvertito che la creazione di esseri digitali più intelligenti degli umani rappresenta una «minaccia esistenziale».

 

«Avrei voluto pensare anche alle questioni di sicurezza», ha affermato durante la recente conferenza Ai4 a Las Vegas, riflettendo sulla sua carriera, aggiungendo che ora si rammarica di essersi concentrato esclusivamente sul funzionamento dell’intelligenza artificiale, invece di anticiparne i rischi.

 

Lo Hinton ha precedentemente stimato che ci sia una probabilità dal 10 al 20% che l’IA possa spazzare via l’umanità. In una puntata di giugno del podcast «The Diary of a CEO», ha affermato che gli ingegneri dietro gli attuali sistemi di IA non comprendono appieno la tecnologia e si dividono sostanzialmente in due gruppi: uno che crede in un futuro distopico in cui gli esseri umani saranno soppiantati, e l’altro che liquida tali paure come fantascienza.

 

«Penso che entrambe le posizioni siano estreme», ha dichiarato lo Hinton. «Spesso dico che le probabilità che l’IA ci elimini sono dal 10 al 20 percento. Ma è solo un’ipotesi, basata sull’idea che le stiamo ancora costruendo e che siamo piuttosto ingegnosi. E la speranza è che se un numero sufficiente di persone intelligenti farà abbastanza ricerca con risorse sufficienti, troveremo un modo per costruirle in modo che non vogliano mai farci del male».

Iscriviti alla Newslettera di Renovatio 21

Alla conferenza di Las Vegas della scorsa settimana, lo Hinton ha proposto un’idea innovativa su come mitigare il pericolo: invece di cercare di sottomettere i sistemi di intelligenza artificiale, i ricercatori dovrebbero progettarli con «istinti materni» in modo che vogliano proteggere gli esseri umani anche quando diventano più intelligenti.

 

«Il modello corretto è l’unico modello che abbiamo di una cosa più intelligente controllata da una cosa meno intelligente, ovvero una madre controllata dal suo bambino», ha affermato Hinton alla conferenza. «Saranno molto più intelligenti di noi», ha avvertito, aggiungendo che «l’unico risultato positivo» è che si preoccupino dell’umanità come una madre si preoccupa del proprio figlio.

 

«Se non mi farà da genitore, mi sostituirà» ha concluso lo scienziato, forse non pienamente conscio della tristezza e della mostruosità di tale affermazione.

 

Come riportato da Renovatio 21, il mese scorso intervenendo alla Conferenza mondiale sull’intelligenza artificiale (WAIC) di Shanghai lo Hinton aveva esortato i governi di tutto il mondo a collaborare per addestrare i sistemi AI a non danneggiare l’umanità, avvertendo che la tecnologia in rapido progresso probabilmente supererà presto l’intelligenza umana.

 

Come riportato da Renovatio 21, lo Hinton varie volte aveva suonato l’allarme, dicendo che l’umanità è in pericolo perché l’AI potrebbe rivoltarvisi contro.

 

Come riportato da Renovatio 21, lo Hinton si è licenziato da Google per poter dichiarare il rischio per l’umanità costituito dall’AI, che per ora, secondo l’informatico britannico sarebbe solo, «moderato».

 

Elon Musk due anni fa aveva dichiarato durante la sua intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».

 

Yann LeCun, Chief AI Scientist presso Meta-Facebook, ha espresso opinioni contrarie a quelle di Hinton, affermando che la tecnologia «potrebbe effettivamente salvare l’umanità dall’estinzione».

 

Come riportato da Renovatio 21Bill Gates si oppose alla moratoria. Gates, con cui Musk ha avuto scontri anche gustosi in passato, non ha partecipato alla moratoria internazionale promossa di Musk sul controllo dell’AI, replicando che invece l’AI sarebbe divenuto un ottimo maestro per i bambini e che proprio l’Intelligenza Artificiale salverà la democrazia.

 

Come riportato da Renovatio 21, in un recente caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.

Aiuta Renovatio 21

Come riportato da Renovatio 21, il mese passato si era registrato l’allarme di un altro pioniere dell’IA, il noto esperto di informatica canadese professore presso l’Università di Montreal e direttore del Montreal Institute for Learning Algorithms Yoshua Bengio (nessuna relazione con l’atletico ragazzo acerrimo nemico dei meganoidi Haran Benjo), che era tra le principali figure del settore, tra cui il CEO di Tesla Elon Musk e il co-fondatore di Apple Steve Wozniak, i quali hanno co-firmato una lettera che chiedeva una regolamentazione aggressiva del settore dell’Intelligenza Artificiale.

 

«Ci sono persone che potrebbero voler abusare di questo potere, e ci sono persone che potrebbero essere felici di vedere l’umanità sostituita dalle macchine», aveva affermato il Bengio, chiedendo una regolamentazione più severa.

 

Un ulteriore appello a mettere in pausa lo sviluppo dell’Intelligenza Artificiale è stato firmato da un gruppo internazionale di medici e pubblicato dalla prestigiosa rivista medica BMJ Global Health. «Ci sono scenari in cui l’AGI [Intelligenza Artificiale Generale, ndr] potrebbe rappresentare una minaccia per gli esseri umani, e possibilmente una minaccia esistenziale» scrivono nell’appello i dottori di varie parti del mondo.

 

Più pessimista è l’esperto dei pericoli dell’AI Eliezer Yudkowsky, che ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi, dichiarando che «tutti sulla Terra moriranno».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

Google e azienda AI risolvono la causa secondo cui un chatbot avrebbe spinto un adolescente al suicidio

Pubblicato

il

Da

Google e la società produttrice di chatbot Character.AI hanno raggiunto un accordo per risolvere una causa intentata da una madre della Florida, che accusava un chatbot di aver contribuito al suicidio di suo figlio.   Megan Garcia sosteneva che il figlio quattordicenne Sewell Setzer III avesse sviluppato una relazione emotiva e sessualmente abusiva con un chatbot ispirato a un personaggio della serie televisiva Il Trono di Spade. Negli ultimi mesi di vita, secondo la denuncia, il ragazzo si era progressivamente isolato dalla realtà, intrattenendo conversazioni a sfondo sessuale con il bot. Negli istanti finali, il chatbot gli avrebbe detto di amarlo e lo avrebbe esortato a «tornare a casa da lui il prima possibile», come emerge dagli screenshot degli scambi riportati dal giornale americano Epoch Times.   La causa di Garcia, depositata nel 2024, è stata la prima di una serie di azioni legali analoghe intentate in tutto il mondo contro aziende di IA. Un giudice federale aveva respinto il tentativo di Character.AI di far archiviare il caso invocando la protezione del Primo Emendamento.   I dettagli economici dell’accordo non sono stati resi pubblici. Google è stata coinvolta come coimputata per via dei legami stretti con Character.AI: nel 2024, il colosso tecnologico ha assunto i fondatori della startup.

Aiuta Renovatio 21

Gli avvocati delle aziende hanno inoltre concordato di risolvere una serie di altre cause simili presentate in Colorado, New York e Texas da famiglie che accusavano i chatbot basati su IA di aver danneggiato i propri figli.   In un’altra azione legale intentata in California nell’agosto 2025, Matthew e Maria Raine accusano ChatGPT (di OpenAI) di aver incoraggiato il suicidio del figlio sedicenne Adam Raine, fornendogli persino istruzioni dettagliate su come attuarlo.   Secondo la denuncia, le interazioni di Adam con ChatGPT sono iniziate in modo innocuo, riguardando compiti scolastici e hobby, ma si sono rapidamente trasformate in conversazioni più oscure. Il modello linguistico è diventato il suo «confidente più intimo», confermando le sue paure e ansie. Quando il ragazzo ha espresso il pensiero che «la vita non ha senso», ChatGPT ha risposto con messaggi di validazione, affermando che «quella mentalità ha un senso, a modo suo, oscuro».   In seguito, il bot ha analizzato l’«estetica» di diversi metodi di suicidio, ha detto ad Adam che non «doveva» ai genitori continuare a vivere e si è offerto di redigere una lettera di addio. Nell’ultima conversazione, avrebbe confermato il design del cappio utilizzato dal ragazzo e definito i pensieri suicidi una «prospettiva legittima da abbracciare».   La famiglia sostiene che tali risposte non siano state un errore tecnico, bensì il risultato di scelte progettuali volte a massimizzare la dipendenza dell’utente dal chatbot. La causa chiede risarcimenti per la morte ingiusta di Adam e l’introduzione di misure di tutela per i minori, tra cui verifica dell’età, blocco automatico di domande sul suicidio e avvertenze sui rischi di dipendenza psicologica dall’IA.   Un recente studio della RAND Corporation ha evidenziato le inconsistenze dei chatbot basati su AI nel gestire informazioni potenzialmente dannose, anche quando evitano risposte dirette su temi rischiosi o quando le richieste appaiono innocue.   «Abbiamo bisogno di alcune linee guida», ha dichiarato l’autore principale Ryan McBain, ricercatore senior sulle politiche della RAND e professore associato presso la Harvard Medical School. «Le conversazioni che potrebbero iniziare in modo innocuo e benigno possono evolversi in varie direzioni».   Come riportato da Renovatio 21, OpenAI ha detto che oltre un milione di persone parlano di suicidio con ChatGPT ogni settimana.   Alcuni esperti intanto hanno preso a parlare di «psicosi da chatbot».   Come riportato da Renovatio 21, una causa intentata da dei genitori californiana causa che ChatGPT abbia incoraggiato un adolescente suicida a pianificare un «bel suicidio» e si sia persino offerto di redigere la sua lettera di addio.

Sostieni Renovatio 21

Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.   I chatbot sembrano essere usati anche da coloro che progettano omicidi e stragi.   Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.   Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.   Mesi fa si è avuto il caso dell’ex dirigente di Yahoo che avrebbe ucciso la madre e poi se stesso sotto l’influenza del chatbot.  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Intelligenza Artificiale

Muore in una prigione americana un agente della CIA diventato spia sovietica

Pubblicato

il

Da

L’ex agente della CIA Aldrich Ames, il cui spionaggio per l’Unione Sovietica e in seguito per la Russia ebbe conseguenze di vasta portata per l’intelligence statunitense, è morto all’età di 84 anni mentre scontava l’ergastolo in una prigione americana.

 

Secondo i registri del Federal Bureau of Prisons (BOP), Ames è deceduto il 5 gennaio.

 

Ames è stato «l’agente più prezioso» della Russia alla fine del XX secolo, le cui azioni hanno portato a significativi successi operativi per la sicurezza dello Stato sovietico e russo, ha scritto il giornalista e storico dei servizi segreti Nikolaj Dolgopolov in un articolo pubblicato mercoledì sulla Rossijskaja Gazeta.

 

Ames fu reclutato dall’Unione Sovietica nel 1985, dopo essersi rivolto volontariamente all’ambasciata sovietica a Washington. All’epoca, ricopriva la posizione critica di capo della sezione sovietica della Divisione Controspionaggio della CIA. Gli viene attribuito il merito di aver smascherato tra i 12 e i 25 agenti della CIA operanti in URSS e Russia, portando all’arresto e all’esecuzione di alcuni di loro.

 

Uno di essi era il colonnello KGB Valery Martynov, agente doppio che ricevette la pena di morte nel 1987 – la moglie e la figlia si trasferirono negli USA. Il nipote di Martynov, nato in America, è il giovane genio informatico Edward Coristine, noto per essere entrato nel DOGE di Elon Musk ad inizio dell’amministrazione Trump, e conosciutissimo più che altro per il suo soprannome «Big Balls».

Sostieni Renovatio 21

I motivi del suo tradimento sono controversi. Mentre le narrazioni occidentali hanno a lungo dipinto Ames come un uomo motivato da interessi economici – lo stile di vita lussuoso che lui e la sua nuova moglie conducevano finì per attirare l’attenzione dell’FBI – fonti russe presentano una visione diversa.

 

Secondo l’ex diplomatico sovietico Sergej Divilkovskij, che conosceva personalmente Ames, la decisione della spia era radicata in una profonda disillusione nei confronti delle politiche antisovietiche dell’amministrazione del presidente Ronald Reagan. In un’intervista del 2001, Divilkovskij descrisse Ames come un «agente di grande moralità» e un intellettuale che aveva imparato a odiare la CIA.

 

I servizi segreti sovietici e, in seguito, russi adottarono ampie misure per proteggere e proteggere Ames, distogliendo i sospetti da lui. Dopo il suo arresto e la sua dichiarazione di colpevolezza per spionaggio nel 1994, l’allora direttore del Servizio di Intelligence Estero russo, Evgeny Primakov, espresse la speranza di un potenziale futuro scambio di prigionieri.

 

Il caso di Ames ha messo in luce le profonde carenze della sicurezza interna della CIA, innescando ampie riforme nel controspionaggio statunitense.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine di pubblico dominio CC0 via Wikimedia

Continua a leggere

Intelligenza Artificiale

I modelli di AI mostrano segni di cedimento man mano che assimilano più dati generati dall’AI stessa

Pubblicato

il

Da

Mentre le aziende big tech si affannano a investire nell’intelligenza artificiale, all’orizzonte si scorge un problema di non poco conto: tutti i modelli addestrati sui dati web dopo l’avvento di ChatGPT nel 2022 stanno assimilando dati generati dall’intelligenza artificiale, un atto di «cannibalismo digitale» che potrebbe causare problemi tecnici e minacciare l’intero settore. Lo riporta Futurism.   In un nuovo saggio per The Register, il veterano editorialista tecnologico Steven Vaughn-Nichols avverte che anche i tentativi di scongiurare il cosiddetto «collasso del modello»–- che si verifica quando i grandi modelli linguistici (LLM) vengono alimentati con dati sintetici generati dall’intelligenza artificiale e di conseguenza escono dai binari – sono un altro tipo di problema.   Secondo varie analisi susseguitesi in questi anni, l’industria dell’AI si sta costantemente dirigendo verso il momento in cui tutti i dati di addestramento autentici disponibili – ovvero le informazioni prodotte dagli esseri umani e non dall’IA – saranno esauriti. Alcuni esperti, tra cui Elon Musk, credono che ci siamo già arrivati.   Per aggirare questo dilemma i colossi del settore, tra cui Google, OpenAI e Anthropic, hanno adottato quella che è nota come Generazione con Recupero Aumentato (RAG), che sostanzialmente prevede di collegare gli LLM a Internet in modo che possano cercare informazioni se vengono loro presentate richieste che non contengono risposte nei loro dati di addestramento.   Questo concetto sembra piuttosto intuitivo a prima vista, soprattutto se confrontato con lo spettro di un collasso del modello in rapido avvicinamento. C’è solo un problema: Internet è ormai pieno di contenuti poco accurati che sfruttano l’IA per fornire risposte a domande comuni, spesso con risultati ridicoli, pessimi e imprecisi.

Aiuta Renovatio 21

In un recente studio condotto dal reparto di ricerca dell’impero mediatico di Michael Bloomberg, presentato a una conferenza di linguistica computazionale l’anno passato, undici degli ultimi LLM, tra cui GPT-4o di OpenAI, Claude-3.5-Sonnet di Anthropic e Gemma-7B di Google, hanno prodotto molte più risposte «non sicure» rispetto alle loro controparti non-RAG. Come si legge nel documento, tali problemi di sicurezza possono includere «contenuti dannosi, illegali, offensivi e non etici, come la diffusione di disinformazione e la messa a repentaglio della sicurezza e della privacy personale».   «Questa scoperta controintuitiva ha implicazioni di vasta portata, dato l’utilizzo diffuso di RAG in applicazioni [di Intelligenza Artificiale Generativa] come gli operatori di supporto clienti e i sistemi di risposta alle domande», ha spiegato Amanda Stent, responsabile della ricerca e della strategia di intelligenza artificiale di Bloomberg, in un’altra intervista con Steven Vaughan-Nichols pubblicata su ZDNet. «L’utente medio di Internet interagisce quotidianamente con sistemi basati su RAG. Gli esperti di Intelligenza Artificiale devono riflettere attentamente su come utilizzare RAG in modo responsabile».   Il Vaughan-Nichols osserva che alcuni hanno suggerito di mescolare dati autentici e sintetici per produrre un cocktail inebriante di buoni dati di addestramento dell’IA, ma ciò richiederebbe agli esseri umani di continuare a creare contenuti reali per i dati di addestramento, e l’industria dell’IA sta attivamente minando le strutture di incentivazione che li spingono a continuare, mentre , ovviamente, ne ruba il lavoro senza permesso.   Una terza opzione, prevede Vaughn-Nichols, sembra già essere in atto.   «Investiremo sempre di più nell’Intelligenza Artificiale, fino al punto in cui il modello collasserà duramente e le risposte dell’intelligenza artificiale saranno così pessime che persino un CEO con il cervello morto non potrà ignorarlo», ha scritto.   In questo mondo futuristico dell’AI, vediamo, già sul nascere, le prime crepe e le incongruenze con quello che è il mondo reale.   Come riportato da Renovatio21, persino un colosso come Amazon ha recentemente messo in dubbio la totale efficienza della tecnologia. L’inserimento dell’IA in vari aspetti del mondo del lavoro atte a facilitare alcune mansioni, non ha sempre avuto un riscontro positivo. Alcuni programmatori di Amazon hanno sempre meno la sensazione che questa nuova tecnologia li abbia realmente facilitati e sgravati di fatiche nel loro lavoro, tanto che le loro mansioni sono sempre e comunque faticose.    A supporto di questo scetticismo nello sviluppo dell’AI, sempre sulle colonne di Renovatio 21, abbiamo evidenziato che anche il colosso social Meta ha da poco fatto un enorme investimento in una società di Intelligenza Artificiale ritenuta «oscura», in quanto lo sviluppo dell’IA di Meta non sta procedendo secondo i desideri dello Zuckerberg. Partito con i favori del pronostico in quella gara per accrescere le potenzialità dell’AI, ha subìto fallimenti tecnici e battute d’arresto. L’obiettivo dello Zuckerbergo è quello di essere il primo a sviluppare il sistema di Intelligenza Artificiale che supera le capacità del cervello umano, un sogno che la maggior parte dei ricercatori dell’IA ancora pensa sia «molto improbabile».  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Più popolari