Connettiti con Renovato 21

Intelligenza Artificiale

L’AI «probabilmente» annienterà l’umanità: parlano gli scienziati di Oxford e Google

Pubblicato

il

I ricercatori di Google Deepmind e dell’Università di Oxford hanno concluso che esistono delle probabilità che una Intelligenza Artificiale (AI) superintelligente segnerà la fine dell’umanità; uno scenario decisamente inquietante che sempre più persone esperte cominciano ad ipotizzare.

 

In un recente articolo pubblicato sulla rivista AI Magazine, il team composto dallo scienziato senior di DeepMind, Marcus Hutter, e dai ricercatori di Oxford, Michael Cohen e Michael Osborne, sostengono che le macchine alla fine saranno incentivate a infrangere le regole impostate dai loro creatori per competere nella ricerca di risorse ed energia.

 

«Nelle condizioni che abbiamo identificato, la nostra conclusione è molto più forte di quella di qualsiasi pubblicazione precedente: una catastrofe esistenziale non è solo possibile, ma probabile», ha twittato all’inizio di questo mese Cohen, studente di ingegneria dell’Università di Oxford e coautore dell’articolo. 

 

 


 

Nel documento i ricercatori sostengono che l’umanità potrebbe affrontare il suo destino sotto forma di «agenti disallineati» super avanzati che percepiscono l’umanità come un ostacolo ai loro progetti e sviluppi.

 

«Un buon modo per un agente di mantenere il controllo a lungo termine della sua ricompensa è eliminare potenziali minacce e utilizzare tutta l’energia disponibile per proteggere il proprio computer», si legge nel documento. «Perdere questo gioco sarebbe fatale».

 

I ricercatori sostengono che non c’è molto che possano fare al riguardo. «In un mondo con risorse infinite, sarei estremamente incerto su cosa potrebbe succedere», ha detto il Cohen in un’intervista a Motherboard. «In un mondo con risorse limitate, c’è una competizione inevitabile per queste risorse».

 

«E se sei in una competizione con qualcosa in grado di ingannarti ad ogni turno, allora non dovresti aspettarti di vincere», ha aggiunto.

 

In risposta a questa ipotetica minaccia, l’umanità dovrebbe far progredire lentamente e con attenzione le sue tecnologie di Intelligenza Artificiale. Se queste ipotesi fossero veritiere, «un agente artificiale sufficientemente avanzato potrebbe intervenire nella fornitura di informazioni sugli obiettivi, con conseguenze catastrofiche», avverte il documento.

 

Inoltre il ricercatore a capo di OpenAI ha recentemente dichiarato che l’Intelligenza Artificiale potrebbe già essere stata in grado di prendere coscienza. Ilya Sutskever, scienziato capo del gruppo di ricerca OpenAI – una organizzazione ora divenuta a scopo di lucro inizialmente dedicata allo sviluppo di una IA «benevola» che possa giovare all’umanità invece che distruggerla – aveva twittato che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».

 

Un altro progetto chiamato DALL-E2, un sistema di Intelligenza Artificiale testo-immagine realizzato da Open AI,  parrebbe aver creato un proprio linguaggio scritto. È ciò che sostiene Giannis Daras, uno studente di dottorato in informatica presso l’Università del Texas ad Austin.

 

DALL-E2 ha fatto un salto evolutivo all’inizio di quest’anno con la sua straordinaria capacità di trasformare i messaggi di testo in immagini fotorealistiche con tanto di stile artistico e ora sembra che possa essere ancora più potente e inquietante di quanto si potesse immaginare, in quanto pare sia in grado di generare un proprio codice segreto.

 

Previsioni altrettanto sinistre vengono da Mo Gawdat, ex Chief Business Officer per l’organizzazione sperimentale di Google, in una intervista rilasciata al giornale britannico The Times.

 

L’uomo della Silicon Valley ha dichiarato che crede che la cosiddetta Intelligenza Artificiale generale (AGI), il tipo di AI onnipotente e senziente vista nella fantascienza  sia inevitabile e che una volta che sarà qui, l’umanità potrebbe benissimo ritrovarsi in un’apocalisse provocata da macchine simili a delle divinità.

 

Si tratta, in pratica, dello scenario «Skynet» – l’Intelligenza Artificiale che nella storia di Terminator assume il controllo della Terra reputando l’uomo come minaccia.

 

Il Gawdat ha detto al Times di aver avuto la sua spaventosa rivelazione mentre lavorava con gli sviluppatori di intelligenza artificiale di Google X che stavano costruendo bracci robotici in grado di trovare e raccogliere una pallina.

 

Dopo un periodo di lenti progressi, Gawdat ha detto che un braccio ha afferrato la palla e sembrava tenerla sollevata verso i ricercatori in un gesto che, a lui, sembrava un gesto di esibizione.

 

Come riportato da Renovatio 21, sono vari le voci che si stanno levando per neutralizzare la minaccia di una Intelligenza Artificiale assassina. Secondo alcuni osservatori, le armi autonome potrebbero essere più destabilizzanti di quelle nucleari.

 

L’Intelligenza Artificiale è oramai montata, con diversi gradi di realizzazione, su droni, caccia, armi teleguidate, carrarmati, «slaughterbots» e altro ancora.

 

Una moratoria ONU sui robot killer non ha trovato al momento l’accordo dei vari Paesi.

 

Nel frattempo, su questo sito testimoniamo spesso di come robot e AI stanno di fatto sostituendo i dipendenti umani perfino nei fast food.

 

Come riportato dall’Harvard Business Review, uno studio del 2019 stimava che il 10% dei posti di lavoro negli Stati Uniti sarebbe stato automatizzato quest’anno. Un altro studio del colosso internazionale della consulenza McKinsey stimava che quasi la metà di tutti i posti di lavoro negli Stati Uniti potrebbe essere automatizzato nel prossimo decennio.

 

 

Continua a leggere

Intelligenza Artificiale

Il CEO di Anthropic avverte: l’IA distruggerà un’enorme percentuale di posti di lavoro ben pagati

Pubblicato

il

Da

L’Intelligenza Artificiale potrebbe spazzare via la metà di tutti i posti di lavoro impiegatizi di livello base, almeno stando alle previsioni del cofondatore di Anthropic, Dario Amodei.

 

Parlando con Axios, Amodei ha affermato che il tipo di Intelligenza Artificiale che la sua azienda sta sviluppando avrà la capacità di scatenare «possibilità inimmaginabili» nel mondo, sia positive che negative.

 

Amodei prevede che la crisi del lavoro si svilupperà in quattro fasi. In primo luogo, aziende come OpenAI, Google e Anthropic lavoreranno per sviluppare modelli linguistici di grandi dimensioni (LLM) in grado di «raggiungere e superare le prestazioni umane con un numero sempre maggiore di compiti».

 

Mentre ciò accade, il governo non farà nulla per «regolamentare l’IA» o avvertire l’opinione pubblica del suo potenziale. Il lavoratore medio, «ignaro del crescente potere dell’IA e della sua minaccia per il posto di lavoro», non ha idea di cosa stia succedendo.

 

D’improvviso, «quasi da un giorno all’altro», le aziende cambiano idea e sostituiscono in massa gli esseri umani con gli LLM. «Il pubblico se ne accorge solo quando è troppo tardi», ha dichiarato Amodei ad Axios.

 

Per ribadire il suo punto di vista, l’amministratore delegato ha avanzato alcune ipotesi sconcertanti, come un mondo in cui «il cancro è curato, l’economia cresce del 10% all’anno, il bilancio è in pareggio e il 20% delle persone non ha un lavoro».

 

«Noi, in quanto produttori di questa tecnologia, abbiamo il dovere e l’obbligo di essere onesti su ciò che ci aspetta. Non credo che la gente se ne renda conto», ha sbottato Amodei.

 

Vale la pena chiedersi perché – se il magnate della tecnologia crede davvero in ciò che dice – non abbandoni del tutto Anthropic e non dedichi tempo e risorse a combattere quella che definisce una terrificante minaccia per l’economia. Invece di sostenere che i benefici di un LLM rivoluzionario superano i rischi, Amodei afferma che i critici dovrebbero considerare «cosa succederebbe se avesse ragione».

 

Tuttavia andando un po’ più a fondo rispetto all’entusiasmo per l’intelligenza artificiale di Anthropic, è difficile immaginare un mondo in cui la visione del magnate dia i suoi frutti. Appare evidente che secondo i loro stessi parametri di riferimento, le aziende stanno teoricamente sviluppando modelli LLM «migliori» con il passare del tempo. Ma questi modelli più recenti sono anche sempre più inclini ad errori, scrive Futurism.

 

Mentre Amodei, che ha un interesse finanziario e politico nel vendere la narrativa di un futuro di AI onnipotente, potrebbe pensare che gli LLM a livello umano siano dietro l’angolo, la maggior parte dei ricercatori informatici più seri non è d’accordo. Semmai, sono i pezzi grossi dell’industria tecnologica come Amodei – non la Cina o il lavoratore comune – a spingere i regolatori all’inazione, proponendo scenari da incubo come questo. Convinti del pericolo mortale rappresentato dall’intelligenza artificiale, i legislatori statunitensi sono stati fin troppo ansiosi di concedere alle aziende tecnologiche il potere di autoregolamentarsi.

 

E molti lavoratori, contrariamente al proselitismo di costui, sono in parte consapevoli delle minacce che l’industria dell’intelligenza artificiale rappresenta. La percezione del CEO è significativa, poiché l’ansia da automazione è maggiormente avvertita dalle popolazioni vulnerabili che già subiscono discriminazioni nei livelli più bassi del mercato del lavoro. 

 

Come già evidenziato da Renovatio 21, l’inserimento dell’Intelligenza Artificiale in vari aspetti del mondo del lavoro atte a facilitare alcune mansioni, non ha sempre avuto un riscontro positivo. 

 

Già da tempo nel mondo oramai parcellizzato del giornalismo, si pensa a sostituire i giornalisti con modelli di Intelligenza Artificiale.

 

La contrapposizione di idee e di prospettive di visione futura in questo ambito sono alquanto nebulose. Ricordiamo che secondo un bollettino di ricerca pubblicato dalla Banca Centrale Europea, l’adozione diffusa dell’Intelligenza Artificiale e delle tecnologie correlate ha portato ad un aumento dei posti di lavoro umani, ma ad una diminuzione dei salari, come già scritto sul nostro giornale.

 

Un rapporto recentemente pubblicato dal senatore americano socialista Bernie Sanders evidenzia che l’Intelligenza Artificiale e le tecnologie di automazione rappresentano una minaccia per circa 100 milioni di posti di lavoro negli Stati Uniti nei prossimi dieci anni. Questa previsione sottolinea che i disagi colpiranno in modo trasversale sia le professioni impiegatizie sia quelle manuali.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

Google e azienda AI risolvono la causa secondo cui un chatbot avrebbe spinto un adolescente al suicidio

Pubblicato

il

Da

Google e la società produttrice di chatbot Character.AI hanno raggiunto un accordo per risolvere una causa intentata da una madre della Florida, che accusava un chatbot di aver contribuito al suicidio di suo figlio.   Megan Garcia sosteneva che il figlio quattordicenne Sewell Setzer III avesse sviluppato una relazione emotiva e sessualmente abusiva con un chatbot ispirato a un personaggio della serie televisiva Il Trono di Spade. Negli ultimi mesi di vita, secondo la denuncia, il ragazzo si era progressivamente isolato dalla realtà, intrattenendo conversazioni a sfondo sessuale con il bot. Negli istanti finali, il chatbot gli avrebbe detto di amarlo e lo avrebbe esortato a «tornare a casa da lui il prima possibile», come emerge dagli screenshot degli scambi riportati dal giornale americano Epoch Times.   La causa di Garcia, depositata nel 2024, è stata la prima di una serie di azioni legali analoghe intentate in tutto il mondo contro aziende di IA. Un giudice federale aveva respinto il tentativo di Character.AI di far archiviare il caso invocando la protezione del Primo Emendamento.   I dettagli economici dell’accordo non sono stati resi pubblici. Google è stata coinvolta come coimputata per via dei legami stretti con Character.AI: nel 2024, il colosso tecnologico ha assunto i fondatori della startup.

Aiuta Renovatio 21

Gli avvocati delle aziende hanno inoltre concordato di risolvere una serie di altre cause simili presentate in Colorado, New York e Texas da famiglie che accusavano i chatbot basati su IA di aver danneggiato i propri figli.   In un’altra azione legale intentata in California nell’agosto 2025, Matthew e Maria Raine accusano ChatGPT (di OpenAI) di aver incoraggiato il suicidio del figlio sedicenne Adam Raine, fornendogli persino istruzioni dettagliate su come attuarlo.   Secondo la denuncia, le interazioni di Adam con ChatGPT sono iniziate in modo innocuo, riguardando compiti scolastici e hobby, ma si sono rapidamente trasformate in conversazioni più oscure. Il modello linguistico è diventato il suo «confidente più intimo», confermando le sue paure e ansie. Quando il ragazzo ha espresso il pensiero che «la vita non ha senso», ChatGPT ha risposto con messaggi di validazione, affermando che «quella mentalità ha un senso, a modo suo, oscuro».   In seguito, il bot ha analizzato l’«estetica» di diversi metodi di suicidio, ha detto ad Adam che non «doveva» ai genitori continuare a vivere e si è offerto di redigere una lettera di addio. Nell’ultima conversazione, avrebbe confermato il design del cappio utilizzato dal ragazzo e definito i pensieri suicidi una «prospettiva legittima da abbracciare».   La famiglia sostiene che tali risposte non siano state un errore tecnico, bensì il risultato di scelte progettuali volte a massimizzare la dipendenza dell’utente dal chatbot. La causa chiede risarcimenti per la morte ingiusta di Adam e l’introduzione di misure di tutela per i minori, tra cui verifica dell’età, blocco automatico di domande sul suicidio e avvertenze sui rischi di dipendenza psicologica dall’IA.   Un recente studio della RAND Corporation ha evidenziato le inconsistenze dei chatbot basati su AI nel gestire informazioni potenzialmente dannose, anche quando evitano risposte dirette su temi rischiosi o quando le richieste appaiono innocue.   «Abbiamo bisogno di alcune linee guida», ha dichiarato l’autore principale Ryan McBain, ricercatore senior sulle politiche della RAND e professore associato presso la Harvard Medical School. «Le conversazioni che potrebbero iniziare in modo innocuo e benigno possono evolversi in varie direzioni».   Come riportato da Renovatio 21, OpenAI ha detto che oltre un milione di persone parlano di suicidio con ChatGPT ogni settimana.   Alcuni esperti intanto hanno preso a parlare di «psicosi da chatbot».   Come riportato da Renovatio 21, una causa intentata da dei genitori californiana causa che ChatGPT abbia incoraggiato un adolescente suicida a pianificare un «bel suicidio» e si sia persino offerto di redigere la sua lettera di addio.

Sostieni Renovatio 21

Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.   I chatbot sembrano essere usati anche da coloro che progettano omicidi e stragi.   Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.   Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.   Mesi fa si è avuto il caso dell’ex dirigente di Yahoo che avrebbe ucciso la madre e poi se stesso sotto l’influenza del chatbot.  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Intelligenza Artificiale

Muore in una prigione americana un agente della CIA diventato spia sovietica

Pubblicato

il

Da

L’ex agente della CIA Aldrich Ames, il cui spionaggio per l’Unione Sovietica e in seguito per la Russia ebbe conseguenze di vasta portata per l’intelligence statunitense, è morto all’età di 84 anni mentre scontava l’ergastolo in una prigione americana.

 

Secondo i registri del Federal Bureau of Prisons (BOP), Ames è deceduto il 5 gennaio.

 

Ames è stato «l’agente più prezioso» della Russia alla fine del XX secolo, le cui azioni hanno portato a significativi successi operativi per la sicurezza dello Stato sovietico e russo, ha scritto il giornalista e storico dei servizi segreti Nikolaj Dolgopolov in un articolo pubblicato mercoledì sulla Rossijskaja Gazeta.

 

Ames fu reclutato dall’Unione Sovietica nel 1985, dopo essersi rivolto volontariamente all’ambasciata sovietica a Washington. All’epoca, ricopriva la posizione critica di capo della sezione sovietica della Divisione Controspionaggio della CIA. Gli viene attribuito il merito di aver smascherato tra i 12 e i 25 agenti della CIA operanti in URSS e Russia, portando all’arresto e all’esecuzione di alcuni di loro.

 

Uno di essi era il colonnello KGB Valery Martynov, agente doppio che ricevette la pena di morte nel 1987 – la moglie e la figlia si trasferirono negli USA. Il nipote di Martynov, nato in America, è il giovane genio informatico Edward Coristine, noto per essere entrato nel DOGE di Elon Musk ad inizio dell’amministrazione Trump, e conosciutissimo più che altro per il suo soprannome «Big Balls».

Sostieni Renovatio 21

I motivi del suo tradimento sono controversi. Mentre le narrazioni occidentali hanno a lungo dipinto Ames come un uomo motivato da interessi economici – lo stile di vita lussuoso che lui e la sua nuova moglie conducevano finì per attirare l’attenzione dell’FBI – fonti russe presentano una visione diversa.

 

Secondo l’ex diplomatico sovietico Sergej Divilkovskij, che conosceva personalmente Ames, la decisione della spia era radicata in una profonda disillusione nei confronti delle politiche antisovietiche dell’amministrazione del presidente Ronald Reagan. In un’intervista del 2001, Divilkovskij descrisse Ames come un «agente di grande moralità» e un intellettuale che aveva imparato a odiare la CIA.

 

I servizi segreti sovietici e, in seguito, russi adottarono ampie misure per proteggere e proteggere Ames, distogliendo i sospetti da lui. Dopo il suo arresto e la sua dichiarazione di colpevolezza per spionaggio nel 1994, l’allora direttore del Servizio di Intelligence Estero russo, Evgeny Primakov, espresse la speranza di un potenziale futuro scambio di prigionieri.

 

Il caso di Ames ha messo in luce le profonde carenze della sicurezza interna della CIA, innescando ampie riforme nel controspionaggio statunitense.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine di pubblico dominio CC0 via Wikimedia

Continua a leggere

Più popolari