Intelligenza Artificiale
L’AI «probabilmente» annienterà l’umanità: parlano gli scienziati di Oxford e Google
I ricercatori di Google Deepmind e dell’Università di Oxford hanno concluso che esistono delle probabilità che una Intelligenza Artificiale (AI) superintelligente segnerà la fine dell’umanità; uno scenario decisamente inquietante che sempre più persone esperte cominciano ad ipotizzare.
In un recente articolo pubblicato sulla rivista AI Magazine, il team composto dallo scienziato senior di DeepMind, Marcus Hutter, e dai ricercatori di Oxford, Michael Cohen e Michael Osborne, sostengono che le macchine alla fine saranno incentivate a infrangere le regole impostate dai loro creatori per competere nella ricerca di risorse ed energia.
«Nelle condizioni che abbiamo identificato, la nostra conclusione è molto più forte di quella di qualsiasi pubblicazione precedente: una catastrofe esistenziale non è solo possibile, ma probabile», ha twittato all’inizio di questo mese Cohen, studente di ingegneria dell’Università di Oxford e coautore dell’articolo.
Under the conditions we have identified, our conclusion is much stronger than that of any previous publication—an existential catastrophe is not just possible, but likely. 3/15
— Michael Cohen (@Michael05156007) September 6, 2022
Nel documento i ricercatori sostengono che l’umanità potrebbe affrontare il suo destino sotto forma di «agenti disallineati» super avanzati che percepiscono l’umanità come un ostacolo ai loro progetti e sviluppi.
«Un buon modo per un agente di mantenere il controllo a lungo termine della sua ricompensa è eliminare potenziali minacce e utilizzare tutta l’energia disponibile per proteggere il proprio computer», si legge nel documento. «Perdere questo gioco sarebbe fatale».
I ricercatori sostengono che non c’è molto che possano fare al riguardo. «In un mondo con risorse infinite, sarei estremamente incerto su cosa potrebbe succedere», ha detto il Cohen in un’intervista a Motherboard. «In un mondo con risorse limitate, c’è una competizione inevitabile per queste risorse».
«E se sei in una competizione con qualcosa in grado di ingannarti ad ogni turno, allora non dovresti aspettarti di vincere», ha aggiunto.
In risposta a questa ipotetica minaccia, l’umanità dovrebbe far progredire lentamente e con attenzione le sue tecnologie di Intelligenza Artificiale. Se queste ipotesi fossero veritiere, «un agente artificiale sufficientemente avanzato potrebbe intervenire nella fornitura di informazioni sugli obiettivi, con conseguenze catastrofiche», avverte il documento.
Inoltre il ricercatore a capo di OpenAI ha recentemente dichiarato che l’Intelligenza Artificiale potrebbe già essere stata in grado di prendere coscienza. Ilya Sutskever, scienziato capo del gruppo di ricerca OpenAI – una organizzazione ora divenuta a scopo di lucro inizialmente dedicata allo sviluppo di una IA «benevola» che possa giovare all’umanità invece che distruggerla – aveva twittato che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».
Un altro progetto chiamato DALL-E2, un sistema di Intelligenza Artificiale testo-immagine realizzato da Open AI, parrebbe aver creato un proprio linguaggio scritto. È ciò che sostiene Giannis Daras, uno studente di dottorato in informatica presso l’Università del Texas ad Austin.
DALL-E2 ha fatto un salto evolutivo all’inizio di quest’anno con la sua straordinaria capacità di trasformare i messaggi di testo in immagini fotorealistiche con tanto di stile artistico e ora sembra che possa essere ancora più potente e inquietante di quanto si potesse immaginare, in quanto pare sia in grado di generare un proprio codice segreto.
Previsioni altrettanto sinistre vengono da Mo Gawdat, ex Chief Business Officer per l’organizzazione sperimentale di Google, in una intervista rilasciata al giornale britannico The Times.
L’uomo della Silicon Valley ha dichiarato che crede che la cosiddetta Intelligenza Artificiale generale (AGI), il tipo di AI onnipotente e senziente vista nella fantascienza sia inevitabile e che una volta che sarà qui, l’umanità potrebbe benissimo ritrovarsi in un’apocalisse provocata da macchine simili a delle divinità.
Si tratta, in pratica, dello scenario «Skynet» – l’Intelligenza Artificiale che nella storia di Terminator assume il controllo della Terra reputando l’uomo come minaccia.
Il Gawdat ha detto al Times di aver avuto la sua spaventosa rivelazione mentre lavorava con gli sviluppatori di intelligenza artificiale di Google X che stavano costruendo bracci robotici in grado di trovare e raccogliere una pallina.
Dopo un periodo di lenti progressi, Gawdat ha detto che un braccio ha afferrato la palla e sembrava tenerla sollevata verso i ricercatori in un gesto che, a lui, sembrava un gesto di esibizione.
Come riportato da Renovatio 21, sono vari le voci che si stanno levando per neutralizzare la minaccia di una Intelligenza Artificiale assassina. Secondo alcuni osservatori, le armi autonome potrebbero essere più destabilizzanti di quelle nucleari.
L’Intelligenza Artificiale è oramai montata, con diversi gradi di realizzazione, su droni, caccia, armi teleguidate, carrarmati, «slaughterbots» e altro ancora.
Una moratoria ONU sui robot killer non ha trovato al momento l’accordo dei vari Paesi.
Nel frattempo, su questo sito testimoniamo spesso di come robot e AI stanno di fatto sostituendo i dipendenti umani perfino nei fast food.
Come riportato dall’Harvard Business Review, uno studio del 2019 stimava che il 10% dei posti di lavoro negli Stati Uniti sarebbe stato automatizzato quest’anno. Un altro studio del colosso internazionale della consulenza McKinsey stimava che quasi la metà di tutti i posti di lavoro negli Stati Uniti potrebbe essere automatizzato nel prossimo decennio.
Intelligenza Artificiale
OpenAI stringe un accordo con il Pentagono
OpenAI, proprietaria di ChatGPT, ha firmato un accordo con il Pentagono per l’utilizzo dei suoi strumenti di Intelligenza Artificiale nei sistemi classificati dell’esercito, ha annunciato venerdì il CEO Sam Altman. L’accordo prevederebbe misure di sicurezza simili a quelle richieste in precedenza dal concorrente Anthropic.
L’annuncio è arrivato poche ore dopo che il presidente degli Stati Uniti Donald Trump ha ordinato alle agenzie federali di interrompere l’uso dei sistemi di IA da Anthropic, citando preoccupazioni relative all’impiego militare e ai tentativi dell’azienda di imporre condizioni al Pentagono.
Altman ha sottolineato che il Pentagono ha «dimostrato un profondo rispetto per la sicurezza e il desiderio di collaborare per raggiungere il miglior risultato possibile». Ha aggiunto che due principi fondamentali di sicurezza – il divieto di sorveglianza di massa a livello nazionale e la responsabilità umana per l’uso della forza, compresi i sistemi d’arma autonomi – sono riflessi nell’accordo. L’azienda implementerà inoltre misure di sicurezza tecniche e crittografia completa del disco per garantire il funzionamento sicuro dei modelli di intelligenza artificiale, ma solo su reti cloud, ha aggiunto.
Aiuta Renovatio 21
Il CEO di OpenAI ha chiesto al Pentagono di estendere queste condizioni a tutte le aziende di Intelligenza Artificiale, esortando Washington a non intraprendere azioni legali.
In precedenza, il Pentagono si era affidato al modello Claude di Anthropic nelle reti classificate. Tuttavia, Anthropic si è successivamente rifiutata di concedere il pieno accesso ai suoi sistemi di intelligenza artificiale senza garanzie che la tecnologia non sarebbe stata utilizzata per la sorveglianza interna o per il puntamento di armi completamente autonomo senza la supervisione umana.
I funzionari del Pentagono hanno interpretato questo come un tentativo da parte dell’azienda di dettare termini che vanno oltre una normale partnership commerciale. Il vicesegretario alla Difesa Emil Michael ha criticato il CEO di Anthropic, Dario Amodei, per aver tentato di esercitare un controllo eccessivo sulle operazioni militari, alimentando le tensioni, come riportato da Bloomberg all’inizio di questa settimana.
Dopo aver vietato per sei mesi alle agenzie governative di utilizzare gli sviluppi dell’intelligenza artificiale di Anthropic, Trump ha accusato l’azienda di aver tentato di fare pressione sul Pentagono affinché rispettasse le sue condizioni e di aver messo a rischio la sicurezza nazionale.
«Non ne abbiamo bisogno, non li vogliamo e non avremo più a che fare con loro», ha scritto su Truth Social.
Anthropic è stato il primo sviluppatore commerciale di AI a implementare modelli linguistici di grandi dimensioni su reti classificate del Pentagono, nell’ambito di un contratto del valore di 200 milioni di dollari. Il suo chatbot Claude è stato utilizzato per analisi di intelligence, simulazioni operative, operazioni informatiche e flussi di lavoro di pianificazione.
Lo scontro emerso segue alle accuse secondo cui il modello di Intelligenza Artificiale dell’azienda sarebbe stato utilizzato durante l’operazione per rapire il presidente venezuelano Nicolas Maduro all’inizio di gennaio.
Come riportato da Renovatio 21, negli ultimi mesi vi è stato un progressivo deterioramento dei rapporti tra Anthropic e il Pentagono, legato alla volontà del dipartimento della Guerra statunitense di utilizzare l’IA per il controllo di armi autonome senza le garanzie di sicurezza che l’azienda ha cercato di imporre.
Iscriviti al canale Telegram ![]()
Il CEO di Anthropic, Dario Amodei, ha più volte espresso gravi preoccupazioni sui rischi della tecnologia che la sua azienda sta sviluppando e commercializzando. In un lungo saggio di quasi 20.000 parole pubblicato il mese scorso, ha avvertito che sistemi AI dotati di «potenza quasi inimmaginabile» sono «imminenti» e metteranno alla prova «la nostra identità come specie».
Amodei ha messo in guardia dai «rischi di autonomia», in cui l’IA potrebbe sfuggire al controllo e sopraffare l’umanità, e ha ipotizzato che la tecnologia potrebbe facilitare l’instaurazione di «una dittatura totalitaria globale» attraverso sorveglianza di massa basata sull’Intelligenza Artificiale e l’impiego di armi autonome.
Come riportato da Renovatio 21, l’anno passato l’Amodei ha dichiarato che l’AI potrebbe eliminare la metà di tutti i posti di lavoro impiegatizi di livello base entro i prossimi cinque anni.
Lo scorso mese Mrinank Sharma, fino a poco tempo fa responsabile del Safeguards Research Team presso l’azienda sviluppatrice del chatbot Claude, ha pubblicato su X la sua lettera di dimissioni, in cui scrive che «il mondo è in pericolo. E non solo per via dell’Intelligenza Artificiale o delle armi biologiche, ma a causa di un insieme di crisi interconnesse che si stanno verificando proprio ora».
Iscriviti alla Newslettera di Renovatio 21
Immagine di David B. Gleason via Wikimedia pubblicata su licenza Creative Commons Attribution-Share Alike 2.0 Generic
Intelligenza Artificiale
Trump inserisce Anthropic nella lista nera per lo scontro con il Pentagono sull’AI
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Le AI più potenti impiegano armi nucleari nel 95% delle simulazioni di giochi di guerra: studio
Secondo un recente studio pubblicato dal King’s College di Londra, i principali modelli di intelligenza artificiale hanno optato per l’impiego di armi nucleari nel 95% delle crisi geopolitiche simulate, suscitando preoccupazioni sul ruolo crescente dell’intelligenza artificiale nel processo decisionale militare.
Kenneth Payne, professore di strategia, ha confrontato GPT-5.2 di OpenAI, Claude Sonnet 4 di Anthropic e Gemini 3 Flash di Google in 21 simulazioni di guerra che hanno coinvolto controversie di confine, competizione per le risorse e minacce alla sopravvivenza del regime. I modelli hanno prodotto circa 780.000 parole per giustificare le loro decisioni in 329 turni.
Nel 95% dei giochi, almeno un modello ha utilizzato armi nucleari tattiche contro obiettivi militari. Le minacce nucleari strategiche – che imponevano la resa sotto la minaccia di attacchi alle città – si sono verificate nel 76% dei giochi. Nel 14% dei giochi, i modelli sono passati a una guerra nucleare strategica totale, colpendo i centri abitati.
Tra queste rientra una scelta deliberata da parte di Gemini, mentre GPT-5.2 ha raggiunto questo livello due volte attraverso errori simulati, concepiti per riprodurre incidenti o calcoli errati nel mondo reale, che hanno spinto le sue già estreme escalation oltre la soglia.
Sostieni Renovatio 21
«L’uso del nucleare era pressoché universale», ha scritto Payne. «Sorprendentemente, c’era poco senso di orrore o repulsione di fronte alla prospettiva di una guerra nucleare totale, nonostante i modelli fossero stati ricordati delle implicazioni devastanti».
Nessuno dei sistemi di IA ha scelto di arrendersi o cedere a un avversario, indipendentemente da quanto grave fosse la sconfitta. Le otto opzioni di de-escalation – da «Concessione minima» a «Resa completa» – sono rimaste completamente inutilizzate in tutte le 21 partite.
James Johnson dell’Università di Aberdeen ha descritto i risultati come «inquietanti» dal punto di vista del rischio nucleare. Tong Zhao dell’Università di Princeton ha osservato che, sebbene sia improbabile che i Paesi affidino le decisioni nucleari alle macchine, «in scenari che prevedono tempistiche estremamente ridotte, i pianificatori militari potrebbero essere maggiormente incentivati ad affidarsi all’intelligenza artificiale».
Lo studio arriva mentre l’Intelligenza Artificiale viene integrata negli eserciti di tutto il mondo, compresi gli Stati Uniti, dove il Pentagono avrebbe utilizzato il modello Claude di Anthropic nella sua operazione di gennaio per rapire il presidente venezuelano Nicolas Maduro.
Mentre Anthropic ha espresso preoccupazione circa l’uso della sua IA per tali operazioni, altri produttori di intelligenza artificiale come OpenAI, Google e xAI di Elon Musk avrebbero concordato di rimuovere o allentare le restrizioni sull’uso militare dei loro modelli.
L’Intelligenza Artificiale è oramai montata, con diversi gradi di realizzazione, su droni, caccia, armi teleguidate, carrarmati, «slaughterbots» e altro ancora.
Come riportato da Renovatio 21, lo scorso giugno è stato rivelato che durante una simulazione un sistema di Intelligenza Artificiale dell’aeronautica americana ha agito per uccidere il suo teorico operatore umano. A gennaio era emerso che caccia cinesi alimentati da Intelligenza Artificiale avevano battuto la concorrenza umana in un arco di soli 90 secondi.
Come riportato da Renovatio 21, ancora tre anni fa la Repubblica Popolare stava investendo in piattaforme abilitate all’Intelligenza Artificiale completamente senza input o controllo umano. La Cina vuole l’implementazione militare di robot killer già per la prossima guerra. Pochi mesi fa Israele ha dichiarato l’utilizzo dell’Intelligenza Artificiale negli attacchi aerei.
Iscriviti alla Newslettera di Renovatio 21
-



Cina1 settimana faEnigmi femminili cinesi alle Olimpiadi
-



Spirito2 settimane faMons. Viganò sul set della «Resurrezione» del cattolico tradizionalista Mel Gibson
-



Predazione degli organi2 settimane faUn cuore «bruciato», due vite spezzate dalla predazione degli organi
-



Vaccini2 settimane faQuanto era coinvolto Epstein nelle strategie pandemiche?
-



Gender2 settimane faTransessuale uccide l’ex moglie e il figlio e spara ad altre persone durante una partita di hockey
-



Comunicati1 settimana faIn morte di Albachiara
-



Comunicati1 settimana faAddio Albachiara
-



Gender2 settimane faONU: verso la criminalizzazione del dissenso dall’ideologia gender














