Intelligenza Artificiale
L’Intelligenza Artificiale potrebbe minacciare l’umanità entro 2 anni: avvertimento della task force britannica
L’Intelligenza Artificiale potrebbe minacciare l’umanità entro 2 anni, avverte il consigliere della task force britannica sull’IA.
Il consigliere della task force sull’intelligenza artificiale (AI) del primo ministro del Regno Unito ha affermato che gli esseri umani hanno circa due anni per controllare e regolamentare l’IA prima che diventi troppo potente.
In un’intervista con un media locale del Regno Unito, Matt Clifford, che è anche presidente dell’Agenzia governativa per la ricerca avanzata e le invenzioni (ARIA), ha sottolineato che i sistemi attuali stanno diventando «sempre più capaci a un ritmo sempre crescente».
Il Clifford ha continuato dicendo che se i funzionari non prendono in considerazione la sicurezza e le normative ora, i sistemi diventeranno «molto potenti» tra due anni.
«Abbiamo due anni per mettere in atto un quadro che renda il controllo e la regolamentazione di questi modelli molto grandi molto più possibile di quanto non sia oggi».
Clifford ha avvertito che ci sono «molti diversi tipi di rischi» quando si tratta di IA, sia a breve che a lungo termine, che ha definito «piuttosto spaventoso».
L’intervista è arrivata a seguito di una recente lettera aperta pubblicata dal Center for AI Safety, firmata da 350 esperti di IA, tra cui il CEO di OpenAI Sam Altman, secondo cui l’IA dovrebbe essere trattata come una minaccia esistenziale simile a quella rappresentata dalle armi nucleari e dalle pandemie.
«Stanno parlando di ciò che accade quando creiamo effettivamente una nuova specie, una specie di intelligenza più grande degli umani».
Il consigliere della task force AI ha affermato che queste minacce poste dall’IA potrebbero essere «molto pericolose» e potrebbero «uccidere molti umani, non tutti gli umani, semplicemente da dove ci aspetteremmo che i modelli si trovino tra due anni».
Secondo Clifford, l’obiettivo principale delle autorità di regolamentazione e degli sviluppatori dovrebbe essere capire come controllare i modelli e quindi implementare le normative su scala globale.
Per ora, ha affermato che la sua più grande paura è la mancanza di comprensione delle motivazioni dietro alle parole e ai comportamenti dei modelli di Intelligenza Artificiale. «Le persone che stanno costruendo i sistemi più capaci ammettono liberamente di non capire esattamente come spiegare i loro comportamenti».
Clifford ha sottolineato che molti dei leader delle organizzazioni che costruiscono l’IA concordano anche sul fatto che potenti modelli di Intelligenza Artificiale devono essere sottoposti a una sorta di processo di audit e valutazione prima della distribuzione.
Attualmente, le autorità di regolamentazione di tutto il mondo si stanno dando da fare per comprendere la tecnologia e le sue ramificazioni, mentre cercano di creare regolamenti che proteggano gli utenti e consentano comunque l’innovazione.
Il 5 giugno, i funzionari dell’Unione Europea sono arrivati al punto di suggerire di imporre che tutti i contenuti generati dall’Intelligenza Artificiale dovrebbero essere etichettati come tali per prevenire la disinformazione.
In Gran Bretagna, un membro in prima linea del partito laburista all’opposizione ha fatto eco ai sentimenti menzionati nella lettera del Center for AI Safety, affermando che la tecnologia dovrebbe essere regolamentata come la medicina e l’energia nucleare.
Un recente rapporto della banca d’affari Goldman Sachs calcola che l’IA potrebbe portare a breve a 300 milioni di disoccupati nel mondo.
Elon Musk, che aveva chiesto una moratoria sulla AI con una lettera firmata da tantissimi (tranne, ovviamente, Bill Gates), ha dichiarato durante la sua intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Quando Musk ha ribattuto ad un entusiasta fondatore di Google Larry Page specificando i rischi dell’AI, il Page gli ha dato dello «specista», termine del gergo animalista che indica una persona che mette la specie umana sopra le altre.
L’idea che l’AI diventerà una sorta di dio circola da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». L’anno scorso, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».
Come riportato da Renovatio 21, a chiedere di fermare l’Intelligenza Artificiale è stato anche un gruppo di medici che hanno firmato un appello sulla prestigiosa rivista scientifica BMJ Global Health.
Eliezer Yudkowsky, specialista nel tema dei pericoli delle IA, ha dichiarato che l’unica possibilità è una moratoria che preveda il bombardamento delle server farm dei Paesi che stanno sviluppando l’AGI, poiché se non si fermano le macchine «tutti sulla terra moriranno».
Un recente esperimento dell’aviazione americana potrebbe dare ragione alle visioni apocalittiche: l’AI, durante una simulazione, ha ucciso il suo operatore umano. Quando è stata riprogrammata per non ucciderlo, ha semplicemente distrutto l’antenna tramite cui gli esseri umani gli davano ordini.
Intelligenza Artificiale
Crescita record di Palantir
Palantir Technologies ha chiuso un primo trimestre eccezionale, con un fatturato cresciuto dell’85% su base annua fino a 1,63 miliardi di dollari, spinto dal raddoppio delle attività negli Stati Uniti grazie alla forte espansione sia nel segmento commerciale sia in quello governativo.
Nel rapporto del primo trimestre, pubblicato lunedì, la società ha reso noto che i ricavi statunitensi sono aumentati del 104% raggiungendo 1,28 miliardi di dollari, con i ricavi commerciali in crescita del 133% a 595 milioni di dollari e quelli governativi in aumento dell’84% a 687 milioni di dollari. I risultati hanno battuto le aspettative di Wall Street e l’azienda ha rivisto al rialzo le previsioni per l’intero anno, indicando ora un fatturato atteso per il 2026 fino a 7,66 miliardi di dollari, che implicherebbe una crescita annua di circa il 71%.
L’amministratore delegato Alex Karp, che presenta sempre più spesso gli strumenti di Intelligenza Artificiale di Palantir come essenziali per la potenza militare e industriale occidentale, ha affermato che «i due motori della nostra attività negli Stati Uniti ora funzionano in sincronia».
«Riteniamo che non sia un’esagerazione affermare che quasi tutti i flussi di lavoro di intelligenza artificiale che creano effettivamente valore, soprattutto sul campo di battaglia, si basano su Palantir», ha scritto Karp in una lettera agli azionisti, precisando che l’azienda «è stata fondata per rafforzare la sicurezza nazionale degli Stati Uniti, per proteggere gli americani e la loro libertà».
Sostieni Renovatio 21
Palantir – il cui nome deriva dalle pietre veggenti di ossidiana de Il Signore degli Anelli di J.R.R. Tolkien, attraverso le quali il signore oscuro Sauron sorveglia i suoi sottoposti – è un’azienda di software attiva principalmente nei settori della difesa e dell’Intelligence.
Il prodotto di punta di Palantir è il sistema Gotham, che raccoglie e analizza filmati satellitari, informazioni di Intelligence umana provenienti dalla CIA, dati di Intelligence sui segnali della NSA e altre fonti che altrimenti richiederebbero giorni di esame.
Gotham e MOSAIC – un altro programma di Palantir per l’identificazione di obiettivi che aggrega dati digitali, tra cui filmati di sorveglianza e indirizzi IP, da un’area bersaglio – utilizzano l’intelligenza artificiale per selezionare gli obiettivi più efficaci per gli attacchi militari.
Gli Stati Uniti hanno ammesso di impiegare questi programmi per selezionare bersagli nella guerra contro l’Iran, pur insistendo sul fatto che la decisione finale di aprire il fuoco spetti agli esseri umani. All’estero, la tecnologia di Palantir è utilizzata dal Ministero della Difesa britannico, dalle Forze di Difesa israeliane e dall’esercito ucraino.
L’aggiornamento sui risultati è arrivato poche settimane dopo le critiche ricevute da Palantir per un manifesto di 22 punti che riassume i temi del libro di Karp La repubblica tecnologica. Come l’alleanza con la Silicon Valley plasmerà il futuro dell’Occidente (2025). Il testo sosteniene che la Silicon Valley ha l’obbligo di partecipare alla difesa nazionale, che il «potere militare» si baserà sul software e che le armi basate sull’intelligenza artificiale sono inevitabili.
I critici lo hanno definito un progetto per il «tecnofascismo». In molti sostengono che la spinta data dal governo Trump, il cui vicepresidente JD Vance ha lavorato per il fondatore di Palantir Peter Thiel, sia quella di portare verso una società di sorveglianza totale – perfino con algoritmi di predizione dei crimini – alimentata dai software di Palantir.
Renovatio 21 ha pubblicato un sunto del contenuto del libro-manifesto giorni fa.
Iscriviti alla Newslettera di Renovatio 21
Immagine di World Economic Forum via Flickr pubblicata su licenza Creative Commons Attribution-NonCommercial-ShareAlike 2.0 Generic
Intelligenza Artificiale
AI identifica dove si nascondono gli esopianeti che potrebbero ospitare la vita
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Il Pentagono stringe accordi con le principali aziende di Intelligenza Artificiale
Il Pentagono ha dichiarato di aver raggiunto accordi con importanti aziende specializzate in intelligenza artificiale per integrare le loro funzionalità avanzate di IA nelle reti classificate dell’agenzia.
Il dipartimento della Guerra degli Stati Uniti ha avviato trattative attive con i leader del settore dall’inizio dell’anno, nel tentativo di ampliare l’applicazione dell’intelligenza artificiale nelle operazioni militari e diversificare la gamma di aziende che forniscono questa tecnologia.
Il progetto sta procedendo nonostante le preoccupazioni degli esperti circa la capacità dell’AI di operare in modo affidabile nel rispetto delle leggi di guerra vigenti e il suo possibile utilizzo per violare la privacy dei civili in tempo di pace.
Sono stati raggiunti accordi con SpaceX, OpenAI, Google, NVIDIA, Reflection, Microsoft, Amazon Web Services e Oracle per l’implementazione dei loro sistemi di IA per un «uso operativo lecito», ha dichiarato il Pentagono in un comunicato stampa venerdì.
L’intelligenza artificiale verrà integrata nelle reti Impact Level 6 e Impact Level 7 del Dipartimento della Guerra per «semplificare la sintesi dei dati, migliorare la comprensione della situazione e potenziare il processo decisionale dei militari in ambienti operativi complessi», si legge nella dichiarazione.
Sostieni Renovatio 21
La piattaforma di intelligenza artificiale ufficiale del Dipartimento della Guerra degli Stati Uniti, GenAI.mil, è stata utilizzata da oltre 1,3 milioni di persone negli ultimi cinque mesi, «generando decine di milioni di richieste e impiegando centinaia di migliaia di agenti», ha affermato il Dipartimento. Secondo il Pentagono, la tecnologia ha permesso di accelerare l’esecuzione di determinate attività, riducendo i tempi da mesi a giorni.
Parallelamente, la Marina statunitense ha assegnato alla Domino Data Lab, società di AI con sede a San Francisco, un contratto da 100 milioni di dollari per contribuire alla lotta contro le mine iraniane nello Stretto di Hormuz, di fatto bloccato sin dai primi giorni della guerra tra Stati Uniti e Israele contro l’Iran.
«La Marina sta finanziando la piattaforma che le consente di addestrare, gestire e impiegare l’IA alla velocità necessaria per operare in acque contese», ha dichiarato venerdì a Reuters Thomas Robinson, CEO di Domino. Secondo quanto riportato, Washington punta sulla velocità dell’IA nell’analizzare una grande quantità di dati provenienti da diversi tipi di sensori per migliorare rapidamente il rilevamento delle mine nei droni sottomarini statunitensi.
I recenti accordi del Pentagono con aziende di intelligenza artificiale hanno escluso in modo evidente Anthropic, che all’inizio di quest’anno ha avuto un diverbio con il Pentagono dopo essersi rifiutata di allentare le misure di sicurezza a protezione della sua tecnologia. L’azienda sosteneva che la sua IA potesse essere utilizzata per la sorveglianza interna o per il dispiegamento di armi automatiche senza supervisione umana.
Il dipartimento della Guerra ha reagito classificando Anthropic come «rischio per la catena di approvvigionamento», un’etichetta rara solitamente riservata a entità legate ad avversari stranieri di Washington, escludendo di fatto l’azienda da qualsiasi contratto futuro.
Il segretario alla Guerra statunitense Pete Hegseth ha definito l’amministratore delegato di Anthropic, Dario Amodei, un «pazzo ideologico» durante un’audizione al Senato degli Stati Uniti all’inizio di questa settimana. Hegseth ha paragonato la riluttanza dell’azienda ad accettare le condizioni del Pentagono a «la Boeing che ci dà gli aerei e ci dice chi possiamo colpire».
Attualmente Anthropic ha intentato una causa contro il Pentagono per ottenere la rimozione dell’etichetta di «rischio della catena di approvvigionamento».
Iscriviti alla Newslettera di Renovatio 21
-



Spirito1 settimana faLeone e l’arcivescovessa, mons. Viganò: Roma sta con gli eretici e nega le cresime ai tradizionisti
-



Misteri2 settimane faRitrovata l’Arca di Noè?
-



Bioetica1 settimana faCorpi senza testa per produrre organi: l’uomo ridotto a funzione, la medicina contro l’anima
-



Salute2 settimane faI malori della 17ª settimana 2026
-



Spirito2 settimane faMons Strickland risponde alle osservazioni di papa Leone sulle «benedizioni» omosessuali
-



Civiltà6 giorni faValpurga e oltre: le origini esoteriche del 1° maggio
-



Spirito1 settimana faDichiarazione di monsignor Strickland sull’accoglienza vaticana della «arcivescova» di Canterbury.
-



Spirito1 settimana faLeone sta pianificando la scomunica della Fraternità Sacerdotale San Pio X














