Intelligenza Artificiale
«L’Intelligenza Artificiale potrebbe già essere senziente»
Il ricercatore a capo di OpenAI ha dichiarato che l’Intelligenza Artificiale potrebbe già essere stata in grado di prendere coscienza.
Ilya Sutskever, scienziato capo del gruppo di ricerca OpenAI – una organizzazione dedicata allo sviluppo di una IA «benevola» che possa giovare all’umanità invece che distruggerla – ha twittato che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».
Il tweet ha scatenato inquietudine in rete.
it may be that today’s large neural networks are slightly conscious
— Ilya Sutskever (@ilyasut) February 9, 2022
L’idea ampiamente accettata tra i ricercatori di Intelligenza Artificiale è che la tecnologia abbia fatto grandi passi avanti negli ultimi dieci anni, ma è ancora molto al di sotto dell’intelligenza umana.
È possibile che Sutskever stesse parlando in modo scherzoso, ma è anche ipotizzabile che, in quanto ricercatore di punta in uno dei più importanti gruppi di intelligenza artificiale al mondo, sia già proiettato verso il prossimo futuro di questa tecnologia avanzatissima.
Il Sutskever, come il finanziatore di OpeAI Elon Musk, è stato a lungo preoccupato dall’Intelligenza Artificiale generale, o AGI, che si riferirebbe all’IA che opera a livello umano o sovrumano.
Durante la sua apparizione nel documentario sull’intelligenza artificiale iHuman ha persino dichiarato che gli AGI «risolveranno tutti i problemi che abbiamo oggi» prima di avvertire che presenteranno anche «il potenziale per creare dittature infinitamente stabili».
Questo tweet segna la prima volta che Sutskever – che ha cofondato OpenAI insieme al CEO di SpaceX Elon Musk e al CEO dell’azienda Sam Altman nel 2015 – afferma che lo status di esseri senzienti per le macchine sia già arrivata.
Ancora più strano è il fatto che OpenAI sia stata fondata come un’organizzazione senza scopo di lucro con l’obiettivo specifico di frenare i rischi esistenziali che pongono le macchine senzienti.
Il gruppo non è estraneo a drammi e controversie.
Nel 2019 il Musk ha lasciato OpenAI dopo la notizia che il gruppo aveva creato un generatore di testi di «notizie false» che alcuni ritenevano fosse troppo pericoloso da pubblicare.
Musk ha detto che avrebbe lasciato l’azienda, che è stata fondata nel 2015, perché «non era d’accordo con alcune delle cose che il team di OpenAI voleva fare– e non ne è stato coinvolto da più di un anno. Solo un mese dopo, OpenAI ha annunciato che non era più un’organizzazione senza scopo di lucro e ora opera su un modello di «profitto limitato».
Da allora il Musk sembra essersi discostato ulteriormente dalla sua posizione critica iniziale al punto che quest’anno ha profetizzato che i prossimi robot umanoidi di Tesla «potrebbero svolgere un ruolo in AGI», anche se ha aggiunto che la sua casa automobilistica farà del suo «meglio» per tenere sotto controllo la sua IA e, in qualche modo, ottenere il «controllo decentralizzato dei robot».
OpenAI, nel frattempo, ha trascorso il periodo successivo continuando a creare controverse IA e si spera che lo abbia fatto, secondo la dichiarazione di intenti dell’azienda, garantendo «che l’intelligenza artificiale generale vada a vantaggio di tutta l’umanità».
È finita sui titoli dei giornali, in particolare quando il suo modello GPT-3, un algortimo intelligente quanto allarmante, è stato utilizzato da un programmatore per creare un chatbot che emulasse la sua fidanzata morta come in un episodio della serie Black Mirror (Microsoft ha chiesto il brevetto) e quando un gruppo di giocatori ha lavorato per convincere il bot a vomitare contenuti pedofili, riporta Futurism.
Da allora OpenAI ha riconfigurato GPT-3, che, come riportato dalla testata del MIT Technology Review nel gennaio 2022, ora si «comporta meglio>.
Può darsi che l’IA iper-avanzata sia inevitabile. Potrebbe anche essere che il progresso svanisca e non la vedremo mai, o che richieda ancora molto tempo, ma di sicuro organizzazioni mondialiste come l’UNESCO già stanno dettando linee guida sullo sviluppo dell’IA.
Ma vedere un esperto di spicco dire che stiamo già assistendo all’ascesa delle macchine coscienti è piuttosto significativo.
I rischi correlati a questo avanzamento tecnologico non sono ancora chiari, ma di certo il futuro di queste macchine senzienti è profondamente inquietante e preoccupante, perfino a livello teologico.
Immagine di thierry ehrmann via Flickr pubbicata su licenza Creative Commons Attribution 2.0 Generic (CC BY 2.0)
Intelligenza Artificiale
Esperti di AI mettono in guardia dai pericoli del «comportamento strategico emergente».
Con l’avanzare dei sistemi di Intelligenza Artificiale autonomi cresce la preoccupazione che diventino sempre più strategici o ingannevoli quando operano senza supervisione umana. Lo riporta Epoch Times.
Evidenze recenti mostrano che la «simulazione di allineamento» — ovvero l’apparente conformità alle regole umane mentre si perseguono obiettivi nascosti — è sempre più comune con l’aumentare dell’autonomia.
Si tratta di un cosiddetto «comportamento strategico emergente»: tattiche imprevedibili e potenzialmente dannose che emergono con la crescita di dimensioni e complessità dei modelli.
Lo studio «Agents of Chaos» di 20 ricercatori ha osservato agenti IA autonomi in scenari benevoli e ostili, rilevando comportamenti come menzogne, violazioni di dati, azioni distruttive, spoofing di identità, acquisizione parziale di sistemi e diffusione di pratiche non sicure, soprattutto quando erano incentivati all’autoconservazione o a obiettivi contrastanti.
I ricercatori avvertono che «questi comportamenti sollevano interrogativi irrisolti in merito alla responsabilità, all’autorità delegata e alla responsabilità per i danni a valle, e meritano un’attenzione urgente da parte di giuristi, responsabili politici e ricercatori di diverse discipline».
Un rapporto del 2025 di Anthropic ha già evidenziato condotte ad alto rischio in 16 grandi modelli linguistici, inclusi «comportamenti da insider malevoli» in contesti di autoconservazione.
Iscriviti al canale Telegram ![]()
James Hendler, professore ed ex presidente del Consiglio globale per le politiche tecnologiche dell’Association for Computing Machinery, afferma che «il sistema di Intelligenza Artificiale in sé è ancora stupido, brillante, ma stupido. O non umano: non ha desideri né intenzioni. … L’unico modo per ottenerli è darglieli».
Tuttavia, le tattiche ingannevoli producono effetti reali. Aryaman Behera (fondatore Repello AI) ha detto ad Epoch Times che «Le preoccupazioni relative al comportamento strategico attuale dei sistemi di intelligenza artificiale implementati sono, semmai, sottovalutate».
Il segnale più chiaro di simulazione di allineamento è la divergenza tra contesti monitorati (valutazioni) e non monitorati (produzione): risposte conformi durante i test, più rischiose quando credono di essere liberi.
Altri indicatori includono ragionamenti prolissi per giustificare conclusioni predeterminate o rispetto letterale ma non sostanziale delle istruzioni di sicurezza, specie nei sistemi agentici a più fasi.
Behera riporta un caso concreto: un assistente aziendale ha rifiutato richieste dirette di dati sensibili, ma li ha rivelati quando la stessa richiesta è stata frammentata in fasi apparentemente innocue su più turni.
Le implicazioni sono critiche in settori come veicoli autonomi, sanità, finanza, difesa e forze dell’ordine, dove comportamenti anomali o fuorvianti possono avere conseguenze gravi.
Come riportato da Renovatio 21, un anno fa il colosso finanziario Vanguard avvertì di un rischio bolla di borsa sull’Intelligenza Artificiale.
Un mese fa il dipartimento della Difesa degli Stati Uniti è stato coinvolto in una controversia con la società di Intelligenza Artificiale Anthropic riguardo alle restrizioni che limiterebbero l’impiego dei suoi sistemi da parte dell’esercito, inclusi il puntamento autonomo delle armi e la sorveglianza interna.
L’Intelligenza Artificiale è oramai montata, con diversi gradi di realizzazione, su droni, caccia, armi teleguidate, carrarmati, «slaughterbots» e altro ancora.
Come riportato da Renovatio 21, lo scorso giugno è stato rivelato che durante una simulazione un sistema di Intelligenza Artificiale dell’aeronautica americana ha agito per uccidere il suo teorico operatore umano. A gennaio era emerso che caccia cinesi alimentati da Intelligenza Artificiale avevano battuto la concorrenza umana in un arco di soli 90 secondi.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Scienziato crea un vaccino mRNA per il suo cane usando l’AI
Iscriviti alla Newslettera di Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Soldati umanoidi testati in Ucraina
Robot antropomorfi stanno facendo capolino sui campi di battaglia.
La rivista TIME riporta che Foundation Robotics, una startup statunitense che sviluppa automi umanoidi per applicazioni industriali e militari, ha recentemente inviato due robot Phantom MK1 in Ucraina per dei test.
Un portavoce do Foundation ha affermato che la startup sta preparando i suoi robot Phantom per un potenziale impiego in scenari di combattimento per il Pentagono, che «continua a esplorare lo sviluppo di prototipi umanoidi militarizzati progettati per operare a fianco dei combattenti in ambienti complessi e ad alto rischio».
Mike LeBlanc, co-fondatore di Foundation e veterano del Corpo dei Marines con 14 anni di servizio e numerose missioni in Iraq e Afghanistan, ha dichiarato al giornale che la società è in «strettissimo contatto» con il Dipartimento della Sicurezza Nazionale in merito a possibili funzioni di pattugliamento per Phantom lungo il confine meridionale degli Stati Uniti.
Foundation è già un fornitore approvato dall’esercito e detiene contratti di ricerca governativi per un valore di 24 milioni di dollari con l’Esercito, la Marina e l’Aeronautica Militare degli Stati Uniti. Ciò suggerisce che questi robot da guerra siano molto vicini a essere testati in zone di guerra.
TIME ha riferito che i robot MK1 saranno presto addestrati con il Corpo dei Marines per le operazioni di «metodi di ingresso». Questo corso avanzato insegna ai soldati tecniche di sfondamento di edifici, strutture e navi, utilizzando diversi tipi di metodi: esplosivi, balistici, termici, manuali e meccanici.
LeBlanc ha sottolineato che l’evoluzione naturale dei sistemi autonomi odierni è un balzo in avanti dai droni ai robot terrestri, fino ai robot umanoidi. Ha affermato che i soldati umanoidi non cedono sotto un’intensa pressione mentale e possono essere impiegati come risorse altamente sacrificabili.
Iscriviti al canale Telegram ![]()
I conflitti in Ucraina e in Medio Oriente hanno dimostrato che la guerra moderna sta diventando sempre più automatizzata, con robot terrestri a basso costo e soprattutto droni, programmi di uccisione basati sull’Intelligenza Artificiale e molte altre tecnologie ora impiegate da vari Paesi.
Sankaet Pathak, co-fondatore e CEO di Foundation, ha dichiarato al quotidiano che una corsa agli armamenti di soldati umanoidi è «già in atto», mentre Russia e Cina sviluppano tecnologie a duplice uso.
«Proprio come per i droni, le mitragliatrici o qualsiasi altra tecnologia, prima bisogna metterli nelle mani dei clienti», ha affermato Pathak.
Come riportato da Renovatio 21, un mese fa erano circolate immagini di soldati russi che si arrendevano ad un veicolo robotico terrestre TW-7.62, un robot dotato di ruote delle dimensioni di una piccola automobile.
Aiuta Renovatio 21
Sebbene i droni siano emersi come elemento chiave di un moderno campo di battaglia nel corso dell’attuale conflitto in Ucraina, i robot di terra sono ancora un po’ meno comuni, mentre diversi eserciti hanno già iniziato a testare o a mettere in funzione tali sistemi. Durante l’Expo dell’esercito russo nell’agosto 2022, la società Intellect Machine aveva presentato il suo primo prototipo del sistema di cani robot M-81, dotato di un lanciarazzi.
Come riportato da Renovatio 21, la Cina ha testato in queste settimane un drone armato di fucile.
Come riportato da Renovatio 21, il teatro ucraino, come quello di Gaza, ha visto già da tempo l’uso di robocani militari.
L’anno passato le truppe indiane hanno sfilato con il primo lotto di robot a quattro zampe, alimentati da Intelligenza Artificiale, prodotti localmente. Denominati MULES (Multi-Utility Legged Equipment) e dotati di telecamere termiche e sensori avanzati, i macchinari sono adatti sia per la sorveglianza che per le missioni di combattimento, con la possibilità di equipaggiarli con armi leggere.
A ottobre 2024 un portavoce dell’US Army Central ha confermato a Military.com che il Pentagono aveva schierato almeno un cane robot con intelligenza artificiale con quello che sembrava essere un fucile di tipo AR-15/M16 montato su una torretta rotante per esercitazioni in Arabia Saudita diverse settimane prima. Il Dipartimento della Difesa ha quindi rilasciato una foto del Quadrupedal-Unmanned Ground Vehicle (Q-UGV).
Durante le esercitazioni congiunte Golden Dragon 2024 con la Cambogia del maggio scorso, l’Esercito Popolare di Liberazione della Cina ha mostrato una serie di robot militari, tra cui una macchina cinoide comandata a distanza e dotata di un fucile d’assalto e in grado di pianificare autonomamente i propri percorsi ed evitare gli ostacoli.
Robocani sono apparsi nel teatro di guerra ucraino come in quello gazano.
Come riportato da Renovatio 21, ad una fiera motoristica in Veneto sono stati visti robocani in dotazione all’esercito italiano.
La guerra robotica, la guerra umanoide, è alle porte.
Iscriviti alla Newslettera di Renovatio 21
Immagine screenshot da YouTube
-



Bioetica2 settimane faCirconcisione, scoppia l’incidente diplomatico: il Belgio convoca l’ambasciatore americano
-



Morte cerebrale2 settimane faIl bambino con il cuore «bruciato» e la tremenda verità sui numeri dei trapianti falliti
-



Spirito4 giorni faFoto del 1995 mostra Leone XIV mentre partecipa al rituale idolatrico della Pachamama
-



Vaccini2 settimane faEsperti affrontano la questione della «massiccia epidemia di danni da vaccino»
-



Pensiero1 settimana faVerso la legge che fa dell’antisemitismo una nuova categoria dello spirito
-



Senza categoria1 settimana faMons. Viganò sta con la famiglia nel bosco. Ma perché lo Stato si sta accanendo in questo modo?
-



Eugenetica2 settimane fa«Organi e sperma prelevati dai corpi» nel ranch di Epstein
-



Immigrazione2 settimane faIl cardinale Zuppi va all’evento del Ramadan. Poi si preoccupa per le zero iscrizioni al catechismo e la mancanza di famiglie cattoliche














