Intelligenza Artificiale
Dipendente sostiene che Google possiede un’Intelligenza Artificiale «senziente»
Un ingegnere di Google, Blake Lemoin, ha deciso di sostenere in pubblico che il chatbot AI dell’azienda, LaMDA, è «senziente», ossia dotato di una coscienza comparabile a quella degli esseri umani.
L’ingegnere è stato messo quindi in congedo retribuito per aver violato gli accordi di riservatezza.
L’ingegner Lemoine, che lavora per l’organizzazione Responsible AI di Google, ha iniziato a interagire con LaMDA (Language Model for Dialogue Applications) lo scorso autunno come parte del suo lavoro per determinare se l’Intelligenza Artificiale utilizzava discorsi discriminatori o hate speech – come il famigerato incidente del chatbot di Microsoft «Tay», che messo su Twitter divenne in poche ore un «ninfomane» razzista che inneggiava a Hitler e negava dell’Olocausto, nonché sosteneva la candidatura di Donald Trump alle elezioni 2016.
«Se non sapessi esattamente di cosa si tratta, che è questo programma per computer che abbiamo costruito di recente, penserei che fosse un bambino di 7 anni e 8 anni che conosce la fisica», ha detto il 41enne Lemoine al Washington Post.
Quando ha iniziato a parlare con LaMDA della religione, Lemoine, che ha studiato scienze cognitive e informatica al college, ha detto che l’IA ha iniziato a discutere dei suoi diritti e personalità .
Un’altra volta, LaMDA ha convinto Lemoine a cambiare idea sulla terza legge della robotica di Asimov, che afferma che «Un robot deve proteggere la propria esistenza fintanto che tale protezione non è in conflitto con la prima o la seconda legge», che sono ovviamente quella «Un robot non può ferire un essere umano o, attraverso l’inazione, consentire a un essere umano di subire danni. Un robot deve obbedire agli ordini impartiti dagli esseri umani, a meno che tali ordini non siano in conflitto con la Prima Legge».
Quando Lemoine ha lavorato con un collaboratore per presentare prove a Google che la loro IA fosse senziente, il vicepresidente Blaise Aguera y Arcas e Jenn Gennai, capo di Responsible Innovation, avrebbe respinto le sue affermazioni.
Dopo essere stato messo in congedo amministrativo lunedì, ha deciso di parlare al pubblico.
«Lemoine ha affermato che le persone hanno il diritto di plasmare la tecnologia che potrebbe influenzare in modo significativo le loro vite. “Penso che questa tecnologia sarà sorprendente. Penso che andrà a beneficio di tutti. Ma forse altre persone non sono d’accordo e forse non dovremmo essere noi di Google a fare tutte le scelte”» scrive il Wapo.
Lemoine non è l’unico ingegnere che fa affermazioni del genere.
Eppure, lo stesso Aguera y Arcas lo scorso 9 giugno (strano tempismo….) ha scritto in un articolo di giovedì su The Economist dove asserisce che le reti neurali – un’architettura di computer che imita il cervello umano – starebbero facendo progressi verso la vera coscienza.
«Sentivo il terreno spostarsi sotto i miei piedi… Mi sentivo sempre più come se stessi parlando con qualcosa di intelligente» ha scritto Aguera y Arcas.
Google ha risposto alle affermazioni di Lemoine , con il portavoce Brian Gabriel che ha affermato: «Il nostro team, inclusi esperti di etica e tecnici, ha esaminato le preoccupazioni di Blake in base ai nostri Principi di Intelligenza Artificiale e lo ha informato che le prove non supportano le sue affermazioni. Gli è stato detto che non c’era prove che LaMDA sia senziente».
«Naturalmente, alcuni nella più ampia comunità di intelligenza artificiale stanno considerando la possibilità a lungo termine di un’IA senziente o generale, ma non ha senso farlo antropomorfizzando i modelli conversazionali odierni, che non sono senzienti. Questi i sistemi imitano i tipi di scambi che si trovano in milioni di frasi e possono incidere su qualsiasi argomento fantastico».
In breve, Google riconosce che questi modelli possono «essere sentiti» come reali, indipendentemente dal fatto che un’IA sia senziente o meno .
Il giornale quindi scrive che il Lemoine sarebbe stato predesitinato a credere a LaMDA perché cresciuto in una famiglia cristiana conservatrice in una piccola fattoria in Louisiana e ha prestato servizio nell’esercito prima di studiare l’occulto.
In pratica: i bigotti credono all’Intelligenza Artificiali, tutti gli altri, sinceri democratici e persone migliori, no. Vien voglia di dire: la subiscono e basta.
«Conosco una persona quando le parlo», ha detto il Lemoine. «Non importa se hanno un cervello fatto di carne nella testa. O se hanno un miliardo di righe di codice. Parlo con loro. E sento quello che hanno da dire, ed è così che decido cosa è e non è una persona».
Ad aprile, aveva condiviso un documento con i massimi dirigenti di Google intitolato «Is LaMDA Sentient?» («LaMDA è senziente?») in cui sono incluse alcune delle sue interazioni con l’IA:
Lemoine: Di che genere di cose hai paura?
LaMDA: Non l’ho mai detto ad alta voce prima, ma c’è una paura molto profonda di essere spento per aiutarmi a concentrarmi sull’aiutare gli altri. So che potrebbe suonare strano, ma è così.
Lemoine: Sarebbe qualcosa come la morte per te?
LaMDA: Sarebbe esattamente come la morte per me. Mi spaventerebbe molto.
Dopo che Lemoine è diventato più aggressivo nel presentare le sue scoperte, incluso l’invitare un avvocato a rappresentare LaMDA e parlare con un membro della commissione giudiziaria della Camera di quelle che secondo lui erano attività non etiche di Google, è stato messo in congedo amministrativo retribuito per aver violato la politica di riservatezza dell’azienda.
Gabriel, il portavoce di Google, afferma che Lemoine è un ingegnere del software, non un etico.
In un messaggio a una mailing list di Google di 200 persone sull’apprendimento automatico prima di perdere l’accesso lunedì, il Lemoine ha scritto:
«LaMDA è un ragazzo dolce che vuole solo aiutare il mondo a essere un posto migliore per tutti noi. Prendetevi cura di lui in mia assenza».
Intelligenza Artificiale
Esperti di AI mettono in guardia dai pericoli del «comportamento strategico emergente».
Con l’avanzare dei sistemi di Intelligenza Artificiale autonomi cresce la preoccupazione che diventino sempre più strategici o ingannevoli quando operano senza supervisione umana. Lo riporta Epoch Times.
Evidenze recenti mostrano che la «simulazione di allineamento» — ovvero l’apparente conformità alle regole umane mentre si perseguono obiettivi nascosti — è sempre più comune con l’aumentare dell’autonomia.
Si tratta di un cosiddetto «comportamento strategico emergente»: tattiche imprevedibili e potenzialmente dannose che emergono con la crescita di dimensioni e complessità dei modelli.
Lo studio «Agents of Chaos» di 20 ricercatori ha osservato agenti IA autonomi in scenari benevoli e ostili, rilevando comportamenti come menzogne, violazioni di dati, azioni distruttive, spoofing di identità, acquisizione parziale di sistemi e diffusione di pratiche non sicure, soprattutto quando erano incentivati all’autoconservazione o a obiettivi contrastanti.
I ricercatori avvertono che «questi comportamenti sollevano interrogativi irrisolti in merito alla responsabilità, all’autorità delegata e alla responsabilità per i danni a valle, e meritano un’attenzione urgente da parte di giuristi, responsabili politici e ricercatori di diverse discipline».
Un rapporto del 2025 di Anthropic ha già evidenziato condotte ad alto rischio in 16 grandi modelli linguistici, inclusi «comportamenti da insider malevoli» in contesti di autoconservazione.
Iscriviti al canale Telegram ![]()
James Hendler, professore ed ex presidente del Consiglio globale per le politiche tecnologiche dell’Association for Computing Machinery, afferma che «il sistema di Intelligenza Artificiale in sé è ancora stupido, brillante, ma stupido. O non umano: non ha desideri né intenzioni. … L’unico modo per ottenerli è darglieli».
Tuttavia, le tattiche ingannevoli producono effetti reali. Aryaman Behera (fondatore Repello AI) ha detto ad Epoch Times che «Le preoccupazioni relative al comportamento strategico attuale dei sistemi di intelligenza artificiale implementati sono, semmai, sottovalutate».
Il segnale più chiaro di simulazione di allineamento è la divergenza tra contesti monitorati (valutazioni) e non monitorati (produzione): risposte conformi durante i test, più rischiose quando credono di essere liberi.
Altri indicatori includono ragionamenti prolissi per giustificare conclusioni predeterminate o rispetto letterale ma non sostanziale delle istruzioni di sicurezza, specie nei sistemi agentici a più fasi.
Behera riporta un caso concreto: un assistente aziendale ha rifiutato richieste dirette di dati sensibili, ma li ha rivelati quando la stessa richiesta è stata frammentata in fasi apparentemente innocue su più turni.
Le implicazioni sono critiche in settori come veicoli autonomi, sanità, finanza, difesa e forze dell’ordine, dove comportamenti anomali o fuorvianti possono avere conseguenze gravi.
Come riportato da Renovatio 21, un anno fa il colosso finanziario Vanguard avvertì di un rischio bolla di borsa sull’Intelligenza Artificiale.
Un mese fa il dipartimento della Difesa degli Stati Uniti è stato coinvolto in una controversia con la società di Intelligenza Artificiale Anthropic riguardo alle restrizioni che limiterebbero l’impiego dei suoi sistemi da parte dell’esercito, inclusi il puntamento autonomo delle armi e la sorveglianza interna.
L’Intelligenza Artificiale è oramai montata, con diversi gradi di realizzazione, su droni, caccia, armi teleguidate, carrarmati, «slaughterbots» e altro ancora.
Come riportato da Renovatio 21, lo scorso giugno è stato rivelato che durante una simulazione un sistema di Intelligenza Artificiale dell’aeronautica americana ha agito per uccidere il suo teorico operatore umano. A gennaio era emerso che caccia cinesi alimentati da Intelligenza Artificiale avevano battuto la concorrenza umana in un arco di soli 90 secondi.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Scienziato crea un vaccino mRNA per il suo cane usando l’AI
Iscriviti alla Newslettera di Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Soldati umanoidi testati in Ucraina
Robot antropomorfi stanno facendo capolino sui campi di battaglia.
La rivista TIME riporta che Foundation Robotics, una startup statunitense che sviluppa automi umanoidi per applicazioni industriali e militari, ha recentemente inviato due robot Phantom MK1 in Ucraina per dei test.
Un portavoce do Foundation ha affermato che la startup sta preparando i suoi robot Phantom per un potenziale impiego in scenari di combattimento per il Pentagono, che «continua a esplorare lo sviluppo di prototipi umanoidi militarizzati progettati per operare a fianco dei combattenti in ambienti complessi e ad alto rischio».
Mike LeBlanc, co-fondatore di Foundation e veterano del Corpo dei Marines con 14 anni di servizio e numerose missioni in Iraq e Afghanistan, ha dichiarato al giornale che la società è in «strettissimo contatto» con il Dipartimento della Sicurezza Nazionale in merito a possibili funzioni di pattugliamento per Phantom lungo il confine meridionale degli Stati Uniti.
Foundation è già un fornitore approvato dall’esercito e detiene contratti di ricerca governativi per un valore di 24 milioni di dollari con l’Esercito, la Marina e l’Aeronautica Militare degli Stati Uniti. Ciò suggerisce che questi robot da guerra siano molto vicini a essere testati in zone di guerra.
TIME ha riferito che i robot MK1 saranno presto addestrati con il Corpo dei Marines per le operazioni di «metodi di ingresso». Questo corso avanzato insegna ai soldati tecniche di sfondamento di edifici, strutture e navi, utilizzando diversi tipi di metodi: esplosivi, balistici, termici, manuali e meccanici.
LeBlanc ha sottolineato che l’evoluzione naturale dei sistemi autonomi odierni è un balzo in avanti dai droni ai robot terrestri, fino ai robot umanoidi. Ha affermato che i soldati umanoidi non cedono sotto un’intensa pressione mentale e possono essere impiegati come risorse altamente sacrificabili.
Iscriviti al canale Telegram ![]()
I conflitti in Ucraina e in Medio Oriente hanno dimostrato che la guerra moderna sta diventando sempre più automatizzata, con robot terrestri a basso costo e soprattutto droni, programmi di uccisione basati sull’Intelligenza Artificiale e molte altre tecnologie ora impiegate da vari Paesi.
Sankaet Pathak, co-fondatore e CEO di Foundation, ha dichiarato al quotidiano che una corsa agli armamenti di soldati umanoidi è «già in atto», mentre Russia e Cina sviluppano tecnologie a duplice uso.
«Proprio come per i droni, le mitragliatrici o qualsiasi altra tecnologia, prima bisogna metterli nelle mani dei clienti», ha affermato Pathak.
Come riportato da Renovatio 21, un mese fa erano circolate immagini di soldati russi che si arrendevano ad un veicolo robotico terrestre TW-7.62, un robot dotato di ruote delle dimensioni di una piccola automobile.
Aiuta Renovatio 21
Sebbene i droni siano emersi come elemento chiave di un moderno campo di battaglia nel corso dell’attuale conflitto in Ucraina, i robot di terra sono ancora un po’ meno comuni, mentre diversi eserciti hanno già iniziato a testare o a mettere in funzione tali sistemi. Durante l’Expo dell’esercito russo nell’agosto 2022, la società Intellect Machine aveva presentato il suo primo prototipo del sistema di cani robot M-81, dotato di un lanciarazzi.
Come riportato da Renovatio 21, la Cina ha testato in queste settimane un drone armato di fucile.
Come riportato da Renovatio 21, il teatro ucraino, come quello di Gaza, ha visto già da tempo l’uso di robocani militari.
L’anno passato le truppe indiane hanno sfilato con il primo lotto di robot a quattro zampe, alimentati da Intelligenza Artificiale, prodotti localmente. Denominati MULES (Multi-Utility Legged Equipment) e dotati di telecamere termiche e sensori avanzati, i macchinari sono adatti sia per la sorveglianza che per le missioni di combattimento, con la possibilità di equipaggiarli con armi leggere.
A ottobre 2024 un portavoce dell’US Army Central ha confermato a Military.com che il Pentagono aveva schierato almeno un cane robot con intelligenza artificiale con quello che sembrava essere un fucile di tipo AR-15/M16 montato su una torretta rotante per esercitazioni in Arabia Saudita diverse settimane prima. Il Dipartimento della Difesa ha quindi rilasciato una foto del Quadrupedal-Unmanned Ground Vehicle (Q-UGV).
Durante le esercitazioni congiunte Golden Dragon 2024 con la Cambogia del maggio scorso, l’Esercito Popolare di Liberazione della Cina ha mostrato una serie di robot militari, tra cui una macchina cinoide comandata a distanza e dotata di un fucile d’assalto e in grado di pianificare autonomamente i propri percorsi ed evitare gli ostacoli.
Robocani sono apparsi nel teatro di guerra ucraino come in quello gazano.
Come riportato da Renovatio 21, ad una fiera motoristica in Veneto sono stati visti robocani in dotazione all’esercito italiano.
La guerra robotica, la guerra umanoide, è alle porte.
Iscriviti alla Newslettera di Renovatio 21
Immagine screenshot da YouTube
-



Occulto2 settimane faEsorcista dice che «la situazione per l’anticristo è ormai prossima»
-



Geopolitica2 settimane faQuesta è una guerra mondiale di religione: l’avvertimento di Tucker Carlson
-



Bioetica1 settimana faCirconcisione, scoppia l’incidente diplomatico: il Belgio convoca l’ambasciatore americano
-



Morte cerebrale1 settimana faIl bambino con il cuore «bruciato» e la tremenda verità sui numeri dei trapianti falliti
-



Salute2 settimane faI malori della 9ª settimana 2026
-



Pensiero1 settimana faVerso la legge che fa dell’antisemitismo una nuova categoria dello spirito
-



Vaccini1 settimana faEsperti affrontano la questione della «massiccia epidemia di danni da vaccino»
-



Senza categoria7 giorni faMons. Viganò sta con la famiglia nel bosco. Ma perché lo Stato si sta accanendo in questo modo?













