Connettiti con Renovato 21

Intelligenza Artificiale

Elon Musk: Google vuole creare un dio-AI

Pubblicato

il

Elon Musk ha rivelato che l’intenzione di Google sarebbe quella di creare un dio-Intelligenza Artificiale. Il patron di Tesla e Twitter lo ha rivelato in una lunga e densissima intervista con il giornalista televisivo americano Tucker Carlson.

 

Musk sostiene di aver ripetutamente messo in guardia i proprietari di Google dai pericoli dell’AI. Tuttavia, il miliardario ha affermato che l’obiettivo finale di Google è proprio «creare una super intelligenza digitale» o meglio, un «AI god», cioè un dio digitale fatto di Intelligenza Artificiale.

 

Il proprietario di Twitter ha affermato che il co-fondatore di Google, Larry Page, un tempo suo amico, gli aveva rivelato in privato anni fa che l’agenda ultima dell’azienda è quella di lavorare per l’Intelligenza Artificiale Generale (AGI).

 

Quando Musk ha ribattuto specificando i rischi dell’AI, Page gli ha dato dello «specista», termine del gergo animalista che indica una persona che mette la specie umana sopra le altre.

 

«Sì, sono uno specista, mi hai beccato!» Musk ha raccontato a Carlson, aggiungendo di aver chiesto a Page «e tu invece cosa sei?»

 

Musk dice che alla conversazione erano presenti dei testimoni, e che comunque l’intenzione di Page sarebbe stata resa pubblica lungo gli anni.

 

 

Questo evento avrebbe lo avrebbe spinto, racconta Musk, a fondare OpenAI, creata come società no-profit per bilanciare il progetto di Intelligenza Artificiale portato avanti da Google, che all’epoca, dice Musk, possedeva tre quarti dei migliori talenti specializzati in AI grazie alla sua società Deep Mind, famosa per aver battuto vari campioni a scacchi e al giuoco del Go. Come noto, Musk perse il controllo di OpenAI che divenne una società for-profit, ora sulla bocca di tutti grazie al suo popolare – e molto, molto controverso – programma di Intelligenza Artificiale ChatGPT.

 

Ora, dice Musk, con Microsoft entrata pesantemente in OpenAI, non si ha più un monopolio di Google, ma un duopolio, con OpenAI forse in leggero vantaggio: tuttavia non cambia il fatto che uno strumento di tale potenza sia in mano a società private, sottolinea l’imprenditore di origine sudafricana.

 

L’imprenditore ha quindi sottolineato «stanno addestrando l’Intelligenza Artificiale a mentire. È brutto… Commentare su alcune cose, non commentare su altre cose». Elon ha quindi dato una spiegazione sul tono predicatorio sempre politicamente corretto di ChatGPT, dicendo che in pratica si tratta dell’ideologia dei suoi addestratori di San Francisco.

 

La soluzione è quindi creare un concorrente onesto. «Inizierò qualcosa che chiamo TruthGPT, o un’Intelligenza Artificiale massima alla ricerca della verità che cerca di comprendere la natura dell’universo», ha rivelato. «Penso che questo potrebbe essere il miglior percorso verso la sicurezza, nel senso che un’Intelligenza Artificiale che si preoccupa di comprendere l’universo, è improbabile che annichilisca gli umani perché siamo una parte interessante dell’universo». L’esempio, dice, è quello degli scimpanzé: gli uomini sono più intelligenti, e potrebbero sterminarli, ma non lo fanno, anzi cercano di preservare la loro specie e il loro habitat.

 

Nell’intervista Musk ha ribadito che è «assolutamente» concepibile che l’IA possa prendere il controllo e prendere decisioni per le persone, il che alla fine potrebbe portare alla «distruzione della civiltà».

 

«Il pericolo, in realtà, è che l’Intelligenza Artificiale è forse più pericolosa, diciamo, di una cattiva progettazione di aeromobili o manutenzione della produzione o una cattiva produzione di automobili, nel senso che ha il potenziale, per quanto piccolo tu voglia considerare quella probabilità, ma non è banale», dichiarato l’uomo di SpaceX. «Ci sono film come Terminator. Ma non accadrebbe come in Terminator perché l’intelligenza si troverebbe nei data center. I robot sono solo l’effetto finale».

 

«I regolamenti vengono davvero messi in atto solo dopo che è successo qualcosa di terribile» ha continuato. «Se questo è il caso dell’intelligenza artificiale, e abbiamo introdotto regolamenti solo dopo che è successo qualcosa di terribile, potrebbe essere troppo tardi per mettere effettivamente in atto i regolamenti. L’Intelligenza Artificiale a quel punto sarà fuori controllo».

 

Come riportato da Renovatio 21, Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».

 

Musk e altri lo scorso mese hanno pubblicato una pubblica richiesta di moratoria per fermare l’Intelligenza Artificiale.

 

Concordiamo sul fatto che la minaccia è reale, e Renovatio 21 ve lo ripete da anni.

 

L’idea che l’AI diventerà una sorta di dio circola da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers  se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». L’anno scorso, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».

 

Recentemente un ingegnere di Google, Blake Lemoine, ha dichiarato pubblicamente che il chatbot AI dell’azienda, LaMDA, è «senziente», ossia dotato di una coscienza comparabile a quella degli esseri umani.

 

Come riportato da Renovatio 21, Eliezer Yudkowsky, riconosciuto come uno dei più accaniti critici all’Intelligenza Artificiale in circolazione negli ultimi due decenni, ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi.

 

 

 

 

 

Continua a leggere

Intelligenza Artificiale

Robocani anche per la polizia di Los Angeles

Pubblicato

il

Da

Il consiglio comunale di Los Angeles ha autorizzato l’uso di robocani da parte del dipartimento di polizia locale, nonostante le proteste dei residenti e di alcuni membri del consiglio dissenzienti.

 

I legislatori della città hanno votato martedì 8 contro 4 per approvare una donazione di un cosiddetto «veicolo terrestre senza pilota quadrupede» alla polizia di Los Angeles dalla Los Angeles Police Foundation senza scopo di lucro, che ha fornito alle forze dell’ordine il robot gratuitamente. Il robocane, è stato riportato, avrebbe un costo di 277 mila dollari.

 

Il robocane in uso alla polizia losangelina è progettato e prodotto da Boston Dynamics, azienda di ingegneria robotica passata più volte di mano, da Google al fondo giapponese SoftBank ai coreani della Hyundai Motor Company, attuali proprietari. Il progetto BidDog era stato finanziato dalla DARPA, l’enigmatico e ricchissimo reparto ricerca e sviluppo del Pentagono.

 

Il robocane poliziotto californiano è in grado di navigare autonomamente su terreni ed edifici e può essere equipaggiato con un’ampia gamma di apparecchiature di sorveglianza, sensori e altri «carichi utili». Per la polizia, è generalmente destinato all’uso in situazioni pericolose che potrebbero mettere a rischio gli agenti, fungendo da occhi e orecchie in più per il dipartimento.

 

Tuttavia, la nuova aggiunta alla polizia di Los Angeles ha subito aspre critiche da parte dei residenti, con diversi cittadini che hanno criticato la decisione del consiglio durante i commenti pubblici di martedì. Un cittadino ha detto «Non voglio armare l’Intelligenza Artificiale», mentre un altro ha dichiarato che l’uso del robot alla fine avrebbe portato a «poliziotti robot». «Ragazzi, non avete visto quel film I, Robot o Terminator

 

Ancora un altro cittadino ha affermato che il periodo di commento pubblico del consiglio comunale è stato “chiaramente performante”, accusando i legislatori locali di ignorare i desideri dei loro elettori.

 

«Dopo aver ascoltato i travolgenti commenti del pubblico, voti nella direzione opposta, New York City e San Francisco hanno già rifiutato questi cani robot. La polizia di Los Angeles non ha bisogno di armi militari», è stato uno dei commenti. In realtà, dopo tentennamenti, le altre città hanno implementato i «terminator dogs» nei loro programmi di forza dell’ordine.

 

La decisione di New York nel 2020 di impiegare il cane robotico, che il Distretto di polizia cittadino aveva soprannominato «Digidog», si era rivelata altrettanto controversa, tanto che la città aveva interrotto il suo primo contratto per l’affitto del dispositivo dopo che i newyorkesi hanno denunciato la tecnologia come orwelliana.

 

Tuttavia, l’amministrazione della Grande Mela in seguito ha invertito la rotta e rimettendo in pista il robocane poliziotto il mese scorso, con il commissario di polizia Keechant Sewell che ha affermato che sarebbe stato utilizzato in un modo «trasparente, coerente e sempre fatto in stretta collaborazione con le persone che serviamo».

 

 

Come riportato da Renovatio 21, anche la vicina San Francisco ha persino preso in considerazione l’idea di consentire al suo dipartimento di polizia di utilizzare i robot dotati di forza letale in caso di emergenza.

 

Robocani sono utilizzati ai confini con il Messico. Tuttavia vi è polemica: c’è chi ritiene che il loro uso spaventa gli immigrati spingendoli verso sentieri dove poi incontrano la morte.

 

Come visto in immagini scioccanti della scorsa primavera, i robocani abbiano pattugliato le strade di Shanghai durante il colossale lockdown della primavera 2022, dove per sorvegliare e punire i 26 milioni di abitanti usarono, oltre agli androidi quadrupedi, anche droni che volevano tra i palazzi ripetendo frasi come «contieni la sete di libertà del tuo spirito».

 

Al Forum militare di Mosca dell’anno scorso di due mesi fa erano visibili robocani dotati di bazooka. Roboquadrupedi militari sono in produzione ovunque – pure in versione «telepatica».

 

Renovatio 21, oramai ribattezzabile come «L’Eco del robocane» vista la mole di articoli sull’argomento, aveva parlato della militarizzazione dei robocani più di un anno fa. Roboquadrupedi militari sono in produzione ovunque – pure in versione «telepatica».

 

In un ulteriore sviluppo inquietante, un team di ingegneri ha ben pensato di introdurre nella «mente» di un robocane ChatGPT.

 

Come riportato Renovatio 21, robocagnazzi sono stati mandati in giro pure per la campagna umbra.

 

 

 

 

Immagine screenshot da Telegram

 

 

 

Continua a leggere

Intelligenza Artificiale

Card. Eijk: la Chiesa deve dire la sua sull’Intelligenza Artificiale

Pubblicato

il

Da

Lo afferma con forza il cardinale Willem Jacobus Eijk, arcivescovo di Utrecht (Paesi Bassi): la proliferazione di nuovi servizi e offerte di Intelligenza Artificiale (IA) richiede una risposta e una considerazione da parte della Chiesa cattolica.

 

 

L’arcivescovo di Utrecht è medico di formazione ed esperto di sessualità e bioetica. Due sono le urgenze per lui: da una parte che la Chiesa sia presente su «chatbot» come ChatGPT o Google Bard, in modo che le risposte comprendano anche il punto di vista religioso.

 

D’altra parte, è necessario riflettere più ampiamente sull’impatto dell’IA e, in particolare, su come il suo utilizzo, anche nel campo della pastorale e dell’assistenza medica, influisca sul modo in cui le società percepiscono gli esseri umani.

 

Il porporato, noto per aver chiesto un chiarimento magisteriale della Chiesa sul tema dell’ideologia di genere, è convinto che la Chiesa debba decidere, anche attraverso un documento ufficiale, sull’impatto dell’IA sull’essere umano, che chiede un intervento molto ampio riflessione.

 

«È difficile avere una panoramica di tutto ciò che l’IA può fare per noi, perché è ancora un ambito poco conosciuto. Ma le tecnologie IA, come i chatbot, possono anche dire qualcosa sulle questioni religiose».

 

Il fatto è che «la risposta del chatbot è il risultato di un calcolo dell’IA. Ma significa che l’aggiunta di informazioni religiose può influenzare le risposte. Per questo, dobbiamo cercare di essere presenti nel campo dell’IA. Ma l’intelligenza artificiale può fare molto di più del testo. (…) Può rispondere raccogliendo dati e mettendoli in ordine o contesto».

 

Un esempio lampante è quello di «Bing» di Microsoft, che grazie all’IA si è trasformato da motore di ricerca a quello di chatbot. Un tale sistema può simulare conversazioni con santi sulla base di informazioni trasmesse sulla vita e le parole dei santi.

 

 

È necessaria cautela, ma senza aspettare troppo

Il cardinale Eijk ammette che serve una certa prudenza, ma allo stesso tempo: «se aspettiamo troppo, altri avranno introdotto più informazioni che determineranno le risposte. (…) Non conosciamo le conseguenze dell’uso diffuso del software chatbot, ma possiamo già prevedere un certo scenario».

 

«Questi software commettono errori, ma cosa succederà tra 10, 20 o anche 5 anni? Ci saranno altri tipi di IA, computer molto più potenti in grado di dare risposte molto più precise. Possiamo influenzare le risposte ora. (…) È comprensibile avere paura, perché l’IA può avere conseguenze molto negative per la nostra società».

 

La questione, prosegue il porporato, non riguarda solo l’uso dei software per l’interazione, ma la questione della «robotizzazione della nostra società, che potrebbe portare alla perdita di molti posti di lavoro, soprattutto per le persone che non hanno svolto alcuno studio specializzato. (…) Perché il robot è una specie di impiegato che non chiede aumento, che lavora 24 ore su 24 senza stancarsi. Potrebbe cambiare radicalmente la nostra società».

 

 

Transumanesimo

Un pericolo reale è anche il rischio di un nuovo «transumanesimo», in cui gli esseri umani possano essere trattati e percepiti come macchine. Così, il card. Eijk ha ricordato che «abbiamo già case di riposo dove i robot portano il cibo. Ma dare da mangiare ai malati è un momento di contatto umano con il malato che si è perso».

 

Il passaggio dalla semplice distribuzione del cibo alla cura del paziente fa sì che, in alcuni aspetti pratici, il contatto umano diventi sempre più impercettibile.

 

Così, «se un robot toglie un paziente dal letto e lo porta sotto la doccia, c’è il rischio che il contatto umano vada completamente perso. Con il miglioramento del software, nulla ostacola questo passaggio».

 

 

 

 

 

Articolo previamente apparso su FSSPX.news.

 

 

 

Continua a leggere

Intelligenza Artificiale

Musk insiste: l’AI può distruggere l’umanità

Pubblicato

il

Da

Il CEO di Tesla, Elon Musk, ha ancora una volta lanciato l’allarme sui potenziali pericoli dell’intelligenza artificiale (AI), che secondo il geniale magnate di Tesla potrebbe distruggere l’umanità.

 

«C’è una forte probabilità che renderà la vita molto migliore e che avremo un’era di abbondanza», ha detto Musk in un’intervista con il giornalista del canale CNBC David Faber. «E c’è qualche possibilità che vada storto e distrugga l’umanità».

 

«Si spera che questa possibilità sia piccola, ma non è zero. E quindi, penso che vogliamo intraprendere qualsiasi azione ci venga in mente per ridurre al minimo la probabilità che l’IA vada storta» ha dichiarato Elon.

 

Il discorso sul pericolo esistenziale per la civiltà costituito dalle macchine intelligenti viene portato avanti da Musk da anni, ed è stato ripetuto poche settimane fa in un’intervista TV con Tucker Carlson, quando ha raccontato dei retroscena della corsa all’AI nella Silicon Valley, dichiarando che il fine di Google sarebbe quello di creare un «dio AI», senza che ai fondatori interessi il destino degli esseri umani, preoccupazione vista come «specista» da Larry Page, ha rivelato Musk.

 

«Sono la ragione per cui esiste OpenAI», ha detto il miliardario parlando della società che ha creato ChatGPT, rivelando di aver donato circa 50 milioni di dollari al laboratorio di ricerca quando era ancora un’organizzazione senza scopo di lucro. «Ho inventato il nome… OpenAI si riferisce a “open source“» rivela Musk.

 

Musk ha ribadito di aver investito in OpenAI, sperando che rappresenti un’alternativa open source a Google DeepMind. Nel 2019, tuttavia, OpenAI è diventata una società a scopo di lucro con software closed-source in una mossa di cui Musk ha messo in dubbio la legalità. «Diciamo che finanzi un’organizzazione per salvare la foresta pluviale amazzonica, e invece diventa un’azienda di legname, abbatte la foresta e la vende per soldi…. E tu dici, “Beh, aspetta un secondo, è l’esatto opposto di quello per cui ho dato i soldi”. È legale? Non sembra legale».

 

Nonostante i suoi rimpianti per il suo coinvolgimento con OpenAI, Musk ha recentemente fondato la sua società di intelligenza artificiale a scopo di lucro, X.AI Corp., a marzo, secondo documenti commerciali dello Stato americano del Nevada. Il nome dell’azienda rafforza le precedenti affermazioni di Musk secondo cui intende creare una «app per tutto» chiamata X. L’applicazione sarebbe simile a quello che fa in Cina WeChat, un’app che permette di comunicare come un social ma anche di pagare merci e servizi. Secondo alcuni, l’acquisto di Twitter al prezzo mirabolante di 40 miliardi di dollari servirebbe a questo proposito: la base di utenti di Twitter, pur non essendo estesa come quella di Facebook o Whatsapp, è comunque ragguardevole.

 

X.com era il nome della startup di Musk da cui poi, fondendosi con un’altra startup guidata da Peter Thiel, sarebbe divenuta PayPal, che fu poi venduta a eBay facendo totalizzare a Elon le somme con le quali ha iniziato Tesla e SpaceX. In anni recenti è emerso che, per una somma non dichiarata, eBay avrebbe ceduto indietro il dominio internet X.com a Musk, che si dice affezionato per questioni personali. In seguito, anche il primo figlio avuto dalla concubina cantante Claire Boucher detta Grimes avrebbe avuto una X nel nome: l’impronunziabile X Æ A-Xii.

Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone». Con altri grandi nomi lo scorso mese aveva pubblicato una pubblica richiesta di moratoria per fermare l’Intelligenza Artificiale.

 

Un ulteriore appello a mettere in pausa lo sviluppo dell’Intelligenza Artificiale è stato firmato da un gruppo internazionale di medici e pubblicato dalla prestigiosa rivista medica BMJ Global Health. «Ci sono scenari in cui l’AGI [Intelligenza Artificiale Generale, ndr] potrebbe rappresentare una minaccia per gli esseri umani, e possibilmente una minaccia esistenziale» scrivono nell’appello i dottori di varie parti del mondo.

 

L’anno passato il pioniere dell’AI e capo del personale di Open AI Ilya Sutskever aveva affermato che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli». Recentemente un ingegnere di Google, Blake Lemoine, ha dichiarato pubblicamente che il chatbot AI dell’azienda, LaMDA, è «senziente», ossia dotato di una coscienza comparabile a quella degli esseri umani.

 

Come riportato da Renovatio 21, il padrino dell’AI Geoofrey Hinton si è licenziato da Google per poter dichiarare il rischio per l’umanità costituito dall’AI, che per ora, secondo l’informatico britannico sarebbe solo, «moderato».

 

Più pessimista è l’esperto dei pericolo dell’AI Eliezer Yudkowsky, che ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi, dichiarando che «tutti sulla Terra moriranno».

 

 

 

 

 

 

 

 

 

Continua a leggere

Più popolari