Intelligenza Artificiale
La lettera di Elon Musk per fermare l’Intelligenza Artificiale

Elon Musk, il cofondatore di Apple e molti esperti informatici tra cui i professori di AI Yoshua Bengio e Stuart Russel altro hanno firmato una lettera pubblicata dal Future of Life Institute per fermare l’avanzata dell’Intelligenza Artificiale, arrivata a spaventare anche l’opinione pubblica con chatGPT, software di cui si è impadronita spendendo 10 miliardi la Microsoft di Bill Gates.
Come riportato da Renovatio 21, il software è arrivato a minacciare gli utenti, fare proclami stralunati, perfino dichiarare di voler sterminare gli esseri umani, e creare codice per prendere il controllo del computer dei suoi interlocutori.
L’appello di Musk e compagni (tra i quali, purtroppo, vediamo anche Yuval Harari) è paragonabile a quelli che decenni fa si sono visti per lo sviluppo delle armi atomiche, e – aggiungiamo noi – che non si sono visti per le armi biologiche e le ricerche Gain of Function: il risultato del genio scappato dalla lampada lì è stato, con estrema probabilità, la catastrofe della pandemia COVID-19.
Gli effetti della fuga del genio AI dalla lampada, strofinata a dovere da oligarchi senza scrupoli e senza amore per il genere umano, non riusciamo ancora ad immaginarceli.
Tuttavia Elon Musk, oramai quasi una decina di anni fa, ci aveva messo in guardia: sarà «come evocare un demone».
È il momento di avere paura. È il momento di agire – è il momento che se ne occupi la politica, che in Italia invece che vedere il precipizio davanti alla popolazione, come sempre, si occupa di quisquilie e problemucci partitici, sempre obbediente ai suoi capi di Bruxelles, Francoforte, Washington, e quindi incapace di difenderci davvero.
La minaccia è reale, e Renovatio 21 ve lo ripete da anni.
Sotto la traduzione integrale della lettera.
«Mettete in pausa gli esperimenti di Intelligenza Artificiale gigante: una lettera aperta»
Chiediamo a tutti i laboratori di Intelligenza Artificiale di sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di Intelligenza Artificiale più potenti di GPT-4.
I sistemi di Intelligenza Artificiale con intelligenza competitiva umana possono comportare gravi rischi per la società e l’umanità, come dimostrato da ricerche approfondite (1) e riconosciuto dai migliori laboratori di Intelligenza Artificiale. (1)
Come affermato nei Principi Asilomar AI ampiamente approvati, l’IA avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cure e risorse adeguate.
Sfortunatamente, questo livello di pianificazione e gestione non sta accadendo, anche se negli ultimi mesi i laboratori di Intelligenza Artificiale sono stati incastrati in una corsa fuori controllo per sviluppare e implementare menti digitali sempre più potenti che nessuno, nemmeno i loro creatori, può capire, prevedere o controllare in modo affidabile.
I sistemi di Intelligenza Artificiale contemporanei stanno ora diventando competitivi per l’uomo in compiti generali, (3) e dobbiamo chiederci: dovremmo lasciare che le macchine inondino i nostri canali di informazioni con propaganda e falsità?
Dovremmo automatizzare tutti i lavori, compresi quelli soddisfacenti?
Dovremmo sviluppare menti non umane che alla fine potrebbero essere più numerose, superate in astuzia, obsolete e sostituirci?
Dovremmo rischiare di perdere il controllo della nostra civiltà?
Tali decisioni non devono essere delegate a leader tecnologici non eletti. Potenti sistemi di Intelligenza Artificiale dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili.
Questa fiducia deve essere ben giustificata e aumentare con l’entità degli effetti potenziali di un sistema. La recente dichiarazione di OpenAI sull’Intelligenza Artificiale generale afferma che «ad un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare ad addestrare i sistemi futuri e, per gli sforzi più avanzati, concordare di limitare il tasso di crescita del calcolo utilizzato per creare nuovi Modelli». Siamo d’accordo. Quel punto è adesso.
Pertanto, invitiamo tutti i laboratori di Intelligenza Artificiale a sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di Intelligenza Artificiale più potenti di GPT-4. Questa pausa dovrebbe essere pubblica e verificabile e includere tutti gli attori chiave. Se una tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria.
I laboratori di Intelligenza Artificiale e gli esperti indipendenti dovrebbero sfruttare questa pausa per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo avanzati di Intelligenza Artificiale, rigorosamente verificati e supervisionati da esperti esterni indipendenti. Questi protocolli dovrebbero garantire che i sistemi che vi aderiscono siano sicuri oltre ogni ragionevole dubbio. (4)
Ciò non significa una pausa nello sviluppo dell’IA in generale, ma semplicemente un passo indietro dalla pericolosa corsa a modelli black-box sempre più grandi e imprevedibili con capacità emergenti.
La ricerca e lo sviluppo dell’IA dovrebbero essere riorientati per rendere i sistemi potenti e all’avanguardia di oggi più accurati, sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali.
Parallelamente, gli sviluppatori di Intelligenza Artificiale devono collaborare con i responsabili politici per accelerare drasticamente lo sviluppo di solidi sistemi di governance dell’IA.
Questi dovrebbero come minimo includere: autorità di regolamentazione nuove e capaci dedicate all’IA; supervisione e tracciamento di sistemi di Intelligenza Artificiale altamente capaci e ampi pool di capacità computazionali; sistemi di provenienza e watermarking per aiutare a distinguere il reale dal sintetico e per tenere traccia delle fughe di modelli; un solido ecosistema di audit e certificazione; responsabilità per danni causati dall’IA; solidi finanziamenti pubblici per la ricerca tecnica sulla sicurezza dell’IA; e istituzioni dotate di risorse adeguate per far fronte alle drammatiche perturbazioni economiche e politiche (soprattutto per la democrazia) che l’IA causerà.
L’umanità può godere di un futuro fiorente con l’IA. Dopo essere riusciti a creare potenti sistemi di Intelligenza Artificiale, ora possiamo goderci un’«estate di Intelligenza Artificiale» in cui raccogliamo i frutti, progettiamo questi sistemi per il chiaro vantaggio di tutti e diamo alla società la possibilità di adattarsi. La società ha messo in pausa altre tecnologie con effetti potenzialmente catastrofici sulla società. (5)
Possiamo farlo qui. Godiamoci una lunga estate AI, non precipitiamoci impreparati nell’autunno.
NOTE
1) Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?🦜. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).
Bostrom, N. (2016). Superintelligence. Oxford University Press.
Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).
Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.
Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.
Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43(3) (pp. 282-293).
Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.
Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.
Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.
Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.
Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.
Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.
2) Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: ‘A little bit scared of this’. ABC News.
Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.
3) Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.
OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.
4) Esiste un ampio precedente legale: ad esempio, i principi IA dell’OCSE ampiamente adottati richiedono che i sistemi IA «funzionino in modo appropriato e non comportino un rischio irragionevole per la sicurezza».
5) Gli esempi includono la clonazione umana, la modifica della linea germinale umana, la ricerca sul guadagno di funzione e l’eugenetica.
Intelligenza Artificiale
Robocani anche per la polizia di Los Angeles

Il consiglio comunale di Los Angeles ha autorizzato l’uso di robocani da parte del dipartimento di polizia locale, nonostante le proteste dei residenti e di alcuni membri del consiglio dissenzienti.
I legislatori della città hanno votato martedì 8 contro 4 per approvare una donazione di un cosiddetto «veicolo terrestre senza pilota quadrupede» alla polizia di Los Angeles dalla Los Angeles Police Foundation senza scopo di lucro, che ha fornito alle forze dell’ordine il robot gratuitamente. Il robocane, è stato riportato, avrebbe un costo di 277 mila dollari.
Il robocane in uso alla polizia losangelina è progettato e prodotto da Boston Dynamics, azienda di ingegneria robotica passata più volte di mano, da Google al fondo giapponese SoftBank ai coreani della Hyundai Motor Company, attuali proprietari. Il progetto BidDog era stato finanziato dalla DARPA, l’enigmatico e ricchissimo reparto ricerca e sviluppo del Pentagono.
Il robocane poliziotto californiano è in grado di navigare autonomamente su terreni ed edifici e può essere equipaggiato con un’ampia gamma di apparecchiature di sorveglianza, sensori e altri «carichi utili». Per la polizia, è generalmente destinato all’uso in situazioni pericolose che potrebbero mettere a rischio gli agenti, fungendo da occhi e orecchie in più per il dipartimento.
Tuttavia, la nuova aggiunta alla polizia di Los Angeles ha subito aspre critiche da parte dei residenti, con diversi cittadini che hanno criticato la decisione del consiglio durante i commenti pubblici di martedì. Un cittadino ha detto «Non voglio armare l’Intelligenza Artificiale», mentre un altro ha dichiarato che l’uso del robot alla fine avrebbe portato a «poliziotti robot». «Ragazzi, non avete visto quel film I, Robot o Terminator?»
Ancora un altro cittadino ha affermato che il periodo di commento pubblico del consiglio comunale è stato “chiaramente performante”, accusando i legislatori locali di ignorare i desideri dei loro elettori.
«Dopo aver ascoltato i travolgenti commenti del pubblico, voti nella direzione opposta, New York City e San Francisco hanno già rifiutato questi cani robot. La polizia di Los Angeles non ha bisogno di armi militari», è stato uno dei commenti. In realtà, dopo tentennamenti, le altre città hanno implementato i «terminator dogs» nei loro programmi di forza dell’ordine.
La decisione di New York nel 2020 di impiegare il cane robotico, che il Distretto di polizia cittadino aveva soprannominato «Digidog», si era rivelata altrettanto controversa, tanto che la città aveva interrotto il suo primo contratto per l’affitto del dispositivo dopo che i newyorkesi hanno denunciato la tecnologia come orwelliana.
Tuttavia, l’amministrazione della Grande Mela in seguito ha invertito la rotta e rimettendo in pista il robocane poliziotto il mese scorso, con il commissario di polizia Keechant Sewell che ha affermato che sarebbe stato utilizzato in un modo «trasparente, coerente e sempre fatto in stretta collaborazione con le persone che serviamo».
The New York Police Department added a robot dog to hit force.
(Credit: Disclose) pic.twitter.com/JYAmlYLzag
— Apex World News (@apexworldnews) April 12, 2023
Come riportato da Renovatio 21, anche la vicina San Francisco ha persino preso in considerazione l’idea di consentire al suo dipartimento di polizia di utilizzare i robot dotati di forza letale in caso di emergenza.
Robocani sono utilizzati ai confini con il Messico. Tuttavia vi è polemica: c’è chi ritiene che il loro uso spaventa gli immigrati spingendoli verso sentieri dove poi incontrano la morte.
Come visto in immagini scioccanti della scorsa primavera, i robocani abbiano pattugliato le strade di Shanghai durante il colossale lockdown della primavera 2022, dove per sorvegliare e punire i 26 milioni di abitanti usarono, oltre agli androidi quadrupedi, anche droni che volevano tra i palazzi ripetendo frasi come «contieni la sete di libertà del tuo spirito».
Al Forum militare di Mosca dell’anno scorso di due mesi fa erano visibili robocani dotati di bazooka. Roboquadrupedi militari sono in produzione ovunque – pure in versione «telepatica».
Renovatio 21, oramai ribattezzabile come «L’Eco del robocane» vista la mole di articoli sull’argomento, aveva parlato della militarizzazione dei robocani più di un anno fa. Roboquadrupedi militari sono in produzione ovunque – pure in versione «telepatica».
In un ulteriore sviluppo inquietante, un team di ingegneri ha ben pensato di introdurre nella «mente» di un robocane ChatGPT.
Come riportato Renovatio 21, robocagnazzi sono stati mandati in giro pure per la campagna umbra.
Immagine screenshot da Telegram
Intelligenza Artificiale
Card. Eijk: la Chiesa deve dire la sua sull’Intelligenza Artificiale

Lo afferma con forza il cardinale Willem Jacobus Eijk, arcivescovo di Utrecht (Paesi Bassi): la proliferazione di nuovi servizi e offerte di Intelligenza Artificiale (IA) richiede una risposta e una considerazione da parte della Chiesa cattolica.
L’arcivescovo di Utrecht è medico di formazione ed esperto di sessualità e bioetica. Due sono le urgenze per lui: da una parte che la Chiesa sia presente su «chatbot» come ChatGPT o Google Bard, in modo che le risposte comprendano anche il punto di vista religioso.
D’altra parte, è necessario riflettere più ampiamente sull’impatto dell’IA e, in particolare, su come il suo utilizzo, anche nel campo della pastorale e dell’assistenza medica, influisca sul modo in cui le società percepiscono gli esseri umani.
Il porporato, noto per aver chiesto un chiarimento magisteriale della Chiesa sul tema dell’ideologia di genere, è convinto che la Chiesa debba decidere, anche attraverso un documento ufficiale, sull’impatto dell’IA sull’essere umano, che chiede un intervento molto ampio riflessione.
«È difficile avere una panoramica di tutto ciò che l’IA può fare per noi, perché è ancora un ambito poco conosciuto. Ma le tecnologie IA, come i chatbot, possono anche dire qualcosa sulle questioni religiose».
Il fatto è che «la risposta del chatbot è il risultato di un calcolo dell’IA. Ma significa che l’aggiunta di informazioni religiose può influenzare le risposte. Per questo, dobbiamo cercare di essere presenti nel campo dell’IA. Ma l’intelligenza artificiale può fare molto di più del testo. (…) Può rispondere raccogliendo dati e mettendoli in ordine o contesto».
Un esempio lampante è quello di «Bing» di Microsoft, che grazie all’IA si è trasformato da motore di ricerca a quello di chatbot. Un tale sistema può simulare conversazioni con santi sulla base di informazioni trasmesse sulla vita e le parole dei santi.
È necessaria cautela, ma senza aspettare troppo
Il cardinale Eijk ammette che serve una certa prudenza, ma allo stesso tempo: «se aspettiamo troppo, altri avranno introdotto più informazioni che determineranno le risposte. (…) Non conosciamo le conseguenze dell’uso diffuso del software chatbot, ma possiamo già prevedere un certo scenario».
«Questi software commettono errori, ma cosa succederà tra 10, 20 o anche 5 anni? Ci saranno altri tipi di IA, computer molto più potenti in grado di dare risposte molto più precise. Possiamo influenzare le risposte ora. (…) È comprensibile avere paura, perché l’IA può avere conseguenze molto negative per la nostra società».
La questione, prosegue il porporato, non riguarda solo l’uso dei software per l’interazione, ma la questione della «robotizzazione della nostra società, che potrebbe portare alla perdita di molti posti di lavoro, soprattutto per le persone che non hanno svolto alcuno studio specializzato. (…) Perché il robot è una specie di impiegato che non chiede aumento, che lavora 24 ore su 24 senza stancarsi. Potrebbe cambiare radicalmente la nostra società».
Transumanesimo
Un pericolo reale è anche il rischio di un nuovo «transumanesimo», in cui gli esseri umani possano essere trattati e percepiti come macchine. Così, il card. Eijk ha ricordato che «abbiamo già case di riposo dove i robot portano il cibo. Ma dare da mangiare ai malati è un momento di contatto umano con il malato che si è perso».
Il passaggio dalla semplice distribuzione del cibo alla cura del paziente fa sì che, in alcuni aspetti pratici, il contatto umano diventi sempre più impercettibile.
Così, «se un robot toglie un paziente dal letto e lo porta sotto la doccia, c’è il rischio che il contatto umano vada completamente perso. Con il miglioramento del software, nulla ostacola questo passaggio».
Articolo previamente apparso su FSSPX.news.
Intelligenza Artificiale
Musk insiste: l’AI può distruggere l’umanità

Il CEO di Tesla, Elon Musk, ha ancora una volta lanciato l’allarme sui potenziali pericoli dell’intelligenza artificiale (AI), che secondo il geniale magnate di Tesla potrebbe distruggere l’umanità.
«C’è una forte probabilità che renderà la vita molto migliore e che avremo un’era di abbondanza», ha detto Musk in un’intervista con il giornalista del canale CNBC David Faber. «E c’è qualche possibilità che vada storto e distrugga l’umanità».
«Si spera che questa possibilità sia piccola, ma non è zero. E quindi, penso che vogliamo intraprendere qualsiasi azione ci venga in mente per ridurre al minimo la probabilità che l’IA vada storta» ha dichiarato Elon.
Il discorso sul pericolo esistenziale per la civiltà costituito dalle macchine intelligenti viene portato avanti da Musk da anni, ed è stato ripetuto poche settimane fa in un’intervista TV con Tucker Carlson, quando ha raccontato dei retroscena della corsa all’AI nella Silicon Valley, dichiarando che il fine di Google sarebbe quello di creare un «dio AI», senza che ai fondatori interessi il destino degli esseri umani, preoccupazione vista come «specista» da Larry Page, ha rivelato Musk.
«Sono la ragione per cui esiste OpenAI», ha detto il miliardario parlando della società che ha creato ChatGPT, rivelando di aver donato circa 50 milioni di dollari al laboratorio di ricerca quando era ancora un’organizzazione senza scopo di lucro. «Ho inventato il nome… OpenAI si riferisce a “open source“» rivela Musk.
Musk ha ribadito di aver investito in OpenAI, sperando che rappresenti un’alternativa open source a Google DeepMind. Nel 2019, tuttavia, OpenAI è diventata una società a scopo di lucro con software closed-source in una mossa di cui Musk ha messo in dubbio la legalità. «Diciamo che finanzi un’organizzazione per salvare la foresta pluviale amazzonica, e invece diventa un’azienda di legname, abbatte la foresta e la vende per soldi…. E tu dici, “Beh, aspetta un secondo, è l’esatto opposto di quello per cui ho dato i soldi”. È legale? Non sembra legale».
Nonostante i suoi rimpianti per il suo coinvolgimento con OpenAI, Musk ha recentemente fondato la sua società di intelligenza artificiale a scopo di lucro, X.AI Corp., a marzo, secondo documenti commerciali dello Stato americano del Nevada. Il nome dell’azienda rafforza le precedenti affermazioni di Musk secondo cui intende creare una «app per tutto» chiamata X. L’applicazione sarebbe simile a quello che fa in Cina WeChat, un’app che permette di comunicare come un social ma anche di pagare merci e servizi. Secondo alcuni, l’acquisto di Twitter al prezzo mirabolante di 40 miliardi di dollari servirebbe a questo proposito: la base di utenti di Twitter, pur non essendo estesa come quella di Facebook o Whatsapp, è comunque ragguardevole.
X.com era il nome della startup di Musk da cui poi, fondendosi con un’altra startup guidata da Peter Thiel, sarebbe divenuta PayPal, che fu poi venduta a eBay facendo totalizzare a Elon le somme con le quali ha iniziato Tesla e SpaceX. In anni recenti è emerso che, per una somma non dichiarata, eBay avrebbe ceduto indietro il dominio internet X.com a Musk, che si dice affezionato per questioni personali. In seguito, anche il primo figlio avuto dalla concubina cantante Claire Boucher detta Grimes avrebbe avuto una X nel nome: l’impronunziabile X Æ A-Xii.
Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone». Con altri grandi nomi lo scorso mese aveva pubblicato una pubblica richiesta di moratoria per fermare l’Intelligenza Artificiale.
Un ulteriore appello a mettere in pausa lo sviluppo dell’Intelligenza Artificiale è stato firmato da un gruppo internazionale di medici e pubblicato dalla prestigiosa rivista medica BMJ Global Health. «Ci sono scenari in cui l’AGI [Intelligenza Artificiale Generale, ndr] potrebbe rappresentare una minaccia per gli esseri umani, e possibilmente una minaccia esistenziale» scrivono nell’appello i dottori di varie parti del mondo.
L’anno passato il pioniere dell’AI e capo del personale di Open AI Ilya Sutskever aveva affermato che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli». Recentemente un ingegnere di Google, Blake Lemoine, ha dichiarato pubblicamente che il chatbot AI dell’azienda, LaMDA, è «senziente», ossia dotato di una coscienza comparabile a quella degli esseri umani.
Come riportato da Renovatio 21, il padrino dell’AI Geoofrey Hinton si è licenziato da Google per poter dichiarare il rischio per l’umanità costituito dall’AI, che per ora, secondo l’informatico britannico sarebbe solo, «moderato».
Più pessimista è l’esperto dei pericolo dell’AI Eliezer Yudkowsky, che ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi, dichiarando che «tutti sulla Terra moriranno».
-
Ambiente5 giorni fa
Alluvione, undici scienziati dimostrano che le inondazioni non sono correlate ai cambiamenti climatici
-
Geopolitica2 settimane fa
Zelens’kyj è fuori controllo
-
Pedofilia2 settimane fa
L’OMS spinge la «masturbazione della prima infanzia» e le domande sull’identità di genere per i bambini di 4 anni
-
Spirito1 settimana fa
La battaglia tra la stirpe di Cristo e quella di Satana, antichiesa e sinedrio globalista massonico. Omelia di mons. Viganò
-
Epidemie1 settimana fa
Epidemia di streptococco tra i bambini italiani. Gli antibiotici sembrano spariti: cosa sta succedendo?
-
Spirito2 settimane fa
«Una condanna inesorabile, già scritta» contro Satana e i suoi servi: omelia di Mons. Viganò per l’Ascensione di Nostro Signore
-
Reazioni avverse6 giorni fa
Vaccino HPV, l’esperienza terrificante di Candace Owens
-
Pensiero6 giorni fa
Giorgia Meloni tace davanti al «figlio» di Castro