Intelligenza Artificiale
Bill Gates tesse le lodi dell’Intelligenza Artificiale: «alla fine sarà “un buon maestro” come qualsiasi essere umano»

Prosegue la tirata di Bill Gates all’Intelligenza Artificiale. Incurante della quantità di colleghi e personalità varie che invece chiedono di arrestare lo sviluppo di una macchina che potrebbe travolgere l’umanità, l’uomo Microsoft – che a febbraio ha versato 10 miliardi di dollari a OpenAI, la società di ChatGPT – continua a gettare acqua sul fuoco.
Per esempio, sulla questione della perdita di posti di lavoro della classe docente. L’AI, dice il miliardario, potrebbe non essere abbastanza avanzata per sostituire gli insegnanti ora, ma secondo Bill Gates quel momento non è lontano.
«Le IA raggiungeranno quella capacità di essere un tutor tanto bravo quanto qualsiasi umano potrebbe essere», ha detto il co-fondatore di Microsoft al vertice ASU + GSV a San Diego il 18 aprile.
Gates ha notato che, laddove le precedenti iterazioni dell’IA non erano in grado di replicare la comprensione umana, i sistemi emergenti, come GPT-4 di OpenAI supportato da Microsoft, avevano iniziato a colmare il divario.
«La svolta che abbiamo ora, che è molto recente, ha più a che fare con la lettura e la scrittura: questa incredibile fluidità nel dire: “Scrivi una lettera… come Einstein o Shakespeare avrebbero scritto questa cosa”, ed essere almeno l’80% delle volte totalmente sbalorditi da ciò».
Come riportato da Renovatio 21, Gates a inizio mese si era espresso contro una moratoria sull’Intelligenza Artificiale.
«Non credo che chiedere a un gruppo in particolare di mettere in pausa risolva le sfide», ha detto Gates a Reuters martedì, una settimana dopo che i più 1.000 scienziati, ricercatori e leader tecnologici hanno firmato una lettera aperta chiedendo una moratoria di sei mesi sugli esperimenti sull’«intelligenza artificiale gigante».
«L’era dell’intelligenza artificiale è iniziata», aveva scritto Gates in un post sul blog il mese scorso, pubblicato un giorno prima della lettera di Musk e compagni.
L’Intelligenza Artificiale, scriveva il magnate di Seattle, «cambierà il modo in cui le persone lavorano, imparano, viaggiano, ricevono assistenza sanitaria e comunicano tra loro», ha specificato, sostenendo che la tecnologia aiuterà a insegnare ai bambini svantaggiati, assisterà i medici che lavorano nei Paesi più poveri e combatterà il Cambiamento Climatico: quest’ultimo punto, come altri, non è stato spiegato, ma il senso delle emergenze, abbiamo imparato è proprio quello – fare quello che si vuole senza che la popolazione faccia tante domande.
Come noto, Bill Gates sul tema ambientale finanzia progetti non esattamente «democratici» di oscuramento del sole tramite particelle rilasciate in cielo da aerei.
C’è da capire come l’apologia dell’Intelligenza Artificiale e il suo finanziamento con cifre da manovra economica di governo combaci con le idee e l’agenda espressa da Gates negli anni, nelle quali ha pure investito miliardi, ad esempio la vaccinazione globale e la riduzione della popolazione terrestre.
Prima di divenire dominus globale della vaccinazione, Gates aveva investito in piani di riduzione della popolazione, arrivando a dare 2,1 miliardi alla multinazionale dell’aborto Planned Parenthood, nel cui consiglio di amministrazione serviva già suo padre.
La difesa di Gates dell’Intelligenza Artificiale – che già mente, minaccia e pure spinge le persone al suicidio – potrebbe quindi non essere solo questione di business. C’è un livello più profondo che determina le azioni dei padroni del mondo. Lasciamo al lettore capire di cosa si tratta.
Immagine di Governor Tom Wolf via Wikimedia pubblicata su licenza Creative Commons Attribution 2.0 Generic (CC BY 2.0)
Intelligenza Artificiale
Robocani anche per la polizia di Los Angeles

Il consiglio comunale di Los Angeles ha autorizzato l’uso di robocani da parte del dipartimento di polizia locale, nonostante le proteste dei residenti e di alcuni membri del consiglio dissenzienti.
I legislatori della città hanno votato martedì 8 contro 4 per approvare una donazione di un cosiddetto «veicolo terrestre senza pilota quadrupede» alla polizia di Los Angeles dalla Los Angeles Police Foundation senza scopo di lucro, che ha fornito alle forze dell’ordine il robot gratuitamente. Il robocane, è stato riportato, avrebbe un costo di 277 mila dollari.
Il robocane in uso alla polizia losangelina è progettato e prodotto da Boston Dynamics, azienda di ingegneria robotica passata più volte di mano, da Google al fondo giapponese SoftBank ai coreani della Hyundai Motor Company, attuali proprietari. Il progetto BidDog era stato finanziato dalla DARPA, l’enigmatico e ricchissimo reparto ricerca e sviluppo del Pentagono.
Il robocane poliziotto californiano è in grado di navigare autonomamente su terreni ed edifici e può essere equipaggiato con un’ampia gamma di apparecchiature di sorveglianza, sensori e altri «carichi utili». Per la polizia, è generalmente destinato all’uso in situazioni pericolose che potrebbero mettere a rischio gli agenti, fungendo da occhi e orecchie in più per il dipartimento.
Tuttavia, la nuova aggiunta alla polizia di Los Angeles ha subito aspre critiche da parte dei residenti, con diversi cittadini che hanno criticato la decisione del consiglio durante i commenti pubblici di martedì. Un cittadino ha detto «Non voglio armare l’Intelligenza Artificiale», mentre un altro ha dichiarato che l’uso del robot alla fine avrebbe portato a «poliziotti robot». «Ragazzi, non avete visto quel film I, Robot o Terminator?»
Ancora un altro cittadino ha affermato che il periodo di commento pubblico del consiglio comunale è stato “chiaramente performante”, accusando i legislatori locali di ignorare i desideri dei loro elettori.
«Dopo aver ascoltato i travolgenti commenti del pubblico, voti nella direzione opposta, New York City e San Francisco hanno già rifiutato questi cani robot. La polizia di Los Angeles non ha bisogno di armi militari», è stato uno dei commenti. In realtà, dopo tentennamenti, le altre città hanno implementato i «terminator dogs» nei loro programmi di forza dell’ordine.
La decisione di New York nel 2020 di impiegare il cane robotico, che il Distretto di polizia cittadino aveva soprannominato «Digidog», si era rivelata altrettanto controversa, tanto che la città aveva interrotto il suo primo contratto per l’affitto del dispositivo dopo che i newyorkesi hanno denunciato la tecnologia come orwelliana.
Tuttavia, l’amministrazione della Grande Mela in seguito ha invertito la rotta e rimettendo in pista il robocane poliziotto il mese scorso, con il commissario di polizia Keechant Sewell che ha affermato che sarebbe stato utilizzato in un modo «trasparente, coerente e sempre fatto in stretta collaborazione con le persone che serviamo».
The New York Police Department added a robot dog to hit force.
(Credit: Disclose) pic.twitter.com/JYAmlYLzag
— Apex World News (@apexworldnews) April 12, 2023
Come riportato da Renovatio 21, anche la vicina San Francisco ha persino preso in considerazione l’idea di consentire al suo dipartimento di polizia di utilizzare i robot dotati di forza letale in caso di emergenza.
Robocani sono utilizzati ai confini con il Messico. Tuttavia vi è polemica: c’è chi ritiene che il loro uso spaventa gli immigrati spingendoli verso sentieri dove poi incontrano la morte.
Come visto in immagini scioccanti della scorsa primavera, i robocani abbiano pattugliato le strade di Shanghai durante il colossale lockdown della primavera 2022, dove per sorvegliare e punire i 26 milioni di abitanti usarono, oltre agli androidi quadrupedi, anche droni che volevano tra i palazzi ripetendo frasi come «contieni la sete di libertà del tuo spirito».
Al Forum militare di Mosca dell’anno scorso di due mesi fa erano visibili robocani dotati di bazooka. Roboquadrupedi militari sono in produzione ovunque – pure in versione «telepatica».
Renovatio 21, oramai ribattezzabile come «L’Eco del robocane» vista la mole di articoli sull’argomento, aveva parlato della militarizzazione dei robocani più di un anno fa. Roboquadrupedi militari sono in produzione ovunque – pure in versione «telepatica».
In un ulteriore sviluppo inquietante, un team di ingegneri ha ben pensato di introdurre nella «mente» di un robocane ChatGPT.
Come riportato Renovatio 21, robocagnazzi sono stati mandati in giro pure per la campagna umbra.
Immagine screenshot da Telegram
Intelligenza Artificiale
Card. Eijk: la Chiesa deve dire la sua sull’Intelligenza Artificiale

Lo afferma con forza il cardinale Willem Jacobus Eijk, arcivescovo di Utrecht (Paesi Bassi): la proliferazione di nuovi servizi e offerte di Intelligenza Artificiale (IA) richiede una risposta e una considerazione da parte della Chiesa cattolica.
L’arcivescovo di Utrecht è medico di formazione ed esperto di sessualità e bioetica. Due sono le urgenze per lui: da una parte che la Chiesa sia presente su «chatbot» come ChatGPT o Google Bard, in modo che le risposte comprendano anche il punto di vista religioso.
D’altra parte, è necessario riflettere più ampiamente sull’impatto dell’IA e, in particolare, su come il suo utilizzo, anche nel campo della pastorale e dell’assistenza medica, influisca sul modo in cui le società percepiscono gli esseri umani.
Il porporato, noto per aver chiesto un chiarimento magisteriale della Chiesa sul tema dell’ideologia di genere, è convinto che la Chiesa debba decidere, anche attraverso un documento ufficiale, sull’impatto dell’IA sull’essere umano, che chiede un intervento molto ampio riflessione.
«È difficile avere una panoramica di tutto ciò che l’IA può fare per noi, perché è ancora un ambito poco conosciuto. Ma le tecnologie IA, come i chatbot, possono anche dire qualcosa sulle questioni religiose».
Il fatto è che «la risposta del chatbot è il risultato di un calcolo dell’IA. Ma significa che l’aggiunta di informazioni religiose può influenzare le risposte. Per questo, dobbiamo cercare di essere presenti nel campo dell’IA. Ma l’intelligenza artificiale può fare molto di più del testo. (…) Può rispondere raccogliendo dati e mettendoli in ordine o contesto».
Un esempio lampante è quello di «Bing» di Microsoft, che grazie all’IA si è trasformato da motore di ricerca a quello di chatbot. Un tale sistema può simulare conversazioni con santi sulla base di informazioni trasmesse sulla vita e le parole dei santi.
È necessaria cautela, ma senza aspettare troppo
Il cardinale Eijk ammette che serve una certa prudenza, ma allo stesso tempo: «se aspettiamo troppo, altri avranno introdotto più informazioni che determineranno le risposte. (…) Non conosciamo le conseguenze dell’uso diffuso del software chatbot, ma possiamo già prevedere un certo scenario».
«Questi software commettono errori, ma cosa succederà tra 10, 20 o anche 5 anni? Ci saranno altri tipi di IA, computer molto più potenti in grado di dare risposte molto più precise. Possiamo influenzare le risposte ora. (…) È comprensibile avere paura, perché l’IA può avere conseguenze molto negative per la nostra società».
La questione, prosegue il porporato, non riguarda solo l’uso dei software per l’interazione, ma la questione della «robotizzazione della nostra società, che potrebbe portare alla perdita di molti posti di lavoro, soprattutto per le persone che non hanno svolto alcuno studio specializzato. (…) Perché il robot è una specie di impiegato che non chiede aumento, che lavora 24 ore su 24 senza stancarsi. Potrebbe cambiare radicalmente la nostra società».
Transumanesimo
Un pericolo reale è anche il rischio di un nuovo «transumanesimo», in cui gli esseri umani possano essere trattati e percepiti come macchine. Così, il card. Eijk ha ricordato che «abbiamo già case di riposo dove i robot portano il cibo. Ma dare da mangiare ai malati è un momento di contatto umano con il malato che si è perso».
Il passaggio dalla semplice distribuzione del cibo alla cura del paziente fa sì che, in alcuni aspetti pratici, il contatto umano diventi sempre più impercettibile.
Così, «se un robot toglie un paziente dal letto e lo porta sotto la doccia, c’è il rischio che il contatto umano vada completamente perso. Con il miglioramento del software, nulla ostacola questo passaggio».
Articolo previamente apparso su FSSPX.news.
Intelligenza Artificiale
Musk insiste: l’AI può distruggere l’umanità

Il CEO di Tesla, Elon Musk, ha ancora una volta lanciato l’allarme sui potenziali pericoli dell’intelligenza artificiale (AI), che secondo il geniale magnate di Tesla potrebbe distruggere l’umanità.
«C’è una forte probabilità che renderà la vita molto migliore e che avremo un’era di abbondanza», ha detto Musk in un’intervista con il giornalista del canale CNBC David Faber. «E c’è qualche possibilità che vada storto e distrugga l’umanità».
«Si spera che questa possibilità sia piccola, ma non è zero. E quindi, penso che vogliamo intraprendere qualsiasi azione ci venga in mente per ridurre al minimo la probabilità che l’IA vada storta» ha dichiarato Elon.
Il discorso sul pericolo esistenziale per la civiltà costituito dalle macchine intelligenti viene portato avanti da Musk da anni, ed è stato ripetuto poche settimane fa in un’intervista TV con Tucker Carlson, quando ha raccontato dei retroscena della corsa all’AI nella Silicon Valley, dichiarando che il fine di Google sarebbe quello di creare un «dio AI», senza che ai fondatori interessi il destino degli esseri umani, preoccupazione vista come «specista» da Larry Page, ha rivelato Musk.
«Sono la ragione per cui esiste OpenAI», ha detto il miliardario parlando della società che ha creato ChatGPT, rivelando di aver donato circa 50 milioni di dollari al laboratorio di ricerca quando era ancora un’organizzazione senza scopo di lucro. «Ho inventato il nome… OpenAI si riferisce a “open source“» rivela Musk.
Musk ha ribadito di aver investito in OpenAI, sperando che rappresenti un’alternativa open source a Google DeepMind. Nel 2019, tuttavia, OpenAI è diventata una società a scopo di lucro con software closed-source in una mossa di cui Musk ha messo in dubbio la legalità. «Diciamo che finanzi un’organizzazione per salvare la foresta pluviale amazzonica, e invece diventa un’azienda di legname, abbatte la foresta e la vende per soldi…. E tu dici, “Beh, aspetta un secondo, è l’esatto opposto di quello per cui ho dato i soldi”. È legale? Non sembra legale».
Nonostante i suoi rimpianti per il suo coinvolgimento con OpenAI, Musk ha recentemente fondato la sua società di intelligenza artificiale a scopo di lucro, X.AI Corp., a marzo, secondo documenti commerciali dello Stato americano del Nevada. Il nome dell’azienda rafforza le precedenti affermazioni di Musk secondo cui intende creare una «app per tutto» chiamata X. L’applicazione sarebbe simile a quello che fa in Cina WeChat, un’app che permette di comunicare come un social ma anche di pagare merci e servizi. Secondo alcuni, l’acquisto di Twitter al prezzo mirabolante di 40 miliardi di dollari servirebbe a questo proposito: la base di utenti di Twitter, pur non essendo estesa come quella di Facebook o Whatsapp, è comunque ragguardevole.
X.com era il nome della startup di Musk da cui poi, fondendosi con un’altra startup guidata da Peter Thiel, sarebbe divenuta PayPal, che fu poi venduta a eBay facendo totalizzare a Elon le somme con le quali ha iniziato Tesla e SpaceX. In anni recenti è emerso che, per una somma non dichiarata, eBay avrebbe ceduto indietro il dominio internet X.com a Musk, che si dice affezionato per questioni personali. In seguito, anche il primo figlio avuto dalla concubina cantante Claire Boucher detta Grimes avrebbe avuto una X nel nome: l’impronunziabile X Æ A-Xii.
Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone». Con altri grandi nomi lo scorso mese aveva pubblicato una pubblica richiesta di moratoria per fermare l’Intelligenza Artificiale.
Un ulteriore appello a mettere in pausa lo sviluppo dell’Intelligenza Artificiale è stato firmato da un gruppo internazionale di medici e pubblicato dalla prestigiosa rivista medica BMJ Global Health. «Ci sono scenari in cui l’AGI [Intelligenza Artificiale Generale, ndr] potrebbe rappresentare una minaccia per gli esseri umani, e possibilmente una minaccia esistenziale» scrivono nell’appello i dottori di varie parti del mondo.
L’anno passato il pioniere dell’AI e capo del personale di Open AI Ilya Sutskever aveva affermato che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli». Recentemente un ingegnere di Google, Blake Lemoine, ha dichiarato pubblicamente che il chatbot AI dell’azienda, LaMDA, è «senziente», ossia dotato di una coscienza comparabile a quella degli esseri umani.
Come riportato da Renovatio 21, il padrino dell’AI Geoofrey Hinton si è licenziato da Google per poter dichiarare il rischio per l’umanità costituito dall’AI, che per ora, secondo l’informatico britannico sarebbe solo, «moderato».
Più pessimista è l’esperto dei pericolo dell’AI Eliezer Yudkowsky, che ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi, dichiarando che «tutti sulla Terra moriranno».
-
Ambiente5 giorni fa
Alluvione, undici scienziati dimostrano che le inondazioni non sono correlate ai cambiamenti climatici
-
Geopolitica2 settimane fa
Zelens’kyj è fuori controllo
-
Pedofilia2 settimane fa
L’OMS spinge la «masturbazione della prima infanzia» e le domande sull’identità di genere per i bambini di 4 anni
-
Spirito1 settimana fa
La battaglia tra la stirpe di Cristo e quella di Satana, antichiesa e sinedrio globalista massonico. Omelia di mons. Viganò
-
Epidemie1 settimana fa
Epidemia di streptococco tra i bambini italiani. Gli antibiotici sembrano spariti: cosa sta succedendo?
-
Spirito2 settimane fa
«Una condanna inesorabile, già scritta» contro Satana e i suoi servi: omelia di Mons. Viganò per l’Ascensione di Nostro Signore
-
Reazioni avverse6 giorni fa
Vaccino HPV, l’esperienza terrificante di Candace Owens
-
Pensiero6 giorni fa
Giorgia Meloni tace davanti al «figlio» di Castro