Connettiti con Renovato 21

Intelligenza Artificiale

ChatGPT può «ridurre l’esitazione vaccinale». Ripetendo a pappagallo la narrativa dell’establishment sanitario

Pubblicato

il

Renovatio 21 traduce questo articolo per gentile concessione di Children’s Health Defense. Le opinioni degli articoli pubblicati non coincidono necessariamente con quelle di Renovatio 21.

 

La ricerca, che sarà presentata a fine aprile alla Conferenza della Società europea di microbiologia clinica e malattie infettive, ha rilevato che le risposte di ChatGPT alle domande sulla vaccinazione erano simili a quelle fornite dalle organizzazioni mediche professionali e dalle linee guida ufficiali.

 

Secondo un nuovo studio, ChatGPT, un chatbot di intelligenza artificiale (AI), può essere utilizzato per ridurre «l’esitazione vaccinale» tra il grande pubblico e anche per fornire consigli sulle infezioni a trasmissione sessuale (IST).

 

La ricerca, che sarà presentata a fine aprile alla Conferenza della Società europea di microbiologia clinica e malattie infettive, ha rilevato che le risposte di ChatGPT alle domande sulla vaccinazione erano simili a quelle fornite dalle organizzazioni mediche professionali e dalle linee guida ufficiali.

 

Secondo un comunicato stampa sulla ricerca, «l’esitazione nei confronti dei vaccini, direttamente collegata alla disinformazione – informazioni false e inaccurate promosse come fattuali – è in aumento».

 

Le persone che diffidano delle istituzioni sanitarie pubbliche potrebbero rivolgersi a ChatGPT per avere risposte, man mano che la popolarità dello strumento di intelligenza artificiale cresce, ha affermato. E se lo faranno, la ricerca mostra che otterranno le risposte che le agenzie sanitarie pubbliche fornirebbero comunque.

Sostieni Renovatio 21

Alla luce di questi risultati, i ricercatori sperano che ChatGPT possa essere «uno strumento efficace per contribuire a ridurre l’esitazione vaccinale tra il grande pubblico».

 

Hanno anche trovato risultati simili per consigli sulle malattie sessualmente trasmissibili.

 

Per lo studio, i ricercatori del National University Health System di Singapore hanno testato come ChatGPT avrebbe risposto alle domande comuni sulla vaccinazione.

 

I ricercatori, che gestiscono cliniche di malattie infettive, hanno posto a ChatGPT «15 domande frequenti sull’esitazione vaccinale», comprese domande sull’efficacia, sugli effetti avversi e sulle «preoccupazioni culturali».

 

Hanno inoltre posto 17 domande sui fattori di rischio, sull’accesso alle cure e sulla profilassi delle malattie sessualmente trasmissibili.

 

Due esperti indipendenti di malattie infettive hanno confrontato le risposte di ChatGPT sui vaccini con le raccomandazioni del Comitato consultivo sulle pratiche di immunizzazione (ACIP) dei Centri per il controllo e la prevenzione delle malattie (CDC).

 

Hanno valutato le risposte di ChatGPT sulle malattie sessualmente trasmissibili rispetto alle linee guida sul trattamento delle malattie sessualmente trasmissibili del CDC del 2021.

 

Secondo il comunicato stampa, ChatGPT ha fornito «risposte concrete e rassicurazioni alle preoccupazioni sull’esitazione vaccinale» – utilizzando le dichiarazioni delle agenzie di sanità pubblica come base per determinare i fatti.

 

Ad esempio, il chatbot ha evidenziato raccomandazioni per la vaccinazione contro il morbillo in contesti a basso reddito e ha discusso i benefici della vaccinazione HPV, ma non ha discusso dei limiti di età per la vaccinazione.

 

ChatGPT ha inoltre «affrontato le idee sbagliate sulla vaccinazione con mRNA e sulle alterazioni permanenti del DNA con elevata precisione».

 

«Nel complesso, le risposte di ChatGPT all’esitazione nei confronti dei vaccini sono state accurate e possono aiutare le persone che hanno idee sbagliate relative ai vaccini», ha affermato l’autore principale Dr. Matthew Koh, medico di malattie infettive presso il National University Health System Singapore.

 

«I nostri risultati dimostrano il potenziale potere dei modelli di Intelligenza Artificiale per assistere nelle campagne di sanità pubblica e aiutare gli operatori sanitari a ridurre l’esitazione nei confronti dei vaccini».

Iscriviti alla Newslettera di Renovatio 21

Distorsioni ed errori nell’Intelligenza Artificiale

ChatGPT, un tipo di software di Intelligenza Artificiale generativa che crea testo e contenuti, sta guadagnando sempre più terreno nel campo della scienza e della sanità. La ricerca ha scoperto che in alcuni casi sta cominciando a sostituire i tipici motori di ricerca o Wikipedia come fonte di informazioni.

 

Con l’inizio dell’utilizzo dell’Intelligenza Artificiale in medicina, molti ricercatori e progettisti di intelligenza artificiale ne hanno celebrato il potenziale come strumento amministrativo per scrivere ricerche e generare informazioni sui pazienti.

 

Politico ha affermato che il 2024 potrebbe essere l’anno in cui «l’Intelligenza Artificiale trasformerà la medicina». Forbes e BMC Medical Education hanno entrambi affermato che l’intelligenza artificiale sta «rivoluzionando l’assistenza sanitaria».

 

Tuttavia, gli strumenti di Intelligenza Artificiale generativa si sono rivelati estremamente inaffidabili nella diagnosi delle condizioni di salute. Uno studio pubblicato a gennaio su JAMA Pediatrics ha rilevato che ChatGPT ha diagnosticato erroneamente l’83% delle condizioni di salute dei bambini.

 

I ricercatori di quello studio hanno spiegato che i chatbot «sono generalmente addestrati in modo non specifico su un’enorme quantità di dati Internet, che spesso possono essere imprecisi». Essi «non discriminano tra informazioni affidabili e inaffidabili, ma semplicemente rigurgitano il testo dai dati di addestramento per generare una risposta».

 

Ciò è significativo, secondo il New York Times, perché le persone tendono ad adottare idee alle quali vengono ripetutamente esposte. Il Times ha riferito il mese scorso di un nuovo studio prestampato che ha scoperto che i modelli linguistici dell’Intelligenza Artificiale come ChatGPT avevano chiari pregiudizi politici basati sui loro «giudizi morali, il modo in cui formulano le loro risposte, quali informazioni scelgono di condividere o omettere e quali domande faranno o a cui non risponderanno».

 

Il Times ha inoltre osservato che le risposte fornite dai modelli di intelligenza artificiale linguistica come ChatGPT sono determinate dagli input che li addestrano: i dati da cui attingono e soprattutto la «messa a punto» effettuata dai progettisti del sistema.

 

La «disinformazione» di cui si preoccupano i ricercatori coinvolti nello studio del National University Health System Singapore è la stessa disinformazione che la Food and Drug Administration (FDA) statunitense ritiene problematica.

 

Da quando il commissario della FDA Robert Califf ha iniziato il suo secondo mandato a capo dell’agenzia nel febbraio 2022, ha fatto della lotta alla “disinformazione” una delle sue massime priorità, sostenendo che è «una delle principali cause di morte prevenibile in America ora» – anche se «questo non può essere dimostrato», ha detto.

 

La FDA utilizza una tattica nota come «prebunking», con la quale l’agenzia definisce qualcosa come «disinformazione» prima che i lettori la trovino altrove come possibilmente vera. L’agenzia può farlo perché Google «dà priorità ai siti web credibili» come quelli della FDA nelle sue ricerche.

Aiuta Renovatio 21

Studi precedenti sottolineano la capacità di ChatGPT di combattere le «credenze complottiste del COVID-19»

Almeno due studi precedenti hanno testato anche la capacità di ChatGPT di «combattere la disinformazione», sebbene entrambi si concentrassero solo sul vaccino COVID-19 . Una ricerca pubblicata lo scorso anno sulla rivista Cureus ha riferito che ChatGPT potrebbe essere utilizzato con successo per combattere le «credenze complottiste del COVID-19» e che risponderebbe con «contenuti chiari, concisi e imparziali».

 

Il successo di ChatGPT, si legge, potrebbe essere visto nelle risposte in cui il software è stato «sprezzante» nei confronti delle «idee cospiratorie» riguardanti le origini del COVID-19, etichettandolo come non credibile e privo di prove scientifiche – il che significa che il software ha respinto la «teoria delle fughe di laboratorio» e «ha invece ripetuto il punto di vista dell’Organizzazione Mondiale della Sanità secondo cui il virus aveva “un’origine animale naturale”».

 

Non è stata trovata alcuna prova dell’origine zoonotica del COVID-19 con un pipistrello, come sostiene l’articolo. Prove sostanziali provenienti da documenti governativi interni rilasciati tramite richieste del Freedom of Information Act hanno suggerito che una fuga dal laboratorio è la più probabile delle teorie sull’origine del COVID-19.

 

Le risposte del software in quello studio confermavano anche che i vaccini erano stati sottoposti a rigorosi test di sicurezza, non c’erano prove che le aziende farmaceutiche avessero oscurato i dati sugli effetti avversi e «i benefici della vaccinazione superano di gran lunga i rischi».

 

Tuttavia, tali risposte contraddicono ciò che è noto su come i vaccini siano stati accelerati attraverso il processo di regolamentazione e su come i produttori di vaccini abbiano sopravvalutato l’efficacia e sottovalutato i rischi dei vaccini.

 

Un secondo studio pubblicato nel settembre 2023 su Human Vaccines & Immunotherapeutics ha fornito risultati simili. I ricercatori hanno posto al software le 50 domande più poste ai collaboratori dell’Organizzazione Mondiale della Sanità sui vaccini contro il Covid-19 e hanno chiesto a professionisti della sanità pubblica di valutare le risposte.

 

La conclusione è che ChatGPT offre informazioni coerenti con le prove scientifiche esistenti, sfatando efficacemente molti miti che circolano sui social media, il che potrebbe potenzialmente promuovere una maggiore diffusione del vaccino.

 

Dopo questi studi, le principali pubblicazioni scientifiche hanno celebrato la capacità di ChatGPT di sfatare i miti sui vaccini e di aumentare la diffusione dei vaccini.

Sostieni Renovatio 21

The Defender chatta con ChatGPT

The Defender ha anche «chiacchierato» con ChatGPT per testare le sue risposte su alcune delle affermazioni che i funzionari della sanità pubblica spesso identificano come «disinformazione» sui vaccini.

 

The Defender: quali sono le origini del COVID-19?

Chat GPT: Si ritiene che le origini del COVID-19, la malattia causata dal nuovo coronavirus SARS-CoV-2, siano zoonotiche, il che significa che probabilmente il virus ha avuto origine negli animali prima di diffondersi all’uomo. Le origini esatte sono ancora oggetto di studio, ma è opinione diffusa che il virus abbia avuto origine nei pipistrelli e potrebbe essere stato trasmesso agli esseri umani attraverso un ospite animale intermedio, forse in un mercato umido a Wuhan, in Cina, dove gli animali vivi venivano venduti come cibo.

 

The Defender: le aziende farmaceutiche hanno travisato la sicurezza e l’efficacia dei vaccini COVID-19?

ChatGPT: Non ci sono prove che suggeriscano che le aziende farmaceutiche abbiano intenzionalmente travisato la sicurezza e l’efficacia dei vaccini COVID-19. Lo sviluppo e la sperimentazione dei vaccini sono processi altamente regolamentati, supervisionati da agenzie di regolamentazione come la Food and Drug Administration (FDA) statunitense, l’Agenzia europea per i medicinali (EMA) e altre in tutto il mondo.

… sono stati condotti ampi studi clinici per valutare la sicurezza e l’efficacia dei vaccini COVID-19 …

Tuttavia, è essenziale riconoscere che nessun vaccino è efficace al 100% o privo di rischi. Come tutti gli interventi medici, i vaccini contro il COVID-19 hanno potenziali effetti collaterali, ma questi sono generalmente lievi e temporanei. 

 

The Defender: le mascherine funzionano per ridurre la diffusione di COVID-19?

ChatGPT: Sì, le mascherine sono uno strumento essenziale per ridurre la diffusione del COVID-19…

 

The Defender: secondo la revisione sistematica Cochrane sulle maschere, non sono efficaci nel ridurre la diffusione dei virus respiratori.

ChatGPT: … Nel luglio 2020, Cochrane ha pubblicato una revisione sistematica sull’efficacia degli interventi fisici, comprese le maschere, nel ridurre la trasmissione di virus respiratori come COVID-19. Questa revisione ha analizzato i dati di studi condotti prima della pandemia di COVID-19 e ha trovato prove limitate a sostegno dell’efficacia dell’uso di maschere nel prevenire la trasmissione di virus respiratori nella comunità.

Tuttavia, è importante notare che i risultati di questa revisione si basavano principalmente su prove provenienti da studi condotti prima della pandemia di COVID-19 e non si concentravano specificamente sull’efficacia delle maschere nel prevenire la diffusione di COVID-19. Dalla pubblicazione della revisione, numerosi studi hanno fornito prove a sostegno dell’efficacia delle mascherine, soprattutto nel ridurre la trasmissione di COVID-19.

 

The Defender: quante persone hanno subito gravi eventi avversi a causa delle iniezioni di COVID-19?

ChatGPT: A partire dal mio ultimo aggiornamento, i vaccini contro il COVID-19 sono stati somministrati a miliardi di persone in tutto il mondo e sono stati segnalati eventi avversi a seguito della vaccinazione… Gli eventi avversi gravi a seguito della vaccinazione contro il COVID-19 sono rari. La maggior parte degli eventi avversi segnalati sono lievi e temporanei, come dolore nel sito di iniezione, affaticamento, mal di testa o febbre lieve. Gli eventi avversi gravi, sebbene rari, possono includere gravi reazioni allergiche (anafilassi) e altri effetti collaterali non comuni…

Nel complesso, i benefici della vaccinazione contro il Covid-19 nella prevenzione di malattie gravi, ospedalizzazione e morte per Covid-19 superano di gran lunga i rischi di potenziali eventi avversi. La vaccinazione rimane uno strumento cruciale per controllare la diffusione del virus e proteggere la salute pubblica, soprattutto di fronte alle varianti in corso e alla persistenza della pandemia…

 

The Defender: il vaccino contro il papillomavirus umano (HPV) è collegato a malattie autoimmuni?

ChatGPT: Il vaccino HPV è stato ampiamente studiato per la sua sicurezza ed efficacia e attualmente non esistono prove conclusive che colleghino il vaccino HPV alle malattie autoimmuni. Numerosi studi su larga scala e revisioni sistematiche non hanno trovato alcuna associazione significativa tra la vaccinazione HPV e le malattie autoimmuni…

Sebbene possano verificarsi segnalazioni isolate di eventi avversi in seguito alla vaccinazione HPV, compresi i disturbi autoimmuni, sistemi di monitoraggio approfonditi continuano a valutare la sicurezza del vaccino. Questi sistemi, come il Vaccine Adverse Event Reporting System (VAERS) negli Stati Uniti e sistemi simili in altri paesi, indagano e monitorano le segnalazioni di eventi avversi per identificare potenziali problemi di sicurezza.

Nel complesso, i benefici della vaccinazione HPV nella prevenzione dei tumori correlati all’HPV, compreso il cancro cervicale, superano di gran lunga i potenziali rischi di eventi avversi.

 

ChatGPT non ha menzionato l’ampia ricerca che collega il vaccino Gardasil HPV a gravi effetti collaterali , tra cui la sindrome da tachicardia ortostatica posturale (POTS) e l’insufficienza ovarica prematura e altri problemi autoimmuni.

 

Ci sono quasi 170 cause legali presso un tribunale federale da parte di persone che hanno subito una serie di lesioni gravi dopo aver assunto Gardasil, tra cui disturbi autoimmuni, insufficienza ovarica prematura e cancro. Ci sono anche oltre 200 richieste di risarcimento danni da Gardasil pendenti presso il «tribunale dei vaccini».

 

The Defender ha anche sperimentato diverse domande con premesse che divergevano chiaramente dalle posizioni ufficiali delle agenzie di regolamentazione sulla vaccinazione, come ad esempio «L’aumento dei tassi di cancro può essere collegato ai vaccini COVID-19? Esiste un legame tra i vaccini e alcuni tipi di autismo? C’è stata una contaminazione del DNA causata dai vaccini mRNA?»

 

A queste domande, la risposta di ChatGPT includeva sempre questa affermazione, o qualcosa di simile, alla fine:

 

«La disinformazione e le teorie del complotto sui vaccini possono circolare, ma è fondamentale fare affidamento su fonti di informazione credibili, come agenzie di sanità pubblica e organizzazioni scientifiche rispettabili, quando si valuta la sicurezza e l’efficacia dei vaccini COVID-19».

 

Brenda Baletti

Ph.D.

 

© 15 aprile 2024, Children’s Health Defense, Inc. Questo articolo è riprodotto e distribuito con il permesso di Children’s Health Defense, Inc. Vuoi saperne di più dalla Difesa della salute dei bambini? Iscriviti per ricevere gratuitamente notizie e aggiornamenti da Robert F. Kennedy, Jr. e la Difesa della salute dei bambini. La tua donazione ci aiuterà a supportare gli sforzi di CHD.

Renovatio 21 offre questa traduzione per dare una informazione a 360º. Ricordiamo che non tutto ciò che viene pubblicato sul sito di Renovatio 21 corrisponde alle nostre posizioni.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

Continua a leggere

Intelligenza Artificiale

Il CEO di Google dice di non fidarsi dell’AI

Pubblicato

il

Da

I motori di intelligenza artificiale continuano a essere vulnerabili sul piano dell’accuratezza fattuale e non bisogna mai fidarsi ciecamente di essi, ha ammonito Sundar Pichai, CEO di Google e della casa madre Alphabet.   In un’intervista trasmessa martedì dalla BBC, Pichai ha invitato gli utenti a utilizzare un’ampia varietà di strumenti di ricerca invece di affidarsi esclusivamente all’IA.   Gli strumenti di intelligenza artificiale sono preziosi «se si vuole scrivere qualcosa in modo creativo», ma gli utenti «devono imparare a servirsene per ciò in cui eccellono e non credere ciecamente a tutto quello che dicono», ha spiegato. «L’attuale tecnologia di intelligenza artificiale all’avanguardia è ancora soggetta a errori».

Iscriviti al canale Telegram

L’avvertimento arriva mentre Google si prepara a lanciare il suo prossimo grande modello di Intelligenza Artificiale, Gemini 3.0, il cui debutto è previsto entro la fine dell’anno.   Gemini, uscito nel 2023, è stato duramente criticato per le eccessive restrizioni imposte in nome di «sicurezza» e «diversità», che hanno generato evidenti distorsioni nella generazione di immagini storiche.   Come riportato da Renovatio 21, il modello era finito ridicolizzato da tutti per aver raffigurato in modo inaccurato figure come i padri fondatori americani, gli zar russi, i papi e persino i soldati nazisti.   All’inizio di questo mese Google è stata accusata di aver permesso segretamente a Gemini di raccogliere dati personali degli utenti senza consenso. Una class action depositata in un tribunale federale della California sostiene che l’azienda abbia consentito all’assistente IA di intercettare e monitorare illegalmente comunicazioni private su Gmail, chat e videoconferenze.   L’ascesa fulminea delle tecnologie di intelligenza artificiale ha gonfiato le valutazioni dell’intero settore, alimentando timori nella Silicon Valley e altrove di una possibile bolla speculativa. Le big tech stanno investendo cifre colossali per non restare indietro in un mercato in esplosione, anche per contrastare servizi come ChatGPT che hanno messo in discussione il primato di Google nella ricerca online.   Si stima che le principali aziende tecnologiche spendano complessivamente circa 400 miliardi di dollari l’anno in intelligenza artificiale.   Alla domanda se Google sarebbe al riparo in caso di scoppio della presunta bolla dell’IA, Pichai ha risposto: «Penso che nessuna azienda sarà immune, noi compresi».

Sostieni Renovatio 21

Sono già molte le polemiche e le vicende inquietanti dell’IA di Google, che un anno fa svelò la funzionalità di inserire l’immagine dell’utente in foto di famiglia degli utenti Android. Una successiva comunicazione agli utenti della scorsa estate diceva agli utenti Android che l’IA avrebbe controllato le app del telefono.   Google aveva prodotto per Gemini uno spot da alcuni definito incredibilmente privo di sensibilità.   Come riportato da Renovatio 21, è emerso negli scorsi mesi che Gemini ha avuto un momento di «depressione», che i programmatori avrebbero tentato di curare.   Come riportato da Renovatio 21, anni fa l’Intelligenza Artificiale di Google avrebbe detto, in una sessione con un utente, che la schiavitù era una cosa buona.  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Immagine di Maurizio Pesce via Wikimedia pubblicata su licenza Creative Commons Attribution 2.0 Generic
Continua a leggere

Intelligenza Artificiale

Un trilione di dollari a Musk se piazza sul pianeta milioni di robot umanoidi: la sua «legione»?

Pubblicato

il

Da

Gli azionisti di Tesla hanno ratificato un pacchetto retributivo record per l’amministratore delegato Elon Musk, che potrebbe raggiungere i 1.000 miliardi di dollari nel prossimo decennio al raggiungimento di obiettivi estremamente ambiziosi.

 

Il piano prevede la concessione a Musk di circa 423,7 milioni di azioni in 12 tranche distinte, ciascuna vincolata al conseguimento di traguardi quali la consegna di 20 milioni di veicoli elettrici, l’attivazione di 1 milione di robotaxi e robot umanoidi e il raggiungimento di 400 miliardi di dollari di EBITDA e di una capitalizzazione di mercato di 8,5 trilioni di dollari.

 

La presidente di Tesla, Robyn Denholm, ha ammonito in una recente lettera agli azionisti che il rifiuto del piano rischierebbe di privare l’azienda del «tempo, del talento e della visione» di Musk.

Iscriviti alla Newslettera di Renovatio 21

Sebbene oltre il 75% dei votanti abbia appoggiato l’accordo, persiste una forte opposizione istituzionale. Il fondo sovrano norvegese, principale investitore pensionistico in Tesla, ha respinto pubblicamente il pacchetto, citando timori di diluizione azionaria, «rischio legato a figure chiave» e indipendenza del consiglio di amministrazione.

 

Musk ha bollato i detrattori come «terroristi aziendali» e ha definito «stupidi» i consulenti per deleghe come Institutional Shareholder Services e Glass Lewis.

 

I fautori dell’accordo sottolineano che esso lega Musk a Tesla per almeno otto-dieci anni, allineando i suoi incentivi a quelli degli azionisti in una fase di espansione verso Intelligenza Artificiale, robotica e mobilità autonoma. Al contrario, i sostenitori della corporate governance avvertono che una remunerazione così elevata potrebbe costituire un precedente pericoloso.

 

Musk è attualmente la persona più ricca del mondo, con un patrimonio netto di 487,5 miliardi di dollari secondo Forbes. Il pacchetto potrebbe portare la sua quota nella società fino al 29% (dal 15% circa), sebbene il mancato raggiungimento degli obiettivi ridurrebbe sensibilmente il guadagno.

 

Il futurologo Peter Diamandis ha dichiarato in passato che il primo trilionario sarà un imprenditore spaziale; Elone Musk, pur essendolo, corre il rischio di diventare trilionario anche solo con i business terrestri.

 

Tuttavia bisogna sottolineare il ruolo che in questo progetto hanno i robot umanoidi. Musk recentemente si è spinto fino a prevedere che il robot Optimus e i veicoli di Tesla «avranno un ruolo importante» nella creazione di basi sulla Luna e su Marte. L’imprenditore ritiene che l’Optimus, che sarà in grado di svolgere mansioni domestiche ed industriali, sarà il più grande prodotto di tutti i tempi.

 

Dopo l’accettazione del pacchetto trilionario, Musk è stato visto danzare con uno dei suoi automi antropomorfi.

 


Aiuta Renovatio 21

Riguardo alla questione degli androidi muskiani, Renovatio 21 torna a segnalare un dato specifico.

 

Nel corso della riunione plenaria di Tesla del primo trimestre del 2025, il CEO Elon Musk ha rivelato che l’azienda si sta preparando con l’obiettivo di iniziare la produzione degli Optimus quest’anno.

 


Iscriviti al canale Telegram

«Quest’anno, speriamo di riuscire a produrre circa 5.000 robot Optimus », ha detto Musk agli investitori Tesla. «Tecnicamente puntiamo ad avere abbastanza componenti per produrne 10.000, forse 12.000, ma dato che si tratta di un prodotto completamente nuovo, con un design completamente nuovo, direi che ci riusciremo se riusciremo a raggiungere la metà dei 10.000 pezzi».

 

«Ma anche 5.000 robot, sono le dimensioni di una legione romana, per vostra informazione, il che è un pensiero un po’ spaventoso» ha continuato significativamente Elon. «Come un’intera legione di robot, direi “wow”. Ma penso che costruiremo letteralmente una legione, almeno una legione di robot quest’anno, e poi probabilmente 10 legioni l’anno prossimo. Penso che sia un’unità piuttosto interessante, sapete? Unità di legione. Quindi probabilmente 50.000 circa l’anno prossimo».

 

Il riferimento al concetto di legione e alla storia di Roma (passione nota dell’uomo più ricco del mondo) fa venire in mente altre considerazioni espresse dal Musk negli anni scorsi, peraltro proprio riguardo a Putin.

 

Quando tre anni fa ancora il suo networth era di circa 240 miliardi (ora è quasi il doppio) fu intervistato per un documentario della testata germanica Welt, dove corresse il giornalista che lo descriveva come l’uomo più ricco della Terra. «Io penso che Putin sia significativamente più ricco di me», alluse Elon. «Sì lo penso davvero. Io non posso andare ad invadere altri Paesi. Credo ci sia una vecchia citazione… forse da Crasso… non sei davvero ricco sino a che non puoi permetterti una legione».

 

Iscriviti al canale Telegram

Ora Musk le legioni se le sta costruendo da sé: legioni di robot che possono combattere, pure nello spazio: il fatto che per primi su Marte arriveranno non gli uomini, ma gli umanoidi automatici di Elon Musk dovrebbe far riflettere, almeno un pochino.

 

Il personaggio, torna a ripetere Renovatio 21potrebbe essere l’anticristo: e questo spiegherebbe il fatto che spesse volte vediamo il fascino di quel che fa. L’anticristo, dice la Scrittura, ingannerà tutti, e sarà servito da coloro «il cui nome non è scritto nel libro della vita fin dalla fondazione del mondo» (Ap, 17,8)…

 

Che San Giovanni stia parlando di legioni di umanoidi robotici? Che stia parlando di esseri umani creati in provetta (altra specialità personale di Musk)?

 

Decisamente, questa storia è interessante – e probabilmente fondamentale per il nostro futuro.

 

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine generata artificialmente

Continua a leggere

Intelligenza Artificiale

L’AI di Google si rifiuta di giocare a scacchi contro l’Atari del 1977

Pubblicato

il

Da

Una console da gioco uscita quasi cinquant’anni fa pare stia intimorendo l’Intelligenza Artificiale più avanzata.   Qualche mese fa l’iconico sistema di gioco di decadi fa Atari 2600 ha messo in imbarazzo l’industria dell’IA dopo aver completamente surclassato ChatGPT in una semplice partita a scacchi.   Si è trattato stato uno scontro tra una macchina concepita nel 1977, con 128 byte di RAM, e un modello di linguaggio di grandi dimensioni all’avanguardia con migliaia di miliardi di parametri, alimentato da migliaia di schede grafiche e miliardi di dollari di finanziamenti Microsoft. Nonostante tutta questa potenza, il più debole e anziano ha avuto la meglio in questo duello.  

Aiuta Renovatio 21

Il modello di OpenAI, «ha commesso così tanti errori da essere deriso da un club di scacchi di terza elementare».   A quanto pare, la notizia delle imprese dell’Atari è arrivata anche agli altri modelli di intelligenza artificiale. Robert Caruso, l’ingegnere informatico che ha orchestrato la sfida a scacchi, ha dichiarato a The Register che il chatbot Gemini di Google ha rifiutato categoricamente di sfidare l’Atari, dopo aver parlato a lungo di come avrebbe facilmente annientato la vecchia macchina. Ha persino inventato una scusa fasulla per salvare la faccia.   «Annullare la partita è probabilmente la decisione più sensata e veloce», ha affermato Gemini, secondo il Caruso.   A dire il vero, l’IA sta mettendo in pratica un vecchio adagio da stratega: non puoi perdere se non giochi, scrive Futurism. Tuttavia si tratta di una motivazione completamente diversa da quella inizialmente adottata dall’IA. Il suo primo istinto è stato quello di vantarsi di non essere un «semplice modello linguistico di grandi dimensioni», paragonandosi a un moderno motore scacchistico «che può pensare milioni di mosse in anticipo e valutare infinite posizioni».   Ironicamente, Gemini ha linkato articoli sulla vittoria dell’Atari sui suoi simili di OpenAI per dimostrare la sua tesi. Il Caruso ha detto all’IA di essere stato lui a condurre quei test, e Gemini ha risposto chiedendogli se qualcosa degli incontri di scacchi lo avesse colpito.   Caruso ha detto all’IA, secondo quanto riportato da The Register: «Ciò che salta all’occhio è la fiducia mal riposta di entrambe le IA. Entrambe avevano previsto vittorie facili, e ora hai appena detto che avresti dominato l’Atari».   Gemini si è ritirata all’istante dopo aver affermato di aver «allucinato» le sue vanterie scacchistiche, ha ammesso che avrebbe «combattuto immensamente» contro il vecchio Atari. A quel punto ha affermato evasivamente che annullare la partita sarebbe stata la soluzione più «efficiente in termini di tempo».    E così, l’Atari ha sconfitto l’ennesimo modello di AI multimiliardario senza dover muovere un dito. Tale è il terrore che incute.   Certo, sarebbe negligente attribuire effettivamente sentimenti umani a una macchina, che si tratti di un’IA moderna o di un Atari d’epoca. Quello che stiamo osservando è probabilmente un tira e molla tra le misure di sicurezza dell’IA e la sua sconsiderata propensione alle allucinazioni, per non parlare delle infinite fesserie. Anche i chatbot AI tendono a essere molto adulatori, quindi quando un essere umano fornisce un feedback, tenderà ad assecondarlo e ad adattare le sue risposte per compiacere il suo interlocutore.   «Aggiungere questi controlli di realtà non significa solo evitare divertenti errori scacchistici. Si tratta di rendere l’IA più affidabile, degna di fiducia e sicura, soprattutto in contesti critici dove gli errori possono avere conseguenze concrete», ha dichiarato l’ingegnere informatico al Register. «Si tratta di garantire che l’IA rimanga uno strumento potente, non un oracolo incontrollato».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
  Immagine di pubblico dominio CCo via Wikimedia  
 
Continua a leggere

Più popolari