Connettiti con Renovato 21

Intelligenza Artificiale

Ricerca trova un numero impressionante di documenti scientifici generati dall’IA

Pubblicato

il

Alcuni scienziati stimano che potrebbero esserci centinaia di migliaia di documenti accademici scritti con l’assistenza dell’IA. Lo riporta il New York Times.

 

In un nuovo studio pubblicato sulla rivista Science Advances, i ricercatori dell’Università tedesca di Tubinga hanno identificato circa 454 parole che i modelli linguistici di grandi dimensioni (LLM) usano frequentemente – termini come «garnered» («raccolto»), «encompaling» («comprensivo») e «burgeoning» («fiorente») – e hanno scoperto che da circa il 13,5 al 40 per cento degli abstract di articoli biomedici sono stati scritti interamente o in parte con l’assistenza dell’IA.

 

Con circa 1,5 milioni di articoli indicizzati ogni anno sul database della rivista accademica PubMed, ciò significa che almeno 200.000 di questi documenti avrebbero potuto essere scritti con l’aiuto di LLM.

Sostieni Renovatio 21

Mentre alcuni giornalisti si preoccupano di nascondere l’uso di intelligenza artificiale, mentre altri non sembrano curarsi di ciò. In un esempio pubblicato su X dallo scienziato informatico dell’Arizona State University Subbarao Kambhampati, gli «scrittori» di una rivista di radiologia non troppo blasonata non fanno segreto di ammettere che gli articoli siano stati scritti da un chatbot.

 

«Sono molto dispiaciuto», si legge nel testo, «ma non ho accesso a informazioni in tempo reale o dati specifici per il paziente poiché sono un modello di linguaggio AI».

 

Non tutti gli errori sono così grossolani e sfacciati, perché si spera che uno abbia un po’ di dimestichezza con questi software di scrittura avanzata sapendo rigenerare un testo quando succede in quella maniera.

 

Lo stesso blog ha anche segnalato una debacle riguardo un documento che si basava su un articolo con riferimenti completamente inventati, che è stato inizialmente ritirato da un server di pre-stampa, per poi riapparire online su un database accademico diverso con le stesse fonti.

 

Gli accademici cercano di nascondere il loro uso di IA. Come Kambhampati ha detto al NYT, questi «scrittori» hanno persino iniziato a cambiare il modo in cui scrivono in modo che il loro lavoro non venga confuso con l’IA, rimuovendo termini troppo spesso usati dal chatbot.

 

Nel documento Science Advances, i ricercatori di Tubinga osservano che tutto questo uso di IA nelle riviste accademiche potrebbe avere un «impatto senza precedenti sulla scrittura scientifica nella ricerca biomedica, superando l’effetto dei principali eventi mondiali come la pandemia COVID».

 

Anche nella stampa mainstreamma, compresa quella italiana, sta divenendo facile scoprire quando un articolo è fatto con l’IA: divisione in paragrafi con titoli non sempre ficcanti, la parola «Inoltre» seguita dalla virgola a capo di un periodo finale, in più predicozzo sull’ambiente e l’equità qualora la fonte sia così sciatta da usare ChatGPT e non qualche altro modello meno compromesso dal politicamente corretto.

 

Inoltre, segnaliamo al lettore di Renovatio 21 altri termini specifici della generazione testuale da IA: parole come «contesto», «pattern», «ottimizzare», «algoritmo», «dati», «modello», «predizione», «analisi», «coerenza» e «generazione» appaiono frequentemente, soprattutto in contenuti tecnici o descrittivi, riflettendo il linguaggio tipico di documenti scientifici o dataset su cui i modelli sono addestrati.

 

Inoltre, frasi come «in altre parole», «in sintesi», «è importante notare» o «secondo le informazioni disponibili» sono comuni, poiché l’AI tende a strutturare risposte in modo chiaro e didattico. Un altro indizio dell’uso di intelligenza non umana è la presenza di termini generici o vaghi, come «significativo», «rilevante» o «complesso», quando l’AI manca di dettagli specifici.

 

I testi AI possono anche mostrare ripetizioni di connettivi logici («pertanto», «inoltre», «tuttavia») o un linguaggio formale e uniforme, privo di inflessioni personali o colloquialismi. Ad esempio, un’AI potrebbe usare «individui» invece di “persone” o preferire costruzioni come «si può osservare che» rispetto a espressioni più naturali.

 

Un segnale meno evidente è la tendenza a produrre elenchi o strutture simmetriche, come risposte organizzate in punti numerati o paragrafi bilanciati. Ciò deriva dall’obiettivo dell’AI di massimizzare la chiarezza.

Aiuta Renovatio 21

Inoltre, l’uso di termini inglesi o tecnicismi («prompt», «dataset», «machine learning») può emergere in testi non tradotti perfettamente. Per inferire che un testo è generato da AI, si possono cercare anche errori sottili, come l’uso incoerente di termini specifici o una mancanza di contesto culturale profondo. Ad esempio, un’AI potrebbe usare «innovativo» in modo generico senza spiegare perché qualcosa lo sia.

 

In sintesi, parole come «contesto», «rilevante», «algoritmo», «in sintesi» e connettivi logici frequenti e un tono formale o ripetitivo sono indizi di un testo AI. Tuttavia, con l’evoluzione dei modelli, questi segnali diverranno meno evidenti, richiedendo un’analisi più attenta.

 

Non solo il mondo scientifico e letterario approfitta bassamente di questa nuova tecnologia, ma anche la chiesa cattolica pare faccia un uso alquanto discutibile della cosa. Sul modello di ChatGPT, sono emersi diversi robot «cattolici». Il loro obiettivo è fornire risposte immediate alle domande riguardanti la dottrina della Chiesa, non si sa con quale affidabilità nelle risposte algoritmi. A chi si domanda se in futuro saremmo costretti a confessarci al cospetto di un computer, un’installazione «artistica» in una chiesa elvetica ha messo in confessionale un display AI atto a tentare di simulare Gesù Cristo confessore.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

Continua a leggere

Intelligenza Artificiale

Il CEO di Google dice di non fidarsi dell’AI

Pubblicato

il

Da

I motori di intelligenza artificiale continuano a essere vulnerabili sul piano dell’accuratezza fattuale e non bisogna mai fidarsi ciecamente di essi, ha ammonito Sundar Pichai, CEO di Google e della casa madre Alphabet.   In un’intervista trasmessa martedì dalla BBC, Pichai ha invitato gli utenti a utilizzare un’ampia varietà di strumenti di ricerca invece di affidarsi esclusivamente all’IA.   Gli strumenti di intelligenza artificiale sono preziosi «se si vuole scrivere qualcosa in modo creativo», ma gli utenti «devono imparare a servirsene per ciò in cui eccellono e non credere ciecamente a tutto quello che dicono», ha spiegato. «L’attuale tecnologia di intelligenza artificiale all’avanguardia è ancora soggetta a errori».

Iscriviti al canale Telegram

L’avvertimento arriva mentre Google si prepara a lanciare il suo prossimo grande modello di Intelligenza Artificiale, Gemini 3.0, il cui debutto è previsto entro la fine dell’anno.   Gemini, uscito nel 2023, è stato duramente criticato per le eccessive restrizioni imposte in nome di «sicurezza» e «diversità», che hanno generato evidenti distorsioni nella generazione di immagini storiche.   Come riportato da Renovatio 21, il modello era finito ridicolizzato da tutti per aver raffigurato in modo inaccurato figure come i padri fondatori americani, gli zar russi, i papi e persino i soldati nazisti.   All’inizio di questo mese Google è stata accusata di aver permesso segretamente a Gemini di raccogliere dati personali degli utenti senza consenso. Una class action depositata in un tribunale federale della California sostiene che l’azienda abbia consentito all’assistente IA di intercettare e monitorare illegalmente comunicazioni private su Gmail, chat e videoconferenze.   L’ascesa fulminea delle tecnologie di intelligenza artificiale ha gonfiato le valutazioni dell’intero settore, alimentando timori nella Silicon Valley e altrove di una possibile bolla speculativa. Le big tech stanno investendo cifre colossali per non restare indietro in un mercato in esplosione, anche per contrastare servizi come ChatGPT che hanno messo in discussione il primato di Google nella ricerca online.   Si stima che le principali aziende tecnologiche spendano complessivamente circa 400 miliardi di dollari l’anno in intelligenza artificiale.   Alla domanda se Google sarebbe al riparo in caso di scoppio della presunta bolla dell’IA, Pichai ha risposto: «Penso che nessuna azienda sarà immune, noi compresi».

Sostieni Renovatio 21

Sono già molte le polemiche e le vicende inquietanti dell’IA di Google, che un anno fa svelò la funzionalità di inserire l’immagine dell’utente in foto di famiglia degli utenti Android. Una successiva comunicazione agli utenti della scorsa estate diceva agli utenti Android che l’IA avrebbe controllato le app del telefono.   Google aveva prodotto per Gemini uno spot da alcuni definito incredibilmente privo di sensibilità.   Come riportato da Renovatio 21, è emerso negli scorsi mesi che Gemini ha avuto un momento di «depressione», che i programmatori avrebbero tentato di curare.   Come riportato da Renovatio 21, anni fa l’Intelligenza Artificiale di Google avrebbe detto, in una sessione con un utente, che la schiavitù era una cosa buona.  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Immagine di Maurizio Pesce via Wikimedia pubblicata su licenza Creative Commons Attribution 2.0 Generic
Continua a leggere

Intelligenza Artificiale

Un trilione di dollari a Musk se piazza sul pianeta milioni di robot umanoidi: la sua «legione»?

Pubblicato

il

Da

Gli azionisti di Tesla hanno ratificato un pacchetto retributivo record per l’amministratore delegato Elon Musk, che potrebbe raggiungere i 1.000 miliardi di dollari nel prossimo decennio al raggiungimento di obiettivi estremamente ambiziosi.

 

Il piano prevede la concessione a Musk di circa 423,7 milioni di azioni in 12 tranche distinte, ciascuna vincolata al conseguimento di traguardi quali la consegna di 20 milioni di veicoli elettrici, l’attivazione di 1 milione di robotaxi e robot umanoidi e il raggiungimento di 400 miliardi di dollari di EBITDA e di una capitalizzazione di mercato di 8,5 trilioni di dollari.

 

La presidente di Tesla, Robyn Denholm, ha ammonito in una recente lettera agli azionisti che il rifiuto del piano rischierebbe di privare l’azienda del «tempo, del talento e della visione» di Musk.

Iscriviti alla Newslettera di Renovatio 21

Sebbene oltre il 75% dei votanti abbia appoggiato l’accordo, persiste una forte opposizione istituzionale. Il fondo sovrano norvegese, principale investitore pensionistico in Tesla, ha respinto pubblicamente il pacchetto, citando timori di diluizione azionaria, «rischio legato a figure chiave» e indipendenza del consiglio di amministrazione.

 

Musk ha bollato i detrattori come «terroristi aziendali» e ha definito «stupidi» i consulenti per deleghe come Institutional Shareholder Services e Glass Lewis.

 

I fautori dell’accordo sottolineano che esso lega Musk a Tesla per almeno otto-dieci anni, allineando i suoi incentivi a quelli degli azionisti in una fase di espansione verso Intelligenza Artificiale, robotica e mobilità autonoma. Al contrario, i sostenitori della corporate governance avvertono che una remunerazione così elevata potrebbe costituire un precedente pericoloso.

 

Musk è attualmente la persona più ricca del mondo, con un patrimonio netto di 487,5 miliardi di dollari secondo Forbes. Il pacchetto potrebbe portare la sua quota nella società fino al 29% (dal 15% circa), sebbene il mancato raggiungimento degli obiettivi ridurrebbe sensibilmente il guadagno.

 

Il futurologo Peter Diamandis ha dichiarato in passato che il primo trilionario sarà un imprenditore spaziale; Elone Musk, pur essendolo, corre il rischio di diventare trilionario anche solo con i business terrestri.

 

Tuttavia bisogna sottolineare il ruolo che in questo progetto hanno i robot umanoidi. Musk recentemente si è spinto fino a prevedere che il robot Optimus e i veicoli di Tesla «avranno un ruolo importante» nella creazione di basi sulla Luna e su Marte. L’imprenditore ritiene che l’Optimus, che sarà in grado di svolgere mansioni domestiche ed industriali, sarà il più grande prodotto di tutti i tempi.

 

Dopo l’accettazione del pacchetto trilionario, Musk è stato visto danzare con uno dei suoi automi antropomorfi.

 


Aiuta Renovatio 21

Riguardo alla questione degli androidi muskiani, Renovatio 21 torna a segnalare un dato specifico.

 

Nel corso della riunione plenaria di Tesla del primo trimestre del 2025, il CEO Elon Musk ha rivelato che l’azienda si sta preparando con l’obiettivo di iniziare la produzione degli Optimus quest’anno.

 


Iscriviti al canale Telegram

«Quest’anno, speriamo di riuscire a produrre circa 5.000 robot Optimus », ha detto Musk agli investitori Tesla. «Tecnicamente puntiamo ad avere abbastanza componenti per produrne 10.000, forse 12.000, ma dato che si tratta di un prodotto completamente nuovo, con un design completamente nuovo, direi che ci riusciremo se riusciremo a raggiungere la metà dei 10.000 pezzi».

 

«Ma anche 5.000 robot, sono le dimensioni di una legione romana, per vostra informazione, il che è un pensiero un po’ spaventoso» ha continuato significativamente Elon. «Come un’intera legione di robot, direi “wow”. Ma penso che costruiremo letteralmente una legione, almeno una legione di robot quest’anno, e poi probabilmente 10 legioni l’anno prossimo. Penso che sia un’unità piuttosto interessante, sapete? Unità di legione. Quindi probabilmente 50.000 circa l’anno prossimo».

 

Il riferimento al concetto di legione e alla storia di Roma (passione nota dell’uomo più ricco del mondo) fa venire in mente altre considerazioni espresse dal Musk negli anni scorsi, peraltro proprio riguardo a Putin.

 

Quando tre anni fa ancora il suo networth era di circa 240 miliardi (ora è quasi il doppio) fu intervistato per un documentario della testata germanica Welt, dove corresse il giornalista che lo descriveva come l’uomo più ricco della Terra. «Io penso che Putin sia significativamente più ricco di me», alluse Elon. «Sì lo penso davvero. Io non posso andare ad invadere altri Paesi. Credo ci sia una vecchia citazione… forse da Crasso… non sei davvero ricco sino a che non puoi permetterti una legione».

 

Iscriviti al canale Telegram

Ora Musk le legioni se le sta costruendo da sé: legioni di robot che possono combattere, pure nello spazio: il fatto che per primi su Marte arriveranno non gli uomini, ma gli umanoidi automatici di Elon Musk dovrebbe far riflettere, almeno un pochino.

 

Il personaggio, torna a ripetere Renovatio 21potrebbe essere l’anticristo: e questo spiegherebbe il fatto che spesse volte vediamo il fascino di quel che fa. L’anticristo, dice la Scrittura, ingannerà tutti, e sarà servito da coloro «il cui nome non è scritto nel libro della vita fin dalla fondazione del mondo» (Ap, 17,8)…

 

Che San Giovanni stia parlando di legioni di umanoidi robotici? Che stia parlando di esseri umani creati in provetta (altra specialità personale di Musk)?

 

Decisamente, questa storia è interessante – e probabilmente fondamentale per il nostro futuro.

 

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine generata artificialmente

Continua a leggere

Intelligenza Artificiale

L’AI di Google si rifiuta di giocare a scacchi contro l’Atari del 1977

Pubblicato

il

Da

Una console da gioco uscita quasi cinquant’anni fa pare stia intimorendo l’Intelligenza Artificiale più avanzata.   Qualche mese fa l’iconico sistema di gioco di decadi fa Atari 2600 ha messo in imbarazzo l’industria dell’IA dopo aver completamente surclassato ChatGPT in una semplice partita a scacchi.   Si è trattato stato uno scontro tra una macchina concepita nel 1977, con 128 byte di RAM, e un modello di linguaggio di grandi dimensioni all’avanguardia con migliaia di miliardi di parametri, alimentato da migliaia di schede grafiche e miliardi di dollari di finanziamenti Microsoft. Nonostante tutta questa potenza, il più debole e anziano ha avuto la meglio in questo duello.  

Aiuta Renovatio 21

Il modello di OpenAI, «ha commesso così tanti errori da essere deriso da un club di scacchi di terza elementare».   A quanto pare, la notizia delle imprese dell’Atari è arrivata anche agli altri modelli di intelligenza artificiale. Robert Caruso, l’ingegnere informatico che ha orchestrato la sfida a scacchi, ha dichiarato a The Register che il chatbot Gemini di Google ha rifiutato categoricamente di sfidare l’Atari, dopo aver parlato a lungo di come avrebbe facilmente annientato la vecchia macchina. Ha persino inventato una scusa fasulla per salvare la faccia.   «Annullare la partita è probabilmente la decisione più sensata e veloce», ha affermato Gemini, secondo il Caruso.   A dire il vero, l’IA sta mettendo in pratica un vecchio adagio da stratega: non puoi perdere se non giochi, scrive Futurism. Tuttavia si tratta di una motivazione completamente diversa da quella inizialmente adottata dall’IA. Il suo primo istinto è stato quello di vantarsi di non essere un «semplice modello linguistico di grandi dimensioni», paragonandosi a un moderno motore scacchistico «che può pensare milioni di mosse in anticipo e valutare infinite posizioni».   Ironicamente, Gemini ha linkato articoli sulla vittoria dell’Atari sui suoi simili di OpenAI per dimostrare la sua tesi. Il Caruso ha detto all’IA di essere stato lui a condurre quei test, e Gemini ha risposto chiedendogli se qualcosa degli incontri di scacchi lo avesse colpito.   Caruso ha detto all’IA, secondo quanto riportato da The Register: «Ciò che salta all’occhio è la fiducia mal riposta di entrambe le IA. Entrambe avevano previsto vittorie facili, e ora hai appena detto che avresti dominato l’Atari».   Gemini si è ritirata all’istante dopo aver affermato di aver «allucinato» le sue vanterie scacchistiche, ha ammesso che avrebbe «combattuto immensamente» contro il vecchio Atari. A quel punto ha affermato evasivamente che annullare la partita sarebbe stata la soluzione più «efficiente in termini di tempo».    E così, l’Atari ha sconfitto l’ennesimo modello di AI multimiliardario senza dover muovere un dito. Tale è il terrore che incute.   Certo, sarebbe negligente attribuire effettivamente sentimenti umani a una macchina, che si tratti di un’IA moderna o di un Atari d’epoca. Quello che stiamo osservando è probabilmente un tira e molla tra le misure di sicurezza dell’IA e la sua sconsiderata propensione alle allucinazioni, per non parlare delle infinite fesserie. Anche i chatbot AI tendono a essere molto adulatori, quindi quando un essere umano fornisce un feedback, tenderà ad assecondarlo e ad adattare le sue risposte per compiacere il suo interlocutore.   «Aggiungere questi controlli di realtà non significa solo evitare divertenti errori scacchistici. Si tratta di rendere l’IA più affidabile, degna di fiducia e sicura, soprattutto in contesti critici dove gli errori possono avere conseguenze concrete», ha dichiarato l’ingegnere informatico al Register. «Si tratta di garantire che l’IA rimanga uno strumento potente, non un oracolo incontrollato».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
  Immagine di pubblico dominio CCo via Wikimedia  
 
Continua a leggere

Più popolari