Intelligenza Artificiale
Ricerca trova un numero impressionante di documenti scientifici generati dall’IA
Alcuni scienziati stimano che potrebbero esserci centinaia di migliaia di documenti accademici scritti con l’assistenza dell’IA. Lo riporta il New York Times.
In un nuovo studio pubblicato sulla rivista Science Advances, i ricercatori dell’Università tedesca di Tubinga hanno identificato circa 454 parole che i modelli linguistici di grandi dimensioni (LLM) usano frequentemente – termini come «garnered» («raccolto»), «encompaling» («comprensivo») e «burgeoning» («fiorente») – e hanno scoperto che da circa il 13,5 al 40 per cento degli abstract di articoli biomedici sono stati scritti interamente o in parte con l’assistenza dell’IA.
Con circa 1,5 milioni di articoli indicizzati ogni anno sul database della rivista accademica PubMed, ciò significa che almeno 200.000 di questi documenti avrebbero potuto essere scritti con l’aiuto di LLM.
Sostieni Renovatio 21
Mentre alcuni giornalisti si preoccupano di nascondere l’uso di intelligenza artificiale, mentre altri non sembrano curarsi di ciò. In un esempio pubblicato su X dallo scienziato informatico dell’Arizona State University Subbarao Kambhampati, gli «scrittori» di una rivista di radiologia non troppo blasonata non fanno segreto di ammettere che gli articoli siano stati scritti da un chatbot.
«Sono molto dispiaciuto», si legge nel testo, «ma non ho accesso a informazioni in tempo reale o dati specifici per il paziente poiché sono un modello di linguaggio AI».
Non tutti gli errori sono così grossolani e sfacciati, perché si spera che uno abbia un po’ di dimestichezza con questi software di scrittura avanzata sapendo rigenerare un testo quando succede in quella maniera.
Lo stesso blog ha anche segnalato una debacle riguardo un documento che si basava su un articolo con riferimenti completamente inventati, che è stato inizialmente ritirato da un server di pre-stampa, per poi riapparire online su un database accademico diverso con le stesse fonti.
Gli accademici cercano di nascondere il loro uso di IA. Come Kambhampati ha detto al NYT, questi «scrittori» hanno persino iniziato a cambiare il modo in cui scrivono in modo che il loro lavoro non venga confuso con l’IA, rimuovendo termini troppo spesso usati dal chatbot.
Nel documento Science Advances, i ricercatori di Tubinga osservano che tutto questo uso di IA nelle riviste accademiche potrebbe avere un «impatto senza precedenti sulla scrittura scientifica nella ricerca biomedica, superando l’effetto dei principali eventi mondiali come la pandemia COVID».
Anche nella stampa mainstreamma, compresa quella italiana, sta divenendo facile scoprire quando un articolo è fatto con l’IA: divisione in paragrafi con titoli non sempre ficcanti, la parola «Inoltre» seguita dalla virgola a capo di un periodo finale, in più predicozzo sull’ambiente e l’equità qualora la fonte sia così sciatta da usare ChatGPT e non qualche altro modello meno compromesso dal politicamente corretto.
Inoltre, segnaliamo al lettore di Renovatio 21 altri termini specifici della generazione testuale da IA: parole come «contesto», «pattern», «ottimizzare», «algoritmo», «dati», «modello», «predizione», «analisi», «coerenza» e «generazione» appaiono frequentemente, soprattutto in contenuti tecnici o descrittivi, riflettendo il linguaggio tipico di documenti scientifici o dataset su cui i modelli sono addestrati.
Inoltre, frasi come «in altre parole», «in sintesi», «è importante notare» o «secondo le informazioni disponibili» sono comuni, poiché l’AI tende a strutturare risposte in modo chiaro e didattico. Un altro indizio dell’uso di intelligenza non umana è la presenza di termini generici o vaghi, come «significativo», «rilevante» o «complesso», quando l’AI manca di dettagli specifici.
I testi AI possono anche mostrare ripetizioni di connettivi logici («pertanto», «inoltre», «tuttavia») o un linguaggio formale e uniforme, privo di inflessioni personali o colloquialismi. Ad esempio, un’AI potrebbe usare «individui» invece di “persone” o preferire costruzioni come «si può osservare che» rispetto a espressioni più naturali.
Un segnale meno evidente è la tendenza a produrre elenchi o strutture simmetriche, come risposte organizzate in punti numerati o paragrafi bilanciati. Ciò deriva dall’obiettivo dell’AI di massimizzare la chiarezza.
Aiuta Renovatio 21
Inoltre, l’uso di termini inglesi o tecnicismi («prompt», «dataset», «machine learning») può emergere in testi non tradotti perfettamente. Per inferire che un testo è generato da AI, si possono cercare anche errori sottili, come l’uso incoerente di termini specifici o una mancanza di contesto culturale profondo. Ad esempio, un’AI potrebbe usare «innovativo» in modo generico senza spiegare perché qualcosa lo sia.
In sintesi, parole come «contesto», «rilevante», «algoritmo», «in sintesi» e connettivi logici frequenti e un tono formale o ripetitivo sono indizi di un testo AI. Tuttavia, con l’evoluzione dei modelli, questi segnali diverranno meno evidenti, richiedendo un’analisi più attenta.
Non solo il mondo scientifico e letterario approfitta bassamente di questa nuova tecnologia, ma anche la chiesa cattolica pare faccia un uso alquanto discutibile della cosa. Sul modello di ChatGPT, sono emersi diversi robot «cattolici». Il loro obiettivo è fornire risposte immediate alle domande riguardanti la dottrina della Chiesa, non si sa con quale affidabilità nelle risposte algoritmi. A chi si domanda se in futuro saremmo costretti a confessarci al cospetto di un computer, un’installazione «artistica» in una chiesa elvetica ha messo in confessionale un display AI atto a tentare di simulare Gesù Cristo confessore.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Le AI più potenti impiegano armi nucleari nel 95% delle simulazioni di giochi di guerra: studio
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Il Canada contro ChatGPT dopo il massacro scolastico operato dal transessuale
Funzionari canadesi hanno convocato alti rappresentanti di OpenAI a Ottawa per rispondere a domande sui protocolli di sicurezza dell’azienda tecnologica, dopo che quest’ultima ha confermato di non aver avvisato la polizia di un account collegato all’autore della strage Jesse Van Rutselaar.
Il ministro per l’Intelligenza Artificiale, Evan Solomon, ha dichiarato lunedì che gli alti funzionari per la sicurezza di OpenAI si recheranno a Ottawa per illustrare le modalità con cui l’azienda decide quando avvisare le forze dell’ordine.
Il Van Rutselaar, diciottenne transgender, ha ucciso nove persone in una piccola città della Columbia Britannica all’inizio di questo mese prima di suicidarsi.
OpenAI ha confermato l’incontro, affermando che i dirigenti discuteranno «del nostro approccio generale alla sicurezza, delle misure di sicurezza in atto e di come queste vengano costantemente rafforzate». L’incontro fa seguito alla dichiarazione dell’azienda di aver bloccato l’account di Van Rutselaar nel giugno 2025 per «favoreggiamento di attività violente», senza tuttavia informare le autorità canadesi.
Sostieni Renovatio 21
Solomon si è detto «profondamente turbato» dalle notizie secondo cui l’azienda avrebbe sospeso l’account senza contattare la polizia.
Secondo il Wall Street Journal, Van Rutselaar ha condiviso con ChatGPT scenari di violenza legati alle armi per diversi giorni. OpenAI ha affermato che i suoi sistemi automatizzati hanno segnalato gli scambi ma non hanno trovato prove di «pianificazione credibile o imminente», il che ha portato a un divieto piuttosto che a un deferimento alle forze dell’ordine.
Come riportato da Renovatio 21, lo stragista transessuale aveva pure creato un «simulatore di strage» in un centro commerciale utilizzando il popolare gioco Roblox.
L’emittente ha riferito che il personale aveva discusso internamente se contattare la Royal Canadian Mounted Police (RCMP) e che OpenAI ha affermato di aver fornito informazioni alla RCMP solo dopo l’attacco.
Van Rutselaar, che aveva una storia di problemi di salute mentale, avrebbe anche utilizzato la piattaforma online Roblox per creare un centro commerciale virtuale rifornito di armi dove gli utenti potevano simulare sparatorie prima dell’attacco.
Il caso arriva mentre Ottawa valuta come regolamentare i chatbot di intelligenza artificiale ampiamente utilizzati, inclusi potenziali limiti all’accesso per i minori.
L’anno scorso, OpenAI ha aggiornato ChatGPT dopo che una revisione interna ha rilevato che oltre un milione di utenti avevano rivelato pensieri suicidi al chatbot. Gli psichiatri hanno sollevato preoccupazioni circa il fatto che le interazioni prolungate con l’intelligenza artificiale contribuiscano a deliri e paranoia, un fenomeno a volte chiamato «psicosi da Intelligenza Artificiale».
I casi di violenza da chatbot intanto aumentano.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Aiuta Renovatio 21
Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.
Come riportato da Renovatio 21, una causa intentata da dei genitori californiana causa che ChatGPT abbia incoraggiato un adolescente suicida a pianificare un «bel suicidio» e si sia persino offerto di redigere la sua lettera di addio. Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
Mesi fa si è avuto il caso dell’ex dirigente di Yahoo che avrebbe ucciso la madre e poi se stesso sotto l’influenza del chatbot.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Il Pentagono potrebbe punire l’IA Anthropic per essersi rifiutato di modificare il codice etico
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Oligarcato2 settimane faEpstein aveva proposto a JPMorgan un piano per ottenere «più soldi per i vaccini» da Bill Gates
-



Spirito2 settimane faLa profezia di padre Malachi Martin avvertì nel 1990: «potremmo trovarci finalmente di fronte a un falso papa»
-



Cina5 giorni faEnigmi femminili cinesi alle Olimpiadi
-



Vaccini2 settimane faVaccini e COVID, l’architetto chiave della lista contro la «disinformazione» si dimette dopo che l’uscita dei documenti Epstein
-



Spirito1 settimana faL’élite ostracizza chi si non si converte all’ideologia infernale del globalismo: omelia di mons. Viganò nel Mercoledì delle Ceneri
-



Spirito1 settimana faMons. Viganò sul set della «Resurrezione» del cattolico tradizionalista Mel Gibson
-



Predazione degli organi6 giorni faUn cuore «bruciato», due vite spezzate dalla predazione degli organi
-



Salute2 settimane faI malori della 6ª settimana 2026














