Intelligenza Artificiale
Ricerca trova un numero impressionante di documenti scientifici generati dall’IA
Alcuni scienziati stimano che potrebbero esserci centinaia di migliaia di documenti accademici scritti con l’assistenza dell’IA. Lo riporta il New York Times.
In un nuovo studio pubblicato sulla rivista Science Advances, i ricercatori dell’Università tedesca di Tubinga hanno identificato circa 454 parole che i modelli linguistici di grandi dimensioni (LLM) usano frequentemente – termini come «garnered» («raccolto»), «encompaling» («comprensivo») e «burgeoning» («fiorente») – e hanno scoperto che da circa il 13,5 al 40 per cento degli abstract di articoli biomedici sono stati scritti interamente o in parte con l’assistenza dell’IA.
Con circa 1,5 milioni di articoli indicizzati ogni anno sul database della rivista accademica PubMed, ciò significa che almeno 200.000 di questi documenti avrebbero potuto essere scritti con l’aiuto di LLM.
Sostieni Renovatio 21
Mentre alcuni giornalisti si preoccupano di nascondere l’uso di intelligenza artificiale, mentre altri non sembrano curarsi di ciò. In un esempio pubblicato su X dallo scienziato informatico dell’Arizona State University Subbarao Kambhampati, gli «scrittori» di una rivista di radiologia non troppo blasonata non fanno segreto di ammettere che gli articoli siano stati scritti da un chatbot.
«Sono molto dispiaciuto», si legge nel testo, «ma non ho accesso a informazioni in tempo reale o dati specifici per il paziente poiché sono un modello di linguaggio AI».
Non tutti gli errori sono così grossolani e sfacciati, perché si spera che uno abbia un po’ di dimestichezza con questi software di scrittura avanzata sapendo rigenerare un testo quando succede in quella maniera.
Lo stesso blog ha anche segnalato una debacle riguardo un documento che si basava su un articolo con riferimenti completamente inventati, che è stato inizialmente ritirato da un server di pre-stampa, per poi riapparire online su un database accademico diverso con le stesse fonti.
Gli accademici cercano di nascondere il loro uso di IA. Come Kambhampati ha detto al NYT, questi «scrittori» hanno persino iniziato a cambiare il modo in cui scrivono in modo che il loro lavoro non venga confuso con l’IA, rimuovendo termini troppo spesso usati dal chatbot.
Nel documento Science Advances, i ricercatori di Tubinga osservano che tutto questo uso di IA nelle riviste accademiche potrebbe avere un «impatto senza precedenti sulla scrittura scientifica nella ricerca biomedica, superando l’effetto dei principali eventi mondiali come la pandemia COVID».
Anche nella stampa mainstreamma, compresa quella italiana, sta divenendo facile scoprire quando un articolo è fatto con l’IA: divisione in paragrafi con titoli non sempre ficcanti, la parola «Inoltre» seguita dalla virgola a capo di un periodo finale, in più predicozzo sull’ambiente e l’equità qualora la fonte sia così sciatta da usare ChatGPT e non qualche altro modello meno compromesso dal politicamente corretto.
Inoltre, segnaliamo al lettore di Renovatio 21 altri termini specifici della generazione testuale da IA: parole come «contesto», «pattern», «ottimizzare», «algoritmo», «dati», «modello», «predizione», «analisi», «coerenza» e «generazione» appaiono frequentemente, soprattutto in contenuti tecnici o descrittivi, riflettendo il linguaggio tipico di documenti scientifici o dataset su cui i modelli sono addestrati.
Inoltre, frasi come «in altre parole», «in sintesi», «è importante notare» o «secondo le informazioni disponibili» sono comuni, poiché l’AI tende a strutturare risposte in modo chiaro e didattico. Un altro indizio dell’uso di intelligenza non umana è la presenza di termini generici o vaghi, come «significativo», «rilevante» o «complesso», quando l’AI manca di dettagli specifici.
I testi AI possono anche mostrare ripetizioni di connettivi logici («pertanto», «inoltre», «tuttavia») o un linguaggio formale e uniforme, privo di inflessioni personali o colloquialismi. Ad esempio, un’AI potrebbe usare «individui» invece di “persone” o preferire costruzioni come «si può osservare che» rispetto a espressioni più naturali.
Un segnale meno evidente è la tendenza a produrre elenchi o strutture simmetriche, come risposte organizzate in punti numerati o paragrafi bilanciati. Ciò deriva dall’obiettivo dell’AI di massimizzare la chiarezza.
Aiuta Renovatio 21
Inoltre, l’uso di termini inglesi o tecnicismi («prompt», «dataset», «machine learning») può emergere in testi non tradotti perfettamente. Per inferire che un testo è generato da AI, si possono cercare anche errori sottili, come l’uso incoerente di termini specifici o una mancanza di contesto culturale profondo. Ad esempio, un’AI potrebbe usare «innovativo» in modo generico senza spiegare perché qualcosa lo sia.
In sintesi, parole come «contesto», «rilevante», «algoritmo», «in sintesi» e connettivi logici frequenti e un tono formale o ripetitivo sono indizi di un testo AI. Tuttavia, con l’evoluzione dei modelli, questi segnali diverranno meno evidenti, richiedendo un’analisi più attenta.
Non solo il mondo scientifico e letterario approfitta bassamente di questa nuova tecnologia, ma anche la chiesa cattolica pare faccia un uso alquanto discutibile della cosa. Sul modello di ChatGPT, sono emersi diversi robot «cattolici». Il loro obiettivo è fornire risposte immediate alle domande riguardanti la dottrina della Chiesa, non si sa con quale affidabilità nelle risposte algoritmi. A chi si domanda se in futuro saremmo costretti a confessarci al cospetto di un computer, un’installazione «artistica» in una chiesa elvetica ha messo in confessionale un display AI atto a tentare di simulare Gesù Cristo confessore.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Robocani pattugliano le strade della città e parlano con accento da call center indiano
Atlanta residents react to the new robot dogs patrolling their apartment parking lot
They speak to the dog and there seems to be a live operator talking back The person speaking very clearly is likely in India based on the accent There are plenty of videos of these dogs… pic.twitter.com/01h9kxwyNj — Wall Street Apes (@WallStreetApes) April 12, 2026
Meme of the day! Robots on American streets are being controlled by operators from India
In Atlanta, police officers encountered one of these machines in the evening: the robot dog spoke to them in English with an Indian accent and explained that it was “at work” and monitoring… pic.twitter.com/l98N6hglwk — NEXTA (@nexta_tv) December 29, 2025
Atlanta just hired a robot guard dog for night duty.
No sleep. No breaks. 24/7 patrol. Welcome to the future of security. (Source: @BrianRoemmele ) pic.twitter.com/9SaDlOrzoy — Learn AI Faster (@learnaifaster) November 22, 2025
Robot “dog” patrolling Atlanta, Georgiapic.twitter.com/r5UcFB1MaS
— Massimo (@Rainmaker1973) April 2, 2026
Sostieni Renovatio 21
The new robot security dogs in Atlanta are now giving commands to Americans
Even when this woman peacefully immediately complies with the robot security dog, even being very friendly to the robot. It still calls the police on her What could possibly go wrong here….. pic.twitter.com/DvReKpsq70 — Wall Street Apes (@WallStreetApes) April 1, 2026
Iscriviti al canale Telegram ![]()
Intelligenza Artificiale
La casa del CEO di OpenAI colpita da una molotov
Venerdì, l’abitazione del CEO di OpenAI, Sam Altman, è stata colpita da una molotov, secondo quanto dichiarato dalla polizia di San Francisco in un comunicato poi confermato dallo stesso Altman. L’individuo responsabile è stato successivamente arrestato dopo essersi presentato presso la sede centrale dell’azienda e aver presumibilmente minacciato di incendiarla.
Gli eventi si sono susseguiti nell’arco di circa un’ora. Secondo la polizia, un giovane di circa 20 anni si è avvicinato all’abitazione di Altman e ha lanciato un «ordigno incendiario», appiccando il fuoco a un cancello esterno, prima di fuggire a piedi.
Circa un’ora dopo, gli agenti sono intervenuti in seguito alla segnalazione di una persona corrispondente alla descrizione del sospettato che minacciava di appiccare un incendio in un altro edificio, successivamente identificato come la sede centrale di OpenAI a San Francisco. Il sospettato è stato arrestato e le accuse sono in fase di definizione. La polizia non ha rilasciato immediatamente commenti su un possibile movente.
OpenAI ha confermato entrambi gli episodi e un portavoce ha dichiarato che nessuno è rimasto ferito. Altman ha affrontato la situazione in un post sul suo blog, condividendo una foto della sua famiglia ed esprimendo la speranza che «le immagini abbiano potere» e possano contribuire a scoraggiare attacchi simili. Ha aggiunto di aver «sottovalutato il potere delle parole e delle narrazioni», sottolineando che l’incidente è avvenuto pochi giorni dopo «un articolo incendiario» su di lui e la sua azienda, probabilmente riferendosi a un’inchiesta del New Yorker che descriveva dettagliatamente accuse di inganno e falle nella sicurezza presso OpenAI, nonché alle critiche sul recente accordo da 50 miliardi di dollari con il Pentagono.
Iscriviti alla Newslettera di Renovatio 21
Altman ha affermato di aver inizialmente ignorato le preoccupazioni, ma l’attacco lo ha spinto a riconsiderare le sue posizioni. Ha delineato riflessioni più ampie sull’IA e sulla regolamentazione, auspicando una riduzione della «retorica e delle tattiche». Ha definito «giustificate» le paure relative all’IA e ha sottolineato la necessità di «garantire la sicurezza in modo adeguato», sostenendo al contempo che essa debba essere «democratizzata».
L’incidente si verifica in un momento difficile sia per Altman che per OpenAI. L’azienda ha dovuto affrontare numerose critiche per l’accordo con il Pentagono che consente l’utilizzo della sua tecnologia in operazioni militari classificate. I critici avvertono che questi strumenti potrebbero permettere la sorveglianza senza mandato, e utenti e sviluppatori accusano l’azienda di dare priorità ai contratti governativi rispetto alla fiducia del pubblico.
In una causa che dovrebbe andare a processo alla fine di questo mese, il fondatore di Tesla e SpaceX, Elon Musk, ha citato in giudizio OpenAI e Altman, sostenendo che l’amministratore delegato lo avrebbe «manipolato» inducendolo a donare 38 milioni di dollari con la promessa che l’azienda sarebbe rimasta un’organizzazione senza scopo di lucro. Musk, cofondatore che ha lasciato l’azienda nel 2018, chiede la rimozione di Altman.
La sede centrale di OpenAI è già stata presa di mira in passato da manifestanti. Il mese scorso, attivisti contrari all’accordo con il Pentagono hanno scritto messaggi con il gesso all’esterno dell’edificio, tra cui: «Tecnologia al servizio dell’umanità, non della guerra», «No allo Stato di sorveglianza basato sull’IA» e «È ora di smettere?».
Lo scorso febbraio, la polizia ha arrestato cinque manifestanti che bloccavano l’ingresso nell’ambito di una protesta del gruppo Stop AI.
Come riportato da Renovatio 21, l’anno passato ChatGPT con una «relazione» con un ragazzo sotto psicofarmaci e gli avrebbe fatto giurare di uccidere il CEO di OpenAI Sam Altman.
Un anno fa vi fu il caso dell’informatico di OpenAI Suchir Balaji, trovato morto in circostanze misteriose in casa. Il Balaji aveva cominciato ad agire come «gola profonda» dell’organizzazione. Il caso fu archiviato come suicidio, ma la madre sostiene che sia stato ucciso e ha dichiarato che suo figlio era in possesso di documenti che avrebbero potuto danneggiare l’azienda. «Aveva i documenti contro OpenAI»
Iscriviti alla Newslettera di Renovatio 21
Immagine di TechCrunch via Wikimedia pubblicata su licenza Creative Commons Attribution 2.0 Generic
Intelligenza Artificiale
Indagine su OpenAI e il suo capo
Sostieni Renovatio 21
(🧵1/11) For the past year and a half, I’ve been investigating OpenAI and Sam Altman for @NewYorker. With my coauthor @andrewmarantz, I reviewed never-before-disclosed internal memos, obtained 200+ pages of documents related to a close colleague, including extensive private… pic.twitter.com/XdYhNIhoQ4
— Ronan Farrow (@RonanFarrow) April 6, 2026
Iscriviti al canale Telegram ![]()
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Psicofarmaci1 settimana fa«Nessuno me l’aveva detto»: un’ex paziente psichiatrica denuncia i pericolosi effetti collaterali degli psicofarmaci
-



Sorveglianza2 settimane faOltre il Green Pass: l’OMS con un’azienda legata a Pfizer e Bill Gates lavora ai passaporti vaccinali globali
-



Arte1 settimana faDalla Passione di Gibson alla conversione a Cristo. Renovatio 21 intervista Luca Lionello
-



Salute1 settimana faI malori della 14ª settimana 2026
-



Spirito2 settimane faIl vescovo Strickland difende Miss California
-



Misteri1 settimana faIl vicepresidente Vance: gli alieni sono in realtà demoni
-



Stragi2 settimane faGli USA hanno utilizzato un’arma non convenzionale nell’attacco ad una scuola iraniana
-



Storia7 giorni faVaccini, la storia del movimento anti-obbligo dell’epoca vittoriana














