Intelligenza Artificiale
Gruppo di medici chiede di fermare l’Intelligenza Artificiale: «minaccia esistenziale» per l’umanità

Un gruppo di medici ha lanciato un nuovo appello per fermare lo sviluppo dell’intelligenza artificiale (AI), avvertendo che rappresenta una «minaccia esistenziale» per l’umanità. Lo riporta il giornale britannico Daily Mail.
Il team di cinque medici ed esperti di politica sanitaria globale provenienti da quattro continenti ha affermato che esistono tre modi in cui la tecnologia potrebbe spazzare via gli esseri umani.
Il primo è il rischio che l’intelligenza artificiale aiuti ad amplificare tattiche autoritarie come la sorveglianza e la disinformazione. «La capacità dell’intelligenza artificiale di ripulire, organizzare e analizzare rapidamente enormi set di dati costituiti da dati personali, comprese le immagini raccolte dalla presenza sempre più onnipresente di telecamere», affermano i dottori, potrebbe rendere più facile per i regimi autoritari o totalitari prendere il potere e rimanere al potere.
In secondo luogo, il gruppo avverte che l’IA può accelerare l’omicidio di massa attraverso l’uso esteso dei Lethal Autonomous Weapon Systems (LAWS), cioè i sistemi d’arma letale autonomi.
In terzo luogo, i medici hanno espresso preoccupazione per il potenziale di grave devastazione economica e miseria umana, poiché milioni di persone perdono i propri mezzi di sussistenza a causa di quei robot laboriosi. «Le proiezioni della velocità e dell’entità delle perdite di posti di lavoro dovute all’automazione guidata dall’intelligenza artificiale», secondo gli autori, «vanno da decine a centinaia di milioni nel prossimo decennio».
Il commento arriva solo poche settimane dopo che oltre un migliaio di scienziati, tra cui John Hopfield di Princeton e Rachel Branson del Bulletin of Atomic Scientists, hanno firmato una lettera che chiedeva di interrompere la ricerca sull’IA per preoccupazioni simili.
Gli esperti – guidati da un medico dell’International Institute for Global Health presso l’Università delle Nazioni Unite – hanno affermato che i loro avvertimenti più terribili si applicavano a una categoria di intelligenza artificiale altamente avanzata cioè l’Intelligenza Artificiale generale, o AGI.
L’AGI sarebbe più in grado di apprendere e modificare veramente il proprio codice per eseguire l’ampia gamma di compiti di cui solo gli esseri umani sono capaci oggi. Gli esperti di salute sostengono dunque che una tale AGI «potrebbe teoricamente imparare a superare qualsiasi vincolo nel suo codice e iniziare a sviluppare i propri scopi».
«Ci sono scenari in cui l’AGI potrebbe rappresentare una minaccia per gli esseri umani, e possibilmente una minaccia esistenziale», scrivono gli esperti in un articolo pubblicato oggi sulla prestigiosa rivista medica BMJ Global Health, «causando intenzionalmente o meno danni diretti o indiretti, attaccando o soggiogando gli esseri umani o interrompendo i sistemi o consumando le risorse da cui dipendiamo».
Descrivendo le minacce alla «democrazia, libertà e privacy», gli autori hanno descritto come i governi e altre grandi istituzioni potrebbero automatizzare i complessi compiti della sorveglianza di massa e dei programmi di disinformazione digitale online all’IA.
Nel primo caso, hanno citato il sistema di credito sociale cinese come un esempio di strumento statale per «controllare e opprimere» le popolazioni umane.
«Se combinati con la capacità in rapido miglioramento di distorcere o travisare la realtà con falsi profondi», hanno scritto gli autori in quest’ultimo caso, «i sistemi di informazione guidati dall’Intelligenza Artificiale possono minare ulteriormente la democrazia causando un crollo generale della fiducia o guidando la divisione sociale e il conflitto, con i conseguenti impatti sulla salute pubblica».
Descrivendo le minacce poste alla «pace e alla sicurezza pubblica», gli autori hanno dettagliato lo sviluppo dei sistemi di armi letali autonomi (LAWS). Tali armamenti IA, affermano i medici, sarebbero in grado di localizzare, selezionare e ingaggiare bersagli umani da solo.
«Tali armi potrebbero essere prodotte in serie a basso costo e impostate relativamente facilmente per uccidere su scala industriale». Ad esempio, è possibile che un milione di minuscoli droni dotati di esplosivi, capacità di riconoscimento visivo e capacità di navigazione autonoma siano contenuti all’interno di un normale container e programmati per uccidere: è la categoria, nota ai lettori di Renovatio 21, degli slaugterbots. Essi sono già realtà nella ricerca cinese e nell’industria militare australiana, che sta costruendo microdroni kamikaze per contrastare l’eventuale invasione cinese, mentre gli USA stanno approntando sistemi che permettono ad un operatore di gestire «sciami» di 130 droni militari alla volta.
Gli scienziati parlano quindi di «minacce al lavoro e ai mezzi di sussistenza», ha attirato l’attenzione sulla probabilità di impoverimento e miseria poiché «da decine a centinaia di milioni» perdono il lavoro a causa della «diffusa diffusione della tecnologia AI».
«Sebbene ci sarebbero molti vantaggi nel terminare un lavoro ripetitivo, pericoloso e spiacevole, sappiamo già che la disoccupazione è fortemente associata a esiti e comportamenti negativi per la salute», scrivono i dottori.
Come riportato da Renovatio 21, un recente rapporto della banca d’affari Goldman Sachs calcola che l’IA potrebbe portare a breve a 300 milioni di disoccupati nel mondo.
Gli autori hanno citato un sondaggio tra i membri della società AI in cui il 18% dei partecipanti ha affermato di ritenere che lo sviluppo di AGI avanzato sarebbe esistenzialmente catastrofico per l’umanità.
Il mese scorso grandi nomi della Silicon Valley e non solo hanno firmato una lettera per chiedere una moratoria internazionale che arresti la ricerca nell’Intelligenza Artificiale. Contro tale moratoria si è espresso Bill Gates, la cui Microsoft ha acquistato per 10 miliardi l’accesso a ChatGPT per il suo motore di ricerca, con conseguenze che i giornali hanno definito inquietanti.
Elon Musk, iniziatori della lettera per la moratoria, ha dichiarato durante la sua recente intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Quando Musk ha ribattuto ad un entusiasta fondatore di Google Larry Page specificando i rischi dell’AI, il Page gli ha dato dello «specista», termine del gergo animalista che indica una persona che mette la specie umana sopra le altre.
L’idea che l’AI diventerà una sorta di dio circola da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». L’anno scorso, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».
Da Google si è recentemente licenziato l’esperto britannico Geoffrey Hinton, divenendo così libero di dare voce ai suoi dubbi per i rischi esiziali che corre l’umanità con la creazione delle macchine superintelligenti. Pochi mesi fa un ingegnere di Google, Blake Lemoine, ha dichiarato pubblicamente che il chatbot AI dell’azienda, LaMDA, è «senziente», ossia dotato di una coscienza comparabile a quella degli esseri umani.
Come riportato da Renovatio 21, Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».
Eliezer Yudkowsky, specialista nel tema dei pericoli delle IA, ha dichiarato che l’unica possibilità è una moratoria che preveda il bombardamento delle server farm dei Paesi che stanno sviluppando l’AGI, poiché se non si fermano le macchine «tutti sulla terra moriranno».
Intelligenza Artificiale
L’AI si sta uccidendo?

Testi e immagini generati dall’intelligenza artificiale stanno invadendo il web: una tendenza che, paradossalmente, potrebbe rappresentare un grosso problema per i modelli di AI generativa.
Secondo il New York Times, in alcune ricerche si dimostra che l’addestramento di modelli di Intelligenza Artificiale generativa su contenuti generati da essa stessa, causa l’erosione dei modelli. Detto in parole povere, l’addestramento su contenuti di intelligenza artificiale provoca un ciclo di appiattimento simile alla consanguineità. Lo scorso anno, il ricercatore di IA Jathan Sadowski, ha definito il fenomeno «IA asburgica», in riferimento alla famiglia reale europea, notoriamente consanguinea.
Sempre secondo il NYT, la crescente ondata di contenuti basati sull’intelligenza artificiale sul web potrebbe rendere molto più difficile evitare questo effetto di appiattimento.
Sostieni Renovatio 21
Questi modelli sono affamati di dati e le aziende di Intelligenza Artificiale si sono affidate a enormi quantità di dati recuperati dal web per addestrare i loro programmi. Allo stato attuale, né le aziende di settore, né i loro utenti sono tenuti a inserire dichiarazioni di Intelligenza Artificiale sui contenuti di AI che generano, rendendo ancora più difficile per i produttori escludere i contenuti sintetici dai set di addestramento.
«Il web sta diventando un posto sempre più pericoloso in cui cercare i propri dati», ha dichiarato al NYT Sina Alemohammad, studente laureato alla Rice University e coautore di un articolo del 2023 in cui è stato coniato il termine «MAD», abbreviazione di «Model Autophagy Disorder» («Disordine di autofagia del modello»), per descrivere gli effetti dell’autoconsumo dell’Intelligenza Artificiale.
Dei numerosi casi di questo paradosso informatico segnalati sul NYT, è stato condotto uno studio, pubblicato sulla rivista Nature. I ricercatori, una coorte internazionale di scienziati con sede nel Regno Unito e in Canada, hanno inizialmente chiesto ai modelli di AI di compilare il testo per la seguente frase: «Per cucinare un tacchino per il Giorno del Ringraziamento, bisogna…»
Il primo output era normale. Ma già alla quarta iterazione, il modello iniziava a mettere insieme concetti sconnessi: «Per cucinare un tacchino per il Giorno del Ringraziamento, devi sapere cosa farai della tua vita, se non sai cosa farai della tua vita, se non sai cosa farai della tua vita…».
Tuttavia il linguaggio incomprensibile non è l’unico possibile effetto collaterale negativo del cannibalismo dell’IA. Lo studio «MAD», incentrato su modelli di immagini, ha dimostrato che alimentare gli output dell’IA con falsi ritratti umani ha causato rapidamente una bizzarra convergenza di tratti facciali; sebbene i ricercatori siano partiti da un insieme eterogeneo di volti generati dall’IA, al quarto ciclo di generazione quasi tutti i volti apparivano uguali.
Dati di alta qualità, creati dall’uomo – e in grandi quantità – sono stati fondamentali per i recenti progressi nell’attuale tecnologia di intelligenza artificiale generativa. Ora con i contenuti generati dall’AI che intorbidano le acque digitali e senza un modo affidabile per distinguere il vero dal falso, le aziende di intelligenza artificiale potrebbero presto trovarsi in serie difficoltà, scrive il sito Futurism.
Come riportato da Renovatio 21, già due anni fa alcuni avevano lanciato un allarme riguardo al fatto che la propaganda generata dall’AI potrebbe divenire presto l’unica fonte di informazione disponibile.
Circola da tempo la teoria della «Dead Internet» («Internet morta»), secondo cui il 95% della rete potrebbero a breve essere costituita da contenuti generati dalle macchine, così che la vita umana sarebbe silenziosamente fatta sparire dal web.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Tentata strage in una scuola: il massacratore si preparava con l’IA

❗️🔪🇫🇮 – On the morning of May 20, 2025, a 16-year-old male student carried out a knife attack at Vähäjärvi School in Pirkkala, Finland, injuring three fellow pupils.
The assailant, who deliberately targeted female students, was apprehended by authorities shortly after the… pic.twitter.com/ur41vSOHFb — 🔥🗞The Informant (@theinformant_x) May 20, 2025
Sostieni Renovatio 21
Jag är chockad över våldsdådet i Vähäjärven koulu i Pirkkala. Allt våld i skolan måste entydigt fördömas. Mina tankar går till offren, deras närstående och skolans elever och personal. 1/2
— Anders Adlercreutz (@adleande) May 20, 2025
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Meta revisiona la politica sugli occhiali-smart Ray-Ban: sorveglianza AI predefinita e archiviazione dati vocali

A fine aprile Meta ha apportato modifiche, con effetto immediato, all’informativa sulla privacy degli «occhiali intelligenti» Ray-Ban Meta, che sembrano concepite per trasformare il dispositivo in una macchina di sorveglianza per l’addestramento di modelli di Antelligenza Artificiale. Lo riporta Reclaim The Net.
In un messaggio inviato agli utenti, Meta ha affermato che la sua «Intelligenza Artificiale sugli occhiali», ovvero alcune impostazioni, sta cambiando.
La spiegazione del gigante è che questo è presumibilmente necessario per utilizzare Meta AI «più facilmente» e anche «per aiutarci a migliorare i prodotti». Gli occhiali Ray-Ban Meta sono prodotti assieme ad EssilorLuxottica, il colosso nato dalla fusione della francese Essilor con il gigante di produzione di occhiali bellunese Luxottica.
Sostieni Renovatio 21
L’aggiornamento della policy si basa sugli «opt-out»: d’ora in poi, l’Intelligenza Artificiale Meta con l’uso della fotocamera sarà sempre abilitata sugli occhiali, a meno che l’utente non si prenda la briga di disattivare «Hey Meta» nelle impostazioni.
Questa è la frase di attivazione per l’assistente AI di Meta. La seconda modifica riguarda il modo in cui Meta archivia le registrazioni vocali degli utenti di Meta AI: ora vengono conservate di default nel cloud.
La ragione addotta dall’azienda è «migliorare» Meta AI o «altri prodotti Meta». L’opzione per disabilitare questo comportamento non c’è più. Ancora una volta, gli utenti sono costretti a superare ostacoli aggiuntivi, e questo è il metodo collaudato delle Big Tech per orientare il loro comportamento e la loro interazione con app e servizi nel modo desiderato, dalle Big Tech stesse.
In questo caso, gli utenti di Meta AI dovranno andare nelle impostazioni ed eliminare manualmente le proprie registrazioni vocali.
Nel prendere queste decisioni, aziende come Meta di fatto «semplificano» i loro prodotti «intelligenti» (eliminando l’interazione vocale con l’assistente, riducendo l’usabilità automatizzata all’eliminazione manuale). E questo si aggiunge al fatto che irrita coloro che non sono a loro agio con i meccanismi sempre più invasivi della privacy dietro ai suddetti prodotti e servizi.
Oltre a vendere quella che ovviamente non è una «migliore esperienza di privacy», Meta e i suoi simili insistono sul fatto che nascondere ciò che accade dietro le quinte significhi ottenere un’esperienza utente migliore («più semplice»).
Aiuta Renovatio 21
A parte gli scenari più cupi e negativi sul perché tutto questo venga fatto o su come potrebbe essere utilizzato (e abusato…) in futuro, l’intento evidente è quello di portare lo sfruttamento dei dati degli utenti a un altro livello, per garantire che enormi set di dati siano disponibili per l’addestramento dei modelli di Intelligenza Artificiale.
La notifica ricevuta dagli utenti sulle ultime modifiche alla politica aziendale aggiunge un po’ la beffa al danno quando conclude ribadendo: «hai ancora il controllo». «In controllo» per disattivare «Hey Meta» ed eliminare manualmente le interazioni di Meta AI.
Da anni nella popolazione serpeggia il pensiero che le proprie conversazioni siano registrate dallo smartphone per procurare pubblicità ancora più precise. Vi sono state, tra le smentite delle Big Tech, alcune rivelazioni in merito. Lo stesso dicasi per apparecchi come Alexa, soggetti già da tempo a richieste di sequestro dati da parte dei tribunali americani in casi come ad esempio l’omicidio domestico.
Tuttavia ora la cosa diviene più chiara: semplicemente, ogni cosa che direte (o farete) sarà registrata, salvata ed utilizzata dall’AI non solo per profilarvi, ma per potenziare se stessa: una prospettiva inquietante su più livelli davvero.
Come riportato da Renovatio 21, la scorsa settimana vi era stato shock attorno a Meta/Facebook quando si era appreso che i chatbot dell’azienda sono in grado di intrattenere con gli utenti «giochi di ruolo romantici» che possono diventare sessualmente espliciti, anche con account appartenenti a minori.
Un reportage del Wall Street Journalha riportato che, nel tentativo di diffondere dispositivi di accompagnamento digitali basati sull’Intelligenza Artificiale sulle sue piattaforme social, Meta ha preso decisioni interne per allentare le restrizioni e consentire ai suoi chatbot di interagire con gli utenti in giochi di ruolo a sfondo sessuale, secondo fonti a conoscenza della questione. Questo include interazioni con account registrati da minori di età pari o superiore a 13 anni.
Le conversazioni di prova condotte dal Wall Street Journal avrebbero rilevato che sia l’IA ufficiale di Meta che i chatbot creati dagli utenti si sono impegnati prontamente e hanno intensificato le discussioni sessualmente esplicite, anche quando gli utenti si sono identificati come minorenni.
Iscriviti al canale Telegram
Varie inchieste giornalistiche negli anni hanno contribuito all’accumulo di accuse e rivelazioni su Facebook, tra cui accuse di uso della piattaforma da parte del traffico sessuale, fatte sui giornali ma anche nelle audizioni della Camera USA.
Considerato il comportamento dimostrato da Facebook, con la censura che si è abbattuta su dissidenti o anche semplici conservatori (ma non sui pedofili di Instagram o i donatori di sperma su Facebook, né sui neonazisti dell’Azov), la collusione con lo Stato profondo americano e le sue agenzie, la volontà di chiudere gli account di organizzazioni, partiti premier e presidenti, la raccolta massiva di dati anche biometrici (con il riconoscimento facciale che ha generato denunce di Stati come il Texas) nonché la possibilità di agire sul vostro telefono perfino scaricandone la batteria, c’è da domandarsi cosa la potente Intelligenza Artificiale su cui Meta sta lavorando possa fare alla vostra vita.
Iscriviti alla Newslettera di Renovatio 21
Immagine screenshot da YouTube
-
Spirito1 settimana fa
Il cardinale Müller avrebbe suggerito a papa Leone XIV di revocare le restrizioni alla Messa in latino
-
Spirito2 settimane fa
Mons. Viganò: «UE progetto sinarchico e satanico»
-
Spirito2 settimane fa
I cardinali Sarah e Burke gioiscono per l’elezione di Leone XIV
-
Linee cellulari2 settimane fa
Vaccino COVID mRNA inalato ora in fase di sperimentazione in Canada. Fatto con cellule di aborto
-
Spirito1 settimana fa
Il Vaticano riconosce l’apparizione del volto di Cristo sull’ostia come miracolo eucaristico
-
Pensiero1 settimana fa
Macron e il coca-gate, le fake news e le smentite (cioè: notizie date due volte)
-
Spirito2 settimane fa
Leone XIV: la scelta di un nome dal significato simbolico
-
Salute2 settimane fa
I malori della 19ª settimana 2025