Intelligenza Artificiale
Gruppo di medici chiede di fermare l’Intelligenza Artificiale: «minaccia esistenziale» per l’umanità
Un gruppo di medici ha lanciato un nuovo appello per fermare lo sviluppo dell’intelligenza artificiale (AI), avvertendo che rappresenta una «minaccia esistenziale» per l’umanità. Lo riporta il giornale britannico Daily Mail.
Il team di cinque medici ed esperti di politica sanitaria globale provenienti da quattro continenti ha affermato che esistono tre modi in cui la tecnologia potrebbe spazzare via gli esseri umani.
Il primo è il rischio che l’intelligenza artificiale aiuti ad amplificare tattiche autoritarie come la sorveglianza e la disinformazione. «La capacità dell’intelligenza artificiale di ripulire, organizzare e analizzare rapidamente enormi set di dati costituiti da dati personali, comprese le immagini raccolte dalla presenza sempre più onnipresente di telecamere», affermano i dottori, potrebbe rendere più facile per i regimi autoritari o totalitari prendere il potere e rimanere al potere.
In secondo luogo, il gruppo avverte che l’IA può accelerare l’omicidio di massa attraverso l’uso esteso dei Lethal Autonomous Weapon Systems (LAWS), cioè i sistemi d’arma letale autonomi.
In terzo luogo, i medici hanno espresso preoccupazione per il potenziale di grave devastazione economica e miseria umana, poiché milioni di persone perdono i propri mezzi di sussistenza a causa di quei robot laboriosi. «Le proiezioni della velocità e dell’entità delle perdite di posti di lavoro dovute all’automazione guidata dall’intelligenza artificiale», secondo gli autori, «vanno da decine a centinaia di milioni nel prossimo decennio».
Il commento arriva solo poche settimane dopo che oltre un migliaio di scienziati, tra cui John Hopfield di Princeton e Rachel Branson del Bulletin of Atomic Scientists, hanno firmato una lettera che chiedeva di interrompere la ricerca sull’IA per preoccupazioni simili.
Gli esperti – guidati da un medico dell’International Institute for Global Health presso l’Università delle Nazioni Unite – hanno affermato che i loro avvertimenti più terribili si applicavano a una categoria di intelligenza artificiale altamente avanzata cioè l’Intelligenza Artificiale generale, o AGI.
L’AGI sarebbe più in grado di apprendere e modificare veramente il proprio codice per eseguire l’ampia gamma di compiti di cui solo gli esseri umani sono capaci oggi. Gli esperti di salute sostengono dunque che una tale AGI «potrebbe teoricamente imparare a superare qualsiasi vincolo nel suo codice e iniziare a sviluppare i propri scopi».
«Ci sono scenari in cui l’AGI potrebbe rappresentare una minaccia per gli esseri umani, e possibilmente una minaccia esistenziale», scrivono gli esperti in un articolo pubblicato oggi sulla prestigiosa rivista medica BMJ Global Health, «causando intenzionalmente o meno danni diretti o indiretti, attaccando o soggiogando gli esseri umani o interrompendo i sistemi o consumando le risorse da cui dipendiamo».
Descrivendo le minacce alla «democrazia, libertà e privacy», gli autori hanno descritto come i governi e altre grandi istituzioni potrebbero automatizzare i complessi compiti della sorveglianza di massa e dei programmi di disinformazione digitale online all’IA.
Nel primo caso, hanno citato il sistema di credito sociale cinese come un esempio di strumento statale per «controllare e opprimere» le popolazioni umane.
«Se combinati con la capacità in rapido miglioramento di distorcere o travisare la realtà con falsi profondi», hanno scritto gli autori in quest’ultimo caso, «i sistemi di informazione guidati dall’Intelligenza Artificiale possono minare ulteriormente la democrazia causando un crollo generale della fiducia o guidando la divisione sociale e il conflitto, con i conseguenti impatti sulla salute pubblica».
Descrivendo le minacce poste alla «pace e alla sicurezza pubblica», gli autori hanno dettagliato lo sviluppo dei sistemi di armi letali autonomi (LAWS). Tali armamenti IA, affermano i medici, sarebbero in grado di localizzare, selezionare e ingaggiare bersagli umani da solo.
«Tali armi potrebbero essere prodotte in serie a basso costo e impostate relativamente facilmente per uccidere su scala industriale». Ad esempio, è possibile che un milione di minuscoli droni dotati di esplosivi, capacità di riconoscimento visivo e capacità di navigazione autonoma siano contenuti all’interno di un normale container e programmati per uccidere: è la categoria, nota ai lettori di Renovatio 21, degli slaugterbots. Essi sono già realtà nella ricerca cinese e nell’industria militare australiana, che sta costruendo microdroni kamikaze per contrastare l’eventuale invasione cinese, mentre gli USA stanno approntando sistemi che permettono ad un operatore di gestire «sciami» di 130 droni militari alla volta.
Gli scienziati parlano quindi di «minacce al lavoro e ai mezzi di sussistenza», ha attirato l’attenzione sulla probabilità di impoverimento e miseria poiché «da decine a centinaia di milioni» perdono il lavoro a causa della «diffusa diffusione della tecnologia AI».
«Sebbene ci sarebbero molti vantaggi nel terminare un lavoro ripetitivo, pericoloso e spiacevole, sappiamo già che la disoccupazione è fortemente associata a esiti e comportamenti negativi per la salute», scrivono i dottori.
Come riportato da Renovatio 21, un recente rapporto della banca d’affari Goldman Sachs calcola che l’IA potrebbe portare a breve a 300 milioni di disoccupati nel mondo.
Gli autori hanno citato un sondaggio tra i membri della società AI in cui il 18% dei partecipanti ha affermato di ritenere che lo sviluppo di AGI avanzato sarebbe esistenzialmente catastrofico per l’umanità.
Il mese scorso grandi nomi della Silicon Valley e non solo hanno firmato una lettera per chiedere una moratoria internazionale che arresti la ricerca nell’Intelligenza Artificiale. Contro tale moratoria si è espresso Bill Gates, la cui Microsoft ha acquistato per 10 miliardi l’accesso a ChatGPT per il suo motore di ricerca, con conseguenze che i giornali hanno definito inquietanti.
Elon Musk, iniziatori della lettera per la moratoria, ha dichiarato durante la sua recente intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Quando Musk ha ribattuto ad un entusiasta fondatore di Google Larry Page specificando i rischi dell’AI, il Page gli ha dato dello «specista», termine del gergo animalista che indica una persona che mette la specie umana sopra le altre.
L’idea che l’AI diventerà una sorta di dio circola da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». L’anno scorso, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».
Da Google si è recentemente licenziato l’esperto britannico Geoffrey Hinton, divenendo così libero di dare voce ai suoi dubbi per i rischi esiziali che corre l’umanità con la creazione delle macchine superintelligenti. Pochi mesi fa un ingegnere di Google, Blake Lemoine, ha dichiarato pubblicamente che il chatbot AI dell’azienda, LaMDA, è «senziente», ossia dotato di una coscienza comparabile a quella degli esseri umani.
Come riportato da Renovatio 21, Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».
Eliezer Yudkowsky, specialista nel tema dei pericoli delle IA, ha dichiarato che l’unica possibilità è una moratoria che preveda il bombardamento delle server farm dei Paesi che stanno sviluppando l’AGI, poiché se non si fermano le macchine «tutti sulla terra moriranno».
Intelligenza Artificiale
La madre della gola profonda di OpenAI trovato morto: «è stato ucciso»
La madre del defunto ingegnere informatico divenuto «gola profonda» di OpenAI, Suchir Balaji, ha messo in dubbio la sentenza ufficiale sulla morte del figlio e ha chiesto un’indagine completa sul caso durante una lunga e drammatica intervista con il giornalista americano Tucker Carlson.
Poornima Ramarao, cittadina americana immigrata dall’India, ha sostenuto che prove cruciali contraddicono la decisione di suicidio e ha affermato che suo figlio era turbato dalle presunte pratiche non etiche di OpenAI prima della sua morte.
Ramarao ha dichiarato che suo figlio era in possesso di documenti che avrebbero potuto danneggiare l’azienda. «Aveva i documenti contro OpenAI», ha affermato, aggiungendo che i file contengono informazioni critiche e che ora si stanno facendo degli sforzi per recuperarli.
Balaji, un ricercatore di intelligenza artificiale di 26 anni, è stato trovato morto nel suo appartamento di San Francisco il 26 novembre 2024. Le autorità hanno stabilito che la sua morte è stata un suicidio, ma la sua famiglia ha contestato la conclusione, citando incongruenze nell’indagine ufficiale. In risposta all’esame pubblico, il dipartimento di polizia di San Francisco ha successivamente aggiornato lo stato del caso di Balaji da «Chiuso – Suicidio» a «Indagine aperta e attiva».
Balaji, che è stato un bambino prodigio con paper di scienza informatica scritti a 14 anni, si era dimesso da OpenAI nell’agosto 2024, esprimendo preoccupazioni per il presunto uso improprio da parte dell’azienda di materiale protetto da copyright per la formazione sull’intelligenza artificiale. In un’intervista-scoop con il New York Times (giornale che ha portato in tribunale OpenAI per violazione di diritto d’autore) qualche settimana prima della sua morte, Balaji aveva dichiarato che le pratiche sui dati di OpenAI avrebbero potuto violare le leggi sul copyright.
Durante la sua intervista con Carlson, la Ramarao ha affermato che le prove forensi contraddicevano la versione ufficiale. In particolare, ha fatto riferimento all’autopsia, che ha determinato che l’angolazione del proiettile era di 30-45 gradi, il che, secondo lei, sarebbe incoerente con una ferita da arma da fuoco autoinflitta. Ha inoltre affermato che l’autopsia privata aveva anche rivelato ulteriori lesioni alla testa, suggerendo segni di una colluttazione. «C’è una lesione alla testa sul lato sinistro della testa», ha affermato, aggiungendo di aver trovato una parrucca insanguinata nell’appartamento, con capelli che non sono quelli del figlio.
Ramarao ha descritto gli ultimi giorni del figlio, ricordando che era appena tornato da un viaggio con gli amici di ottimo umore e aveva fatto progetti di carriera. «Aveva in mente un’organizzazione non-profit. Non voleva prendere uno stipendio per il suo lavoro. Ha detto, “Mamma, ho abbastanza risorse. Voglio servire l’umanità”», ha ricordato. Si è chiesta come qualcuno così concentrato sul futuro potesse togliersi la vita.
La donna anche accusato OpenAI di non aver riconosciuto i contributi di Balaji all’azienda. «Era fondamentale nel team di ChatGPT… ma l’ironia è che non è mai stato riconosciuto da OpenAI», ha affermato. Secondo Ramarao, OpenAI ha contattato la famiglia solo in merito alle stock option di Balaji, non per offrire condoglianze o supporto.
La famiglia ha continuato a chiedere un’indagine indipendente sulla morte di Balaji. «Vogliamo giustizia. Vogliamo la condanna a morte per chi ha ucciso mio figlio, così come la reclusione per le persone che ci sono dietro», ha detto Ramarao a Carlson.
La signora ha altresì ipotizzato che dietro alla morte potrebbe esserci non solo la questione della violazione del copyright, ma il fatto che il figlio fosse a conoscenza di crimini o rischi decisamente più grandi.
La madre, che ha definito il figlio «un martire», ha dichiarato di non sentirsi più in alcun modo sicura, né per sé né per i parenti, e di aver perso ogni senso di sicurezza in America, dipingendo un panorama in cui tante autorità con cui ha avuto a che fare si sono dimostrate «comprate» e «corrotte», citando nomi e cognomi di ufficiali che hanno negato loro appuntamenti. Parimenti, ha lamentato il disinteresse dei giornali – gli stessi che prima della morte cercavano Balaji per lo scoop su OpenAI.
Durante l’intervista è stata discussa la figura di Sam Altman, il bizzarro giovane CEO di OpenAI, contro il cui licenziamento Balaji si era schierato, per poi opporsi frontalmente alla decisione di Altman di trasformare OpenAI da società no-profit (forma in cui era stata originariamente avviata da Elon Musk) ad azienda for-profit.
Altman era stato licenziato e poi reintegrato. Ora è stato accusato dalla sorella di molestie sessuali: la stessa sorella avrebbe un’organizzazione no-profit con la quale, dice la madre, Balaji voleva lavorare. La famiglia ha rifiutato di parlare con Sam Altman dopo la morte del ragazzo.
Un altro personaggio che viene citato è Ilya Sutskever, scienziato principale dell’IA della società. «A essere onesti, due giorni dopo che la morte di mio figlio fu annunciata il 15 dicembre, Ilya è stato visto ad una presentazione con due guardie di sicurezza armate attorno a lui… era impaurito… Onestamente, stiamo vedendo una mafia intorno a questa cosa».
Carlson ha chiesto ad un certo punto alla signora se sapesse se dentro alla società vi fossero persone che adorano l’IA come fosse un dio, senza ottenere risposta affermativa.
Sutskever anni fa era tra quelli che portavano avanti l’idea che l’AI diventerà una sorta di dio, chiedendo ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». Nel 2022, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».
Durante l’intervista Tucker ripete che nessuno davanti ai documenti prodotti dal medico legale assoldato dalla famiglia Suchir può sostenere che si tratti di un suicidio, lasciando intendere che forze immense potrebbero essere qui in gioco.
Iscriviti alla Newslettera di Renovatio 21
Immagine screenshot da YouTube
Intelligenza Artificiale
Robocani nell’esercito indiano
🇮🇳 Robo Dogs March during Army Day Parade in India https://t.co/pYBQ1Rm693 pic.twitter.com/7kcib1EFkK
— RT_India (@RT_India_news) January 15, 2025
🇨🇳🇰🇭| The #Chinese military took part in the Golden Dragon 2024 exercise in #Cambodia, during which they demonstrated a robot dog equipped with a machine gun. pic.twitter.com/rAsybWzkCs
— South Today (@SouthToday5) May 30, 2024
This excerpt from a video of a Chinese People’s Liberation Army (PLA) shows a robot dog equipped with a machine gun operating in what is reportedly a series of military drills between China and Cambodia. pic.twitter.com/ECKJ1oqkmE
— Bharat Now (@BharatNow) May 27, 2024
This is getting scary.
Chinese Army was seen walking with Robo Dog equipped with a machine gun. pic.twitter.com/hjULKoRi8n — Barsee 🐶 (@heyBarsee) May 25, 2024
Sostieni Renovatio 21
Iscriviti al canale Telegram
Iscriviti alla Newslettera di Renovatio 21
Droni
Iniziato in India il Kumbh Mela, il più grande raduno umano del pianeta. Con droni, riconoscimento facciale e AI a sorvegliare
Il festival Maha Kumbh Mela, della durata di 45 giorni, è iniziato in India lunedì con un tuffo rituale compiuto da decine di migliaia di indù che cercano di purificarsi dai propri peccati. Si prevede che l’evento attirerà 400 milioni di devoti quest’anno.
Il festival Maha (o «grande») Kumbh continuerà fino al 26 febbraio a Prayagraj, una città alla confluenza di tre fiumi, il Gange, lo Yamuna e il Saraswati, nello stato settentrionale dell’Uttar Pradesh. Le masse induiste hanno eseguito le loro abluzioni alle 3:20 del mattino, ora locale, sulla riva del Triveni Sangam, un punto di convergenza per i tre fiumi considerati sacri dagli indù.
Nell’induismo, il termine «Kumbh» si riferisce a un vaso di nettare, mentre “Mela” significa fiera o raduno. Si ritiene che durante una battaglia cosmica tra gli dei (Deva) e i demoni (Asura) per il nettare dell’immortalità (Amrita), gocce di questo nettare caddero in quattro luoghi in tutta l’India: Haridwar, Prayagraj, Nashik e Ujjain. Questi siti divennero sacri e il Kumbh Mela è una celebrazione di questo evento.
Sostieni Renovatio 21
महाकुम्भ 2025 का भव्य शुभारंभ! आप भी पधारिये प्रयागराज, इस अविस्मरणीय आयोजन के साक्षी बनिये।#MahaKumbh2025 #MahaKumbhMela2025 #KumbhMela #KumbhMela2025 #kumbh2025 #kumbh pic.twitter.com/mPrAWPWfWA
— MahaKumbh 2025 (@KumbhMela2025) January 13, 2025
🚨 More than 1 crore (10 million) people visited on day 1 of Maha Kumbh Mela 2025. pic.twitter.com/JdPpDBT1D5
— Indian Tech & Infra (@IndianTechGuide) January 13, 2025
There’s no Brahmin, Rajput, Jat, Gujjar, Ahir, Khatri, Dalit, Saini, Baniya etc There’s only Sanatani. This is #MahaKumbh for u. This is festival of Sanatan Dharma where all are equal before Mahadev. That’s why #MahaKumbhMela2025 is special. #KumbhMela2025… pic.twitter.com/dX1n5npfHB
— Ganesh (@me_ganesh14) January 13, 2025
I devoti credono che fare il bagno nei fiumi sacri durante il Kumbh Mela purifichi l’anima, rimuova i peccati e conceda la salvezza spirituale. Mentre il Kumbh Mela viene celebrato ogni anno, il Maha Kumbh è considerato il più propizio, poiché si verifica una volta ogni 12 anni a Prayagraj.
Precedentemente nota con il nome molto musulmano di Allahabad, Prayagraj è stata rinominata Prayagraj nel 2018 dal Primo Ministro dell’Uttar Pradesh, Yogi Adityanath, con l’obiettivo di riconoscere l’identità della città come meta spirituale per i pellegrini indù.
नागा सन्यासियों का हुज़ूम। जिधऱ से गुजरता है रास्ता अपने आप बन जाता है। #KumbhMela2025 pic.twitter.com/VUtnvP81Fm
— Rajesh Sahu (@askrajeshsahu) January 14, 2025
The biggest Sangam of Sanatanis #KumbhMela2025 pic.twitter.com/h9Ep0oZ0dc
— Singh Varun (@singhvarun) January 13, 2025
Il primo ministro indiano Narendra Modi aveva esteso un invito a persone provenienti da tutto il mondo per partecipare al festival, riconosciuto dall’UNESCO nel 2017 come «patrimonio culturale immateriale dell’umanità».
Il governo dell’Uttar Pradesh ha installato 150.000 tende per ospitare i pellegrini, insieme a servizi igienici. Il sito del festival ha 450.000 nuovi allacciamenti elettrici, poiché si prevede che il consumo di energia durante l’evento di 45 giorni sarà equivalente a quello di 100.000 appartamenti urbani in un mese.
Le ferrovie indiane hanno anche introdotto 98 treni speciali, che completeranno oltre 3.000 viaggi durante il festival. Le misure sono state messe in atto per prevenire incidenti come quello del 2013, quando una calca uccise 36 persone.
Con circa 400 milioni di persone attese all’evento, la sicurezza è stata migliorata con l’uso di droni e telecamere abilitate all’Intelligenza Artificiale, secondo quanto riportato dai media locali. La polizia e le agenzie di sicurezza hanno schierato droni vincolati e droni sottomarini per la sorveglianza.
I droni vincolati, che possono volare fino a 120 metri sopra il suolo, monitoreranno la folla dall’alto e aiuteranno a individuare le aree che richiedono sicurezza o cure mediche. Nel frattempo, i droni sottomarini possono immergersi fino a 100 metri nell’area in cui si incontrano i tre fiumi.
Oltre 2.500 telecamere basate sull’intelligenza artificiale con tecnologia di riconoscimento facciale saranno posizionate strategicamente in tutta Prayagraj, in particolare nei punti di ingresso chiave. Queste forniranno un monitoraggio in tempo reale, assicurando risposte rapide a qualsiasi incidente e migliorando la gestione complessiva della folla, hanno affermato i funzionari.
Non tutti esprimono gioia per il Kumbh Mela, pronunziato da molti italofoni come «Kumba Mela».
Utenti in rete hanno approfittato per condividere video non verificati che accusano alcuni induisti di pratiche «sataniche».
Devil Worship #KumbhMela2025 pic.twitter.com/8EnEyWrVGE
— Crime Reports India (@AsianDigest) January 7, 2025
Iscriviti alla Newslettera di Renovatio 21
-
Morte cerebrale2 settimane fa
Malori e predazioni degli organi: continua la strage operata dalla «Morte Cerebrale»
-
Pensiero2 settimane fa
«Chiesa parallela e contraffatta»: Mel Gibson cita Viganò nel podcast più seguito della Terra. Poi parla di Pachamama, medicina e sacrifici umani
-
Gender2 settimane fa
Educazione sessuale: la farsa e la vergogna
-
Salute2 settimane fa
I malori della 2ª settimana 2025
-
Spirito2 settimane fa
Partita la messa «in comunione con la delegata episcopale»
-
Spirito7 giorni fa
«Squilibrati mentali», «mondani settari» col «fascino per l’occulto»: nuova caterva di accuse ed insulti di Bergoglio contro i fedeli della Messa antica
-
Reazioni avverse2 settimane fa
Un bambino è morto durante la sperimentazione clinica del vaccino Moderna contro il COVID: la FDA lo sapeva?
-
Ambiente2 settimane fa
Immagini dall’inferno di fuoco di Los Angeles: è un effetto della siccità artificiale?