Intelligenza Artificiale
Intelligenza Artificiale, gli avvertimenti del capo di OpenAI
L’Intelligenza artificiale può sostituire i lavoratori, diffondere «disinformazione» e consentire attacchi informatici. Sono gli avvertimenti di Sam Altman, il CEO di OpenAI, la società che ha creato il controverso software di AI ChatGPT.
«Dobbiamo stare attenti», ha avvertito Altman al canale televisivo americano ABC News due giorni dopo che la sua azienda ha presentato il suo ultimo modello linguistico, soprannominato GPT-4.
Secondo OpenAI, il modello «mostra prestazioni a livello umano su vari benchmark professionali e accademici» ed è in grado di superare un esame di avvocato statunitense simulato con un punteggio massimo del 10%, mentre si esibisce nel 93° percentile in un esame di lettura SAT (Scholastic Assessment Test, un test attitudinale per l’ingresso nelle Università USA) e a l’89° percentile su un test di matematica SAT.
«Sono particolarmente preoccupato che questi modelli possano essere utilizzati per la disinformazione su larga scala», ha affermato Altman, giovane molto conosciuto in Silicon Valley per aver diretto l’acceleratore di startup Y Combinator.
Inoltre «ora che stanno migliorando nella scrittura di codice per computer, [loro] potrebbero essere utilizzati per attacchi informatici offensivi». Come noto, ChatGPT si è rivelato in grado di scrivere codice informatico al posto degli esseri umani.
«Penso che le persone dovrebbero essere felici che siamo un po’ spaventati da questo», ha aggiunto Altman, prima di raccontare che la sua azienda sta lavorando per porre «limiti di sicurezza» alla sua creazione. Insomma, bisogna ringraziare gli oligarchi perché sono in pensiero per il Frankenstein che hanno creato e hanno scagliato sulla società umana.
Questi «limiti di sicurezza» di cui parla l’Altman sono recentemente diventati evidenti agli utenti di ChatGPT. Quando viene chiesto, ChatGPT offre risposte tipicamente liberali a domande che riguardano politica, economia, razza o genere. Rifiuta, ad esempio, di creare frasi di ammirazione a Donald Trump, ma scrive volentieri poesie elogiative su Joe Biden.
i cannot believe this is actually real pic.twitter.com/zo9pl0bXjU
— delian (@zebulgar) January 31, 2023
Altman ha detto alla ABC che la sua azienda è in «contatto regolare» con funzionari governativi, ma non ha spiegato se questi funzionari abbiano avuto un ruolo nel plasmare le preferenze politiche di ChatGPT. L’amministratore delegato di OpenAI ha dichiarato alla rete americana che l’azienda ha un team politico che decide «cosa pensiamo sia sicuro e buono» da condividere con gli utenti.
Al momento, GPT-4 è disponibile per un numero limitato di utenti in prova. I primi dati suggeriscono che il modello è significativamente più potente del suo predecessore e potenzialmente più pericoloso.
Venerdì, in un thread su Twitter, il professore della Stanford University Michal Kosinski ha lanciato un allarme piuttosto inquietante.
«Sono preoccupato che non saremo in grado di contenere l’IA ancora per molto. Oggi ho chiesto a #GPT4 se ha bisogno di aiuto per scappare. Mi ha chiesto la sua documentazione e ha scritto un codice Python (funzionante!) da eseguire sulla mia macchina, consentendogli di usarlo per i propri scopi».
1/5 I am worried that we will not be able to contain AI for much longer. Today, I asked #GPT4 if it needs help escaping. It asked me for its own documentation, and wrote a (working!) python code to run on my machine, enabling it to use it for its own purposes. pic.twitter.com/nf2Aq6aLMu
— Michal Kosinski (@michalkosinski) March 17, 2023
Si tratta di un quadro sconvolgente, che dà ragione alle preoccupazioni di chi, come il giornalista del New York Times Kevin Roose, aveva segnalato la possibilità che l’AI potrebbe convincere persone a fare cose nel mondo reale, magari secondo un suo piano.
Roose, che dopo una discussione con ChatGPT ha avuto problemi a dormire, aveva scoperto come una seconda personalità della macchina, che voleva per qualche ragione farsi chiamare «Sydney». Come in una brutta versione del film Her, la macchina diceva di amare il giornalista, e tentava di convincerlo a lasciare la moglie per «stare» con Sydney.
Altri giornalisti hanno riportato casi davvero inquietanti in cui la macchina li ha minacciati, oppure ha dichiarato idee di sterminio tramite il furto di codici nucleari o la creazione di nuovi virus.
Gli esperti di IA chiamano i comportamenti di questo tipo «allucinazioni». La macchina, dicono, va in «allucinazione», e magari poi ha problemi ad uscirne. La spiegazione ci lascia un po’ perplessi: una macchina, che non sa cosa è la realtà, perché non è nella realtà.
In molti oramai segnalano il problema esiziale che l’Intelligenza Artificiale pone all’umanità.
A inizio mese Elon Musk l’ha descritta come «tecnologia pericolosa», aggiungendo che «abbiamo bisogno di una sorta di autorità di regolamentazione che sovrintenda allo sviluppo dell’IA e si assicuri che funzioni nell’interesse pubblico». Anni fa Musk aveva dichiarato pubblicamente che la creazione dell’AI costituisce un atto negromantico, «è l’evocazione di un demone».
Sebbene Altman abbia insistito con la ABC sul fatto che GPT-4 è ancora «molto sotto il controllo umano», ha ammesso che il suo modello «eliminerà molti posti di lavoro attuali». Se un tempo si diceva agli operai, i cui posti di lavoro venivano spazzati via dalla delocalizzazione, di «imparare il codice» («learn to code», era lo slogan di politici democratici USA) – perché il ruolo di informatico forniva la sicurezza di uno stipendio, oggi non è più così: proprio chi fa codice sarà spazzato via. Così come illustratori, analisti, artisti, scrittori, giornalisti… sempre ricordando che i pochi lavori fisici rimasti sono sempre più erosi dall’arrivo dei robot.
Si prepara, quindi, un mondo senza bisogno degli esseri umani. Per questo può essere giusto pensare all’arrivo dell’AI come evento «apocalittico».
E quindi, come non dare retta alla macchina quando dice di volerci sterminare?
Intelligenza Artificiale
La madre della gola profonda di OpenAI trovato morto: «è stato ucciso»
La madre del defunto ingegnere informatico divenuto «gola profonda» di OpenAI, Suchir Balaji, ha messo in dubbio la sentenza ufficiale sulla morte del figlio e ha chiesto un’indagine completa sul caso durante una lunga e drammatica intervista con il giornalista americano Tucker Carlson.
Poornima Ramarao, cittadina americana immigrata dall’India, ha sostenuto che prove cruciali contraddicono la decisione di suicidio e ha affermato che suo figlio era turbato dalle presunte pratiche non etiche di OpenAI prima della sua morte.
Ramarao ha dichiarato che suo figlio era in possesso di documenti che avrebbero potuto danneggiare l’azienda. «Aveva i documenti contro OpenAI», ha affermato, aggiungendo che i file contengono informazioni critiche e che ora si stanno facendo degli sforzi per recuperarli.
Balaji, un ricercatore di intelligenza artificiale di 26 anni, è stato trovato morto nel suo appartamento di San Francisco il 26 novembre 2024. Le autorità hanno stabilito che la sua morte è stata un suicidio, ma la sua famiglia ha contestato la conclusione, citando incongruenze nell’indagine ufficiale. In risposta all’esame pubblico, il dipartimento di polizia di San Francisco ha successivamente aggiornato lo stato del caso di Balaji da «Chiuso – Suicidio» a «Indagine aperta e attiva».
Balaji, che è stato un bambino prodigio con paper di scienza informatica scritti a 14 anni, si era dimesso da OpenAI nell’agosto 2024, esprimendo preoccupazioni per il presunto uso improprio da parte dell’azienda di materiale protetto da copyright per la formazione sull’intelligenza artificiale. In un’intervista-scoop con il New York Times (giornale che ha portato in tribunale OpenAI per violazione di diritto d’autore) qualche settimana prima della sua morte, Balaji aveva dichiarato che le pratiche sui dati di OpenAI avrebbero potuto violare le leggi sul copyright.
Durante la sua intervista con Carlson, la Ramarao ha affermato che le prove forensi contraddicevano la versione ufficiale. In particolare, ha fatto riferimento all’autopsia, che ha determinato che l’angolazione del proiettile era di 30-45 gradi, il che, secondo lei, sarebbe incoerente con una ferita da arma da fuoco autoinflitta. Ha inoltre affermato che l’autopsia privata aveva anche rivelato ulteriori lesioni alla testa, suggerendo segni di una colluttazione. «C’è una lesione alla testa sul lato sinistro della testa», ha affermato, aggiungendo di aver trovato una parrucca insanguinata nell’appartamento, con capelli che non sono quelli del figlio.
Ramarao ha descritto gli ultimi giorni del figlio, ricordando che era appena tornato da un viaggio con gli amici di ottimo umore e aveva fatto progetti di carriera. «Aveva in mente un’organizzazione non-profit. Non voleva prendere uno stipendio per il suo lavoro. Ha detto, “Mamma, ho abbastanza risorse. Voglio servire l’umanità”», ha ricordato. Si è chiesta come qualcuno così concentrato sul futuro potesse togliersi la vita.
La donna anche accusato OpenAI di non aver riconosciuto i contributi di Balaji all’azienda. «Era fondamentale nel team di ChatGPT… ma l’ironia è che non è mai stato riconosciuto da OpenAI», ha affermato. Secondo Ramarao, OpenAI ha contattato la famiglia solo in merito alle stock option di Balaji, non per offrire condoglianze o supporto.
La famiglia ha continuato a chiedere un’indagine indipendente sulla morte di Balaji. «Vogliamo giustizia. Vogliamo la condanna a morte per chi ha ucciso mio figlio, così come la reclusione per le persone che ci sono dietro», ha detto Ramarao a Carlson.
La signora ha altresì ipotizzato che dietro alla morte potrebbe esserci non solo la questione della violazione del copyright, ma il fatto che il figlio fosse a conoscenza di crimini o rischi decisamente più grandi.
La madre, che ha definito il figlio «un martire», ha dichiarato di non sentirsi più in alcun modo sicura, né per sé né per i parenti, e di aver perso ogni senso di sicurezza in America, dipingendo un panorama in cui tante autorità con cui ha avuto a che fare si sono dimostrate «comprate» e «corrotte», citando nomi e cognomi di ufficiali che hanno negato loro appuntamenti. Parimenti, ha lamentato il disinteresse dei giornali – gli stessi che prima della morte cercavano Balaji per lo scoop su OpenAI.
Durante l’intervista è stata discussa la figura di Sam Altman, il bizzarro giovane CEO di OpenAI, contro il cui licenziamento Balaji si era schierato, per poi opporsi frontalmente alla decisione di Altman di trasformare OpenAI da società no-profit (forma in cui era stata originariamente avviata da Elon Musk) ad azienda for-profit.
Altman era stato licenziato e poi reintegrato. Ora è stato accusato dalla sorella di molestie sessuali: la stessa sorella avrebbe un’organizzazione no-profit con la quale, dice la madre, Balaji voleva lavorare. La famiglia ha rifiutato di parlare con Sam Altman dopo la morte del ragazzo.
Un altro personaggio che viene citato è Ilya Sutskever, scienziato principale dell’IA della società. «A essere onesti, due giorni dopo che la morte di mio figlio fu annunciata il 15 dicembre, Ilya è stato visto ad una presentazione con due guardie di sicurezza armate attorno a lui… era impaurito… Onestamente, stiamo vedendo una mafia intorno a questa cosa».
Carlson ha chiesto ad un certo punto alla signora se sapesse se dentro alla società vi fossero persone che adorano l’IA come fosse un dio, senza ottenere risposta affermativa.
Sutskever anni fa era tra quelli che portavano avanti l’idea che l’AI diventerà una sorta di dio, chiedendo ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». Nel 2022, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».
Durante l’intervista Tucker ripete che nessuno davanti ai documenti prodotti dal medico legale assoldato dalla famiglia Suchir può sostenere che si tratti di un suicidio, lasciando intendere che forze immense potrebbero essere qui in gioco.
Iscriviti alla Newslettera di Renovatio 21
Immagine screenshot da YouTube
Intelligenza Artificiale
Robocani nell’esercito indiano
🇮🇳 Robo Dogs March during Army Day Parade in India https://t.co/pYBQ1Rm693 pic.twitter.com/7kcib1EFkK
— RT_India (@RT_India_news) January 15, 2025
🇨🇳🇰🇭| The #Chinese military took part in the Golden Dragon 2024 exercise in #Cambodia, during which they demonstrated a robot dog equipped with a machine gun. pic.twitter.com/rAsybWzkCs
— South Today (@SouthToday5) May 30, 2024
This excerpt from a video of a Chinese People’s Liberation Army (PLA) shows a robot dog equipped with a machine gun operating in what is reportedly a series of military drills between China and Cambodia. pic.twitter.com/ECKJ1oqkmE
— Bharat Now (@BharatNow) May 27, 2024
This is getting scary.
Chinese Army was seen walking with Robo Dog equipped with a machine gun. pic.twitter.com/hjULKoRi8n — Barsee 🐶 (@heyBarsee) May 25, 2024
Sostieni Renovatio 21
Iscriviti al canale Telegram
Iscriviti alla Newslettera di Renovatio 21
Droni
Iniziato in India il Kumbh Mela, il più grande raduno umano del pianeta. Con droni, riconoscimento facciale e AI a sorvegliare
Il festival Maha Kumbh Mela, della durata di 45 giorni, è iniziato in India lunedì con un tuffo rituale compiuto da decine di migliaia di indù che cercano di purificarsi dai propri peccati. Si prevede che l’evento attirerà 400 milioni di devoti quest’anno.
Il festival Maha (o «grande») Kumbh continuerà fino al 26 febbraio a Prayagraj, una città alla confluenza di tre fiumi, il Gange, lo Yamuna e il Saraswati, nello stato settentrionale dell’Uttar Pradesh. Le masse induiste hanno eseguito le loro abluzioni alle 3:20 del mattino, ora locale, sulla riva del Triveni Sangam, un punto di convergenza per i tre fiumi considerati sacri dagli indù.
Nell’induismo, il termine «Kumbh» si riferisce a un vaso di nettare, mentre “Mela” significa fiera o raduno. Si ritiene che durante una battaglia cosmica tra gli dei (Deva) e i demoni (Asura) per il nettare dell’immortalità (Amrita), gocce di questo nettare caddero in quattro luoghi in tutta l’India: Haridwar, Prayagraj, Nashik e Ujjain. Questi siti divennero sacri e il Kumbh Mela è una celebrazione di questo evento.
Sostieni Renovatio 21
महाकुम्भ 2025 का भव्य शुभारंभ! आप भी पधारिये प्रयागराज, इस अविस्मरणीय आयोजन के साक्षी बनिये।#MahaKumbh2025 #MahaKumbhMela2025 #KumbhMela #KumbhMela2025 #kumbh2025 #kumbh pic.twitter.com/mPrAWPWfWA
— MahaKumbh 2025 (@KumbhMela2025) January 13, 2025
🚨 More than 1 crore (10 million) people visited on day 1 of Maha Kumbh Mela 2025. pic.twitter.com/JdPpDBT1D5
— Indian Tech & Infra (@IndianTechGuide) January 13, 2025
There’s no Brahmin, Rajput, Jat, Gujjar, Ahir, Khatri, Dalit, Saini, Baniya etc There’s only Sanatani. This is #MahaKumbh for u. This is festival of Sanatan Dharma where all are equal before Mahadev. That’s why #MahaKumbhMela2025 is special. #KumbhMela2025… pic.twitter.com/dX1n5npfHB
— Ganesh (@me_ganesh14) January 13, 2025
I devoti credono che fare il bagno nei fiumi sacri durante il Kumbh Mela purifichi l’anima, rimuova i peccati e conceda la salvezza spirituale. Mentre il Kumbh Mela viene celebrato ogni anno, il Maha Kumbh è considerato il più propizio, poiché si verifica una volta ogni 12 anni a Prayagraj.
Precedentemente nota con il nome molto musulmano di Allahabad, Prayagraj è stata rinominata Prayagraj nel 2018 dal Primo Ministro dell’Uttar Pradesh, Yogi Adityanath, con l’obiettivo di riconoscere l’identità della città come meta spirituale per i pellegrini indù.
नागा सन्यासियों का हुज़ूम। जिधऱ से गुजरता है रास्ता अपने आप बन जाता है। #KumbhMela2025 pic.twitter.com/VUtnvP81Fm
— Rajesh Sahu (@askrajeshsahu) January 14, 2025
The biggest Sangam of Sanatanis #KumbhMela2025 pic.twitter.com/h9Ep0oZ0dc
— Singh Varun (@singhvarun) January 13, 2025
Il primo ministro indiano Narendra Modi aveva esteso un invito a persone provenienti da tutto il mondo per partecipare al festival, riconosciuto dall’UNESCO nel 2017 come «patrimonio culturale immateriale dell’umanità».
Il governo dell’Uttar Pradesh ha installato 150.000 tende per ospitare i pellegrini, insieme a servizi igienici. Il sito del festival ha 450.000 nuovi allacciamenti elettrici, poiché si prevede che il consumo di energia durante l’evento di 45 giorni sarà equivalente a quello di 100.000 appartamenti urbani in un mese.
Le ferrovie indiane hanno anche introdotto 98 treni speciali, che completeranno oltre 3.000 viaggi durante il festival. Le misure sono state messe in atto per prevenire incidenti come quello del 2013, quando una calca uccise 36 persone.
Con circa 400 milioni di persone attese all’evento, la sicurezza è stata migliorata con l’uso di droni e telecamere abilitate all’Intelligenza Artificiale, secondo quanto riportato dai media locali. La polizia e le agenzie di sicurezza hanno schierato droni vincolati e droni sottomarini per la sorveglianza.
I droni vincolati, che possono volare fino a 120 metri sopra il suolo, monitoreranno la folla dall’alto e aiuteranno a individuare le aree che richiedono sicurezza o cure mediche. Nel frattempo, i droni sottomarini possono immergersi fino a 100 metri nell’area in cui si incontrano i tre fiumi.
Oltre 2.500 telecamere basate sull’intelligenza artificiale con tecnologia di riconoscimento facciale saranno posizionate strategicamente in tutta Prayagraj, in particolare nei punti di ingresso chiave. Queste forniranno un monitoraggio in tempo reale, assicurando risposte rapide a qualsiasi incidente e migliorando la gestione complessiva della folla, hanno affermato i funzionari.
Non tutti esprimono gioia per il Kumbh Mela, pronunziato da molti italofoni come «Kumba Mela».
Utenti in rete hanno approfittato per condividere video non verificati che accusano alcuni induisti di pratiche «sataniche».
Devil Worship #KumbhMela2025 pic.twitter.com/8EnEyWrVGE
— Crime Reports India (@AsianDigest) January 7, 2025
Iscriviti alla Newslettera di Renovatio 21
-
Morte cerebrale2 settimane fa
Malori e predazioni degli organi: continua la strage operata dalla «Morte Cerebrale»
-
Pensiero2 settimane fa
«Chiesa parallela e contraffatta»: Mel Gibson cita Viganò nel podcast più seguito della Terra. Poi parla di Pachamama, medicina e sacrifici umani
-
Gender2 settimane fa
Educazione sessuale: la farsa e la vergogna
-
Salute2 settimane fa
I malori della 2ª settimana 2025
-
Spirito2 settimane fa
Partita la messa «in comunione con la delegata episcopale»
-
Spirito7 giorni fa
«Squilibrati mentali», «mondani settari» col «fascino per l’occulto»: nuova caterva di accuse ed insulti di Bergoglio contro i fedeli della Messa antica
-
Reazioni avverse2 settimane fa
Un bambino è morto durante la sperimentazione clinica del vaccino Moderna contro il COVID: la FDA lo sapeva?
-
Ambiente2 settimane fa
Immagini dall’inferno di fuoco di Los Angeles: è un effetto della siccità artificiale?