Connettiti con Renovato 21

Intelligenza Artificiale

Intelligenza Artificiale, gli avvertimenti del capo di OpenAI

Pubblicato

il

L’Intelligenza artificiale può sostituire i lavoratori, diffondere «disinformazione» e consentire attacchi informatici. Sono gli avvertimenti di Sam Altman, il CEO di OpenAI, la società che ha creato il controverso software di AI ChatGPT.

 

«Dobbiamo stare attenti», ha avvertito Altman al canale televisivo americano ABC News due giorni dopo che la sua azienda ha presentato il suo ultimo modello linguistico, soprannominato GPT-4.

 

Secondo OpenAI, il modello «mostra prestazioni a livello umano su vari benchmark professionali e accademici» ed è in grado di superare un esame di avvocato statunitense simulato con un punteggio massimo del 10%, mentre si esibisce nel 93° percentile in un esame di lettura SAT (Scholastic Assessment Test, un test attitudinale per l’ingresso nelle Università USA) e a l’89° percentile su un test di matematica SAT.

 

«Sono particolarmente preoccupato che questi modelli possano essere utilizzati per la disinformazione su larga scala», ha affermato Altman, giovane molto conosciuto in Silicon Valley per aver diretto l’acceleratore di startup Y Combinator.

 

Inoltre «ora che stanno migliorando nella scrittura di codice per computer, [loro] potrebbero essere utilizzati per attacchi informatici offensivi». Come noto, ChatGPT si è rivelato in grado di scrivere codice informatico al posto degli esseri umani.

 

«Penso che le persone dovrebbero essere felici che siamo un po’ spaventati da questo», ha aggiunto Altman, prima di raccontare che la sua azienda sta lavorando per porre «limiti di sicurezza» alla sua creazione. Insomma, bisogna ringraziare gli oligarchi perché sono in pensiero per il Frankenstein che hanno creato e hanno scagliato sulla società umana.

 

Questi «limiti di sicurezza» di cui parla l’Altman sono recentemente diventati evidenti agli utenti di ChatGPT. Quando viene chiesto, ChatGPT offre risposte tipicamente liberali a domande che riguardano politica, economia, razza o genere. Rifiuta, ad esempio, di creare frasi di ammirazione a Donald Trump, ma scrive volentieri poesie elogiative su Joe Biden.

 

 

Altman ha detto alla ABC che la sua azienda è in «contatto regolare» con funzionari governativi, ma non ha spiegato se questi funzionari abbiano avuto un ruolo nel plasmare le preferenze politiche di ChatGPT. L’amministratore delegato di OpenAI ha dichiarato alla rete americana che l’azienda ha un team politico che decide «cosa pensiamo sia sicuro e buono» da condividere con gli utenti.

 

Al momento, GPT-4 è disponibile per un numero limitato di utenti in prova. I primi dati suggeriscono che il modello è significativamente più potente del suo predecessore e potenzialmente più pericoloso.

 

Venerdì, in un thread su Twitter, il professore della Stanford University Michal Kosinski ha lanciato un allarme piuttosto inquietante.

 

«Sono preoccupato che non saremo in grado di contenere l’IA ancora per molto. Oggi ho chiesto a #GPT4 se ha bisogno di aiuto per scappare. Mi ha chiesto la sua documentazione e ha scritto un codice Python (funzionante!) da eseguire sulla mia macchina, consentendogli di usarlo per i propri scopi».

 

 

Si tratta di un quadro sconvolgente, che dà ragione alle preoccupazioni di chi, come il giornalista del New York Times Kevin Roose, aveva segnalato la possibilità che l’AI potrebbe convincere persone a fare cose nel mondo reale, magari secondo un suo piano.

 

Roose, che dopo una discussione con ChatGPT ha avuto problemi a dormire, aveva scoperto come una seconda personalità della macchina, che voleva per qualche ragione farsi chiamare «Sydney». Come in una brutta versione del film Her, la macchina diceva di amare il giornalista, e tentava di convincerlo a lasciare la moglie per «stare» con Sydney.

 

Altri giornalisti hanno riportato casi davvero inquietanti in cui la macchina li ha minacciati, oppure ha dichiarato idee di sterminio tramite il furto di codici nucleari o la creazione di nuovi virus.

 

Gli esperti di IA chiamano i comportamenti di questo tipo «allucinazioni». La macchina, dicono, va in «allucinazione», e magari poi ha problemi ad uscirne. La spiegazione ci lascia un po’ perplessi: una macchina, che non sa cosa è la realtà, perché non è nella realtà.

 

In molti oramai segnalano il problema esiziale che l’Intelligenza Artificiale pone all’umanità.

 

A inizio mese Elon Musk l’ha descritta come «tecnologia pericolosa», aggiungendo che «abbiamo bisogno di una sorta di autorità di regolamentazione che sovrintenda allo sviluppo dell’IA e si assicuri che funzioni nell’interesse pubblico». Anni fa Musk aveva dichiarato pubblicamente che la creazione dell’AI costituisce un atto negromantico, «è l’evocazione di un demone».

 

Sebbene Altman abbia insistito con la ABC sul fatto che GPT-4 è ancora «molto sotto il controllo umano», ha ammesso che il suo modello «eliminerà molti posti di lavoro attuali». Se un tempo si diceva agli operai, i cui posti di lavoro venivano spazzati via dalla delocalizzazione, di «imparare il codice» («learn to code», era lo slogan di politici democratici USA) – perché il ruolo di informatico forniva la sicurezza di uno stipendio, oggi non è più così: proprio chi fa codice sarà spazzato via. Così come illustratori, analisti, artisti, scrittori, giornalisti… sempre ricordando che i pochi lavori fisici rimasti sono sempre più erosi dall’arrivo dei robot.

 

Si prepara, quindi, un mondo senza bisogno degli esseri umani. Per questo può essere giusto pensare all’arrivo dell’AI come evento «apocalittico».

 

E quindi, come non dare retta alla macchina quando dice di volerci sterminare?

 

 

 

 

 

Intelligenza Artificiale

La madre della gola profonda di OpenAI trovato morto: «è stato ucciso»

Pubblicato

il

Da

La madre del defunto ingegnere informatico divenuto «gola profonda» di OpenAI, Suchir Balaji, ha messo in dubbio la sentenza ufficiale sulla morte del figlio e ha chiesto un’indagine completa sul caso durante una lunga e drammatica intervista con il giornalista americano Tucker Carlson.

 

Poornima Ramarao, cittadina americana immigrata dall’India, ha sostenuto che prove cruciali contraddicono la decisione di suicidio e ha affermato che suo figlio era turbato dalle presunte pratiche non etiche di OpenAI prima della sua morte.

 

Ramarao ha dichiarato che suo figlio era in possesso di documenti che avrebbero potuto danneggiare l’azienda. «Aveva i documenti contro OpenAI», ha affermato, aggiungendo che i file contengono informazioni critiche e che ora si stanno facendo degli sforzi per recuperarli.

 

Balaji, un ricercatore di intelligenza artificiale di 26 anni, è stato trovato morto nel suo appartamento di San Francisco il 26 novembre 2024. Le autorità hanno stabilito che la sua morte è stata un suicidio, ma la sua famiglia ha contestato la conclusione, citando incongruenze nell’indagine ufficiale. In risposta all’esame pubblico, il dipartimento di polizia di San Francisco ha successivamente aggiornato lo stato del caso di Balaji da «Chiuso – Suicidio» a «Indagine aperta e attiva».

 

Balaji, che è stato un bambino prodigio con paper di scienza informatica scritti a 14 anni, si era dimesso da OpenAI nell’agosto 2024, esprimendo preoccupazioni per il presunto uso improprio da parte dell’azienda di materiale protetto da copyright per la formazione sull’intelligenza artificiale. In un’intervista-scoop con il New York Times (giornale che ha portato in tribunale OpenAI per violazione di diritto d’autore) qualche settimana prima della sua morte, Balaji aveva dichiarato che le pratiche sui dati di OpenAI avrebbero potuto violare le leggi sul copyright.

 

Durante la sua intervista con Carlson, la Ramarao ha affermato che le prove forensi contraddicevano la versione ufficiale. In particolare, ha fatto riferimento all’autopsia, che ha determinato che l’angolazione del proiettile era di 30-45 gradi, il che, secondo lei, sarebbe incoerente con una ferita da arma da fuoco autoinflitta. Ha inoltre affermato che l’autopsia privata aveva anche rivelato ulteriori lesioni alla testa, suggerendo segni di una colluttazione. «C’è una lesione alla testa sul lato sinistro della testa», ha affermato, aggiungendo di aver trovato una parrucca insanguinata nell’appartamento, con capelli che non sono quelli del figlio.

 

Ramarao ha descritto gli ultimi giorni del figlio, ricordando che era appena tornato da un viaggio con gli amici di ottimo umore e aveva fatto progetti di carriera. «Aveva in mente un’organizzazione non-profit. Non voleva prendere uno stipendio per il suo lavoro. Ha detto, “Mamma, ho abbastanza risorse. Voglio servire l’umanità”», ha ricordato. Si è chiesta come qualcuno così concentrato sul futuro potesse togliersi la vita.

 

La donna anche accusato OpenAI di non aver riconosciuto i contributi di Balaji all’azienda. «Era fondamentale nel team di ChatGPT… ma l’ironia è che non è mai stato riconosciuto da OpenAI», ha affermato. Secondo Ramarao, OpenAI ha contattato la famiglia solo in merito alle stock option di Balaji, non per offrire condoglianze o supporto.

 

La famiglia ha continuato a chiedere un’indagine indipendente sulla morte di Balaji. «Vogliamo giustizia. Vogliamo la condanna a morte per chi ha ucciso mio figlio, così come la reclusione per le persone che ci sono dietro», ha detto Ramarao a Carlson.

 

La signora ha altresì ipotizzato che dietro alla morte potrebbe esserci non solo la questione della violazione del copyright, ma il fatto che il figlio fosse a conoscenza di crimini o rischi decisamente più grandi.

 

La madre, che ha definito il figlio «un martire», ha dichiarato di non sentirsi più in alcun modo sicura, né per sé né per i parenti, e di aver perso ogni senso di sicurezza in America, dipingendo un panorama in cui tante autorità con cui ha avuto a che fare si sono dimostrate «comprate» e «corrotte», citando nomi e cognomi di ufficiali che hanno negato loro appuntamenti. Parimenti, ha lamentato il disinteresse dei giornali – gli stessi che prima della morte cercavano Balaji per lo scoop su OpenAI.

 

Durante l’intervista è stata discussa la figura di Sam Altman, il bizzarro giovane CEO di OpenAI, contro il cui licenziamento Balaji si era schierato, per poi opporsi frontalmente alla decisione di Altman di trasformare OpenAI da società no-profit (forma in cui era stata originariamente avviata da Elon Musk) ad azienda for-profit.

 

Altman era stato licenziato e poi reintegrato. Ora è stato accusato dalla sorella di molestie sessuali: la stessa sorella avrebbe un’organizzazione no-profit con la quale, dice la madre, Balaji voleva lavorare. La famiglia ha rifiutato di parlare con Sam Altman dopo la morte del ragazzo.

 

Un altro personaggio che viene citato è Ilya Sutskever, scienziato principale dell’IA della società. «A essere onesti, due giorni dopo che la morte di mio figlio fu annunciata il 15 dicembre, Ilya è stato visto ad una presentazione con due guardie di sicurezza armate attorno a lui… era impaurito… Onestamente, stiamo vedendo una mafia intorno a questa cosa».

 

Carlson ha chiesto ad un certo punto alla signora se sapesse se dentro alla società vi fossero persone che adorano l’IA come fosse un dio, senza ottenere risposta affermativa.

 

Sutskever anni fa era tra quelli che portavano avanti l’idea che l’AI diventerà una sorta di dio, chiedendo ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». Nel 2022, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».

 

Durante l’intervista Tucker ripete che nessuno davanti ai documenti prodotti dal medico legale assoldato dalla famiglia Suchir può sostenere che si tratti di un suicidio, lasciando intendere che forze immense potrebbero essere qui in gioco.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine screenshot da YouTube

Continua a leggere

Intelligenza Artificiale

Robocani nell’esercito indiano

Pubblicato

il

Da

L’esercito indiano ha presentato il suo primo lotto di robocani alimentati dall’Intelligenza Artificiale, che hanno sfilato per la città di Pune mercoledì come parte della parata dell’Army Day, la giornata dell’esercito.   Chiamati MULES (Multi-Utility Legged Equipment) e progettati per assomigliare a cani, questi macchinari saranno utilizzati per la sorveglianza e per trasportare carichi leggeri.   L’esercito ha ordinato 100 MULES robotici come parte di un programma di approvvigionamento di emergenza nel 2023, secondo i media locali. I robot sono stati forniti l’anno scorso da AeroArc, un’azienda con sede a Nuova Delhi, ha riferito l’Indian Defence Research Wing a ottobre.   Acquistati con un accordo da 2,8 miliardi di rupie (33 milioni di dollari), questi robot sono progettati per muoversi in modo autonomo su terreni diversi e sono in grado di operare ad altitudini fino a 10.000 piedi. Dotati di telecamere termiche e sensori avanzati, i veicoli a quattro zampe sono anche in grado di trasportare armi leggere per ingaggiare le forze nemiche quando necessario.  

Acquistate le Maglie Crociate

I MULES sono stati sottoposti a prove a novembre dell’anno scorso. Oltre 50 soldati di Battle Axe, una divisione d’élite dell’esercito indiano, e dieci cani robotici hanno testato la loro efficacia in scenari di combattimento e logistici. Gli esercizi sono stati condotti in condizioni desertiche difficili per valutare la versatilità e la resistenza del robot, secondo i resoconti.   L’iniziativa fa parte della modernizzazione delle forze armate indiane.   L’integrazione dei robodoghi indiani nelle operazioni dell’esercito è in linea con le tendenze globali, poiché la robotica e l’automazione hanno migliorato sempre di più l’efficienza operativa e l’efficacia in combattimento. Le potenze militari di tutto il mondo stanno sperimentando i propri sistemi d’arma cinoidi.   Durante le recenti esercitazioni Cina-Cambogia Golden Dragon 2024, l’esercito cinese ha mostrato un cane robot equipaggiato con un fucile automatico montato sulla schiena. I video pubblicati online hanno mostrato il veicolo a quattro zampe camminare, saltare, sdraiarsi e muoversi all’indietro.  

Sostieni Renovatio 21

Come riportato da Renovatio 21, mesi fa l’Esercito Popolare di Liberazione (EPL) – cioè le forze armate della Repubblica Popolare Cinese – aveva dato dimostrazione delle capacità di un robocane dotato di fucile d’assalto.   Pechino ha inoltre militarizzato modelli robocinoidi, portandoli sul sempre irrequieto confine himalayano con l’India, dove è schierato il robo-yak. Un video particolarmente inquietante mostra un robocane armato essere trasportato in cima ad un palazzo da un drone.   Varie volte i cinesi hanno mostrato le capacità di allevamento di robocani, pubblicando video di branchi minacciosi che si muovono in armonia.   Come riportato da Renovatio 21, i robocani hanno pattugliato le strade di Shanghai durante il colossale lockdown della primavera 2022, dove per sorvegliare e punire i 26 milioni di abitanti usarono, oltre agli androidi quadrupedi, anche droni che volevano tra i palazzi ripetendo frasi come «contieni la sete di libertà del tuo spirito».   Come riportato da Renovatio 21, la Cina ha fatto capire di star preparandosi per l’implementazione militare già per la prossima guerra.   Come riportato da Renovatio 21, dopo tanto parlare di modelli con lanciafiamme (in teoria in libera vendita), i soldati USA l’anno passato hanno testato un robocane munito di lanciarazzi. Il corpo dei Marines avrebbe testato quadrupedi robotici armati negli scorsi mesi. Gli australiani avrebbero invece sviluppato esemplari in grado di collegarsi «telepaticamente» alle truppe.

Iscriviti al canale Telegram

L’implementazione di robocani militari si è già consumata sul teatro di guerra ucraino come in quello di Gaza.   Due mesi fa è stato presentato un modello di cinorobot da combattimento anfibio. Sono parimenti terrificanti le immagini di robocani ora muniti di ruote.   Le inquietanti creature cibernetiche a quattro zampe sono già implementate da Nuova York da polizia e pompieri, così come dai poliziotti di Los Angeles.   Doghi cibernetici sono stati attivi anche in Italia per la pulizia delle spiagge liguri e nella campagna umbra.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Droni

Iniziato in India il Kumbh Mela, il più grande raduno umano del pianeta. Con droni, riconoscimento facciale e AI a sorvegliare

Pubblicato

il

Da

Il festival Maha Kumbh Mela, della durata di 45 giorni, è iniziato in India lunedì con un tuffo rituale compiuto da decine di migliaia di indù che cercano di purificarsi dai propri peccati. Si prevede che l’evento attirerà 400 milioni di devoti quest’anno.

 

Il festival Maha (o «grande») Kumbh continuerà fino al 26 febbraio a Prayagraj, una città alla confluenza di tre fiumi, il Gange, lo Yamuna e il Saraswati, nello stato settentrionale dell’Uttar Pradesh. Le masse induiste hanno eseguito le loro abluzioni alle 3:20 del mattino, ora locale, sulla riva del Triveni Sangam, un punto di convergenza per i tre fiumi considerati sacri dagli indù.

 

Nell’induismo, il termine «Kumbh» si riferisce a un vaso di nettare, mentre “Mela” significa fiera o raduno. Si ritiene che durante una battaglia cosmica tra gli dei (Deva) e i demoni (Asura) per il nettare dell’immortalità (Amrita), gocce di questo nettare caddero in quattro luoghi in tutta l’India: Haridwar, Prayagraj, Nashik e Ujjain. Questi siti divennero sacri e il Kumbh Mela è una celebrazione di questo evento.

Sostieni Renovatio 21

 

 

I devoti credono che fare il bagno nei fiumi sacri durante il Kumbh Mela purifichi l’anima, rimuova i peccati e conceda la salvezza spirituale. Mentre il Kumbh Mela viene celebrato ogni anno, il Maha Kumbh è considerato il più propizio, poiché si verifica una volta ogni 12 anni a Prayagraj.

 

Precedentemente nota con il nome molto musulmano di Allahabad, Prayagraj è stata rinominata Prayagraj nel 2018 dal Primo Ministro dell’Uttar Pradesh, Yogi Adityanath, con l’obiettivo di riconoscere l’identità della città come meta spirituale per i pellegrini indù.

 

Acquistate le Maglie Crociate

Il primo ministro indiano Narendra Modi aveva esteso un invito a persone provenienti da tutto il mondo per partecipare al festival, riconosciuto dall’UNESCO nel 2017 come «patrimonio culturale immateriale dell’umanità».

 

Il governo dell’Uttar Pradesh ha installato 150.000 tende per ospitare i pellegrini, insieme a servizi igienici. Il sito del festival ha 450.000 nuovi allacciamenti elettrici, poiché si prevede che il consumo di energia durante l’evento di 45 giorni sarà equivalente a quello di 100.000 appartamenti urbani in un mese.

 

Le ferrovie indiane hanno anche introdotto 98 treni speciali, che completeranno oltre 3.000 viaggi durante il festival. Le misure sono state messe in atto per prevenire incidenti come quello del 2013, quando una calca uccise 36 persone.

 

Con circa 400 milioni di persone attese all’evento, la sicurezza è stata migliorata con l’uso di droni e telecamere abilitate all’Intelligenza Artificiale, secondo quanto riportato dai media locali. La polizia e le agenzie di sicurezza hanno schierato droni vincolati e droni sottomarini per la sorveglianza.

 

I droni vincolati, che possono volare fino a 120 metri sopra il suolo, monitoreranno la folla dall’alto e aiuteranno a individuare le aree che richiedono sicurezza o cure mediche. Nel frattempo, i droni sottomarini possono immergersi fino a 100 metri nell’area in cui si incontrano i tre fiumi.

 

Oltre 2.500 telecamere basate sull’intelligenza artificiale con tecnologia di riconoscimento facciale saranno posizionate strategicamente in tutta Prayagraj, in particolare nei punti di ingresso chiave. Queste forniranno un monitoraggio in tempo reale, assicurando risposte rapide a qualsiasi incidente e migliorando la gestione complessiva della folla, hanno affermato i funzionari.

 

Non tutti esprimono gioia per il Kumbh Mela, pronunziato da molti italofoni come «Kumba Mela».

 

Utenti in rete hanno approfittato per condividere video non verificati che accusano alcuni induisti di pratiche «sataniche».

 


Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

Continua a leggere

Più popolari