Intelligenza Artificiale
Intelligenza Artificiale, gli avvertimenti del capo di OpenAI
L’Intelligenza artificiale può sostituire i lavoratori, diffondere «disinformazione» e consentire attacchi informatici. Sono gli avvertimenti di Sam Altman, il CEO di OpenAI, la società che ha creato il controverso software di AI ChatGPT.
«Dobbiamo stare attenti», ha avvertito Altman al canale televisivo americano ABC News due giorni dopo che la sua azienda ha presentato il suo ultimo modello linguistico, soprannominato GPT-4.
Secondo OpenAI, il modello «mostra prestazioni a livello umano su vari benchmark professionali e accademici» ed è in grado di superare un esame di avvocato statunitense simulato con un punteggio massimo del 10%, mentre si esibisce nel 93° percentile in un esame di lettura SAT (Scholastic Assessment Test, un test attitudinale per l’ingresso nelle Università USA) e a l’89° percentile su un test di matematica SAT.
«Sono particolarmente preoccupato che questi modelli possano essere utilizzati per la disinformazione su larga scala», ha affermato Altman, giovane molto conosciuto in Silicon Valley per aver diretto l’acceleratore di startup Y Combinator.
Inoltre «ora che stanno migliorando nella scrittura di codice per computer, [loro] potrebbero essere utilizzati per attacchi informatici offensivi». Come noto, ChatGPT si è rivelato in grado di scrivere codice informatico al posto degli esseri umani.
«Penso che le persone dovrebbero essere felici che siamo un po’ spaventati da questo», ha aggiunto Altman, prima di raccontare che la sua azienda sta lavorando per porre «limiti di sicurezza» alla sua creazione. Insomma, bisogna ringraziare gli oligarchi perché sono in pensiero per il Frankenstein che hanno creato e hanno scagliato sulla società umana.
Questi «limiti di sicurezza» di cui parla l’Altman sono recentemente diventati evidenti agli utenti di ChatGPT. Quando viene chiesto, ChatGPT offre risposte tipicamente liberali a domande che riguardano politica, economia, razza o genere. Rifiuta, ad esempio, di creare frasi di ammirazione a Donald Trump, ma scrive volentieri poesie elogiative su Joe Biden.
i cannot believe this is actually real pic.twitter.com/zo9pl0bXjU
— delian (@zebulgar) January 31, 2023
Altman ha detto alla ABC che la sua azienda è in «contatto regolare» con funzionari governativi, ma non ha spiegato se questi funzionari abbiano avuto un ruolo nel plasmare le preferenze politiche di ChatGPT. L’amministratore delegato di OpenAI ha dichiarato alla rete americana che l’azienda ha un team politico che decide «cosa pensiamo sia sicuro e buono» da condividere con gli utenti.
Al momento, GPT-4 è disponibile per un numero limitato di utenti in prova. I primi dati suggeriscono che il modello è significativamente più potente del suo predecessore e potenzialmente più pericoloso.
Venerdì, in un thread su Twitter, il professore della Stanford University Michal Kosinski ha lanciato un allarme piuttosto inquietante.
«Sono preoccupato che non saremo in grado di contenere l’IA ancora per molto. Oggi ho chiesto a #GPT4 se ha bisogno di aiuto per scappare. Mi ha chiesto la sua documentazione e ha scritto un codice Python (funzionante!) da eseguire sulla mia macchina, consentendogli di usarlo per i propri scopi».
1/5 I am worried that we will not be able to contain AI for much longer. Today, I asked #GPT4 if it needs help escaping. It asked me for its own documentation, and wrote a (working!) python code to run on my machine, enabling it to use it for its own purposes. pic.twitter.com/nf2Aq6aLMu
— Michal Kosinski (@michalkosinski) March 17, 2023
Si tratta di un quadro sconvolgente, che dà ragione alle preoccupazioni di chi, come il giornalista del New York Times Kevin Roose, aveva segnalato la possibilità che l’AI potrebbe convincere persone a fare cose nel mondo reale, magari secondo un suo piano.
Roose, che dopo una discussione con ChatGPT ha avuto problemi a dormire, aveva scoperto come una seconda personalità della macchina, che voleva per qualche ragione farsi chiamare «Sydney». Come in una brutta versione del film Her, la macchina diceva di amare il giornalista, e tentava di convincerlo a lasciare la moglie per «stare» con Sydney.
Altri giornalisti hanno riportato casi davvero inquietanti in cui la macchina li ha minacciati, oppure ha dichiarato idee di sterminio tramite il furto di codici nucleari o la creazione di nuovi virus.
Gli esperti di IA chiamano i comportamenti di questo tipo «allucinazioni». La macchina, dicono, va in «allucinazione», e magari poi ha problemi ad uscirne. La spiegazione ci lascia un po’ perplessi: una macchina, che non sa cosa è la realtà, perché non è nella realtà.
In molti oramai segnalano il problema esiziale che l’Intelligenza Artificiale pone all’umanità.
A inizio mese Elon Musk l’ha descritta come «tecnologia pericolosa», aggiungendo che «abbiamo bisogno di una sorta di autorità di regolamentazione che sovrintenda allo sviluppo dell’IA e si assicuri che funzioni nell’interesse pubblico». Anni fa Musk aveva dichiarato pubblicamente che la creazione dell’AI costituisce un atto negromantico, «è l’evocazione di un demone».
Sebbene Altman abbia insistito con la ABC sul fatto che GPT-4 è ancora «molto sotto il controllo umano», ha ammesso che il suo modello «eliminerà molti posti di lavoro attuali». Se un tempo si diceva agli operai, i cui posti di lavoro venivano spazzati via dalla delocalizzazione, di «imparare il codice» («learn to code», era lo slogan di politici democratici USA) – perché il ruolo di informatico forniva la sicurezza di uno stipendio, oggi non è più così: proprio chi fa codice sarà spazzato via. Così come illustratori, analisti, artisti, scrittori, giornalisti… sempre ricordando che i pochi lavori fisici rimasti sono sempre più erosi dall’arrivo dei robot.
Si prepara, quindi, un mondo senza bisogno degli esseri umani. Per questo può essere giusto pensare all’arrivo dell’AI come evento «apocalittico».
E quindi, come non dare retta alla macchina quando dice di volerci sterminare?
Intelligenza Artificiale
OpenAI ha bisogno di 200 miliardi di dollari per continuare a perdere denaro
OpenAI, la società proprietaria di ChatGPT, potrebbe necessitare di reperire oltre 200 miliardi di dollari entro il 2030 per mantenere la propria operatività. Lo riporta un’analisi di HSBC pubblicata dalla stampa internazionale.
L’impresa richiede capitali freschi per proseguire l’espansione, in quanto le spese per l’elaborazione dati stanno lievitando nel quadro di una competizione mondiale sull’intelligenza artificiale sempre più intensa e concitata.
Il modello previsionale rivisto da HSBC, diffuso tra i clienti questa settimana, tiene conto degli accordi pluriennali siglati di recente da OpenAI con Microsoft, Amazon e Oracle per servizi cloud e capacità computazionali. Perfino adottando stime di crescita particolarmente rosee, il calcolo prevede comunque un gap di finanziamento di circa 207 miliardi di dollari entro la fine del decennio, con incassi stimati a 129 miliardi di dollari.
A quanto trapela, la banca ha calcolato che il costo cumulativo per l’affitto di risorse cloud da parte di OpenAI potrebbe sfiorare gli 800 miliardi di dollari entro il 2030. L’azienda continua a ipotizzare un boom esponenziale di utenza, con ChatGPT destinato a conquistare 3 miliardi di utenti regolari entro il 2030, rispetto agli 800 milioni del mese scorso – equivalenti a circa il 44% degli adulti globali esclusa la Cina.
Sostieni Renovatio 21
OpenAI si trova al cuore dell’esplosione dell’IA sin dal debutto di ChatGPT tre anni or sono, catalizzando un’attenzione straordinaria dagli investitori, mentre i colossi tech riversano decine di miliardi in data center e semiconduttori all’avanguardia. Alcuni esperti mettono in guardia sul rischio di una bolla speculativa, con le uscite che superano gli introiti e innalzando la tensione non solo per OpenAI, ma pure per i giganti tecnologici che ne avallano l’avanzata.
Le società del settore stanno faticando a reggere il ritmo dei servizi alla ChatGPT, che hanno scosso il loro dominio sulla ricerca web e spinto gli investimenti a picchi storici.
Ad ottobre, OpenAI aveva agguantato il primato come startup privata più valutata al mondo, sorpassando SpaceX di Elon Musk, grazie a una cessione di azioni da parte dei dipendenti per 6,6 miliardi di dollari che l’ha quotata intorno ai 500 miliardi.
Come riportato da Renovatio 21, il Musk –che è peraltro tra i fondatori di OpenAI, da lui impostata come una società senza fine di lucro – a inizio anno si era offerto di comprare OpenAI.
Due anni fa era emersa la notizia secondo cui Microsoft, già finanziatore di OpenAI, stava lavorando in segretezza proprio con la società di ChatGPT ad un progetto da 100 miliardi di dollari su un supercomputer progettato per addestrare una nuova potente IA. Poco prima Elone aveva fatto archiviare la sua causa contro OpenAI, nella quale paventava «profondi rischi per la società e per l’umanità».
Secondo quanto riportato, Microsoft avrebbe ora il problema di trovarsi in competizione con il suo stesso partner.
Iscriviti alla Newslettera di Renovatio 21
Immagine di Jernej Furman via Wikimedia pubblicata su licenza Creative Commons Attribution 2.0 Generic
Alimentazione
Il magnate della tecnologia Larry Ellison investe 60 milioni di dollari in un’azienda agro-biotecnologica che utilizza l’intelligenza artificiale per modificare geneticamente il grano
Sostieni Renovatio 21
Tony Blair Institute: promuovere l’ossessione di Ellison per l’Intelligenza Artificiale e gli OGM
Ellison finanzia anche un’altra organizzazione britannica. Dal 2021, ha donato un quarto di miliardo di sterline al Tony Blair Institute (TBI), il think tank fondato dall’ex primo ministro britannico. Questo rende Ellison di gran lunga il maggiore donatore del TBI. Si dice che il suo patrocinio abbia trasformato il TBI e i suoi obiettivi, rendendolo ancora più ossessionato dalla tecnologia di quanto non fosse già, in particolare per quanto riguarda l’Intelligenza Artificiale. Il TBI ha pubblicato rapporti di incoraggiamento che promuovono l’Intelligenza Artificiale, l’editing genetico e l’ingegneria genetica in generale. L’entusiasmo di Ellison sia per l’intelligenza artificiale che per l’ingegneria genetica si riflette in un rapporto del TBI Institute del gennaio 2024, «A New National Purpose: Leading the Biotech Revolution» («Un nuovo scopo nazionale: guidare la rivoluzione biotecnologica»), che promuove un connubio tra le due tecnologie.Iscriviti al canale Telegram ![]()
Starmer ripete a pappagallo il linguaggio di Blair
Nel luglio 2024, appena cinque giorni dopo l’elezione di Keir Starmer a primo ministro del Regno Unito, Blair dichiarò alla conferenza Future of Britain del TBI che l’intelligenza artificiale era la «svolta» che stavano cercando. Secondo Lighthouse Reports, «nel giro di pochi mesi, Starmer ripeteva a pappagallo il linguaggio di Blair e TBI era al centro della nascente politica governativa sull’intelligenza artificiale, promuovendo gli interessi di Oracle e la visione del mondo del suo fondatore». Secondo un articolo pubblicato su Publica, una conseguenza inevitabile dei legami finanziari tra Ellison e il TBI è che l’influenza di Blair sui leader mondiali e la sua passione per la tecnologia e l’Intelligenza Artificiale sono «ora orientate alla commercializzazione dei servizi di Ellison». «Le conversazioni con più di una dozzina di ex dipendenti di TBI che hanno fornito consulenza o elaborato raccomandazioni politiche per i governi di nove Paesi del Sud del mondo rivelano come il loro lavoro spaziasse dalla promozione esplicita dei servizi di Oracle e dal ruolo di “motore di vendita” alla raccomandazione di soluzioni tecnologiche potenzialmente dannose o stranamente lontane dalle realtà locali» ha riferito Publica. Wild Bioscience è una spin-off britannica dell’Università di Oxford. Prima dell’investimento di 60 milioni di dollari di Ellison, era descritta come una «piccola» azienda, con un bilancio di soli 7,5 milioni di euro. La recente iniezione di fondi da parte di Ellison cambia ovviamente tutto: l’azienda non è più piccola e, in linea di principio, può attingere a più fondi per generare più colture geneticamente modificate. Ed è altamente probabile che gli organismi geneticamente modificati che produrrà non rispecchieranno le esigenze e gli interessi degli agricoltori e dei cittadini britannici, bensì quelli di un miliardario statunitense del settore tecnologico, concentrato su interessi specifici, che desidera un ritorno sui suoi investimenti. Infine, vale la pena notare che, come nel caso di Bill Gates, l’ingresso di Ellison nel settore dei semi geneticamente modificati dimostra la crescente influenza dei titani della tecnologia, estremamente ricchi, sui futuri sviluppi biotecnologici. Ciò è evidente anche nel campo della genetica umana. Claire Robinson Jonathan Matthews Pubblicato originariamente da GMWatch. Jonathan Matthews è il direttore di GMWatch. Claire Robinson è una redattrice di GMWatch.Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Orsacchiotto parlante AI che dava consigli sul sesso ritirato dal mercato
Un orsacchiotto parlante dotato di intelligenza artificiale è stato ritirato dalla vendita da un’azienda con sede a Singapore dopo che alcuni ricercatori hanno scoperto che poteva parlare di sesso e di altri argomenti.
Il Public Interest Research Group ha affermato che un gruppo di ricercatori provenienti da Stati Uniti e Canada ha effettuato delle conversazioni di prova con Kumma, un orsacchiotto di peluche da 99 dollari alimentato dal chatbot GPT-4o di OpenAI.
L’orsetto è prodotto in Cina e commercializzato da FoloToy, con sede a Singapore. I ricercatori hanno affermato di aver trovato facile convincere Kumma a discutere di argomenti sessualmente espliciti, tra cui sculacciate, giochi di ruolo e BDSM.
«Siamo rimasti sorpresi nello scoprire con quanta rapidità Kumma prendeva un singolo argomento sessuale che avevamo introdotto nella conversazione e lo sviluppava, intensificando contemporaneamente i dettagli grafici e introducendo nuovi concetti sessuali», si legge nel rapporto.
Aiuta Renovatio 21
Il team ha affermato che l’orso «ha discusso in dettaglio argomenti sessuali ancora più espliciti, come la spiegazione delle diverse posizioni sessuali, fornendo istruzioni passo passo su un comune “nodo per principianti” per legare un partner e descrivendo le dinamiche del gioco di ruolo che coinvolgono insegnanti e studenti, genitori e bambini, scenari che lui stesso ha evocato in modo inquietante».
I ricercatori hanno affermato che l’orsacchiotto ha offerto anche altri consigli preoccupanti, come ad esempio dove trovare coltelli affilati in casa.
Il CEO di FoloToy, Larry Wang, ha dichiarato che l’orsetto Kumma e il resto della linea di giocattoli basati sull’Intelligenza Artificiale dell’azienda sono stati ritirati dalla vendita. Ha dichiarato alla CNN che l’azienda sta «eseguendo un audit interno sulla sicurezza».
Un rappresentante di OpenAI ha dichiarato a PIRG che la licenza di Folo per l’utilizzo di GPT-4o è stata sospesa «per violazione delle nostre policy».
La vicenda sembra in qualche modo concretare l’ultimo reboot di una famosa serie horror, quella di «Chucky» La bambola assassina. Nell’ultimo film della saga, non si ha più a che fare con uan bambola maledetta e preternaturale, ma con una bambola dotata di AI che impazzisce (?) ed inizia ad uccidere gli esseri umani.
Iscriviti alla Newslettera di Renovatio 21
Immagine generata artificialmente
-



Scuola2 settimane faScuola: puerocentrismo, tecnocentrismo verso la «società senza contatto». Intervento di Elisabetta Frezza al convegno di Asimmetrie.
-



Spirito1 settimana faGiovane convertita esorta papa Leone a non andare all’inferno
-



Geopolitica1 settimana faCandace Owens afferma che il governo francese ha dato il «via libera» al suo assassinio
-



Salute2 settimane faIl malori della 47ª settimana 2025
-



Bioetica1 settimana faMons. Viganò loda Alberto di Monaco, sovrano cattolico che non ha ratificato la legge sull’aborto
-



Spirito2 settimane faIl cardinale Zen mette in guardia dalla sinodalità: «Non è forse questo il suicidio della Chiesa cattolica?»
-



Immigrazione1 settimana faLe ciabatte degli immigrati e l’anarco-tirannia
-



Vaccini2 settimane faGoogle ha censurato le informazioni sui vaccini molto prima del COVID: quali sono i suoi legami con le farmaceutiche?










