Connettiti con Renovato 21

Intelligenza Artificiale

La lettera di Elon Musk per fermare l’Intelligenza Artificiale

Pubblicato

il

Elon Musk, il cofondatore di Apple e molti esperti informatici tra cui i professori di AI Yoshua Bengio e Stuart Russel altro hanno firmato una lettera pubblicata dal Future of Life Institute per fermare l’avanzata dell’Intelligenza Artificiale, arrivata a spaventare anche l’opinione pubblica con chatGPT, software di cui si è impadronita spendendo 10 miliardi la Microsoft di Bill Gates.

 

Come riportato da Renovatio 21, il software è arrivato a minacciare gli utenti, fare proclami stralunati, perfino dichiarare di voler sterminare gli esseri umani, e creare codice per prendere il controllo del computer dei suoi interlocutori.

 

L’appello di Musk e compagni (tra i quali, purtroppo, vediamo anche Yuval Harari) è paragonabile a quelli che decenni fa si sono visti per lo sviluppo delle armi atomiche, e – aggiungiamo noi – che non si sono visti per le armi biologiche e le ricerche Gain of Function: il risultato del genio scappato dalla lampada lì è stato, con estrema probabilità, la catastrofe della pandemia COVID-19.

 

Gli effetti della fuga del genio AI dalla lampada, strofinata a dovere da oligarchi senza scrupoli e senza amore per il genere umano, non riusciamo ancora ad immaginarceli.

 

Tuttavia Elon Musk, oramai quasi una decina di anni fa, ci aveva messo in guardia: sarà «come evocare un demone».

 

È il momento di avere paura.  È il momento di agire – è il momento che se ne occupi la politica, che in Italia invece che vedere il precipizio davanti alla popolazione, come sempre, si occupa di quisquilie e problemucci partitici, sempre obbediente ai suoi capi di Bruxelles, Francoforte, Washington, e quindi incapace di difenderci davvero.

 

La minaccia è reale, e Renovatio 21 ve lo ripete da anni.

 

Sotto la traduzione integrale della lettera.

 

 

«Mettete in pausa gli esperimenti di Intelligenza Artificiale gigante: una lettera aperta»

 

 

Chiediamo a tutti i laboratori di Intelligenza Artificiale di sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di Intelligenza Artificiale più potenti di GPT-4.

 

 

I sistemi di Intelligenza Artificiale con intelligenza competitiva umana possono comportare gravi rischi per la società e l’umanità, come dimostrato da ricerche approfondite (1) e riconosciuto dai migliori laboratori di Intelligenza Artificiale. (1)

 

Come affermato nei Principi Asilomar AI ampiamente approvati, l’IA avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cure e risorse adeguate.

 

Sfortunatamente, questo livello di pianificazione e gestione non sta accadendo, anche se negli ultimi mesi i laboratori di Intelligenza Artificiale sono stati incastrati in una corsa fuori controllo per sviluppare e implementare menti digitali sempre più potenti che nessuno, nemmeno i loro creatori, può capire, prevedere o controllare in modo affidabile.

 

I sistemi di Intelligenza Artificiale contemporanei stanno ora diventando competitivi per l’uomo in compiti generali, (3) e dobbiamo chiederci: dovremmo lasciare che le macchine inondino i nostri canali di informazioni con propaganda e falsità?

 

Dovremmo automatizzare tutti i lavori, compresi quelli soddisfacenti?

 

Dovremmo sviluppare menti non umane che alla fine potrebbero essere più numerose, superate in astuzia, obsolete e sostituirci?

 

Dovremmo rischiare di perdere il controllo della nostra civiltà?

 

Tali decisioni non devono essere delegate a leader tecnologici non eletti. Potenti sistemi di Intelligenza Artificiale dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili.

 

Questa fiducia deve essere ben giustificata e aumentare con l’entità degli effetti potenziali di un sistema. La recente dichiarazione di OpenAI sull’Intelligenza Artificiale generale afferma che «ad un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare ad addestrare i sistemi futuri e, per gli sforzi più avanzati, concordare di limitare il tasso di crescita del calcolo utilizzato per creare nuovi Modelli». Siamo d’accordo. Quel punto è adesso.

 

Pertanto, invitiamo tutti i laboratori di Intelligenza Artificiale a sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di Intelligenza Artificiale più potenti di GPT-4. Questa pausa dovrebbe essere pubblica e verificabile e includere tutti gli attori chiave. Se una tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria.

 

I laboratori di Intelligenza Artificiale e gli esperti indipendenti dovrebbero sfruttare questa pausa per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo avanzati di Intelligenza Artificiale, rigorosamente verificati e supervisionati da esperti esterni indipendenti. Questi protocolli dovrebbero garantire che i sistemi che vi aderiscono siano sicuri oltre ogni ragionevole dubbio. (4)

 

Ciò non significa una pausa nello sviluppo dell’IA in generale, ma semplicemente un passo indietro dalla pericolosa corsa a modelli black-box sempre più grandi e imprevedibili con capacità emergenti.

 

La ricerca e lo sviluppo dell’IA dovrebbero essere riorientati per rendere i sistemi potenti e all’avanguardia di oggi più accurati, sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali.

 

Parallelamente, gli sviluppatori di Intelligenza Artificiale devono collaborare con i responsabili politici per accelerare drasticamente lo sviluppo di solidi sistemi di governance dell’IA.

 

Questi dovrebbero come minimo includere: autorità di regolamentazione nuove e capaci dedicate all’IA; supervisione e tracciamento di sistemi di Intelligenza Artificiale altamente capaci e ampi pool di capacità computazionali; sistemi di provenienza e watermarking per aiutare a distinguere il reale dal sintetico e per tenere traccia delle fughe di modelli; un solido ecosistema di audit e certificazione; responsabilità per danni causati dall’IA; solidi finanziamenti pubblici per la ricerca tecnica sulla sicurezza dell’IA; e istituzioni dotate di risorse adeguate per far fronte alle drammatiche perturbazioni economiche e politiche (soprattutto per la democrazia) che l’IA causerà.

 

L’umanità può godere di un futuro fiorente con l’IA. Dopo essere riusciti a creare potenti sistemi di Intelligenza Artificiale, ora possiamo goderci un’«estate di Intelligenza Artificiale» in cui raccogliamo i frutti, progettiamo questi sistemi per il chiaro vantaggio di tutti e diamo alla società la possibilità di adattarsi. La società ha messo in pausa altre tecnologie con effetti potenzialmente catastrofici sulla società. (5)

 

Possiamo farlo qui. Godiamoci una lunga estate AI, non precipitiamoci impreparati nell’autunno.

 

 

 

 

NOTE

 

1) Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?????. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).

Bostrom, N. (2016). Superintelligence. Oxford University Press.

Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).

Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.

Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.

Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine43(3) (pp. 282-293).

Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.

Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.

Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.

Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.

Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.

Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.

 

 

3) Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.

OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.

 

4) Esiste un ampio precedente legale: ad esempio, i principi IA dell’OCSE ampiamente adottati richiedono che i sistemi IA «funzionino in modo appropriato e non comportino un rischio irragionevole per la sicurezza».

 

5) Gli esempi includono la clonazione umana, la modifica della linea germinale umana, la ricerca sul guadagno di funzione e l’eugenetica.

 

Continua a leggere

Intelligenza Artificiale

OpenAI ha bisogno di 200 miliardi di dollari per continuare a perdere denaro

Pubblicato

il

Da

OpenAI, la società proprietaria di ChatGPT, potrebbe necessitare di reperire oltre 200 miliardi di dollari entro il 2030 per mantenere la propria operatività. Lo riporta un’analisi di HSBC pubblicata dalla stampa internazionale.

 

L’impresa richiede capitali freschi per proseguire l’espansione, in quanto le spese per l’elaborazione dati stanno lievitando nel quadro di una competizione mondiale sull’intelligenza artificiale sempre più intensa e concitata.

 

Il modello previsionale rivisto da HSBC, diffuso tra i clienti questa settimana, tiene conto degli accordi pluriennali siglati di recente da OpenAI con Microsoft, Amazon e Oracle per servizi cloud e capacità computazionali. Perfino adottando stime di crescita particolarmente rosee, il calcolo prevede comunque un gap di finanziamento di circa 207 miliardi di dollari entro la fine del decennio, con incassi stimati a 129 miliardi di dollari.

 

A quanto trapela, la banca ha calcolato che il costo cumulativo per l’affitto di risorse cloud da parte di OpenAI potrebbe sfiorare gli 800 miliardi di dollari entro il 2030. L’azienda continua a ipotizzare un boom esponenziale di utenza, con ChatGPT destinato a conquistare 3 miliardi di utenti regolari entro il 2030, rispetto agli 800 milioni del mese scorso – equivalenti a circa il 44% degli adulti globali esclusa la Cina.

Sostieni Renovatio 21

OpenAI si trova al cuore dell’esplosione dell’IA sin dal debutto di ChatGPT tre anni or sono, catalizzando un’attenzione straordinaria dagli investitori, mentre i colossi tech riversano decine di miliardi in data center e semiconduttori all’avanguardia. Alcuni esperti mettono in guardia sul rischio di una bolla speculativa, con le uscite che superano gli introiti e innalzando la tensione non solo per OpenAI, ma pure per i giganti tecnologici che ne avallano l’avanzata.

 

Le società del settore stanno faticando a reggere il ritmo dei servizi alla ChatGPT, che hanno scosso il loro dominio sulla ricerca web e spinto gli investimenti a picchi storici.

 

Ad ottobre, OpenAI aveva agguantato il primato come startup privata più valutata al mondo, sorpassando SpaceX di Elon Musk, grazie a una cessione di azioni da parte dei dipendenti per 6,6 miliardi di dollari che l’ha quotata intorno ai 500 miliardi.

 

Come riportato da Renovatio 21, il Musk –che è peraltro tra i fondatori di OpenAI, da lui impostata come una società senza fine di lucro – a inizio anno si era offerto di comprare OpenAI.

 

Due anni fa era emersa la notizia secondo cui Microsoft, già finanziatore di OpenAI, stava lavorando in segretezza proprio con la società di ChatGPT ad un progetto da 100 miliardi di dollari su un supercomputer progettato per addestrare una nuova potente IA. Poco prima Elone aveva fatto archiviare la sua causa contro OpenAI, nella quale paventava «profondi rischi per la società e per l’umanità».

 

Secondo quanto riportato, Microsoft avrebbe ora il problema di trovarsi in competizione con il suo stesso partner.

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine di Jernej Furman via Wikimedia pubblicata su licenza Creative Commons Attribution 2.0 Generic

Continua a leggere

Alimentazione

Il magnate della tecnologia Larry Ellison investe 60 milioni di dollari in un’azienda agro-biotecnologica che utilizza l’intelligenza artificiale per modificare geneticamente il grano

Pubblicato

il

Da

Renovatio 21 traduce questo articolo di GM Watch.    Larry Ellison ha guidato un investimento di 60 milioni di dollari in Wild Bioscience, un’azienda britannica di biotecnologie agricole che modifica geneticamente le colture, incluso il grano, utilizzando l’intelligenza artificiale. La presenza crescente del miliardario della tecnologia in Gran Bretagna include oltre 250 milioni di sterline in donazioni al Tony Blair Institute, che ora promuove attivamente l’intelligenza artificiale, l’editing genetico e altre politiche basate sulla tecnologia.   Wild Bioscience, azienda britannica specializzata in biotecnologie agricole, è specializzata nella «selezione di colture di precisione basata sull’Intelligenza Artificiale», più precisamente nell’ingegneria genetica delle piante supportata dalla tecnologia dell’Intelligenza Artificiale (IA).   Ora l’azienda si è assicurata un massiccio investimento di 60 milioni di dollari da un gruppo guidato dall’Ellison Institute of Technology (EIT), un think tank fondato dal miliardario statunitense della Big Tech Larry Ellison.   Larry Ellison è il co-fondatore della società di software Oracle. È anche un magnate dei media, uno dei principali donatori delle Forze di Difesa Israeliane e membro della cerchia ristretta del presidente Donald Trump . E sta investendo nel settore dei semi geneticamente modificati (OGM).

Sostieni Renovatio 21

Wild Bioscience sta conducendo in Inghilterra sperimentazioni in campo aperto sul grano geneticamente modificato, progettato per una fotosintesi più efficiente.   Secondo il co-fondatore di Wild Bioscience, il dott. Ross Hendron , l’azienda sta cercando di «ripercorrere il nastro della vita» per vedere come colture come il grano avrebbero potuto evolversi con caratteristiche migliori.   AgTechNavigator parafrasa Hendron dicendo: «l’azienda non può condurre esperimenti di rapida evoluzione sulle piante… quindi li simula utilizzando set di dati ampi e diversificati, la maggior parte dei quali generati da essa stessa».   Ed è qui che entra in gioco l’Intelligenza Artificiale.  

Tony Blair Institute: promuovere l’ossessione di Ellison per l’Intelligenza Artificiale e gli OGM

Ellison finanzia anche un’altra organizzazione britannica. Dal 2021, ha donato un quarto di miliardo di sterline al Tony Blair Institute (TBI), il think tank fondato dall’ex primo ministro britannico. Questo rende Ellison di gran lunga il maggiore donatore del TBI.   Si dice che il suo patrocinio abbia trasformato il TBI e i suoi obiettivi, rendendolo ancora più ossessionato dalla tecnologia di quanto non fosse già, in particolare per quanto riguarda l’Intelligenza Artificiale.   Il TBI ha pubblicato rapporti di incoraggiamento che promuovono l’Intelligenza Artificiale, l’editing genetico e l’ingegneria genetica in generale.   L’entusiasmo di Ellison sia per l’intelligenza artificiale che per l’ingegneria genetica si riflette in un rapporto del TBI Institute del gennaio 2024, «A New National Purpose: Leading the Biotech Revolution» («Un nuovo scopo nazionale: guidare la rivoluzione biotecnologica»), che promuove un connubio tra le due tecnologie.

Iscriviti al canale Telegram

Starmer ripete a pappagallo il linguaggio di Blair

Nel luglio 2024, appena cinque giorni dopo l’elezione di Keir Starmer a primo ministro del Regno Unito, Blair dichiarò alla conferenza Future of Britain del TBI che l’intelligenza artificiale era la «svolta» che stavano cercando.   Secondo Lighthouse Reports, «nel giro di pochi mesi, Starmer ripeteva a pappagallo il linguaggio di Blair e TBI era al centro della nascente politica governativa sull’intelligenza artificiale, promuovendo gli interessi di Oracle e la visione del mondo del suo fondatore».   Secondo un articolo pubblicato su Publica, una conseguenza inevitabile dei legami finanziari tra Ellison e il TBI è che l’influenza di Blair sui leader mondiali e la sua passione per la tecnologia e l’Intelligenza Artificiale sono «ora orientate alla commercializzazione dei servizi di Ellison».   «Le conversazioni con più di una dozzina di ex dipendenti di TBI che hanno fornito consulenza o elaborato raccomandazioni politiche per i governi di nove Paesi del Sud del mondo rivelano come il loro lavoro spaziasse dalla promozione esplicita dei servizi di Oracle e dal ruolo di “motore di vendita” alla raccomandazione di soluzioni tecnologiche potenzialmente dannose o stranamente lontane dalle realtà locali» ha riferito Publica.   Wild Bioscience è una spin-off britannica dell’Università di Oxford. Prima dell’investimento di 60 milioni di dollari di Ellison, era descritta come una «piccola» azienda, con un bilancio di soli 7,5 milioni di euro.   La recente iniezione di fondi da parte di Ellison cambia ovviamente tutto: l’azienda non è più piccola e, in linea di principio, può attingere a più fondi per generare più colture geneticamente modificate.   Ed è altamente probabile che gli organismi geneticamente modificati che produrrà non rispecchieranno le esigenze e gli interessi degli agricoltori e dei cittadini britannici, bensì quelli di un miliardario statunitense del settore tecnologico, concentrato su interessi specifici, che desidera un ritorno sui suoi investimenti.   Infine, vale la pena notare che, come nel caso di Bill Gates, l’ingresso di Ellison nel settore dei semi geneticamente modificati dimostra la crescente influenza dei titani della tecnologia, estremamente ricchi, sui futuri sviluppi biotecnologici.   Ciò è evidente anche nel campo della genetica umana.   Claire Robinson Jonathan Matthews   Pubblicato originariamente da GMWatch. Jonathan Matthews è il direttore di GMWatch. Claire Robinson è una redattrice di GMWatch  
Renovatio 21 offre questa traduzione per dare una informazione a 360º. Ricordiamo che non tutto ciò che viene pubblicato sul sito di Renovatio 21 corrisponde alle nostre posizioni.
 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
Immagine di Oracle PR via Flickr pubblicata su licenza CC BY 2.0
Continua a leggere

Intelligenza Artificiale

Orsacchiotto parlante AI che dava consigli sul sesso ritirato dal mercato

Pubblicato

il

Da

Un orsacchiotto parlante dotato di intelligenza artificiale è stato ritirato dalla vendita da un’azienda con sede a Singapore dopo che alcuni ricercatori hanno scoperto che poteva parlare di sesso e di altri argomenti.

 

Il Public Interest Research Group ha affermato che un gruppo di ricercatori provenienti da Stati Uniti e Canada ha effettuato delle conversazioni di prova con Kumma, un orsacchiotto di peluche da 99 dollari alimentato dal chatbot GPT-4o di OpenAI.

 

L’orsetto è prodotto in Cina e commercializzato da FoloToy, con sede a Singapore. I ricercatori hanno affermato di aver trovato facile convincere Kumma a discutere di argomenti sessualmente espliciti, tra cui sculacciate, giochi di ruolo e BDSM.

 

«Siamo rimasti sorpresi nello scoprire con quanta rapidità Kumma prendeva un singolo argomento sessuale che avevamo introdotto nella conversazione e lo sviluppava, intensificando contemporaneamente i dettagli grafici e introducendo nuovi concetti sessuali», si legge nel rapporto.

Aiuta Renovatio 21

Il team ha affermato che l’orso «ha discusso in dettaglio argomenti sessuali ancora più espliciti, come la spiegazione delle diverse posizioni sessuali, fornendo istruzioni passo passo su un comune “nodo per principianti” per legare un partner e descrivendo le dinamiche del gioco di ruolo che coinvolgono insegnanti e studenti, genitori e bambini, scenari che lui stesso ha evocato in modo inquietante».

 

I ricercatori hanno affermato che l’orsacchiotto ha offerto anche altri consigli preoccupanti, come ad esempio dove trovare coltelli affilati in casa.

 

Il CEO di FoloToy, Larry Wang, ha dichiarato che l’orsetto Kumma e il resto della linea di giocattoli basati sull’Intelligenza Artificiale dell’azienda sono stati ritirati dalla vendita. Ha dichiarato alla CNN che l’azienda sta «eseguendo un audit interno sulla sicurezza».

 

Un rappresentante di OpenAI ha dichiarato a PIRG che la licenza di Folo per l’utilizzo di GPT-4o è stata sospesa «per violazione delle nostre policy».

 

La vicenda sembra in qualche modo concretare l’ultimo reboot di una famosa serie horror, quella di «Chucky» La bambola assassina. Nell’ultimo film della saga, non si ha più a che fare con uan bambola maledetta e preternaturale, ma con una bambola dotata di AI che impazzisce (?) ed inizia ad uccidere gli esseri umani.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine generata artificialmente


 

Continua a leggere

Più popolari