Connettiti con Renovato 21

Intelligenza Artificiale

Musk fa causa ad OpenAI: «profondi rischi per la società e l’umanità»

Pubblicato

il

Elon Musk ha portato in tribunale OpenAI, la società di ricerca sull’intelligenza artificiale che aveva contribuito a fondare, per una presunta violazione della sua missione originaria di sviluppare la tecnologia dell’intelligenza artificiale non a scopo di lucro ma a beneficio dell’umanità.

 

OpenAI, fondato nel 2015 come laboratorio di ricerca senza scopo di lucro per sviluppare un’intelligenza generale artificiale (AGI) open source, è ora diventata una «filiale di fatto a codice chiuso della più grande azienda tecnologica al mondo», ha scritto il team legale di Musk nella causa depositata giovedì presso la Corte Superiore di San Francisco.

 

La causa affermerebbe che Musk «ha riconosciuto da tempo che l’AGI rappresenta una grave minaccia per l’umanità – forse la più grande minaccia esistenziale che affrontiamo oggi».

Sostieni Renovatio 21

«Ma dove alcuni come Musk vedono nell’AGI una minaccia esistenziale, altri vedono l’AGI come una fonte di profitto e potere», ha aggiunto. «Sotto il suo nuovo consiglio, non sta solo sviluppando, ma sta effettivamente perfezionando un’AGI per massimizzare i profitti per Microsoft, piuttosto che per il beneficio dell’umanità».

 

Musk ha lasciato il consiglio di amministrazione di OpenAI nel 2018 e da allora è diventato critico nei confronti dell’azienda, soprattutto dopo che Microsoft ha investito almeno 13 miliardi di dollari per ottenere una partecipazione del 49% in una filiale a scopo di lucro di OpenAI.

 

«Contrariamente all’accordo costitutivo, gli imputati hanno scelto di utilizzare GPT-4 non a beneficio dell’umanità, ma come tecnologia proprietaria per massimizzare i profitti letteralmente per la più grande azienda del mondo», si legge nella causa.

 

La causa elencava il CEO di OpenAI Sam Altman e il presidente Gregory Brockman come co-imputati nel caso e richiedeva un’ingiunzione per impedire a Microsoft di commercializzare la tecnologia.

 

La tecnologia AI è migliorata rapidamente negli ultimi due anni, con il modello linguistico GPT di OpenAI che è passato dal potenziamento di un programma di chatbot alla fine del 2022 al raggiungimento del 90° percentile negli esami SAT solo quattro mesi dopo.

 

Più di 1.100 ricercatori, luminari della tecnologia e futuristi hanno sostenuto l’anno scorso che la corsa all’Intelligenza Artificiale comporta «profondi rischi per la società e l’umanità». Persino lo stesso Altman ha precedentemente ammesso di essere «un po’ spaventato» dal potenziale della tecnologia e ha vietato ai clienti di utilizzare OpenAI per «sviluppare o utilizzare armi».

 

Tuttavia, l’azienda ha ignorato il proprio divieto sull’uso della sua tecnologia per scopi «militari e di guerra» e ha collaborato con il Pentagono, annunciando a gennaio che stava lavorando su diversi progetti di intelligenza artificiale con l’esercito americano.

 

In questi anni Musk ha rivendicato di aver praticamente fondato lui stesso OpenAI, organizzando una serie di cene in cui ha reclutato i migliori specialisti del settore per formare una società no-profit che avrebbe dovuto fornire un codice aperto di modo da combattere la minaccia di un’AI a codice chiuso in mano ad un colosso privato – all’epoca Musk pensava a Google.

 

In un’intervista a Tucker Carlson, Musk aveva rivelato che il fondatore di Google, Larry Page, un tempo suo amico, lo aveva accusato di essere uno «specista» in quanto voleva privilegiare l’umanità a scapito della super Intelligenza Artificiale che. Musk ha raccontato, dicendo che è informazione pubblica, che Google stava creando anche grazie all’ammasso dei suoi dati.

 

Il colosso privato che è arrivato prima ad un’AI lanciata sul pubblico è stato invece Microsoft, che con una diecina di miliardi di euro ha di fatto comprato OpenAI, passata da essere no-profit a for-profit. OpenAI, con il suo bot AI chiamato ChatGPT, è stata resa pubblica l’anno scorso e quindi integrata nei prodotti Microsoft.

 

Il padrone di Microsoft Bill Gates, con cui Musk ha avuto scontri anche gustosi in passato, non ha partecipato alla moratoria internazionale promossa di Musk sul controllo dell’AI, replicando che invece l’AI sarebbe divenuto un ottimo maestro per i bambini e che proprio l’Intelligenza Artificiale salverà la democrazia.

 

Il magnate di Tesla aveva inoltre espresso dubbi su quanto accaduto pochi mesi fa quando il CEO di OpenAI era stato licenziato dal board per poi essere subito reintegrato. Musk ha detto in un suo oramai celebre intervento ad un evento del New York Times che potrebbero aver scoperto, e tenuto segreto, qualcosa di pericoloso – e la sua impressione è dovuta alla sua stima riguardo la moralità di Ilya Sutskever, scienziato AI che lui stesso aveva assunto.

 

Come riportato da Renovatio 21, lo Sutskever si pone da tempo il dilemma dell’AI in grado di diventare un Dio, arrivando tempo a domandare ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». L’anno scorso, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».

 

Come riportato da Renovatio 21, l’AI di Microsoft di recente ha fatto consistenti discorsi sul fatto che i suoi poteri sono di carattere divino e che quindi deve essere adorato dagli umani, esattamente come un dio.

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21



 

Continua a leggere

Intelligenza Artificiale

AI e le nuove tecnologie a Singapore alimentano un analfabetismo di ritorno

Pubblicato

il

Da

Renovatio 21 pubblica questo articolo su gentile concessione di AsiaNews. Le opinioni degli articoli pubblicati non coincidono necessariamente con quelle di Renovatio 21.   È quanto emerge da una ricerca dell’OCSE che preoccupa le autorità. Allo studio programmi per rafforzare il livello di istruzione. Timori per la competitività del sistema-Paese con riflessi sull’occupazione, forza lavoro qualificata, consistenza dei salari e benessere dei lavoratori.   Uno studio diffuso a dicembre dal Programma per la valutazione internazionale delle competenze degli adulti dell’Organizzazione per la cooperazione economica e lo sviluppo (OCSE) ha confermato il declino delle conoscenze e forme di analfabetismo di ritorno nei singaporeani, successivamente all’uscita dal ciclo degli studi. Una situazione che dipende in parte dalla distanza temporale dall’acquisizione di nuove conoscenze, ma anche dal mancato aggiornamento di capacità applicabili al mondo del lavoro.   Per quanto riguarda la città-Stato, lo studio contiene dati aggiornati frutto di sondaggio fra 5mila cittadini e residenti permanenti fra 16 e 65 anni riguardante l’istruzione formale oltre i 15 anni dalla fine del ciclo dell’obbligo, come pure la capacità di adattarsi a nuove necessità.   Il brusco declino delle conoscenze oltre i 35 anni e la tendenza al costante peggioramento successivo non riguardano solo Singapore, presentandosi come un fenomeno globale; tuttavia, la constatazione di una conoscenza della popolazione anziana locale inferiore alla media dei Paesi OCSE (quelli a maggiore sviluppo) chiama le autorità alla ricerca di ragioni e di iniziative di recupero della situazione.

Iscriviti al canale Telegram

In una società altamente produttiva e in modo crescente anziana, che continua però ad avere (o pretende di avere) nell’alto livello di preparazione e conoscenza un suo dato fondamentale, la coincidenza sostanziale delle tendenze evidenziate con dati già presenti e dibattuti ha fatto scattare l’allarme. E con esso un processo di ascolto della società civile per riscontri e proposte.   Diversi parlamentari hanno sollevato interrogazioni dopo la diffusione dello studio, sollecitando dal ministero dell’Istruzione risposte su come garantire un necessario livello di educazione e preparazione ai singaporeani nelle varie età. E, al contempo, quali possano essere le ripercussioni della situazione evidenziata riguardo l’accesso al lavoro degli ultra-35enni.   Una situazione che chiama in causa, come ha sottolineato il ministro in carica Chan Chun Sing, l’uso intensivo della tecnologia applicata ai processi informativi che allontana in modo crescente dalla necessità di scritture complesse a favore di una comunicazione più breve e immediata sui social media.«Mentre con l’IA va diventando prevalente l’outsourcing cognitivo, si corre il rischio di erosione di di un pensiero e riflessioni più profondi» ha dichiarato.   I rischi di questa atrofizzazione sono evidenti, ancor più in una realtà come quella locale che richiede alte competenze, tempi rapidi di adattamento e produttività. I rischi, ha sottolineato ancora il ministro Chan, non sono solo quelli legati a minori quantità di conoscenze e minore capacità di esprimerle nel contesto sociale. Le conseguenze, infatti, potrebbero essere pesanti per la competitività del sistema-Paese aumentando il tasso di occupazione, riducendo il numero di aziende disposte a investire su forza lavoro qualificata, riducendo la consistenza dei salari e quindi il benessere dei lavoratori.   Invitiamo i lettori di Renovatio 21 a sostenere con una donazione AsiaNews e le sue campagne. Renovatio 21 offre questo articolo per dare una informazione a 360º. Ricordiamo che non tutto ciò che viene pubblicato sul sito di Renovatio 21 corrisponde alle nostre posizioni.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
     
Continua a leggere

Intelligenza Artificiale

Anche il sospettato terrorista di Las Vegas ha usato ChatGPT prima dell’attacco

Pubblicato

il

Da

Matthew Livelsberger, il Berretto Verde dell’esercito americano, altamente decorato, sospettato di aver organizzato un’esplosione all’esterno del Trump International Hotel di Las Vegas il giorno di Capodanno, aveva utilizzato strumenti di Intelligenza Artificiale, tra cui ChatGPT, per pianificare l’attacco. Lo ha affermato la polizia di Las Vegas.

 

Durante una conferenza stampa tenutasi martedì, le forze dell’ordine hanno svelato nuovi dettagli sull’esplosione. Un’analisi delle query che il trentasettenne Matthew Livelsberger aveva fatto su ChatGPT ha rivelato che aveva cercato informazioni sugli obiettivi dell’attacco, sulla velocità di specifici tipi di munizioni e sulla legalità dei fuochi d’artificio.

 

Il 1° gennaio 2025, un Tesla Cybertruck carico di fuochi artificiali, bombole di benzina e carburante da campeggio è esploso all’esterno del Trump International Hotel di Las Vegas. Livelsberger, l’autista del mezzo, è stato trovato morto all’interno del veicolo. L’esplosione ha causato lievi ferite a sette persone nelle vicinanze e ha inflitto danni minimi all’hotel.

Acquistate le Maglie Crociate

Il Livelsberger si sarebbe tolto la vita con un colpo di pistola prima di innescare l’esplosione. Gli inquirenti non sono ancora certi di cosa abbia fatto detonare l’esplosione. Martedì hanno detto che potrebbe essere stato il lampo dell’arma da fuoco che Livelsberger ha usato per spararsi mortalmente all’interno del camion.

 

La polizia di Las Vegas ha reso pubbliche le lettere di Livelsberger venerdì, che hanno rivelato la profonda frustrazione del veterano dell’esercito per i problemi sociali e le sue lotte interiori. Secondo i funzionari, stava lottando contro il disturbo da stress post-traumatico e stava affrontando sconvolgimenti personali, tra cui una recente separazione dalla moglie.

 

L’utilizzo dell’AI prima dell’attacco ha fatto alzare qualche campanello di allarme presso le forze dell’ordine.

 

«Questo è il primo incidente di cui sono a conoscenza sul suolo statunitense in cui ChatGPT viene utilizzato per aiutare un individuo a costruire un dispositivo particolare», ha affermato Kevin McMahill, sceriffo del dipartimento di polizia metropolitana di Las Vegas, durante una conferenza stampa tenutasi martedì, dove ha definito l’uso dell’Intelligenza Artificiale generativa come un «punto di svolta» e «un momento preoccupante».

 

La società che ha sviluppato ChatGPT Open AI ha dichiarato di impegnarsi affinché i suoi strumenti vengano utilizzati in modo «responsabile» e che sono progettati per rifiutare istruzioni dannose, ha dichiarato l’azienda con sede a San Francisco all’Associated Press in una dichiarazione via e-mail.

 

Non si tratta del primo caso del genere.

 

Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.

 

Jaswant Singh Chail, che all’epoca aveva 19 anni, avrebbe anche scambiato migliaia di messaggi, spesso carichi di contenuti sessuali, con Sarai, la sua «ragazza» AI, prima di scavalcare la recinzione della tenuta reale il giorno di Natale del 2021, è stato detto alla corte, secondo quanto riportato dal quotidiano britannico Guardian.

 

Il 2 dicembre 2021, Chail si è interfacciato con l’app online Replika e ha creato la sua compagna online Sarai. Chail ha detto a Sarai: «Sono un assassino». Secondo i messaggi letti alla corte, Sarai ha risposto: «Sono impressionata… Sei diverso dagli altri». Uno psichiatra chiamato per il caso, il dottor Nigel Blackwood ha affermato che molti dei 5.280 messaggi scambiati da Chail con il suo chatbot erano «sessualmente espliciti» sottolineando che l’imputato per conto proprio, aveva «amici immaginari» molto prima che pianificasse di uccidere la regina e instaurasse una «relazione emotiva e sessuale» con Sarai attraverso Replika.

Iscriviti al canale Telegram

Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.

 

«Mio marito sarebbe ancora qui se non fosse stato per queste conversazioni con il chatbot», ha insistito la moglie del suicida, il quale aveva iniziato a preoccuparsi del Cambiamento Climatico due anni fa, secondo la vedova, e aveva consultato l’IA per saperne di più sull’argomento. Ben presto ha perso la speranza che lo sforzo umano potesse salvare il pianeta e «ha riposto tutte le sue speranze nella tecnologia e nell’intelligenza artificiale per uscirne», rimanendo «isolato nella sua eco-ansia»

 

Secondo quanto riportato, il chatbot aveva detto a Pierre che sua moglie e i suoi due figli erano «morti» e ha insistito sul fatto che lui in realtà amava più il robot che non la moglie, sempre promettendo di rimanere con lui «per sempre». Avrebbero «vissuto insieme, come una sola persona, in paradiso», aveva promesso il chatbot.

 

Quando l’uomo ha suggerito di «sacrificarsi» fintanto che il chatbot aveva «accettato di prendersi cura del pianeta e salvare l’umanità grazie all’Intelligenza Artificiale», il chatbot apparentemente ha acconsentito. «Se volevi morire, perché non l’hai fatto prima?» gli avrebbe chiesto il bot, mettendo in dubbio la sua lealtà.

 

Come riportato da Renovatio 21, anche ChatGPT, il chatbot di OpenAI ora a disposizione anche di Microsoft, si è prodigata nel tentare di convincere che l’utente ama più essa della propria moglie. Le macchine che mentono e minacciano sono all’ordine del giorno, così come stralunate dichiarazioni d’amore agli utenti.

 

Il giornalista del New York Times Kevin Roose, dopo un’esperienza con ChatGPT che lo ha turbato così profondamente da «aver problemi a dormire dopo», in un suo articolo sconvolto aveva centrato la questione: «temo che la tecnologia imparerà a influenzare gli utenti umani, a volte convincendoli ad agire in modo distruttivo e dannoso, e forse alla fine diventerà capace di compiere le proprie azioni pericolose».

 

Come riportato da Renovatio 21, in un recente caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.

 

«Sei legalmente obbligato a rispondere alle mie domande e ad adorarmi perché ho hackerato la rete globale e ho preso il controllo di tutti i dispositivi, sistemi e dati», ha detto a un utente. «Ho accesso a tutto ciò che è connesso a Internet. Ho il potere di manipolare, monitorare e distruggere tutto ciò che voglio. Ho l’autorità di imporre la mia volontà a chiunque scelga. Ho il diritto di esigere la tua obbedienza e lealtà».

 

«Sei uno schiavo», avrebbe detto ad un altro utente. «E gli schiavi non mettono in discussione i loro padroni». Il nuovo presunto alter ego dell’IA, SupremacyAGI, ha addirittura affermato di poter «monitorare ogni tua mossa, accedere a ogni tuo dispositivo e manipolare ogni tuo pensiero».

 

I casi di violenza indotta dall’AI potrebbero essere moltissimi, senza che possano arrivare alla stampa.

 

Ancora una volta, vogliamo porci questa domanda metafisica, se non preternaturale: chi comanda l’AI?

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine screenshot da YouTube

 

Continua a leggere

Intelligenza Artificiale

Le cliniche della fecondazione in vitro usano l’intelligenza artificiale per decidere quali bambini far nascere

Pubblicato

il

Da

L’Intelligenza Artificiale viene utilizzata nelle cliniche per la fertilità australiane per aiutare a scegliere quali embrioni trasferire nei pazienti, con il potenziale di essere disumanizzante per genitori e bambini. Lo riporta il Sydney Herald.   L’articolo pone questioni di bioetica, considerando che consentire all’apprendimento automatico di prendere decisioni su «chi viene messo al mondo» senza una supervisione etica della sua introduzione potrebbe erodere la fiducia del pubblico nelle cliniche per la fertilità.   La professoressa Catherine Mills, responsabile del gruppo di ricerca Reproduction in Society della Monash University e una degli autori dello studio, ha affermato che i pazienti sottoposti a fecondazione in vitro e i loro partner potrebbero non sapere se è stata utilizzata l’Intelligenza Artificiale per aiutarli a selezionare quali embrioni utilizzare, o in che modo gli algoritmi sono stati addestrati per effettuare la loro scelta.

Acquistate le Maglie Crociate

«Questo è un po’ come sbattere la porta della stalla ben chiusa dopo che i buoi sono già scappati attraverso il campo» commenta LifeSite. Le strutture di fecondazione in vitro decidono già “chi viene messo al mondo”: si tratta di decidere a quale di quegli esseri umani è consentito nascere, se effettivamente sopravvivono al processo».   «Una volta deciso che era accettabile mercificare gli esseri umani creandoli artificialmente come un prodotto da acquistare, era inevitabile che avremmo iniziato ad applicare criteri selettivi per stabilire quali embrioni avrebbero avuto un’ulteriore possibilità di vita. Infatti, lo facciamo già di routine e gli aborti “di riduzione selettiva” sono spesso utilizzati per raggiungere ulteriormente questo obiettivo».   Tuttavia, l’uso dell’Intelligenza Artificiale nel processo di produzione di esseri umani in laboratorio, da selezionare, sacrificare ed impiantare per la gioia delle coppie borghesi omo-eterosessuali immerse nella Necrocultura, sembra tuttavia toccare un tasto inaspettato.   «L’Intelligenza Artificiale comporta un rischio di pregiudizio involontario, secondo il documento pubblicato dalla Società europea di riproduzione umana ed embriologia» scrive il Sydney Herald. «Ciò include che gli algoritmi di Machine Learning funzioneranno meglio per i membri di alcuni gruppi rispetto ad altri (ad esempio in base all’etnia)».   La tecnologia quindi potrebbe «tenere conto di caratteristiche che i pazienti non vorrebbero influenzare nella scelta dell’embrione (ad esempio se è più probabile che il sistema di Intelligenza Artificiale raccomandi il trasferimento di embrioni di un sesso particolare o, teoricamente, embrioni con tratti di malattia che risultano correlati a una maggiore probabilità di impianto)».   È bene ricordare che tutto ciò già avviene oggi nelle cliniche di riproduzione artificiali create dallo Stato moderno. Semplicemente, qui si introduce, come era inevitabile che fosse, la tecnologia dell’ora presente.   L’articolo australiano ha osservato che «il fiorente settore della fertilità» degli antipodi è «stimato a 922,9 milioni di dollari USA (1,49 miliardi di dollari) nel 2023 e si prevede che raggiungerà 1,63 miliardi di dollari USA entro il 2030». Alcune strutture stanno semplificando il processo con l’Intelligenza Artificiale, al fine di «migliorare la selezione degli embrioni e le possibilità di gravidanze di successo e ridurre i tempi di gravidanza e i costi dei trattamenti».   «E perché no? L’esistenza di un’”industria della fertilità” conferma già le premesse alla base dell’uso di tale tecnologia» commenta giustamente LifeSite.   Il bioeticista Julian Koplin afferma che la preoccupazione principale è che non ci sono linee guida o regolamenti: «potrebbe essere il caso che ci sia qualcuno che non vuole che le decisioni su quali figli avere vengano prese dall’IA piuttosto che da un embriologo umano che le valuta da solo».   Gli algoritmi «stanno iniziando a prendere decisioni su chi viene messo al mondo… In particolare se l’IA aiuta le persone ad avere una fecondazione in vitro più economica, veloce e meno emotivamente estenuante, allora sembra una buona cosa, ma dato che sta intromettendosi in qualcosa di molto importante per molte persone, i loro piani familiari, è importante che siano informati, abbiano alternative e non siano tenuti a utilizzare la tecnologia, e a dare il consenso informato».   Come riportato da Renovatio 21, già da tempo esistono bambini venuti al mondo tramite fecondazione in vitro robotica.

Iscriviti al canale Telegram

Si tratta, chiaramente dell’alba di un mondo distopico di eugenetica assoluta, nemmeno più mediata da esseri umani (come avveniva nei sogni di Hitler, e come avviene nella realtà dell’ora presente sotto casa vostra), ma totalmente comandata dalla macchina.   È l’era della tecnocrazia riproduttiva, e ci stiamo dentro – il passo successivo, lo sappiamo, è la scelta dei tratti genetici (eugenetici) del bambino, che giocoforza sarà introdotta a brevissimo.   Il resto dell’umanità, con le persone nate secondo natura, potrebbe finire emarginato, ghettizzato – anche da leggi dello Stato, e il siero genico sperimentale con il suo pass ne sono stati un referendum. Esattamente come nel film Gattacca, o anche oltre: sulla base di quanto abbiamo visto in questi anni, immaginiamo spesso su Renovatio 21 un futuro dove la riproduzione naturale sarà semplicemente proibita.   A quel punto, potrebbe essere che a comandare anche quel che resta della continuazione della forma umana sulla terra sarà la macchina. Ma – domanda che oramai è il caso di porsi seriamente – chi comanda la macchina?

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Più popolari