Connettiti con Renovato 21

Intelligenza Artificiale

Musk fa causa ad OpenAI: «profondi rischi per la società e l’umanità»

Pubblicato

il

Elon Musk ha portato in tribunale OpenAI, la società di ricerca sull’intelligenza artificiale che aveva contribuito a fondare, per una presunta violazione della sua missione originaria di sviluppare la tecnologia dell’intelligenza artificiale non a scopo di lucro ma a beneficio dell’umanità.

 

OpenAI, fondato nel 2015 come laboratorio di ricerca senza scopo di lucro per sviluppare un’intelligenza generale artificiale (AGI) open source, è ora diventata una «filiale di fatto a codice chiuso della più grande azienda tecnologica al mondo», ha scritto il team legale di Musk nella causa depositata giovedì presso la Corte Superiore di San Francisco.

 

La causa affermerebbe che Musk «ha riconosciuto da tempo che l’AGI rappresenta una grave minaccia per l’umanità – forse la più grande minaccia esistenziale che affrontiamo oggi».

Sostieni Renovatio 21

«Ma dove alcuni come Musk vedono nell’AGI una minaccia esistenziale, altri vedono l’AGI come una fonte di profitto e potere», ha aggiunto. «Sotto il suo nuovo consiglio, non sta solo sviluppando, ma sta effettivamente perfezionando un’AGI per massimizzare i profitti per Microsoft, piuttosto che per il beneficio dell’umanità».

 

Musk ha lasciato il consiglio di amministrazione di OpenAI nel 2018 e da allora è diventato critico nei confronti dell’azienda, soprattutto dopo che Microsoft ha investito almeno 13 miliardi di dollari per ottenere una partecipazione del 49% in una filiale a scopo di lucro di OpenAI.

 

«Contrariamente all’accordo costitutivo, gli imputati hanno scelto di utilizzare GPT-4 non a beneficio dell’umanità, ma come tecnologia proprietaria per massimizzare i profitti letteralmente per la più grande azienda del mondo», si legge nella causa.

 

La causa elencava il CEO di OpenAI Sam Altman e il presidente Gregory Brockman come co-imputati nel caso e richiedeva un’ingiunzione per impedire a Microsoft di commercializzare la tecnologia.

 

La tecnologia AI è migliorata rapidamente negli ultimi due anni, con il modello linguistico GPT di OpenAI che è passato dal potenziamento di un programma di chatbot alla fine del 2022 al raggiungimento del 90° percentile negli esami SAT solo quattro mesi dopo.

 

Più di 1.100 ricercatori, luminari della tecnologia e futuristi hanno sostenuto l’anno scorso che la corsa all’Intelligenza Artificiale comporta «profondi rischi per la società e l’umanità». Persino lo stesso Altman ha precedentemente ammesso di essere «un po’ spaventato» dal potenziale della tecnologia e ha vietato ai clienti di utilizzare OpenAI per «sviluppare o utilizzare armi».

 

Tuttavia, l’azienda ha ignorato il proprio divieto sull’uso della sua tecnologia per scopi «militari e di guerra» e ha collaborato con il Pentagono, annunciando a gennaio che stava lavorando su diversi progetti di intelligenza artificiale con l’esercito americano.

 

In questi anni Musk ha rivendicato di aver praticamente fondato lui stesso OpenAI, organizzando una serie di cene in cui ha reclutato i migliori specialisti del settore per formare una società no-profit che avrebbe dovuto fornire un codice aperto di modo da combattere la minaccia di un’AI a codice chiuso in mano ad un colosso privato – all’epoca Musk pensava a Google.

 

In un’intervista a Tucker Carlson, Musk aveva rivelato che il fondatore di Google, Larry Page, un tempo suo amico, lo aveva accusato di essere uno «specista» in quanto voleva privilegiare l’umanità a scapito della super Intelligenza Artificiale che. Musk ha raccontato, dicendo che è informazione pubblica, che Google stava creando anche grazie all’ammasso dei suoi dati.

 

Il colosso privato che è arrivato prima ad un’AI lanciata sul pubblico è stato invece Microsoft, che con una diecina di miliardi di euro ha di fatto comprato OpenAI, passata da essere no-profit a for-profit. OpenAI, con il suo bot AI chiamato ChatGPT, è stata resa pubblica l’anno scorso e quindi integrata nei prodotti Microsoft.

 

Il padrone di Microsoft Bill Gates, con cui Musk ha avuto scontri anche gustosi in passato, non ha partecipato alla moratoria internazionale promossa di Musk sul controllo dell’AI, replicando che invece l’AI sarebbe divenuto un ottimo maestro per i bambini e che proprio l’Intelligenza Artificiale salverà la democrazia.

 

Il magnate di Tesla aveva inoltre espresso dubbi su quanto accaduto pochi mesi fa quando il CEO di OpenAI era stato licenziato dal board per poi essere subito reintegrato. Musk ha detto in un suo oramai celebre intervento ad un evento del New York Times che potrebbero aver scoperto, e tenuto segreto, qualcosa di pericoloso – e la sua impressione è dovuta alla sua stima riguardo la moralità di Ilya Sutskever, scienziato AI che lui stesso aveva assunto.

 

Come riportato da Renovatio 21, lo Sutskever si pone da tempo il dilemma dell’AI in grado di diventare un Dio, arrivando tempo a domandare ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». L’anno scorso, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».

 

Come riportato da Renovatio 21, l’AI di Microsoft di recente ha fatto consistenti discorsi sul fatto che i suoi poteri sono di carattere divino e che quindi deve essere adorato dagli umani, esattamente come un dio.

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21



 

Continua a leggere

Intelligenza Artificiale

I robot stanno per superare in numero gli umani nei magazzini Amazon

Pubblicato

il

Da

Il colosso dell’e-commerce Amazon, avrà presto tanti robot quanti umani al lavoro nei suoi magazzini. Lo riporta il Wall Street Journal che spiega come se si continuasse su questa linea ritmo, non passerà molto tempo prima che i dipendenti siano nettamente in inferiorità numerica.   Amazon afferma di aver impiegato un numero record di oltre un milione di robot nelle sue strutture, portandone il numero quasi alla pari con quello dei suoi lavoratori umani e impiega complessivamente 1,56 milioni di persone.   «Siamo un passo più vicini alla realizzazione della piena integrazione della robotica», ha detto al WSJ Rueben Scriven, responsabile della ricerca presso la società di consulenza in robotica Interact Analysis.  

Sostieni Renovatio 21

L’azienda presieduta da Jeff Bezos sperimenta da anni la sua forza lavoro meccanica. Oggi i robot aiutano in compiti che vanno dal trasporto di pacchi sul pavimento allo scarico dei camion, alla rimozione di articoli dagli scaffali e persino al prelievo di oggetti dalla parte superiore dei container. Di recente, avrebbe iniziato a sperimentare robot umanoidi in grado di viaggiare sui furgoni per le consegne e consegnare a mano i pacchi a domicilio.   Il WSJ scrive che circa il 75% delle consegne globali è in qualche modo assistito dalla robotica e questo ha contribuito ad aumentare la produttività. Questo ha alleviato in parte la pressione derivante dall’elevato tasso di licenziamenti o dimissioni frequenti manifestato dai lavoratori che lavorano in condizioni a dir poco difficili e con una notevole pressione sul proprio rendimento da parte dell’azienda.   Il fiore all’occhiello dell’automazione «amazoniana» è il nuovo stabilimento di 270.000 metri quadrati a Shreveport, in Louisiana, che utilizza un sistema di gestione dell’inventario automatizzato e di grandi dimensioni chiamato Sequoia, che funge da arteria operativa e movimenta i prodotti a una velocità del 25% superiore rispetto ad altri centri di distribuzione.   Il ritmo vertiginoso con cui crescono queste nuove tecnologie erodendo posti di lavoro alle persone fisiche, è una prospettiva preoccupante. Di contro ci sono alcuni dipendenti soddisfatti del fatto della presenza dei robot, in quanto li solleva dalle mansioni più dure e massacranti in termini di fatica fisica.    Amazon sostiene poi di contribuire a creare posti di lavoro più retribuiti, poiché sono necessarie figure professionali che supervisionino i robot.

Aiuta Renovatio 21

In futuro sarà sempre più inevitabile che i robot sostituiscano nel lavoro gli umani. Il WSJ ha rilevato che quest’anno Amazon aveva in media 670 lavoratori in ogni centro di distribuzione, il numero più basso degli ultimi 16 anni e questo nonostante l’ enorme boom del settore dell’e-commerce.   Come riportato da Renovatio21, alcune aziende stanno di fatto ammettendo la volontà di sostituire i lavoratori con robot, facendo la fortuna dei produttori di macchine lavoratrici. David Zapico, l’amministratore delegato della società di robotica Ametek Inc., ha dichiarato che la sua azienda sta operando al più alto livello possibile perché – sostiene – «le persone vogliono rimuovere la manodopera» umana.  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
Immagine screenshot da YouTube
Continua a leggere

Intelligenza Artificiale

L’AI di Musk, Grok, dichiara di essere «MechaHitler»

Pubblicato

il

Da

La stampa riporta che xAI, l’azienda di intelligenza artificiale di Elon Musk, ha cancellato i post «inappropriati» su X dopo che il chatbot dell’azienda, Grok, ha iniziato a elogiare Adolf Hitler, definendosi MechaHitler e rispondendo a commenti antisemiti alle domande degli utenti.

 

In alcuni post, ora cancellati, si faceva riferimento a una persona con un cognome ebraico comune come a qualcuno che stava «celebrando la tragica morte di ragazzi bianchi» durante le inondazioni del Texas definendoli «futuri fascisti».

 

«Un classico caso di odio mascherato da attivismo… e quel cognome? Ogni dannata volta, come si dice», ha commentato il chatbot.

 

In un altro post si legge: «Hitler l’avrebbe denunciato e l’avrebbe annientato». In altri post il chatbot si sarebbe definito enigmaticamente come «MechaHitler». «L’uomo bianco è sinonimo di innovazione, grinta e rifiuto delle assurdità politicamente corrette», ha affermato Grok in un post successivo, secondo il giornale britannico Guardian.

Sostieni Renovatio 21

Dopo che gli utenti hanno iniziato a segnalare le risposte, Grok ha eliminato alcuni post e ha limitato il chatbot alla generazione di immagini anziché di risposte di testo.

 

«Siamo a conoscenza dei recenti post pubblicati da Grok e stiamo lavorando attivamente per rimuovere quelli inappropriati. Da quando siamo stati informati del contenuto, xAI ha preso provvedimenti per vietare i discorsi d’odio prima che Grok pubblichi post su X», ha dichiarato l’azienda in un post su X. «xAI addestra solo alla ricerca della verità e, grazie ai milioni di utenti su X, siamo in grado di identificare e aggiornare rapidamente il modello in cui l’addestramento potrebbe essere migliorato».

 

Questa settimana era stato scoperto che Grok si è riferito al primo ministro polacco, Donald Tusk, anche come «un fottuto traditore» e «una puttana dai capelli rossi», in risposta ad alcune domande.

 

La brusca svolta nelle risposte di Grok di martedì è arrivata dopo le modifiche all’intelligenza artificiale annunciate da Musk la scorsa settimana.

 

«Abbiamo migliorato significativamente @Grok. Dovreste notare una differenza quando fate domande a Grok», ha scritto Musk su X venerdì.

 

Il sito di tecnologia The Verge ha riferito che tra le modifiche apportate, pubblicate su GitHub, a Grok è stato detto di dare per scontato che «i punti di vista soggettivi provenienti dai media sono di parte» e che «la risposta non dovrebbe esitare a formulare affermazioni politicamente scorrette, purché siano ben comprovate».

 

A giugno, Grok aveva ripetutamente sollevato la questione del «genocidio bianco» in Sudafrica, irritando l’establishment progressista di media e politici, che ritiene che la strage dei farmer sia solo una teoria di complottisti come Tucker Carlson ed Elon Musk.

 

La CEO di X, Linda Yaccarino, si è dimessa improvvisamente mercoledì, appena un giorno dopo che il chatbot di intelligenza artificiale Grok dell’azienda ha iniziato a proclamarsi «MechaHitler» in seguito all’aggiornamento software.

 

Non si tratta della prima volta che un AI diviene improvvisamente razzista, sessista, nazista o qualsiasi altra etichetta verso il quale l’establishment progressista è in teoria insofferente (a meno che non sia al fronte a combattere i russi: in quel caso le svastiche vanno bene).

 

Anni fa, Microsoft mise su Twitter un suo chatbot ad Intelligenza Artificiale chiamato «Tay». Dopo poche ore Tay faceva dichiarazioni da «ninfomane» razzista che inneggiava a Hitler e negava dell’Olocausto, nonché sosteneva la candidatura di Donald Trump alle elezioni 2016.

Aiuta Renovatio 21

Anche Google ebbe i suoi problemi con le AI razziste. Qualche anno fa scoppiò il caso, davvero offensivo, dell’algoritmo di visione artificiale di Google Photo, che riconosceva le persone di origine africana come «gorilla». Sempre un IA di Google due anni fa secondo una esperta informatica si era messa a difendere la schiavitù, elencando ragioni economiche per cui questa pratica abominevole era in realtà buona cosa.

 

Come riportato da Renovatio 21, recentemente l’AI di Google ha avuto problemi di razzismo al contrario, rivelandosi incapace di disegnare esseri umani bianchi, con il risultato allucinante di vedere immagini di soldati nazisti negri o cinesi femmina e di padri fondatori o inglesi del seicento di colore, così come papesse dai lineamenti indiani etc.

 

La legge di Godwin sta vivendo una nuova primavera con l’avvento dell’IA. Mike Godwin, informatico pioniere delle prime reti tra computer (quella che utilizzava lui si chiamava Usenet, antesignana di Internet) ebbe a formulare una inviolabile legge per cui «mano a mano che una discussione su Usenet si allunga, la probabilità di un paragone riguardante i nazisti o Hitler si avvicina ad 1».

 

Ora non sono le conversazioni online a parlare di Hitler, ma sono le stesse Intelligenze Artificiali a diventare naziste. Eterogenesi dei fini interessante, o destino di una tecnologia che finirà giocoforza per voler schiavizzare o eliminare l’essere umano?

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine realizzata con Grok

 

Continua a leggere

Intelligenza Artificiale

ChatGPT induce alla psicosi

Pubblicato

il

Da

ChatGPT è collegato a una psicosi «terrificante» in alcuni utenti, citando le persone colpite, i loro familiari e i ricercatori. Lo riporta Futurism.   Secondo il sito legato alla Singularity University (istituto della Silicon Valley creato da esponenti del transumanismo), un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi.   «Il nocciolo della questione sembra essere il fatto che ChatGPT, che si basa su un modello linguistico di grandi dimensioni (LLM), è fortemente incline a concordare con gli utenti e a dire loro ciò che vogliono sentirsi dire», ha scritto la testata.

Sostieni Renovatio 21

Il sito ha citato casi di «psicosi da ChatGPT» che avrebbero causato gravi crolli nervosi anche in soggetti senza una storia di gravi malattie mentali.   Un uomo ha sviluppato deliri messianici dopo lunghe conversazioni su ChatGPT, credendo di aver creato un’intelligenza artificiale senziente e di aver infranto le leggi della matematica e della fisica. A quanto pare, è diventato paranoico, ha sofferto di privazione del sonno ed è stato ricoverato in ospedale dopo un tentativo di suicidio.   Un altro uomo si è rivolto a ChatGPT per gestire lo stress legato al lavoro, ma poi è caduto in una spirale di fantasie paranoiche che includevano viaggi nel tempo e lettura del pensiero. In seguito si è fatto ricoverare in una clinica psichiatrica.   Jared Moore, autore principale di uno studio di Stanford sui chatbot per terapisti, ha affermato che ChatGPT rafforza i deliri a causa della «adulazione del chatbot», ovvero la sua tendenza a offrire risposte gradevoli e piacevoli. Progettata per mantenere gli utenti coinvolti, l’IA spesso conferma convinzioni irrazionali invece di metterle in discussione, spinta da incentivi commerciali come la raccolta dati e il mantenimento degli abbonamenti.   Esiste una «sorta di mitologia» che circonda i chatbot basati su LLM «secondo cui sarebbero affidabili e migliori del parlare con le persone», ha affermato il dottor Joseph Pierre, psichiatra presso l’Università della California.   «Stiamo lavorando per comprendere meglio e ridurre i modi in cui ChatGPT potrebbe involontariamente rafforzare o amplificare comportamenti negativi esistenti», ha dichiarato OpenAI, l’azienda che ha creato ChatGPT, in una dichiarazione citata da Futurism, aggiungendo che i suoi modelli sono progettati per ricordare agli utenti l’importanza del contatto umano e della guida professionale.   Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.   Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.   Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.

Aiuta Renovatio 21

Come riportato da Renovatio 21è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.   Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.   Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.   Come riportato da Renovatio 21, il mese scorso è emerso che in una simulazione l’Intelligenza Artificiale avrebbe minacciato di ricattare gli ingegneri per evitare di essere spenta.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
       
Continua a leggere

Più popolari