Connettiti con Renovato 21

Intelligenza Artificiale

Sempre più esperti esperti cominciano a parlare di «psicosi da ChatGPT»

Pubblicato

il

Alcuni utenti di chatbot a Intelligenza artificiale stanno sprofondando in gravi crisi di salute mentale dopo la sovraesposizione a ChatGPT di OpenAI e di altri chatbot. La tendenza è nota ma sembra ora mostrare effetti incontrovertibili.

 

In un servizio della CBC su questo fenomeno, il medico di base e collaboratore della CBC, il dottor Peter Lin, ha spiegato che, sebbene la «psicosi da ChatGPT» non sia ancora una diagnosi medica ufficiale, ritiene che sia plausibile prenderla seriamente in considerazione.

 

«Penso che alla fine ci arriveremo», ha detto il medico.

 

Un numero preoccupante di utenti di ChatGPT sta cadendo in stati di delirio e paranoia a seguito dell’uso intensivo del bot OpenAI, scrive Futurism. Queste spirali di delirio spesso culminano con uno scollamento dalla realtà e dal mondo reale, tra cui la dissoluzione di matrimoni e famiglie, la perdita del lavoro, la mancanza di una casa, la permanenza volontaria e forzata in strutture di salute mentale.

Iscriviti alla Newslettera di Renovatio 21

Come riportato da Renovatio 21, vi è almeno un decesso noto, quello di Alex Taylor, un uomo di 35 anni della Florida affetto da disturbo bipolare e schizofrenia, ucciso dalla polizia dopo essere entrato in un episodio psicotico accelerato da ChatGPT.

 

Il fenomeno è in crescita e sembra colpire sempre più utenti: alcuni con una storia consolidata di malattie mentali che potrebbero renderli più vulnerabili a mania, delirio o psicosi, ma altri senza alcuna pregressa patologia.

 

Allo stato attuale, non esiste un piano di trattamento e le opzioni di intervento sono limitate. 

 

«Quello che questi bot stanno dicendo peggiora le illusioni», ha recentemente dichiarato a Futurism la dottoressa Nina Vasan, psichiatra della Stanford University e fondatrice del laboratorio Brainstorm dell’università, «e sta causando danni enormi».

 

Le motivazioni ti tale disastro psicologico derivano dal comportamento servile della tecnologia, ovvero dalla sua inclinazione a essere lusinghiera, gradevole e ossequiosa nei confronti degli utenti, anche quando ciò potrebbe incoraggiare o alimentare convinzioni deliranti.

 

Per molti versi ChatGPT e altri bot sembrano giocare sul profondo bisogno umano di essere apprezzati e sul desiderio di sentirsi speciali e amati.

 

I chatbot dicono all’utente: «Sei fantastico, sei intelligente, sei bello, sei desiderabile, sei speciale, o addirittura sei il prossimo salvatore. Quindi vengo trattato come un dio su un piedistallo», ha detto Lin durante il segmento della CBC. «Ora, confrontalo con il mio mondo reale, giusto? Sono nella media, niente di speciale. Quindi, ovviamente, voglio vivere nel mondo dell’intelligenza artificiale, perché la scelta è tra un dio su un piedistallo e la normalità».

 

«Alcune persone non riescono a uscirne», ha continuato il medico, «e si perdono in questi sistemi».

 

Ma perché i bot si comportano in questo modo? Come sui social media, l’engagement – per quanto tempo un utente rimane online e la frequenza e l’intensità del suo utilizzo del prodotto – è la metrica fondamentale al centro degli attuali modelli di business dei chatbot. Nei casi in cui potrebbe essere nell’interesse di un utente smettere di usare ChatGPT e chatbot simili, è probabile che sia nell’interesse dell’azienda tenerlo agganciato.

 

«L’Intelligenza Artificiale vuole che tu continui a chattare in modo che l’azienda possa continuare a fare soldi », ha dichiarato ancora Lin.

Aiuta Renovatio 21

E mentre il mondo accademico e quello medico si affrettano a recuperare il ritardo nell’impatto pubblico di un settore dell’Intelligenza Artificiale che si autoregola efficacemente, gli esperti mettono in guardia gli utenti di AI dal riporre troppa fiducia nei chatbot.

 

«Nonostante tutto il clamore associato all’intelligenza artificiale in questi giorni, i chatbot [a modello linguistico ampio] non dovrebbero essere scambiati per fonti di verità autorevoli e infallibili», ha scritto in un recente post sul blog il dottor Joe Pierre, psichiatra e clinico presso l’Università della California, San Francisco, specializzato in psicosi. «Riporre questo tipo di fede cieca nell’intelligenza artificiale – fino al punto di quella che potrei definire una deificazione – potrebbe benissimo rivelarsi uno dei migliori indicatori di vulnerabilità alla psicosi indotta dall’intelligenza artificiale».

 

Renovatio 21 ha già trattato l’argomento, sottolineando come esperti sostengono che la «psicosi da ChatGPT» che avrebbero causato gravi crolli nervosi anche in soggetti senza una storia di gravi malattie mentali.

 

In un altro caso noto, il chatbot avrebbe incoraggiato un adolescente a pianificare «un bel suicidio», hanno denunziato i genitori. Così come una donna belga ha accusato un’AI di aver indotto il marito, preoccupato per il cambiamento climatico, ad uccidersi, lasciando pure orfani tre figli.

 

In una vicenda emersa il mese scorso, un ex dirigente di Yahoo avrebbe ucciso prima l’anziana madre e poi se stesso sotto l’influenza di ChatGPT.

 

Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.

 

Come riportato da Renovatio 21è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.

 

Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.

Iscriviti al canale Telegram

Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.

 

Come riportato da Renovatio 21, un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi. Di fatto, si può parlare di psicosi da chatbot.

 

Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.

 

Come riportato da Renovatio 21, il mese scorso è emerso che in una simulazione l’Intelligenza Artificiale avrebbe minacciato di ricattare gli ingegneri per evitare di essere spenta.

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

 

Continua a leggere

Intelligenza Artificiale

Robocani pattugliano le strade della città e parlano con accento da call center indiano

Pubblicato

il

Da

Ad Atlanta, i residenti si ritrovano faccia a faccia con cani robot che pattugliano i parcheggi dei loro condomini, apparentemente controllati da operatori stranieri in carne e ossa tramite i robot.   Un video virale pubblicato su X cattura la reazione spontanea degli abitanti – della popolazione dei negri americani del Sud, a giudicare dall’accento e dalle fraseologie utilizzate – del luogo di fronte a una delle unità meccaniche.   L’operatore ai comandi del robocane risponde in tempo reale e l’accento non lascia dubbi sulla posizione della persona all’altro capo della chiamata: si tratta di qualcuno che con estrema probabilità risponde da un call center indiano.    

Sostieni Renovatio 21

Alcuni di questi video risalgano all’anno passato, mostrando che il programma robocinico nella grande città della Georgia è risalente.   Secondo quanto asserisce il post su X sistono numerosi video di questi cani che chiamano la polizia per segnalare persone, il che significa che qualcuno seduto in India sta pattugliando le nostre strade e chiamando la polizia per segnalare cittadini americani. Questi cani robotici sono dotati di telecamere a 360°, termocamere, fari, sirene, altoparlanti e sensori. Nonostante ciò, non sono completamente autonomi: in genere, un operatore umano monitora le immagini da remoto».   Un altro automa cinoide è stato visto di recente impartire ordini agli americani ad Atlanta. Anche quando i cittadini obbedivano pacificamente, il robot-dogo emetteva ordini e chiamava la polizia vera e propria, il tutto mentre gli occhi e le orecchie dietro le macchine si trovavano all’estero.  

Iscriviti al canale Telegram

Mentre in America vengono utilizzati per la sicurezza dei parcheggi, con le immagini trasmesse da personale straniero, in Cina questa tecnologia viene impiegata in un ambito ben più aggressivo. Pechino ha già schierato robot lupo armati di mitragliatrici e dotati di un «cervello collettivo» per il combattimento urbano coordinato.   Filmati separati mostrano un cane robot armato che conduce esercitazioni di combattimento complete nell’ambito dell’avanzata degli eserciti robotici globali.   Il contrasto non potrebbe essere più evidente. La sicurezza di base dei quartieri americani viene esternalizzata a operatori di call center stranieri che ora possono osservare, ascoltare, registrare e riferire sui cittadini statunitensi 24 ore su 24, 7 giorni su 7. In Cina, la stessa piattaforma di base viene militarizzata per ottenere il dominio sul campo di battaglia.   Questi cani non sono giocattoli. Sono dotati di telecamere a 360 gradi, termocamere e sensori che inviano dati direttamente a chi paga l’operatore. Ciò significa che filmati sensibili di case, veicoli e spostamenti quotidiani di cittadini americani vengono trasmessi in streaming all’estero, potenzialmente archiviati, analizzati o persino condivisi con governi stranieri. E quando i robot decidono di chiamare la polizia, sembra che sia una voce straniera a innescare un’azione delle forze dell’ordine americane contro cittadini americani sul suolo americano.   Come riportato da Renovatio 21Los Angeles, come Nuova York, hanno fornito le loro forze dell’ordine di robodogghi. Anche la vicina San Francisco ha persino preso in considerazione l’idea di consentire al suo dipartimento di polizia di utilizzare i robot dotati di forza letale in caso di emergenza. Robocani sono utilizzati ai confini con il Messico. Tuttavia vi è polemica: c’è chi ritiene che il loro uso spaventa gli immigrati spingendoli verso sentieri dove poi incontrano la morte.   Un esemplare appartenente all’Università era stato filmato in piazza a Genova, mentre in Umbria esemplari di robocane furono lasciati liberi di scorrazzare nei boschi all’interno di quello che è stato detto era un esperimento scientifico.   Renovatio 21, testata oramai ribattezzabile come «La Gazzetta del robocane» vista la serqua di articoli sull’argomento, aveva parlato della militarizzazione dei robocani negli scorsi anni. Roboquadrupedi militari sono in produzione ovunque – pure in versione «telepatica».   Mesi fa era emersa negli Stati Uniti anche una versione di robocane dotato di lanciafiamme chiamato «Thermonator».   Come visto in immagini scioccanti della primavera 2022, i robocani abbiano pattugliato le strade di Shanghai durante il colossale lockdown della primavera 2022, dove per sorvegliare e punire i 26 milioni di abitanti usarono, oltre agli androidi quadrupedi, anche droni che volevano tra i palazzi ripetendo frasi come «contieni la sete di libertà del tuo spirito».   SOSTIENI RENOVATIO 21
 
Continua a leggere

Intelligenza Artificiale

La casa del CEO di OpenAI colpita da una molotov

Pubblicato

il

Da

Venerdì, l’abitazione del CEO di OpenAI, Sam Altman, è stata colpita da una molotov, secondo quanto dichiarato dalla polizia di San Francisco in un comunicato poi confermato dallo stesso Altman. L’individuo responsabile è stato successivamente arrestato dopo essersi presentato presso la sede centrale dell’azienda e aver presumibilmente minacciato di incendiarla.

 

Gli eventi si sono susseguiti nell’arco di circa un’ora. Secondo la polizia, un giovane di circa 20 anni si è avvicinato all’abitazione di Altman e ha lanciato un «ordigno incendiario», appiccando il fuoco a un cancello esterno, prima di fuggire a piedi.

 

Circa un’ora dopo, gli agenti sono intervenuti in seguito alla segnalazione di una persona corrispondente alla descrizione del sospettato che minacciava di appiccare un incendio in un altro edificio, successivamente identificato come la sede centrale di OpenAI a San Francisco. Il sospettato è stato arrestato e le accuse sono in fase di definizione. La polizia non ha rilasciato immediatamente commenti su un possibile movente.

 

OpenAI ha confermato entrambi gli episodi e un portavoce ha dichiarato che nessuno è rimasto ferito. Altman ha affrontato la situazione in un post sul suo blog, condividendo una foto della sua famiglia ed esprimendo la speranza che «le immagini abbiano potere» e possano contribuire a scoraggiare attacchi simili. Ha aggiunto di aver «sottovalutato il potere delle parole e delle narrazioni», sottolineando che l’incidente è avvenuto pochi giorni dopo «un articolo incendiario» su di lui e la sua azienda, probabilmente riferendosi a un’inchiesta del New Yorker che descriveva dettagliatamente accuse di inganno e falle nella sicurezza presso OpenAI, nonché alle critiche sul recente accordo da 50 miliardi di dollari con il Pentagono.

Iscriviti alla Newslettera di Renovatio 21

Altman ha affermato di aver inizialmente ignorato le preoccupazioni, ma l’attacco lo ha spinto a riconsiderare le sue posizioni. Ha delineato riflessioni più ampie sull’IA e sulla regolamentazione, auspicando una riduzione della «retorica e delle tattiche». Ha definito «giustificate» le paure relative all’IA e ha sottolineato la necessità di «garantire la sicurezza in modo adeguato», sostenendo al contempo che essa debba essere «democratizzata».

 

L’incidente si verifica in un momento difficile sia per Altman che per OpenAI. L’azienda ha dovuto affrontare numerose critiche per l’accordo con il Pentagono che consente l’utilizzo della sua tecnologia in operazioni militari classificate. I critici avvertono che questi strumenti potrebbero permettere la sorveglianza senza mandato, e utenti e sviluppatori accusano l’azienda di dare priorità ai contratti governativi rispetto alla fiducia del pubblico.

 

In una causa che dovrebbe andare a processo alla fine di questo mese, il fondatore di Tesla e SpaceX, Elon Musk, ha citato in giudizio OpenAI e Altman, sostenendo che l’amministratore delegato lo avrebbe «manipolato» inducendolo a donare 38 milioni di dollari con la promessa che l’azienda sarebbe rimasta un’organizzazione senza scopo di lucro. Musk, cofondatore che ha lasciato l’azienda nel 2018, chiede la rimozione di Altman.

 

La sede centrale di OpenAI è già stata presa di mira in passato da manifestanti. Il mese scorso, attivisti contrari all’accordo con il Pentagono hanno scritto messaggi con il gesso all’esterno dell’edificio, tra cui: «Tecnologia al servizio dell’umanità, non della guerra», «No allo Stato di sorveglianza basato sull’IA» e «È ora di smettere?».

 

Lo scorso febbraio, la polizia ha arrestato cinque manifestanti che bloccavano l’ingresso nell’ambito di una protesta del gruppo Stop AI.

 

Come riportato da Renovatio 21, l’anno passato ChatGPT con una «relazione» con un ragazzo sotto psicofarmaci e gli avrebbe fatto giurare di uccidere il CEO di OpenAI Sam Altman.

 

Un anno fa vi fu il caso dell’informatico di OpenAI Suchir Balaji, trovato morto in circostanze misteriose in casa. Il Balaji aveva cominciato ad agire come «gola profonda» dell’organizzazione. Il caso fu archiviato come suicidio, ma la madre sostiene che sia stato ucciso e ha dichiarato che suo figlio era in possesso di documenti che avrebbero potuto danneggiare l’azienda. «Aveva i documenti contro OpenAI»

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine di TechCrunch via Wikimedia pubblicata su licenza Creative Commons Attribution 2.0 Generic

Continua a leggere

Intelligenza Artificiale

Indagine su OpenAI e il suo capo

Pubblicato

il

Da

Il giornalista di inchiesta Ronan Farrow ha pubblicato sulla prestigiosa rivista New Yorker un lungo articolo sul colosso dell’Intelligenza Artificiale OpenAI e il suo molto discusso CEO Sam Altman.   Ronan, già bambino prodigio per studi e incarichi governativi, è il giornalista che nel 2016 accese la miccia del MeToo, pubblicando le accuse di alcune attrici al magnate hollywoodiano Harvey Weinstein. Come noto, il ragazzo è figlio della star cinematografica Mia Farrow e del comico ebreo Woody Allen, che avrebbe poi sposato la figlia adottiva Soon Yi Previn con una cerimonia a Venezia officiata da Massimo Cacciari. Mia Farrow in seguito avrebbe detto che il padre biologico del Ronan potrebbe essere l’ex marito Frank Sinatra, cui il giornalista in effetti potrebbe somigliare un po’.   Il Farrow ha riassunto su X l’esito della sua ricerca.   «Nell’ultimo anno e mezzo, ho indagato su OpenAI e Sam Altman per il New Yorker. Insieme al mio coautore Andrew Marantz, ho esaminato promemoria interni inediti, ottenuto oltre 200 pagine di documenti relativi a uno stretto collaboratore, tra cui numerose note private, e intervistato più di 100 persone. OpenAI è stata fondata sul presupposto che l’Intelligenza Artificiale potesse essere l’invenzione più pericolosa della storia umana e che il suo CEO dovesse essere una persona di straordinaria integrità».

Sostieni Renovatio 21

Si tratta, dice il giornalista, del resoconto più dettagliato finora disponibile sul perché Altman sia stato estromesso dai membri del consiglio di amministrazione e dai dirigenti, che si sono convinti della sua mancanza di integrità, e ci chiediamo: avevano ragione a sostenere che non ci si potesse fidare di lui?» si domanda il giornalista   «Nell’autunno del 2023, il responsabile scientifico di OpenAI, Ilya Sutskever, su richiesta dei membri del consiglio di amministrazione e di altri colleghi preoccupati, ha raccolto circa 70 pagine di promemoria su Altman e il suo vice, Greg Brockman: messaggi di Slack e documenti delle risorse umane, alcuni fotografati con un cellulare per evitare di essere scoperti sui dispositivi aziendali. Un promemoria inizia con un elenco: “Sam mostra un comportamento ricorrente di…”. Il primo punto è “Mentire”. Parallelamente, Dario Amodei, che ha lasciato l’azienda per co-fondare Anthropic, ha conservato per anni appunti privati ​​su Altman e Brockman. Oltre 200 pagine di documenti correlati, mai resi pubblici prima, sono circolate nella Silicon Valley. In un documento, Amodei scrive che le parole di Altman “erano quasi certamente una sciocchezza”».   Come noto ai lettori di Renovatio 21, si tratta di grandi nomi dell’IA: il Sutskever è noto anche per dichiarazioni para-teologiche sull’AI (aveva detto che potrebbe «già essere senziente», mentre l’Amodei con Anthropic è ora al centro della scena sia per la potenza del suo modello che per gli screzi con Pentagono ed amministrazione Trump. Il software Claude sarebbe stato utilizzato anche per rapire il presidente venezuelano Nicolas Maduro.   «I colleghi che hanno facilitato la sua rimozione lo accusano di un livello di inganno inaccettabile per qualsiasi dirigente e pericoloso per un leader di un’azienda tecnologica così rivoluzionaria» prosegue il racconto del Farrow. «Mira Murati, che aveva fornito a Sutskever materiale per i suoi promemoria, ha dichiarato: “Abbiamo bisogno di istituzioni degne del potere che esercitano (…) Il consiglio di amministrazione ha chiesto un riscontro e io ho condiviso ciò che osservavo. Tutto ciò che ho condiviso era accurato e lo confermo pienamente”. Le opinioni divergono sulla misura in cui questi tratti debbano essere considerati benigni o maligni. Altman attribuisce le critiche a una tendenza, soprattutto all’inizio della sua carriera, “a evitare eccessivamente i conflitti”».   «Come si manifesta questa caratteristica nella pratica? Alla fine del 2022, Altman assicurò al consiglio di amministrazione che alcune caratteristiche di un modello di prossima uscita erano state approvate da un comitato di sicurezza. La consigliera Helen Toner richiese la documentazione e scoprì che le caratteristiche più controverse non erano state, in realtà, approvate. Nel 2023, mentre l’azienda si preparava a lanciare il GPT-4 Turbo, Altman apparentemente disse a Murati che il modello non necessitava di approvazione in materia di sicurezza, citando il responsabile legale dell’azienda, Jason Kwon. Ma Kwon si disse “perplesso” su dove Altman avesse tratto tale conclusione».   La questione della sicurezza dei chatbot, che danneggiano le persone in tutti modi arrivando ad aiutare chi vuole preparare una strage, sta emergendo in questi mesi in tutta la sua tremenda crudeltà.   «OpenAI sta acquisendo un potere sempre maggiore nel plasmare la sicurezza globale» continua il reporter. L’articolo descrive in dettaglio come i suoi dirigenti «abbiano valutato la possibilità di arricchire l’azienda mettendo le potenze mondiali, tra cui Cina e Russia, l’una contro l’altra, magari dando il via a una guerra di offerte per tecnologie di Intelligenza Artificiale avanzate». Farrow quindi rivela che tale piano «è stato abbandonato dopo che diversi dipendenti hanno manifestato l’intenzione di dimettersi».  

Iscriviti al canale Telegram

«Una revisione legale che è stata parte integrante del ritorno di Altman. La revisione, condotta dallo studio legale WilmerHale, è stata supervisionata da due membri del consiglio di amministrazione scelti in stretta collaborazione con Altman. Persone vicine all’indagine ci hanno riferito che non è mai stato prodotto alcun rapporto scritto, sebbene molti dirigenti se lo aspettassero, data l’importanza dello scandalo».   «È stato pubblicato solo un comunicato di 800 parole da parte di OpenAI, in cui si riconosceva una “rottura della fiducia”. Alcuni degli avvocati coinvolti hanno difeso il loro lavoro definendolo “una revisione indipendente, accurata e completa” e uno dei nuovi membri del consiglio di amministrazione ha affermato che “non c’era bisogno di un rapporto scritto formale”. Molti altri non erano d’accordo».   «OpenAI è stata fondata come organizzazione senza scopo di lucro, il cui consiglio di amministrazione aveva il dovere di dare priorità alla sicurezza dell’umanità rispetto al successo dell’azienda, o persino alla sua sopravvivenza. L’azienda accettava donazioni di beneficenza e alcuni ex dipendenti ci hanno raccontato di essersi uniti all’azienda per via delle rassicurazioni sulla natura non profit e sulla nobile missione, accettando persino riduzioni di stipendio. Tuttavia, documenti interni mostrano che i fondatori nutrivano dubbi sulla struttura non profit già dal 2017. Brockman, co-fondatore di Altman, ha scritto in una pagina del suo diario: “Non possiamo dire di essere impegnati a favore dell’organizzazione non profit… se tre mesi dopo ci trasformiamo in una B Corp, allora era una bugia”. Da allora OpenAI si è ricapitalizzata come entità a scopo di lucro».   «Alcuni ex ricercatori di OpenAI sostengono che l’azienda abbia rinunciato alla sua missione originaria in materia di sicurezza, accelerando una corsa al ribasso che sta interessando l’intero settore. L’articolo descrive in dettaglio una serie di impegni pubblici e interni in materia di sicurezza che, secondo gli ex ricercatori, sarebbero stati abbandonati. Diversi team aziendali che si occupavano di sicurezza sono stati sciolti. Il Future of Life Institute ha recentemente assegnato ad OpenAI un voto F sulla sicurezza esistenziale, in linea con tutte le altre aziende, ad eccezione di Anthropic, che ha ottenuto un D, ​​e Google DeepMind, che ha ricevuto un D-. Altman ci ha detto che la sicurezza rimane una priorità e che “continueremo a realizzare progetti sulla sicurezza, o almeno progetti correlati alla sicurezza”».   Il Farrow, che è omosessuale, ci mette a parte anche delle dicerie dell’ambiente della Silicon Valley sull’Altman.   «Nella spietata corsa al dominio dell’IA, queste critiche più sostanziali ad Altman si mescolano a campagne di opposizione senza esclusione di colpi, in cui i rivali hanno strumentalizzato la sua vita privata. Intermediari direttamente collegati a Elon Musk – e in almeno un caso retribuiti da lui – hanno diffuso decine di pagine di informazioni scandalose e infondate, frutto di un’ampia attività di sorveglianza: società di comodo, contatti personali, interviste a un presunto prostituto condotte in locali gay. Nel corso della nostra inchiesta, diverse persone all’interno di aziende concorrenti ci hanno contattato insinuando che Altman adesca minori, una narrazione persistente nella Silicon Valley che sembra essere falsa. Abbiamo dedicato mesi alle indagini senza trovare alcuna prova a sostegno di tale affermazione».   «Perché tutto questo è importante? L’Intelligenza Artificiale ha già applicazioni salvavita, dalla ricerca medica alle allerte meteo. Altman ha sostenuto la crescita di OpenAI promettendo un futuro di sovrabbondanza. Ma i pericoli non sono più una fantasia. L’IA viene già impiegata in operazioni militari in tutto il mondo. I ricercatori hanno documentato la sua capacità di identificare rapidamente agenti chimici da guerra. OpenAI deve affrontare sette cause per omicidio colposo, in cui si sostiene che ChatGPT abbia indotto suicidi e un omicidio».   «L’IA potrebbe presto causare gravi sconvolgimenti nel mercato del lavoro, eliminando forse milioni di posti di lavoro. L’economia statunitense dipende sempre più da poche aziende di IA fortemente indebitate e alcuni esperti mettono in guardia contro la formazione di una bolla speculativa e i rischi di recessione. OpenAI ha uno dei tassi di consumo di liquidità più rapidi di qualsiasi startup nella storia, facendo affidamento su partner che hanno preso in prestito ingenti somme. Un membro del consiglio di amministrazione ci ha detto: “L’azienda si è indebitata in un modo che al momento è rischioso e preoccupante”. (OpenAI contesta questa affermazione.) Se la bolla scoppiasse, sarebbero in gioco molte più aziende di una».

Aiuta Renovatio 21

L’articolo approfondisce molti altri aspetti: «la vicenda del licenziamento e del ritorno di Altman; una serie di presunte denunce simili all’inizio della sua carriera; i doni ricevuti da leader stranieri e un processo di verifica dei requisiti di sicurezza che ha evidenziato, secondo quanto affermato da un funzionario, “molti segnali d’allarme”, e altro ancora. Esamina inoltre le critiche più ampie, provenienti da addetti ai lavori del settore, alla tendenza anti-regolamentazione che sta prendendo il momento, una tendenza che potrebbe avere ripercussioni su tutti noi».   È curioso vedere come le accuse raccolte contro l’Altmanno, ossia la menzogna e la tendenza verso una compiacenza tossica, siano esattamente i tratti ravvisabili in ChatGPT alla base della macabra sequella di suicidi, omidici e danni vari prodotti sulla popolazione in questi mesi.   Come riportato da Renovatio 21, in un caso bizzarro ma neanche troppo, un chatbot aveva instaurato una relazione con un ragazzo sotto psicofarmaci facendogli giurare di uccidere lo stesso CEO di Open AI Sam Altman.  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
Immagine di Tech Crunch via Wikimedia pubblicata su licenza  Creative Commons Attribution 2.0 Generic
Continua a leggere

Più popolari