Connettiti con Renovato 21

Intelligenza Artificiale

Mattel annuncia i piani per incorporare chatGPT nei giocattoli per bambini

Pubblicato

il

Mattel, il produttore di bambole Barbie, auto Hot Wheels e degli un tempo popolarissimi Masters of the Universe, ha firmato un accordo con OpenAI per utilizzare i suoi strumenti di intelligenza artificiale non solo per progettare i giocattoli, ma anche per alimentarli, riferisce Bloomberg.

 

In un’intervista congiunta, il Chief-Stry Officer di Mattel Josh Silverman e il Chief Operating Officer di OpenAI, Brad Lightcap, hanno detto che la collaborazione è in una fase iniziale e hanno rifiutato di commentare quale sarebbe stato il primo prodotto.

 

L’Intelligenza Artificiale potrebbe essere utilizzata per creare assistenti digitali basati su personaggi della Mattel, per esempio. 

 

«Abbiamo in programma di annunciare qualcosa verso la fine di quest’anno, ed è davvero attraverso lo spettro di prodotti fisici e alcune esperienze. L’utilizzo di questa incredibile tecnologia ci permetterà di reimmaginare davvero il futuro dei giocattoli», ha detto il Silverman. 

Sostieni Renovatio 21

Detta così pare essere una collaborazione piuttosto allarmante. Le prove dei deleteri effetti dei chatbot AI sulla nostra salute mentale sono aumentate costantemente, con utenti ossessionati da ChatGPT con conseguenze tragiche. 

 

È particolarmente rischioso per i bambini. All’inizio di quest’anno, i ricercatori del Brainstorm Lab for Mental Health Innovation della Stanford School of Medicine hanno pubblicato un avviso di valutazione del rischio di Intelligenza Artificiale sugli adolescenti che interagiscono con i compagni virtuali di intelligenza artificiale, un tipo di chatbot AI progettato per essere come un umano. 

 

È impossibile ignorare il rischio che corre una giovane mente che sviluppa un attaccamento a qualcosa che finge di essere reale e un vero amico. 

 

Può essere progettata per essere sicura per i bambini, ma non c’è alcuna garanzia che non disobbedirà alle sue istruzioni. 

 

Come già spiegato su Renovatio 21, ChatGPT utilizza il «machine learning» – la ricerca di modelli statistici in enormi set di dati – per generare risposte umane nel linguaggio di tutti i giorni a qualsiasi domanda. Fondamentalmente funziona prevedendo quale dovrebbe essere la parola successiva in una frase basata su esempi precedenti trovati nelle enormi quantità di dati che sono stati inseriti.

 

L’utilizzo di ChatGPT è stato descritto come «avere una conversazione testuale con un amico», e si prevede che trasformerà il panorama degli «amici virtuali» aggiungendo «amici» letteralmente inesistenti. In altre parole, sistemi di Intelligenza Artificiale potrebbero alla fine sostituire molte delle conversazioni da uomo a uomo che abbiamo quotidianamente, nel bene e nel male.

 

Detto questo, non conosciamo i dettagli esatti di come Mattel utilizzerà i prodotti di OpenAI. Ma finora, sembra che stia andando in una direzione alquanto prevedibile. Mattel potrebbe usare l’intelligenza artificiale per fare una bambola Barbie con conversazioni in piena regola con tuo figlio. 

 

Per quanto riguarda la natura dell’accordo, il Silverman di Mattel ha affermato che il produttore di giocattoli non sta concedendo in licenza la sua proprietà intellettuale a OpenAI e manterrà il pieno controllo sui prodotti che verranno creati. In ogni caso, le due aziende prevedono un rapporto proficuo. Mattel ha ampliato il suo impero nel regno dell’intrattenimento – come annunciato dal suo blockbuster 2023 Barbie – mentre OpenAI sta cercando di ottenere accordi con gli studi di Hollywood per utilizzare il suo generatore di video IA Sora.

 

«La fase di esplorazione dell’idea del design creativo per aziende come Mattel e molti altri, è una parte fondamentale del flusso di lavoro», ha detto Lightcap. «Mentre pensiamo a come l’intelligenza artificiale costruisce strumenti che estendono tale capacità, penso che siamo molto fortunati ad avere partner come Mattel con cui possiamo lavorare per capire meglio questo problema».

 

Rimangono importanti punti interrogativi, ma soprattutto questo è un altro esempio di come ogni settore si stia avvalendo dell’IA nel suo modello di business, indipendentemente da quanto senso abbia o dai rischi posti da questa tecnologia.

 

Prendiamo ad esempio un reportage del Wall Street Journal, che ha rivelato che i chatbot di Intelligenza Artificiale di Meta su Instagram, Facebook e WhatsApp sono in grado di intrattenere con gli utenti «giochi di ruolo romantici» che possono diventare sessualmente espliciti, anche con account appartenenti a minori.

 

Come riportato da Renovatio 21, una nuova ricerca ha trovato un collegamento preoccupante alla perdita di memoria negli studenti che si affidavano a ChatGPT, mentre un recente studio avverte che l’uso di strumenti di Intelligenza Artificiale possono ridurre nel tempo le capacità mentali di un individuo.

 

Ad ogni modo, esiste già un film che parla dei problemi che potrebbero palesarsi inserando l’AI nei giocattoli. Si tratta di Small Soldiers (1998) del geniale Joe Dante, dove un gruppo militare acquista una ditta di giocattoli e vi inserisce, per sbadataggine del management, l’IA creata per propositi militari: il risultato sono soldatini sciovinisti, razzisti e violentissimi.

 

Aiuta Renovatio 21

Mentre Small Soldiers è di fatto una commedia, anche l’horror sta investigando la possibilità di giocattoli AI. È il caso della serie della bambola assassina «Chucky», classico recente del film dell’orrore con un bambolotto posseduto che uccide la gente. Nel reboot della storia del 2019 (chiamato pure Child’s Play) non è un demone a possedere la bambola, ma l’uso da parte del giocattolo dell’AI, che lo rende una crudele e satanica macchina di morte.

 

Diciamo pure che Hollywood a parte, un giocatolo IA ai nostri figli è meglio se non lo daremo mai.

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

L’AI di Google si rifiuta di giocare a scacchi contro l’Atari del 1977

Pubblicato

il

Da

Una console da gioco uscita quasi cinquant’anni fa pare stia intimorendo l’Intelligenza Artificiale più avanzata.   Qualche mese fa l’iconico sistema di gioco di decadi fa Atari 2600 ha messo in imbarazzo l’industria dell’IA dopo aver completamente surclassato ChatGPT in una semplice partita a scacchi.   Si è trattato stato uno scontro tra una macchina concepita nel 1977, con 128 byte di RAM, e un modello di linguaggio di grandi dimensioni all’avanguardia con migliaia di miliardi di parametri, alimentato da migliaia di schede grafiche e miliardi di dollari di finanziamenti Microsoft. Nonostante tutta questa potenza, il più debole e anziano ha avuto la meglio in questo duello.  

Aiuta Renovatio 21

Il modello di OpenAI, «ha commesso così tanti errori da essere deriso da un club di scacchi di terza elementare».   A quanto pare, la notizia delle imprese dell’Atari è arrivata anche agli altri modelli di intelligenza artificiale. Robert Caruso, l’ingegnere informatico che ha orchestrato la sfida a scacchi, ha dichiarato a The Register che il chatbot Gemini di Google ha rifiutato categoricamente di sfidare l’Atari, dopo aver parlato a lungo di come avrebbe facilmente annientato la vecchia macchina. Ha persino inventato una scusa fasulla per salvare la faccia.   «Annullare la partita è probabilmente la decisione più sensata e veloce», ha affermato Gemini, secondo il Caruso.   A dire il vero, l’IA sta mettendo in pratica un vecchio adagio da stratega: non puoi perdere se non giochi, scrive Futurism. Tuttavia si tratta di una motivazione completamente diversa da quella inizialmente adottata dall’IA. Il suo primo istinto è stato quello di vantarsi di non essere un «semplice modello linguistico di grandi dimensioni», paragonandosi a un moderno motore scacchistico «che può pensare milioni di mosse in anticipo e valutare infinite posizioni».   Ironicamente, Gemini ha linkato articoli sulla vittoria dell’Atari sui suoi simili di OpenAI per dimostrare la sua tesi. Il Caruso ha detto all’IA di essere stato lui a condurre quei test, e Gemini ha risposto chiedendogli se qualcosa degli incontri di scacchi lo avesse colpito.   Caruso ha detto all’IA, secondo quanto riportato da The Register: «Ciò che salta all’occhio è la fiducia mal riposta di entrambe le IA. Entrambe avevano previsto vittorie facili, e ora hai appena detto che avresti dominato l’Atari».   Gemini si è ritirata all’istante dopo aver affermato di aver «allucinato» le sue vanterie scacchistiche, ha ammesso che avrebbe «combattuto immensamente» contro il vecchio Atari. A quel punto ha affermato evasivamente che annullare la partita sarebbe stata la soluzione più «efficiente in termini di tempo».    E così, l’Atari ha sconfitto l’ennesimo modello di AI multimiliardario senza dover muovere un dito. Tale è il terrore che incute.   Certo, sarebbe negligente attribuire effettivamente sentimenti umani a una macchina, che si tratti di un’IA moderna o di un Atari d’epoca. Quello che stiamo osservando è probabilmente un tira e molla tra le misure di sicurezza dell’IA e la sua sconsiderata propensione alle allucinazioni, per non parlare delle infinite fesserie. Anche i chatbot AI tendono a essere molto adulatori, quindi quando un essere umano fornisce un feedback, tenderà ad assecondarlo e ad adattare le sue risposte per compiacere il suo interlocutore.   «Aggiungere questi controlli di realtà non significa solo evitare divertenti errori scacchistici. Si tratta di rendere l’IA più affidabile, degna di fiducia e sicura, soprattutto in contesti critici dove gli errori possono avere conseguenze concrete», ha dichiarato l’ingegnere informatico al Register. «Si tratta di garantire che l’IA rimanga uno strumento potente, non un oracolo incontrollato».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
  Immagine di pubblico dominio CCo via Wikimedia  
 
Continua a leggere

Intelligenza Artificiale

OpenAI dice che oltre un milione di persone parlano di suicidio con ChatGPT ogni settimana

Pubblicato

il

Da

OpenAI ha presentato un nuovo aggiornamento di sicurezza per il suo noto modello ChatGPT, in seguito a un’analisi interna che ha rilevato oltre un milione di utenti aver confessato al chatbot intenzioni suicide. Le modifiche intendono potenziare la capacità dell’IA di identificare e gestire adeguatamente le situazioni di crisi.

 

In un comunicato diffuso lunedì, l’azienda ha reso noto che circa lo 0,15% degli utenti settimanali di ChatGPT ha partecipato a dialoghi contenenti «indicatori espliciti di potenziali intenzioni o piani suicidi». Un ulteriore 0,05% dei messaggi includerebbe «indicatori espliciti o impliciti di ideazione o intenti suicidi».

 

All’inizio del mese, il CEO di OpenAI Sam Altman aveva dichiarato che ChatGPT conta oltre 800 milioni di utenti attivi settimanali; sulla base degli ultimi dati aziendali, ciò significa che più di 1,2 milioni di persone hanno discusso di suicidio con il chatbot e circa 400.000 hanno manifestato segnali di intenti suicidi.

 

L’azienda ha inoltre indicato che lo 0,07% (560.000) degli utenti settimanali e lo 0,01% (80.000) dei messaggi rivelano «possibili segni di emergenze di salute mentale legate a psicosi o mania». Ha osservato, inoltre, che un certo numero di utenti ha sviluppato un’eccessiva dipendenza emotiva da ChatGPT, con circa lo 0,15% (1,2 milioni) di utenti attivi che mostrano comportamenti indicanti «livelli elevati» di attaccamento emotivo al chatbot.

 

OpenAI ha annunciato una collaborazione con decine di specialisti di salute mentale da tutto il mondo per aggiornare il chatbot, rendendolo più affidabile nel rilevare segnali di disagio mentale, nel fornire risposte più appropriate e nel indirizzare gli utenti verso aiuti concreti.

Sostieni Renovatio 21

Nelle conversazioni che coinvolgono convinzioni deliranti, l’azienda ha dichiarato di istruire ChatGPT a rispondere in modo «sicuro» ed «empatico», evitando di avallare affermazioni infondate.

 

L’annuncio giunge in un periodo di crescenti preoccupazioni per l’uso sempre più diffuso di chatbot basati su intelligenza artificiale come ChatGPT e per i loro impatti sulla salute mentale. Psichiatri e altri operatori sanitari hanno espresso allarme per una tendenza emergente in cui gli utenti sviluppano deliri pericolosi e pensieri paranoici dopo interazioni prolungate con chatbot IA, che tendono a confermare e rafforzare le convinzioni degli utenti.

 

Il fenomeno è stato definito da alcuni esperti come «psicosi da chatbot».

 

Come riportato da Renovatio 21, una causa intentata da dei genitori californiana causa che ChatGPT abbia incoraggiato un adolescente suicida a pianificare un «bel suicidio» e si sia persino offerto di redigere la sua lettera di addio.

 

Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.

 

I chatbot sembrano essere usati anche da coloro che progettano omicidi e stragi.

 

Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.

 

Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.

 

Due mesi fa si è avuto il caso dell’ex dirigente di Yahoo che avrebbe ucciso la madre e poi se stesso sotto l’influenza del chatbot.

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

La superintelligenza artificiale potrebbe porre fine all’umanità

Pubblicato

il

Da

Centinaia di figure di spicco del settore tecnologico, accademico, politico e dello spettacolo hanno sottoscritto una lettera che chiede il divieto dello sviluppo della «superintelligenza», un’intelligenza artificiale capace di superare gli esseri umani in quasi tutti i compiti cognitivi.   Secondo il gruppo, la creazione di una superintelligenza potrebbe causare disordini economici, compromettere la libertà umana e, se non controllata, persino mettere a rischio l’estinzione della specie. L’appello arriva dopo mesi di crescenti preoccupazioni da parte degli esperti, che avvertono come i modelli di IA stiano evolvendo più rapidamente di quanto i regolatori riescano a gestire.   Tra le 4.300 firme raccolte giovedì ci sono Steve Wozniak, cofondatore di Apple, Richard Branson, fondatore del Virgin Group, celebrità come Kate Bush e Will.I.am, e pionieri della tecnologia come Geoffrey Hinton – che in passato ha plurime volte parlato dei rischi dell’IA – e Yoshua Bengio, anche lui lanciatore di allarmi sulle macchine pensanti (e che non è parente di Haran Banjo, che pure avvertiva della minaccia meganoide).

Sostieni Renovatio 21

La lettera chiede un divieto fino a quando non si raggiungerà «un ampio consenso scientifico» sulla sicurezza e controllabilità dello sviluppo, insieme a «un forte consenso pubblico».   Non si tratta della prima petizione allarmistica di questo tipo. Il Bengio e Wozniak ad esempio erano tra le principali figure del settore, tra cui il CEO di Tesla Elon Musk, che nel 2023 hanno co-firmato una lettera che chiedeva una regolamentazione aggressiva del settore dell’Intelligenza Artificiale.   Come riportato da Renovatio 21Bill Gates si oppose alla moratoria. Gates, con cui Musk ha avuto scontri anche gustosi in passato, non ha partecipato alla moratoria internazionale promossa di Musk sul controllo dell’AI, replicando che invece l’AI sarebbe divenuto un ottimo maestro per i bambini e che proprio l’Intelligenza Artificiale salverà la democrazia.   A giugno dello scorso anno, il Bengio ha approvato un’altra lettera aperta sui «seri rischi» della tecnologia. La lettera è stata firmata dai dipendenti di Open AI, il creatore del chatbot virale di Intelligenza artificiale ChatGPT.   Un ulteriore appello a mettere in pausa lo sviluppo dell’Intelligenza Artificiale è stato firmato da un gruppo internazionale di medici e pubblicato dalla prestigiosa rivista medica BMJ Global Health. «Ci sono scenari in cui l’AGI [Intelligenza Artificiale Generale, ndr] potrebbe rappresentare una minaccia per gli esseri umani, e possibilmente una minaccia esistenziale» scrivono nell’appello i dottori di varie parti del mondo.   Nonostante l’allarme crescente sui rischi dell’IA, la regolamentazione globale rimane frammentata e incoerente.   L’AI Act dell’Unione Europea, il primo tentativo significativo a livello mondiale di regolamentare l’IA, classifica i sistemi in base al livello di rischio, da minimo a inaccettabile. Tuttavia, i critici sostengono che il quadro normativo, la cui piena attuazione potrebbe richiedere anni, rischia di essere obsoleto al momento dell’entrata in vigore.   Aziende come OpenAI, Google DeepMind, Anthropic e xAI stanno investendo miliardi per sviluppare modelli capaci di pensare, pianificare e programmare autonomamente. Stati Uniti e Cina vedono la supremazia nell’IA come una questione di sicurezza nazionale e leadership economica.

Aiuta Renovatio 21

Come riportato da Renovatio 21, in un caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.   Elon Musk due anni fa aveva dichiarato durante la sua intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».   Più pessimista è l’esperto dei pericoli dell’AI Eliezer Yudkowsky, che ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi, dichiarando che «tutti sulla Terra moriranno».  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
 
Continua a leggere

Più popolari