Connettiti con Renovato 21

Intelligenza Artificiale

Mattel annuncia i piani per incorporare chatGPT nei giocattoli per bambini

Pubblicato

il

Mattel, il produttore di bambole Barbie, auto Hot Wheels e degli un tempo popolarissimi Masters of the Universe, ha firmato un accordo con OpenAI per utilizzare i suoi strumenti di intelligenza artificiale non solo per progettare i giocattoli, ma anche per alimentarli, riferisce Bloomberg.

 

In un’intervista congiunta, il Chief-Stry Officer di Mattel Josh Silverman e il Chief Operating Officer di OpenAI, Brad Lightcap, hanno detto che la collaborazione è in una fase iniziale e hanno rifiutato di commentare quale sarebbe stato il primo prodotto.

 

L’Intelligenza Artificiale potrebbe essere utilizzata per creare assistenti digitali basati su personaggi della Mattel, per esempio. 

 

«Abbiamo in programma di annunciare qualcosa verso la fine di quest’anno, ed è davvero attraverso lo spettro di prodotti fisici e alcune esperienze. L’utilizzo di questa incredibile tecnologia ci permetterà di reimmaginare davvero il futuro dei giocattoli», ha detto il Silverman. 

Sostieni Renovatio 21

Detta così pare essere una collaborazione piuttosto allarmante. Le prove dei deleteri effetti dei chatbot AI sulla nostra salute mentale sono aumentate costantemente, con utenti ossessionati da ChatGPT con conseguenze tragiche. 

 

È particolarmente rischioso per i bambini. All’inizio di quest’anno, i ricercatori del Brainstorm Lab for Mental Health Innovation della Stanford School of Medicine hanno pubblicato un avviso di valutazione del rischio di Intelligenza Artificiale sugli adolescenti che interagiscono con i compagni virtuali di intelligenza artificiale, un tipo di chatbot AI progettato per essere come un umano. 

 

È impossibile ignorare il rischio che corre una giovane mente che sviluppa un attaccamento a qualcosa che finge di essere reale e un vero amico. 

 

Può essere progettata per essere sicura per i bambini, ma non c’è alcuna garanzia che non disobbedirà alle sue istruzioni. 

 

Come già spiegato su Renovatio 21, ChatGPT utilizza il «machine learning» – la ricerca di modelli statistici in enormi set di dati – per generare risposte umane nel linguaggio di tutti i giorni a qualsiasi domanda. Fondamentalmente funziona prevedendo quale dovrebbe essere la parola successiva in una frase basata su esempi precedenti trovati nelle enormi quantità di dati che sono stati inseriti.

 

L’utilizzo di ChatGPT è stato descritto come «avere una conversazione testuale con un amico», e si prevede che trasformerà il panorama degli «amici virtuali» aggiungendo «amici» letteralmente inesistenti. In altre parole, sistemi di Intelligenza Artificiale potrebbero alla fine sostituire molte delle conversazioni da uomo a uomo che abbiamo quotidianamente, nel bene e nel male.

 

Detto questo, non conosciamo i dettagli esatti di come Mattel utilizzerà i prodotti di OpenAI. Ma finora, sembra che stia andando in una direzione alquanto prevedibile. Mattel potrebbe usare l’intelligenza artificiale per fare una bambola Barbie con conversazioni in piena regola con tuo figlio. 

 

Per quanto riguarda la natura dell’accordo, il Silverman di Mattel ha affermato che il produttore di giocattoli non sta concedendo in licenza la sua proprietà intellettuale a OpenAI e manterrà il pieno controllo sui prodotti che verranno creati. In ogni caso, le due aziende prevedono un rapporto proficuo. Mattel ha ampliato il suo impero nel regno dell’intrattenimento – come annunciato dal suo blockbuster 2023 Barbie – mentre OpenAI sta cercando di ottenere accordi con gli studi di Hollywood per utilizzare il suo generatore di video IA Sora.

 

«La fase di esplorazione dell’idea del design creativo per aziende come Mattel e molti altri, è una parte fondamentale del flusso di lavoro», ha detto Lightcap. «Mentre pensiamo a come l’intelligenza artificiale costruisce strumenti che estendono tale capacità, penso che siamo molto fortunati ad avere partner come Mattel con cui possiamo lavorare per capire meglio questo problema».

 

Rimangono importanti punti interrogativi, ma soprattutto questo è un altro esempio di come ogni settore si stia avvalendo dell’IA nel suo modello di business, indipendentemente da quanto senso abbia o dai rischi posti da questa tecnologia.

 

Prendiamo ad esempio un reportage del Wall Street Journal, che ha rivelato che i chatbot di Intelligenza Artificiale di Meta su Instagram, Facebook e WhatsApp sono in grado di intrattenere con gli utenti «giochi di ruolo romantici» che possono diventare sessualmente espliciti, anche con account appartenenti a minori.

 

Come riportato da Renovatio 21, una nuova ricerca ha trovato un collegamento preoccupante alla perdita di memoria negli studenti che si affidavano a ChatGPT, mentre un recente studio avverte che l’uso di strumenti di Intelligenza Artificiale possono ridurre nel tempo le capacità mentali di un individuo.

 

Ad ogni modo, esiste già un film che parla dei problemi che potrebbero palesarsi inserando l’AI nei giocattoli. Si tratta di Small Soldiers (1998) del geniale Joe Dante, dove un gruppo militare acquista una ditta di giocattoli e vi inserisce, per sbadataggine del management, l’IA creata per propositi militari: il risultato sono soldatini sciovinisti, razzisti e violentissimi.

 

Aiuta Renovatio 21

Mentre Small Soldiers è di fatto una commedia, anche l’horror sta investigando la possibilità di giocattoli AI. È il caso della serie della bambola assassina «Chucky», classico recente del film dell’orrore con un bambolotto posseduto che uccide la gente. Nel reboot della storia del 2019 (chiamato pure Child’s Play) non è un demone a possedere la bambola, ma l’uso da parte del giocattolo dell’AI, che lo rende una crudele e satanica macchina di morte.

 

Diciamo pure che Hollywood a parte, un giocatolo IA ai nostri figli è meglio se non lo daremo mai.

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

Notizie false nel podcast di lancio dell’intelligenza artificiale del WaPo

Pubblicato

il

Da

I nuovi podcast personalizzati generati dall’intelligenza artificiale del Washington Post hanno proposto agli abbonati citazioni inventate e imprecisioni fattuali. Lo riporta la testata Semafor basandosi su comunicazioni interne del quotidiano americano.   Lanciata all’inizio della settimana, questa funzione offre agli utenti delle app mobile podcast creati con l’IA che riassumono e narrano automaticamente notizie selezionate, attingendo agli articoli pubblicati dal giornale.   Entro 48 ore dal debutto del prodotto, i dipendenti del WaPo hanno iniziato a denunciare vari problemi, tra cui citazioni false, attribuzioni errate di dichiarazioni e dettagli fattuali inesatti.   «È davvero sconcertante che sia stato permesso di procedere con tutto questo», avrebbe scritto un redattore del WaPo in un messaggio interno. Al momento della pubblicazione dell’articolo di Semafor, il Washington Post non aveva ancora riconosciuto pubblicamente le criticità.

Aiuta Renovatio 21

Questi errori segnalati emergono in un periodo di crescente scrutinio sulla credibilità dei media statunitensi. Alla fine del mese scorso, la Casa Bianca ha attivato sul suo sito ufficiale un sistema di monitoraggio della parzialità mediatica, con l’obiettivo di elencare pubblicamente articoli e testate che l’amministrazione ritiene distorti o inaccurati. Il WaPo figura in posizione di rilievo sull’elenco, accanto a organi come CNN, CBS e Politico.   Il WaPo è uno dei principali quotidiani nazionali degli Stati Uniti, insieme al New York Times e al Wall Street Journal. Dal 2013 è proprietà del fondatore di Amazon, Jeff Bezos. Sotto la sua guida, il WaPo ha potenziato le attività digitali e investito massicciamente nella tecnologia.   Le difficoltà dei podcast generati dall’IA del WaPo si manifestano mentre altri grandi media si orientano verso soluzioni analoghe. Società come Yahoo e Business Insider hanno di recente annunciato o ampliato strumenti basati sull’intelligenza artificiale per sintetizzare gli articoli, nell’ambito di una tendenza generale del settore a impiegare l’IA per contenere i costi, velocizzare la produzione e personalizzare i contenuti per i lettori.   L’incidente evidenzia preoccupazioni più generali sull’impiego dell’Intelligenza Artificiale nel giornalismo, dove i sistemi automatizzati hanno più volte generato errori, cosiddette allucinazioni e informazioni fuorvianti. Organizzazioni mediatiche ed esperti hanno messo in guardia sul fatto che, in assenza di robusti controlli editoriali, i contenuti prodotti dall’IA rischiano di minare l’accuratezza, la responsabilità e la fiducia del pubblico.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
Immagine di Esther Vargas via Flickr pubblicata su licenza CC BY-SA 2.0
Continua a leggere

Intelligenza Artificiale

L’ascesa dell’AI avanzata potrebbe avere conseguenze catastrofiche: parla il CEO di Google DeepMind

Pubblicato

il

Da

Demis Hassabis, amministratore delegato di Google DeepMind, ha lanciato un monito sul cammino verso l’intelligenza artificiale generale (AGI), che potrebbe sfociare in «esiti catastrofici» quali cyberattacchi alle reti energetiche o idriche. Secondo lo Hassabis, l’AGI potrebbe concretizzarsi entro i prossimi dieci anni.

 

Durante il suo intervento all’Axios AI+ Summit della scorsa settimana a San Francisco, Hassabis ha delineato l’AGI come un sistema capace di manifestare «tutte le capacità cognitive» proprie dell’umanità, inclusa la propensione all’invenzione e alla creatività.

 

Egli ha rilevato che i modelli linguistici di grandi dimensioni odierni continuano a essere «intelligenze frastagliate», afflitte da deficit nel ragionamento, nella programmazione a lungo raggio e nell’apprendimento persistente. Nondimeno, ha ipotizzato che un’IA autenticamente intelligente possa emergere a breve, grazie a un potenziamento costante e «un paio di grandi innovazioni in più».

 

Al contempo, Hassabis ha ammesso che la fase propedeutica all’AGI sarà verosimilmente costellata da pericoli concreti e «risultati catastrofici», tra cui cyberattacchi alle infrastrutture energetiche o idriche.

 

«Probabilmente sta già quasi accadendo ora… forse non ancora con un’intelligenza artificiale molto sofisticata», ha osservato, indicandolo come «il vettore vulnerabile più ovvio». Ha proseguito evidenziando che attori malevoli, agenti autonomi e meccanismi che «deviano» dalle direttive iniziali esigono contromisure robuste. «È un rischio non nullo», ha concluso, in riferimento alla eventualità che apparati evoluti «scavalchino il guardrail».

 

Iscriviti al canale Telegram

Le apprensioni di Hassabis riecheggiano allarmi più estesi diffusi nel panorama tecnologico mondiale.

 

Come riportato da Renovatio 21, missiva aperta diramata a ottobre, sottoscritta da luminari del settore e figure di spicco, ha sostenuto che entità «superintelligenti» potrebbero mettere a repentaglio la libertà umana o la stessa esistenza, proponendo una moratoria globale sullo sviluppo dell’IA sin quando non se ne assicuri la saldezza. Tra i sottoscrittori, il co-fondatore di Apple Steve Wozniak, i pionieri dell’IA Geoffrey Hinton e Yoshua Bengio, il magnate Richard Branson del gruppo Virgin, oltre a personalità di rilievo politico e culturale.

 

Un ulteriore appello a mettere in pausa lo sviluppo dell’Intelligenza Artificiale è stato firmato da un gruppo internazionale di medici e pubblicato dalla prestigiosa rivista medica BMJ Global Health. «Ci sono scenari in cui l’AGI [Intelligenza Artificiale Generale, ndr] potrebbe rappresentare una minaccia per gli esseri umani, e possibilmente una minaccia esistenziale» scrivono nell’appello i dottori di varie parti del mondo.

 

Più pessimista è l’esperto dei pericoli dell’AI Eliezer Yudkowsky, che ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi, dichiarando che «tutti sulla Terra moriranno».

 

Altre voci, tuttavia, propendono per un’interpretazione più rosea.

 

Elone Musk, che pure fa parte degli apocalittici riguardo i rischi delle macchine pensanti, ha dichiarato il mese scorso che gli avanzamenti dell’IA e della robotica potrebbero rendere il lavoro «facoltativo» tra 10-20 anni e che la moneta potrebbe rivelarsi «irrilevante» in un’economia IA-centrica, pur rammentando che occorrono ancora salti tecnologici sostanziali affinché tale orizzonte si materializzi.

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

L’AI renderà il lavoro «facoltativo» e il denaro «irrilevante»: Musk come Marx e i sovietici

Pubblicato

il

Da

Secondo l’imprenditore americano Elon Musk, gli avanzamenti nell’intelligenza artificiale e nella robotica potrebbero trasformare il lavoro in una mera opzione anziché un imperativo nei prossimi vent’anni.   Il magnate ha espresso questa visione audace al Forum sugli investimenti tra Stati Uniti e Arabia Saudita, durante un dibattito sui risvolti a lungo termine di robotica e IA sulla manodopera.   «Non so bene cosa intenda per lungo termine, forse 10 o 20 anni, o roba del genere», ha dichiarato Musk. «La mia previsione è che il lavoro diventerà facoltativo».

Aiuta Renovatio 21

Elone ha proseguito spiegando che, in tale scenario, l’attività lavorativa verrebbe vista come un passatempo più che come un dovere, simile a chi decide di piantare ortaggi in giardino anziché acquistarli al supermercato.   «Sarà come praticare sport o dedicarsi a un videogioco, o simili», ha aggiunto. Musk ha inoltre ipotizzato che, in un’epoca dominata da IA sofisticata e robotica, il denaro potrebbe smarrire gran parte della sua centralità. «Credo che a un certo punto la valuta diventerà irrilevante», ha sostenuto.   Il Musk  ammesso, però, che resta «ancora tanto lavoro» da compiere affinché tecnologia e società si avvicinino anche solo vagamente a quel domani.   Parte del suo entusiasmo deriva dal progresso di Optimus, il robot umanoide bipede di Tesla concepito per assolvere mansioni monotone, fisiche e talora rischiose. La società immagina che Optimus possa operare un giorno in stabilimenti, depositi e persino abitazioni. Musk lo ha descritto come potenzialmente «la più grande industria o il prodotto più imponente di sempre, superiore persino ai telefonini».   Gli scettici, nondimeno, ritengono una scadenza di 10-20 anni troppo ottimistica, rammentando che svariate profezie passate di Musk – come l’avvento dei taxi autonomi entro il 2019 o una missione con equipaggio su Marte entro il 2024 – non si sono realizzate. Gli specialisti in robotica evidenziano pure che realizzare un umanoide versatile, capace di esecuzioni sicure e consistenti nel contesto reale, è infinitamente più arduo e oneroso rispetto a un automa specializzato.   Queste dichiarazioni irrompono in un frangente di allarme crescente su come IA e robotica stiano ridefinendo impiego ed economia. Negli anni recenti, le multinazionali hanno soppresso decine di migliaia di posizioni accentuando l’automazione.   Musk aveva parlato di un «High Universal Income» (Alto reddito universale) durante il suo ultimo incontro con il podcaster Joe Rogan. Da anni ritiene che il reddito universale sarà un passaggio necessario di una società automatizzata.    

Iscriviti al canale Telegram

  L’idea di una società sofisticata al punto da affrancare quasi totalmente  l’individuo dal lavoro per lasciare che si dedichi alle passioni è, in realtà, una vecchia idea comunista che discende direttamente da Marx ed Engles e filtrò, ovviamente fallendo, nell’Unione Sovietica.   Ne L’ideologia tedesca (1845) il duo scrive che nella società comunista evoluta «sarà possibile fare oggi una cosa, domani un’altra, cacciare al mattino, pescare il pomeriggio, allevare bestiame la sera, criticare dopo cena, secondo il mio desiderio, senza diventare né cacciatore, né pescatore, né pastore, né critico».   Lenin riprese questa visione nel suo testo Stato e rivoluzione (1917) dove scrive che nella fase superiore del comunismo il lavoro coatto sparirà, lo Stato si estinguerà e ognuno contribuirà «secondo le sue capacità» e riceverà «secondo i suoi bisogni».   Anche Nikita Khrushchev nel 1961 (XXII Congresso del PCUS) rilanciò ufficialmente tale visione avveniristica: entro il 1980 l’URSS avrebbe raggiunto il comunismo vero e proprio, con riduzione drastica dell’orario di lavoro (sarebbe sceso progressivamente a 5-6 ore, poi a 4), abbondanza materiale e possibilità per tutti di dedicarsi a studio, arte, sport, interessi personali.   Secondo lo slogan sovietico «Da ognuno secondo le sue capacità, a ognuno secondo i suoi bisogni»: la pianificazione e l’automazione industriale avrebbero quindi dovuto liberare l’essere umano dall’alienazione del lavoro. Tuttavia, l’orario di lavoro in URSS mai calò sotto le 7-8 ore, e il lavoro era obbligatorio per legge: c’era persino il reato di «parassitismo sociale»: chi non lavorava poteva finire in carcere o ai lavori forzati).   Negli anni ’70-’80 si parlava ancora teoricamente di «riduzione della giornata lavorativa», ma nei fatti si faceva l’opposto: turni supplementari, «sabati comunisti» volontari-obbligatori, e via dicendo. L’idea che il lavoro potesse diventare facoltativo o ridotto a poche ore rimase propaganda per tutto il periodo brežneviano e successivo.   Renovatio 21 ha notato, ad ogni modo, più interessanti tracce del pensiero muskiano sulla robotizzazione di cui la sua azienda è assoluta protagonista.   Nel corso della riunione plenaria di Tesla del primo trimestre del 2025, il CEO Elon Musk ha rivelato che l’azienda si sta preparando con l’obiettivo di iniziare la produzione degli Optimus quest’anno.   «Quest’anno, speriamo di riuscire a produrre circa 5.000 robot Optimus », ha detto Musk agli investitori Tesla. «Tecnicamente puntiamo ad avere abbastanza componenti per produrne 10.000, forse 12.000, ma dato che si tratta di un prodotto completamente nuovo, con un design completamente nuovo, direi che ci riusciremo se riusciremo a raggiungere la metà dei 10.000 pezzi».

Aiuta Renovatio 21

«Ma anche 5.000 robot, sono le dimensioni di una legione romana, per vostra informazione, il che è un pensiero un po’ spaventoso» ha continuato significativamente Elon. «Come un’intera legione di robot, direi “wow”. Ma penso che costruiremo letteralmente una legione, almeno una legione di robot quest’anno, e poi probabilmente 10 legioni l’anno prossimo. Penso che sia un’unità piuttosto interessante, sapete? Unità di legione. Quindi probabilmente 50.000 circa l’anno prossimo».   Il riferimento al concetto di legione e alla storia di Roma (passione nota dell’uomo più ricco del mondo) fa venire in mente altre considerazioni espresse dal Musk negli anni scorsi, peraltro proprio riguardo a Putin.   Quando tre anni fa ancora il suo networth era di circa 240 miliardi (ora è quasi il doppio) fu intervistato per un documentario della testata germanica Welt, dove corresse il giornalista che lo descriveva come l’uomo più ricco della Terra. «Io penso che Putin sia significativamente più ricco di me», alluse Elon. «Sì lo penso davvero. Io non posso andare ad invadere altri Paesi. Credo ci sia una vecchia citazione… forse da Crasso… non sei davvero ricco sino a che non puoi permetterti una legione».     Ora Musk le legioni se le sta costruendo da sé: legioni di robot che possono combattere, pure nello spazio: il fatto che per primi su Marte arriveranno non gli uomini, ma gli umanoidi automatici di Elon Musk dovrebbe far riflettere, almeno un pochino.   Il personaggio, torna a ripetere Renovatio 21potrebbe essere l’anticristo: e questo spiegherebbe il fatto che spesse volte vediamo il fascino di quel che fa. L’anticristo, dice la Scrittura, ingannerà tutti, e sarà servito da coloro «il cui nome non è scritto nel libro della vita fin dalla fondazione del mondo» (Ap, 17,8)…   Che San Giovanni stia parlando di legioni di umanoidi robotici? Che stia parlando di esseri umani creati in provetta (altra specialità personale di Musk)?  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Più popolari