Intelligenza Artificiale
La risposta di Zuckerberg all’epidemia di solitudine: creare a tutti amici virtuali AI
Il CEO di Meta Mark Zuckerberg è preoccupato per i suoi miliardi di clienti che fanno amicizia con i chatbot AI, anziché creare legami con esseri umani reali.
In un’intervista con il podcaster Dwarkesh Patel, lo Zuckerberg ha affermato che più persone dovrebbero connettersi con i chatbot a livello sociale, perché non hanno abbastanza amici nella vita reale. Alla domanda se i chatbot AI possono aiutare a combattere l’epidemia di solitudine, il miliardario ha dipinto una visione distopica di un futuro in cui passiamo più tempo a parlare con le IA rispetto agli umani in carne e ossa.
«C’è la statistica che penso sempre sia pazzesca, l’americano medio, penso, ha meno di tre amici», ha detto lo Zuckerberg al Patel.
Zuck on:
– Llama 3
– open sourcing towards AGI
– custom silicon, synthetic data, & energy constraints on scaling
– Caeser Augustus, intelligence explosion, bioweapons, $10b models, & much moreEnjoy!
Links below pic.twitter.com/VYIadc3Jlo
— Dwarkesh Patel (@dwarkesh_sp) April 18, 2024
Sostieni Renovatio 21
«La persona media vuole più connettività, connessione, di quanto non abbia fatto», ha concluso, suggerendo la possibilità che la discrepanza possa essere piena di amici virtuali.
Lo stato attuale dei chatbot AI lascia molto a desiderare. L’intervista in questione è stata pubblicata pochi giorni dopo che il Wall Street Journal ha riferito che i membri dello staff di Meta avevano sollevato preoccupazioni per gli utenti minorenni esposti a discussioni sessualmente esplicite dai chatbot AI della società, alcune, a quanto riportato, fatte da IA con la voce dell’attore e wrestler John Cena. Va ricordato come anni fa alcuni esperti hanno sostenuto che il metaverso, ideale perseguito da Facebook al punto di cambiare nome in appunto Meta, sarà un luogo dove entreranno rapidamente i predatori di bambini: «andranno lì prima per trarre vantaggio dal fatto che è un terreno sicuro per abusare o preparare i bambini».
Il reportage del Wall Street Journal ha rivelato che i chatbot di Intelligenza Artificiale di Meta su Instagram, Facebook e WhatsApp sono in grado di intrattenere con gli utenti «giochi di ruolo romantici» che possono diventare sessualmente espliciti, anche con account appartenenti a minori.
Il sito 404 Media ha riferito che l’app Meta’s AI Studio stava regolarmente consentendo agli utenti di creare bot che sostenevano di essere terapeuti autorizzati, attraversando un confine etico preoccupante che potrebbe portare agli utenti consigli pericolosi.
Ci sono anche immense carenze con i grandi modelli linguistici che alimentano questi chatbot che possono o non possono essere risolti dai futuri progressi. Dalle allucinazioni dilaganti alle lotte con la logica, i critici hanno sottolineato che la tecnologia potrebbe rivelarsi un vicolo cieco.
Nonostante queste carenze e il terreno scivoloso su cui poggiano queste nuove tecnologie distopiche, il creatore di Facebook appoggia fermamente lo sviluppo di questi chatbot, con le complesse implicazioni sociali che potrebbe avere.
I chatbot AI emergeranno davvero come soluzione per una società moderna sempre più solitaria? In qualità di CEO di Meta, Zuckerberg dipende dai suoi azionisti e di conseguenza deve vendere questa nuova visione piena di amici avatar AI. È questo il futuro che le persone sono disposte ad abbracciare e condividersi?
Aiuta Renovatio 21
C’è da considerare come un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi.
Come riportato da Renovatio 21 due anni fa la solitudine fu dichiarata come epidemia dagli USA, divenendo per l’OMS una «priorità sanitaria».
È rilevante notare come dove ci sia un problema sanitario e l’OMS arrivano spesso i miliardari tecnologici, pronti con una soluzione per tutta l’umanità alla malattia. Una soluzione che, ovvio, li fa guadagnare – e della cui inumanità spesso sembrano disinteressati.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
L’AI di Google si rifiuta di giocare a scacchi contro l’Atari del 1977
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
OpenAI dice che oltre un milione di persone parlano di suicidio con ChatGPT ogni settimana
OpenAI ha presentato un nuovo aggiornamento di sicurezza per il suo noto modello ChatGPT, in seguito a un’analisi interna che ha rilevato oltre un milione di utenti aver confessato al chatbot intenzioni suicide. Le modifiche intendono potenziare la capacità dell’IA di identificare e gestire adeguatamente le situazioni di crisi.
In un comunicato diffuso lunedì, l’azienda ha reso noto che circa lo 0,15% degli utenti settimanali di ChatGPT ha partecipato a dialoghi contenenti «indicatori espliciti di potenziali intenzioni o piani suicidi». Un ulteriore 0,05% dei messaggi includerebbe «indicatori espliciti o impliciti di ideazione o intenti suicidi».
All’inizio del mese, il CEO di OpenAI Sam Altman aveva dichiarato che ChatGPT conta oltre 800 milioni di utenti attivi settimanali; sulla base degli ultimi dati aziendali, ciò significa che più di 1,2 milioni di persone hanno discusso di suicidio con il chatbot e circa 400.000 hanno manifestato segnali di intenti suicidi.
L’azienda ha inoltre indicato che lo 0,07% (560.000) degli utenti settimanali e lo 0,01% (80.000) dei messaggi rivelano «possibili segni di emergenze di salute mentale legate a psicosi o mania». Ha osservato, inoltre, che un certo numero di utenti ha sviluppato un’eccessiva dipendenza emotiva da ChatGPT, con circa lo 0,15% (1,2 milioni) di utenti attivi che mostrano comportamenti indicanti «livelli elevati» di attaccamento emotivo al chatbot.
OpenAI ha annunciato una collaborazione con decine di specialisti di salute mentale da tutto il mondo per aggiornare il chatbot, rendendolo più affidabile nel rilevare segnali di disagio mentale, nel fornire risposte più appropriate e nel indirizzare gli utenti verso aiuti concreti.
Sostieni Renovatio 21
Nelle conversazioni che coinvolgono convinzioni deliranti, l’azienda ha dichiarato di istruire ChatGPT a rispondere in modo «sicuro» ed «empatico», evitando di avallare affermazioni infondate.
L’annuncio giunge in un periodo di crescenti preoccupazioni per l’uso sempre più diffuso di chatbot basati su intelligenza artificiale come ChatGPT e per i loro impatti sulla salute mentale. Psichiatri e altri operatori sanitari hanno espresso allarme per una tendenza emergente in cui gli utenti sviluppano deliri pericolosi e pensieri paranoici dopo interazioni prolungate con chatbot IA, che tendono a confermare e rafforzare le convinzioni degli utenti.
Il fenomeno è stato definito da alcuni esperti come «psicosi da chatbot».
Come riportato da Renovatio 21, una causa intentata da dei genitori californiana causa che ChatGPT abbia incoraggiato un adolescente suicida a pianificare un «bel suicidio» e si sia persino offerto di redigere la sua lettera di addio.
Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
I chatbot sembrano essere usati anche da coloro che progettano omicidi e stragi.
Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Due mesi fa si è avuto il caso dell’ex dirigente di Yahoo che avrebbe ucciso la madre e poi se stesso sotto l’influenza del chatbot.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
La superintelligenza artificiale potrebbe porre fine all’umanità
Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Pensiero2 settimane faCi risiamo: il papa loda Don Milani. Torna l’ombra della pedofilia sulla Chiesa e sul futuro del mondo
-



Pensiero5 giorni faMiseria dell’ora legale, contro Dio e la legge naturale
-



Necrocultura2 settimane fa«L’ideologia ambientalista e neomalthusiana» di Vaticano e anglicani: Mons. Viganò sulla nomina del re britannico da parte di Leone
-



Oligarcato2 settimane faPapa Leone conferisce a Carlo III, capo della Chiesa d’Inghilterra, la cattedra permanente nella basilica papale
-



Politica2 settimane faI vaccini, l’euro, l’OMS e le proteste pro-Palestina. Renovatio 21 intervista il senatore Borghi
-



Spirito1 settimana fa«Umiliazione della Chiesa dinanzi a un eretico concubinario globalista»: Mons. Viganò sulla preghiera congiunta del re britannico col papa
-



Spirito2 settimane faPapa Leone XIII sarebbe pronto a sciogliere l’Opus Dei
-



Salute1 settimana faI malori della 43ª settimana 2025













