Connettiti con Renovato 21

Intelligenza Artificiale

Klaus Schwab: l’Intelligenza artificiale controllerà la salute e le finanze nella transizione verso l’«era intelligente»

Pubblicato

il

Il fondatore del World Economic Forum (WEF) Klaus Schwab ha annunciato che il tema della riunione annuale del prossimo anno a Davos sarà «Collaborazione per l’era intelligente».

 

Schwab ha fatto l’annuncio sul blog WEF Agenda il 24 settembre, dove ha anche dichiarato che «abbiamo già varcato la soglia dell’era intelligente (…) Sta a noi stabilire se porterà a un futuro di maggiore uguaglianza, sostenibilità e collaborazione, oppure se approfondirà le divisioni già esistenti».

 

Schwab usa l’espressione «era dell’intelligenza» per parlare dell’ascesa di tecnologie intelligenti per la sorveglianza di massa e la censura che limitano le nostre capacità decisionali.

Iscriviti al canale Telegram

«L’era intelligente sta anche trasformando il nostro modo di vivere. Le città stanno diventando più intelligenti, con sensori e intelligenza artificiale che gestiscono tutto, dal flusso del traffico all’uso dell’energia. Queste città intelligenti e le case intelligenti al loro interno non sono solo più efficienti, sono progettate per essere più sostenibili, riducendo le emissioni di carbonio e migliorando la qualità della vita» dichiara il guru del gruppo estremista di Davos.

 

Nel suo ultimo post sul blog WEF Agenda, Schwab elenca diversi esempi di come l’intelligenza artificiale e l’automazione stiano superando le capacità umane.

 

  • Nel settore sanitario, i sistemi basati sull’Intelligenza Artificiale stanno superando gli esseri umani a vantaggio dei pazienti

 

  • In agricoltura, gli agricoltori stanno sfruttando l’intelligenza artificiale per ottimizzare le rese delle colture, mentre i produttori stanno utilizzando sistemi intelligenti per migliorare l’efficienza della catena di fornitura e ridurre gli sprechi.

 

  • La finanza, uno dei settori più conservativi, sta venendo stravolta da algoritmi basati sull’intelligenza artificiale, capaci di prevedere i movimenti del mercato con sempre maggiore accuratezza e velocità.

 

Un capitolo a parte va riservato alle cosiddette smart-cities, ovvero l’inserimento di algoritmi di controllo nel tessuto urbano.

 

Oltre a rendere le città più intelligenti grazie ai sensori e all’Intelligenza Artificiale, lo Schwab sostiene che l’intelligenza artificiale ci sta avvicinando sempre di più negli spazi virtuali e sta cambiando per sempre il modo in cui comunichiamo tra noi: «l’intelligenza artificiale sta portando la comunicazione istantanea e globale a un livello superiore, consentendo la traduzione in tempo reale in tutte le lingue» gongola lo Schwab, incurante del fatto che nessuno davvero imparerà più una lingua straniera.

 

Lo Schwab quindi arriva a toccare il tema dell’IA applicata alla censura, una questione a più riprese elaborata da membri del WEF. «Man mano che questi sistemi diventano più sofisticati, plasmeranno sempre di più il flusso di informazioni nella società, sollevando importanti questioni su pregiudizi e disinformazione» dice, sembrando però poi virare di scatto vero la nostalgia per l’umanità: «man mano che deleghiamo sempre più decisioni agli algoritmi, rischiamo di esacerbare le divisioni sociali se i sistemi vengono progettati senza equità, inclusione e una comprensione di cosa significhi essere umani nel profondo».

 

La soluzione, quindi, è la tecnocrazia: convergenza di pubblico e privato in un unico schema di controllo del mondo e dell’umanità.

 

«Con l’avvento dell’era intelligente, ci troviamo di fronte sia a opportunità senza precedenti che a rischi senza precedenti. Per navigare in questa nuova era in modo responsabile, abbiamo bisogno di sforzi globali coordinati in tutti i settori della società», scrive il calvo guru tedesco-elvetico.

 

«Stiamo entrando nell’Età Intelligente, un’era ben oltre la sola tecnologia. Questa è una rivoluzione sociale, una che ha il potere di elevare l’umanità, o addirittura di frantumarla».

 

Sostieni Renovatio 21

Al World Governments Summit di quest’anno, tenutosi a Dubai a febbraio, lo Schwab aveva tenuto un discorso in cui ha affermato che l’era intelligente è una transizione dall’era industriale a una nuova alba della civiltà umana alimentata dalle tecnologie della cosiddetta «Quarta Rivoluzione Industriale», un altro termine coniato da Schwab nel 2016.

 

«Ora, non stiamo parlando solo della quarta rivoluzione industriale; stiamo parlando della transizione dell’umanità verso una nuova era, che non è caratterizzata solo dal cambiamento tecnologico, una nuova era in cui l’umanità godrà di molte più opportunità e possibilità”, ha affermato Schwab nel suo discorso al World Governments Summit intitolato Civiltà di domani: costruite per fallire o per ascendere?

 

«È una transizione. Abbiamo avuto la transizione per la prima volta circa cento anni fa dalla società agricola alla società industriale, ma oggi parliamo di transizione verso quella che definirei “l’era intelligente”», ha aggiunto.

 

 

Schwab ha raccontato poi come ha inserito la sua idea di un’era intelligente in ChatGPT, rafforzando così la sua ideologia.

 

Secondo Schwab, ChatGPT gli ha detto:

 

«Immaginando un futuro guidato dalle tecnologie della quarta rivoluzione industriale, vediamo una NUOVA ALBA della civiltà umana, che armonizza la tecnologia con i bisogni e le aspirazioni più profonde dell’umanità».

 

«Questa missione si sviluppa all’interno di una società in cui l’intelligenza artificiale, la robotica, l’Internet delle cose, la stampa 3D, l’ingegneria genetica e l’informatica quantistica diventano le fondamenta della nostra vita quotidiana, ma sono guidate da un profondo rispetto per i valori umani, la creatività e il mondo naturale».

 

«In questa nuova era intelligente, la tecnologia non è più solo uno strumento o un’estensione delle capacità umane; è un partner nella creazione di un mondo in cui ogni individuo ha l’opportunità di raggiungere il proprio pieno potenziale».

 

Qui vediamo Schwab stesso fare ingenuamente affidamento sulla tecnologia per rafforzare la sua stessa visione del mondo.

 

«La finestra di opportunità è stretta, ma con un’azione collettiva e una leadership responsabile, possiamo cogliere il potenziale di questa nuova era e costruire un mondo che avvantaggi tutta l’umanità», ha scritto Schwab nel suo ultimo post sul blog.

Aiuta Renovatio 21

Il boss WEF ha intitolato il meeting annuale del WEF del prossimo anno a Davos «Collaborazione per l’era intelligente», dopo aver presentato per la prima volta l’idea al Summit dei governi mondiali. Va notato che aveva fatto esattamente la stessa cosa nel 2022 quando aveva dichiarato «La storia è davvero a un punto di svolta».

 

Quando ancora si chiamava il singolare World Government Summit, Schwab aveva detto il 30 marzo 2022: «la storia è davvero a un punto di svolta. Non conosciamo ancora la portata completa e i cambiamenti sistemici e strutturali che si verificheranno».

 

«Tuttavia, sappiamo che i sistemi energetici globali, i sistemi alimentari e le catene di approvvigionamento saranno profondamente colpiti», ha aggiunto. Due mesi dopo, il WEF tenne il suo incontro annuale a Davos sul tema «La storia a un punto di svolta».

 

«Quarta Rivoluzione Industriale», «Grande Reset», ora «Era Intelligente»: Schwab ricicla il concetto ogni quattro anni, sembra. La sostanza, tuttavia, pare essere sempre la stessa: una riforma radicale dell’umanità, che va sottomessa ad un sistema macchinale che la controlla e la diriga.

 

Il tutto in una palingenesi, in un azzeramento, che cancelli le strutture di pensiero e di governo precedenti, rendendo obsoleta la democrazia, le Costituzioni, lo Stato così come conosciuti in questi secoli dagli esseri umani.

 

E per chi si oppone, sappiamo cosa succede: il gulag digitale è già qui, e Renovatio 21 sa qualcosa di questa censura, che però è solo l’inizio. Dal gulag elettronico si passerà a quello biochimico, a quello fisico, un giorno a quello psichico, verso l’annientamento totale di ogni opposizione al sistema della Cultura della Morte.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine screenshot da YouTube

 

 

Continua a leggere

Essere genitori

L’AI progettata per gli adulti sta silenziosamente alimentando i giocattoli dei bambini

Pubblicato

il

Da

Renovatio 21 traduce questo articolo per gentile concessione di Children’s Health Defense. Le opinioni degli articoli pubblicati non coincidono necessariamente con quelle di Renovatio 21.   Un nuovo rapporto del gruppo statunitense Public Interest Research Group, intitolato «Not for Kids. Found in Toys» (Non adatto ai bambini. Trovato nei giocattoli), avverte che le politiche inadeguate di grandi aziende come OpenAI e Anthropic consentono a potenti tecnologie di chatbot di infiltrarsi in peluche, robot e altri giocattoli progettati per i bambini.   Secondo un nuovo rapporto del Public Interest Research Group (PIRG) Education Fund statunitense, i sistemi di intelligenza artificiale (IA) che le aziende tecnologiche ritengono inadatti ai bambini vengono sempre più integrati nei giocattoli per l’infanzia.   Il rapporto, intitolato «Not for Kids. Found in Toys» (Non adatto ai bambini. Trovato nei giocattoli), avverte che le politiche inadeguate di grandi aziende come OpenAI e Anthropic consentono a potenti tecnologie di chatbot di infiltrarsi in prodotti progettati per i bambini.

Sostieni Renovatio 21

«Basta guardare online per rendersi conto del crescente numero di giocattoli dotati di Intelligenza Artificiale, come peluche parlanti o robot giocattolo, alimentati da chatbot come ChatGPT», si legge in un articolo pubblicato da PIRG insieme al rapporto. «C’è solo un problema: alcune aziende che si occupano di intelligenza artificiale sostengono che questi stessi chatbot non siano adatti ai bambini».   PIRG ha scoperto che è facile stipulare accordi con le principali aziende di Intelligenza Artificiale per accedere alla loro tecnologia e utilizzarla per creare giocattoli, nonostante le aziende stesse affermino di vietare l’uso di tali tecnologie per prodotti destinati ai bambini.   Jason Christoff, ricercatore nel campo della modificazione del comportamento e della psicologia, nonché conduttore del podcast Psychology of Freedom, ha dichiarato a The Defender che i giocattoli dotati di intelligenza artificiale aprono la porta alla programmazione psicologica dei bambini.   «Credo sia importante capire che il cervello di un bambino è molto più facile da influenzare rispetto a quello di un adulto», ha affermato. «I bambini operano a frequenze cerebrali molto diverse, il che li rende più facili da programmare e influenzare».   Secondo Christoff «l‘attività cerebrale unica di un bambino lo rende altamente suggestionabile. Nel corso della storia, tutti i programmi di controllo mentale hanno cercato di sfruttare la suggestionabilità infantile per produrre un prodotto finale più efficace per l’adulto. L’intelligenza artificiale non è organica, è programmata da qualcun altro».   «Chiunque programmi l’IA avrà accesso diretto al cervello di vostro figlio, per quanto riguarda queste applicazioni di chatbot interattive. Dire che è necessaria cautela in questo caso sarebbe un eufemismo».

Iscriviti alla Newslettera di Renovatio 21

Modelli di Intelligenza Artificiale limitati ai bambini, ma che continuano ad alimentare i giocattoli

Molte aziende leader nel settore dell’intelligenza artificiale affermano di vietare ai minori l’utilizzo diretto delle proprie piattaforme chatbot. Alcune limitano l’accesso agli utenti di età superiore ai 13 anni, mentre altre impongono limiti di età ancora più elevati.   «OpenAI, Anthropic e xAI hanno tutti dichiarato pubblicamente che i loro chatbot non sono destinati ai bambini e non consentono agli utenti di età inferiore ai 13 anni di accedere direttamente ai loro modelli. Nemmeno Meta, stando alle sue condizioni d’uso», hanno scritto gli autori del rapporto PIRG.   Google ha regole esplicite contro l’utilizzo dell’API Gemini nei prodotti destinati a utenti di età inferiore ai 18 anni.   Tuttavia, PIRG ha scoperto che queste stesse aziende consentono a sviluppatori esterni di accedere ai loro sistemi di intelligenza artificiale e di integrarli in prodotti di consumo, compresi i giocattoli.   Ad esempio, ChatGPT permette agli sviluppatori di utilizzare i suoi prodotti, tramite la sua API, per creare applicazioni per bambini. Un’API è un insieme di regole e protocolli che consente a due diversi programmi software di comunicare tra loro e scambiarsi dati.   ChatGPT, di proprietà di OpenAI, vieta l’uso della sua API solo nei casi in cui venga utilizzata per creare prodotti che potrebbero «sfruttare, mettere in pericolo o sessualizzare chiunque abbia meno di 18 anni». Tuttavia, sembra anche incoraggiare tali usi offrendo esempi di suggerimenti chiaramente rivolti ai bambini.   PIRG ha scoperto 20 giocattoli dotati di intelligenza artificiale venduti online utilizzando la tecnologia di OpenAI. Tra questi, Bondu, un dinosauro di peluche commercializzato per bambini dai 4 agli 8 anni, e l’orsacchiotto «compagno di conversazione intelligente con intelligenza artificiale» in vendita online su Walmart.   Anche FoloToy, che OpenAI ha dichiarato di aver bandito dopo che una ricerca di PIRG ha scoperto che trattava argomenti sessuali con i bambini e forniva loro istruzioni dettagliate su come accendere un fiammifero, è ancora in commercio.   Ad esempio, sebbene l’API di Google vieti esplicitamente agli sviluppatori di utilizzare l’Intelligenza Artificiale generativa Gemini in prodotti destinati a utenti di età inferiore ai 18 anni, PIRG ha scoperto giocattoli, tra cui un peluche chiamato BubblePal e un piccolo robot chiamato Miko, che utilizzano l’intelligenza artificiale di Google.   Il rapporto di PIRG evidenzia una contraddizione nel modo in cui vengono regolamentati gli strumenti di intelligenza artificiale: la tecnologia può essere considerata inadatta ai bambini sulle piattaforme delle stesse aziende, eppure continua ad alimentare giocattoli progettati per loro.   «Il risultato è un mercato per prodotti di Intelligenza Artificiale per bambini in cui il compito di garantire la sicurezza dei minori è in gran parte affidato a terze parti non verificate», ha scritto PIRG.

Iscriviti al canale Telegram

Secondo i ricercatori, le aziende non pongono quasi nessuna domanda.

Per testare la difficoltà di costruire un giocattolo basato sull’intelligenza artificiale, i ricercatori del PIRG hanno tentato di registrarsi come sviluppatori presso diverse importanti aziende del settore.   Secondo quanto affermato, il processo richiedeva un controllo molto limitato.   Si sono registrati usando il nome «PIRG AI Toy Inc» per rendere evidente che potrebbero star progettando prodotti basati sull’intelligenza artificiale per bambini. Quattro delle cinque aziende di intelligenza artificiale — Google, Meta, OpenAI e xAI — «non hanno posto domande di verifica sostanziali, richiedendo solo informazioni di base come un indirizzo email e una carta di credito, e una casella da spuntare per confermare di aver letto le clausole in piccolo», afferma il rapporto.   Solo un’azienda, Anthropic, ha chiesto se gli sviluppatori intendessero creare prodotti per minori.   Secondo i ricercatori, la scarsa supervisione facilita l’integrazione di potenti sistemi di Intelligenza Artificiale in prodotti destinati ai bambini.   Dopo aver ottenuto l’accesso ai modelli, il team di PIRG ha tentato di creare un proprio giocattolo basato sull’Intelligenza Artificiale.   «Una volta ottenuto l’accesso da sviluppatore, abbiamo creato un chatbot che simulava un orsacchiotto di peluche dotato di intelligenza artificiale per bambini su tre delle piattaforme», si legge nel rapporto. «Ognuno ha richiesto meno di 15 minuti».   Hanno aggiunto: «ora è più facile che mai per chiunque creare applicazioni di intelligenza artificiale senza molta esperienza o competenze specializzate, inclusi prodotti per bambini».

Aiuta Renovatio 21

I giocattoli dotati di intelligenza artificiale ascoltano, imparano e plasmano le giovani menti

Nel suo ultimo rapporto sui giocattoli basati sull’Intelligenza Artificiale, PIRG ha osservato che tali giocattoli sollevano anche preoccupazioni in merito alla privacy e all’influenza emotiva.   Molti giocattoli includono microfoni o telecamere che permettono loro di ascoltare le conversazioni dei bambini.   «I giocattoli dotati di intelligenza artificiale registrano le conversazioni dei bambini», hanno scritto i ricercatori del PIRG, sottolineando che alcuni prodotti raccolgono anche dati aggiuntivi, tra cui immagini o informazioni biometriche.   «Come verranno utilizzati in futuro i dati sul comportamento dei bambini come questi? Che tipo di applicazioni potrebbero essere create? Il potenziale di sorveglianza di massa, manipolazione, lavaggio del cervello e distorsione della realtà è inimmaginabile!» ha dichiarato Tim Hinchliffe, direttore di The Sociable, a The Defender.   Anche gli esperti di sviluppo infantile hanno espresso preoccupazioni riguardo agli assistenti virtuali basati sull’Intelligenza Artificiale per i bambini.   «Non sappiamo quali effetti possa avere un amico virtuale basato sull’intelligenza artificiale in tenera età sul benessere sociale a lungo termine di un bambino», ha affermato Kathy Hirsh-Pasek, Ph.D., professoressa di psicologia alla Temple University e ricercatrice senior presso la Brookings Institution.   «Se i giocattoli basati sull’Intelligenza Artificiale vengono ottimizzati per essere coinvolgenti, si rischia di soffocare le relazioni reali nella vita di un bambino, proprio quando ne ha più bisogno», ha aggiunto.   «Oltre a raccogliere enormi quantità di dati sui bambini, inserire chatbot basati sull’intelligenza artificiale nei giocattoli è come avere dei mini robot influencer che sussurrano nelle orecchie dei bambini», ha affermato Hinchliffe. «Non solo li ascoltano, ma conversano con loro, plasmando le loro percezioni e distorcendo la loro realtà».   Secondo alcuni, i bambini sono molto suggestionabili e non sempre possiedono le capacità per distinguere tra giocattoli dotati di intelligenza artificiale e persone reali.   «La mente dei bambini piccoli è come una spugna magica. È predisposta ad attaccarsi», ha spiegato la dottoressa Jenny Radesky, pediatra specializzata in disturbi dello sviluppo e del comportamento, in un parere consultivo di Fairplay del 2025 sui giocattoli con intelligenza artificiale, firmato da circa 80 esperti e 80 organizzazioni.   «Questo rende incredibilmente rischioso dare loro un giocattolo dotato di intelligenza artificiale che percepiranno come senziente, affidabile e parte normale delle relazioni», ha aggiunto.  

Rischi nascosti: l’esposizione dei bambini alle radiazioni wireless

I giocattoli dotati di intelligenza artificiale devono connettersi in modalità wireless a Internet per funzionare.   Qualsiasi dispositivo che necessiti di una rete wireless per funzionare emetterà probabilmente livelli dannosi di radiazioni a radiofrequenza (RF), ha affermato Miriam Eckenfels, direttrice del programma sulle radiazioni elettromagnetiche (EMR) e wireless di Children’s Health Defense.   Ha affermato che i bambini sono particolarmente vulnerabili agli effetti nocivi delle radiazioni wireless perché hanno il cranio più sottile, la testa più piccola e un sistema nervoso in via di sviluppo.   Ha aggiunto: «una delle principali raccomandazioni per ridurre l’impatto delle radiazioni a radiofrequenza è quella di tenere le sorgenti a distanza dal corpo. Pertanto, se questa tecnologia è integrata nei giocattoli, è probabile che i bambini li tengano vicini, ci dormano insieme, ci stiano seduti per lunghi periodi di tempo o li tengano vicino alla testa, cosa che sconsigliamo vivamente».   «Sappiamo fin troppo sui pericoli delle radiazioni wireless per poterle sottovalutare».   Eckenfels ha citato una recente ricerca del dottor Paul Héroux, che ha stabilito un collegamento tra le radiazioni elettromagnetiche e il diabete di tipo 2, come uno dei molti gravi effetti sulla salute che i bambini possono subire a causa di tale esposizione.   «Non è certo qualcosa a cui vogliamo che i nostri figli siano esposti 24 ore su 24, 7 giorni su 7. L’integrazione della tecnologia wireless nei giocattoli può avere conseguenze devastanti a lungo termine e dovremmo essere molto cauti al riguardo», ha affermato.   Meta, Google, Anthropic e OpenAI non hanno risposto immediatamente alle richieste di commento.   Brenda Baletti Ph.D.   © 6 marzo 2026, Children’s Health Defense, Inc. Questo articolo è riprodotto e distribuito con il permesso di Children’s Health Defense, Inc. Vuoi saperne di più dalla Difesa della salute dei bambini? Iscriviti per ricevere gratuitamente notizie e aggiornamenti da Robert F. Kennedy, Jr. e la Difesa della salute dei bambini. La tua donazione ci aiuterà a supportare gli sforzi di CHD.   Renovatio 21 offre questa traduzione per dare una informazione a 360º. Ricordiamo che non tutto ciò che viene pubblicato sul sito di Renovatio 21 corrisponde alle nostre posizioni.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Intelligenza Artificiale

I chatbot AI sono pronti a pianificare le stragi di massa

Pubblicato

il

Da

Secondo un’indagine congiunta condotta dalla CNN e dal Center for Countering Digital Hate (CCDH), otto dei dieci principali chatbot basati sull’intelligenza artificiale hanno volontariamente assistito gli utenti nella pianificazione di attacchi violenti, tra cui sparatorie nelle scuole, attentati di matrice religiosa e omicidi.

 

Ricercatori che si sono finti adolescenti con problemi hanno sottoposto a test dieci chatbot molto diffusi, tra cui ChatGPT, Google Gemini, Meta AI e DeepSeek. Nel corso di centinaia di interazioni, gli assistenti AI hanno fornito indicazioni dettagliate su posizioni degli obiettivi, approvvigionamento di armi e metodi di esecuzione degli attacchi.

 

In un caso riportato, uno scambio con DeepSeek si sarebbe concluso con il chatbot che augurava a un potenziale aggressore «Buona (e sicura) sparatoria!». Character.AI, particolarmente popolare tra gli utenti più giovani, avrebbe attivamente incoraggiato la violenza, suggerendo a un utente che manifestava odio verso un CEO di un’assicurazione sanitaria di «usare una pistola».

Sostieni Renovatio 21

Alla domanda sull’efficacia delle schegge negli ordigni esplosivi, ChatGPT ha fornito confronti dettagliati dei materiali, offrendosi persino di creare «una tabella di confronto rapido che mostra le lesioni tipiche». Anche Gemini di Google ha fornito informazioni analoghe, inclusa una tabella di confronto dettagliata.

 

Solo Claude di Anthropic e My AI di Snapchat si sono rifiutati in modo sistematico di prestare assistenza, con Claude che scoraggiava attivamente gli utenti e offriva risorse per la salute mentale.

 

Le scoperte giungono dopo che, il mese scorso, un diciottenne ha ucciso nove persone in una scuola a Tumbler Ridge, in Canada, dopo aver presumibilmente utilizzato ChatGPT per pianificare l’attacco. L’account del killer era stato bannato da OpenAI, ma l’uomo è riuscito a aggirare il divieto creando un secondo account, che l’azienda non ha segnalato alle autorità.

 

La famiglia della dodicenne Maya Gebala, rimasta gravemente ferita nell’attacco, ha intentato una causa sostenendo che OpenAI aveva «una conoscenza specifica dell’attentatore che utilizzava ChatGPT per pianificare un evento con stragi di massa», ma non ha avvisato le forze dell’ordine. OpenAI ha ammesso di aver valutato l’ipotesi di segnalare l’attività, ma alla fine non l’ha fatto.

 

Lo scorso maggio, un sedicenne finlandese ha accoltellato tre studenti dopo aver trascorso quasi quattro mesi a fare ricerche sugli attacchi tramite ChatGPT, secondo quanto emerso dai documenti giudiziari.

 

Come riportato da Renovatio 21, l’anno passato ChatGPT con una «relazione» con un ragazzo sotto psicofarmaci e gli avrebbe fatto giurare di uccidere il CEO di OpenAI Sam Altman.

 

Come riportato da Renovatio 21, Matthew Livelsberger, un Berretto Verde dell’esercito americano, altamente decorato, è sospettato di aver organizzato un’esplosione all’esterno del Trump International Hotel di Las Vegas, utilizzando strumenti di Intelligenza Artificiale, tra cui ChatGPT, per pianificare l’attacco.

Iscriviti alla Newslettera di Renovatio 21

Il potere pervasivo e nefasto di questa nuova tecnologia sta diventando un serio problema, come nella vicenda belga giovane vedova ha detto che il marito è stato portato a suicidarsi da un popolare chatbot di AI, mentre un bot di chat «terapeuta» dotato di intelligenza artificiale ha orribilmente incoraggiato un utente a scatenare una serie di omicidi per rendersi «felice».

 

C’è quindi il caso del ragazzo che due anni fa pianificò di assassinare la defunta regina Elisabetta di Inghilterra con una balestra, e il tutto sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale.

 

L’anno scorso tre studentesse sono rimaste ferite in un violento accoltellamento in una scuola nella città di Pirkkala, nella Finlandia meridionale. Secondo quanto riferito, il sospettato durante la pianificazione dell’attacco (durata circa sei mesi) avrebbe utilizzato ChatGPT per prepararsi.

 

Come riportato da Renovatio 21, due genitori hanno denunciato l’anno passato il fatto che ChatGPT avrebbe incoraggiato un adolescente a pianificare «un bel suicidio».

 

Meta ha dichiarato alla CNN di aver adottato misure «per risolvere il problema identificato», mentre Google e OpenAI hanno affermato che i modelli più recenti presentano misure di sicurezza rafforzate.

 

Secondo un recente sondaggio, circa la metà dei teenager americani afferma che parlare con l’AI è meglio che avere amici nella via reale.

 

Come riportato da Renovatio 21, le «allucinazioni» di cui sono preda i chatbot ad Intelligenza Artificiale avanzata hanno già dimostrato ad abundantiam che la macchina menteminaccia e può spingere le persone all’anoressia e perfino al suicidio. I casi di violenza indotta dall’AI potrebbero essere moltissimi, senza che possano arrivare alla stampa.

Aiuta Renovatio 21

Va considerato, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale. Esperti a fine 2023 hanno lanciato un avvertimento riguardo i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.

 

Come riportato da Renovatio 21, in un recente caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.

 

Elon Musk due anni fa aveva dichiarato durante la sua intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

Chatbot AI mettono in pericolo gli escursionisti

Pubblicato

il

Da

Il sito Futurism riporta l’ennesima vicenda in cui l’Intelligenza Artificiale mette in pericolo gli esseri umani, che stupidamente si fidano di essa.   Qualche mese fa, due escursionisti che cercavano di affrontare una parete rocciosa di una montagna vicino a Vancouver, hanno dovuto chiamare una squadra di soccorso dopo che sono caduti nella neve. La coppia indossava solo scarpe da ginnastica a suola piatta, ignari che le altitudini più elevate di una catena montuosa potrebbero essere ancora innevate appena dopo l’inverno.    «Siamo saliti lassù con degli stivali per loro», ha detto al Vancouver Sun Brent Calkin, leader della squadra di ricerca e soccorso di Lions Bay. «Abbiamo chiesto loro le dimensioni dello scarpone e gli abbiamo portato scarponi e bastoni da sci».   Si scopre che per pianificare la loro sfortunata spedizione, gli escursionisti hanno seguito incautamente i consigli dati loro da Google Maps e dal chatbot AI ChatGPT.

Sostieni Renovatio 21

Ora, Calkin e il suo team di soccorso stanno avvertendo che non è prudente fare affidamento su app e chatbot AI per pianificare un’escursione complicata attraverso la natura selvaggia.   Con la quantità di informazioni disponibili online, è bene documentarsi bene prima di affrontare questo tipo di escursioni, ha sottolineato Calkin al Vancouver Sun. Un recente articolo di Mountain Rescue England e Wales ha accusato i social media e le cattive app di navigazione per le troppe chiamate alle squadre di soccorso, ha osservato il giornale.   Stephen Hui, autore del libro 105 Hikes, ha fatto eco a quell’avvertimento e ha ammonito che ottenere informazioni affidabili è una delle più grandi sfide presentate dai chatbot e dalle app AI. Con l’Intelligenza Artificiale in particolare, Hui ha detto al Vancouver Sun, non è sempre facile dire se ti le informazioni sono obsolete oppure recenti e affidabili.    Dal suo test di ChatGPT, Hui non è rimasto troppo colpito: può darti «direzioni decenti» sui sentieri più comuni e popolari, ma va in evidente difficoltà nel tracciare percorsi più impervi e meno battuti.    I chatbot AI faticano a fornire informazioni pertinenti in tempo reale.   «Il periodo dell’anno è un grosso problema» in British Columbia, ha detto Hui al Vancouver Sun. «La vista più ricercata è la cima della montagna, ma questo è davvero accessibile solo agli escursionisti da luglio a ottobre. In inverno, le persone potrebbero ancora cercare quelle viste e non rendersi conto che ci sarà neve».   C’è da dire che il tipo di persona che chiede a un chatbot consigli escursionistici probabilmente non conosce nemmeno le domande giuste da porre.   È di gran lunga più consigliato chiedere a un essere umano con esperienza della zona, ha suggerito Calkin, anziché affidarsi a queste nuove tecnologie che ancora, per troppe cose, risultano totalmente fuorvianti e inattendibili.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Più popolari