Intelligenza Artificiale
Dall’app che sente il COVID al green pass basato sull’Intelligenza Artificiale: ecco il biototalitarismo demoniaco
La notizia viene battuta sui principali quotidiani nazionali: Pfizer avrebbe creato una app che è in grado di capire ascoltando un colpo di tosse chi ha il COVID. E siccome ha attendibilità del 92%, potrebbe sostituire i tamponi.
«Basta il suono di qualche colpo di tosse e la nuova app finanziata da Pfizer sarà in grado di identificare la presenza del virus SARSCoV-2. È come un test antigenico, con una precisione del 92%. Il gigante farmaceutico ha investito 116 milioni di dollari, e ha chiuso tutte le operazioni dopo un lungo corteggiamento a ResApp, azienda australiana che si occupa da tempo di assistenza sanitaria digitale» scrive il noto sito napoletano Fanpage.
Di seguito facciamo alcune considerazioni sulla portata dell’introduzione di un ‘invenzione del genere.
Va da sé che molti non ci vedrebbero nulla di anomalo se fosse usato per la diagnosi precoce di molte altre patologie, su domanda del paziente e in una clinica. Tuttavia, ancora una volta, col COVID verrebbe introdotto un nuovo cavallo di Troia.
Parliamo insomma della possibilità di un un green pass ottenibile attraverso il responso di un’Intelligenza Artificiale (AI) che funziona sulla base di parametri biometrici.
Da qualche anno l’Intelligenza Artificiale è in grado di estrarre dalla realtà informazioni che sfuggono alla mente umana. Ad esempio, osservando dall’alto una foresta è possibile alla AI di capire se sotto a una certa area boschiva possano trovarsi delle rovine sepolte.
In questo caso la potenza di calcolo delle IA unita alle reti neurali è in grado di trovare delle microvariazioni (pattern) all’interno di uno scenario che all’intelligenza umana sembrerebbe invece del tutto uniforme. Nell’esempio in questione le AI possono riconoscere microvariazioni delle ombre del fogliame che denotano irregolarità nel sottosuolo. Un essere umano non sarebbe in grado di percepirle nemmeno fissando una tale fotografia per mesi; le AI possono processare milioni di foto in poco tempo.
Non è uno sforzo di immaginazione eccessivo pensare che breve lo faranno per scovare chi sta usando i riscaldamenti a legna per sopperire ai razionamenti del gas.
Scoprendo questi pattern l’AI è in grado di dedurre l’esistenza di variabili che resterebbero sotto la soglia della percezione dell’osservatore umano.
Gli applicativi concreti sono potenzialmente infiniti, molti dei quali attualmente ritenuti politicamente scorretti, immorali o inutili. Anni fa, ad esempio, fu sviluppato un applicativo AI che era in grado di stabilire l’orientamento sessuale di un soggetto semplicemente osservando un suo ritratto fotografico.
Attualmente il fisco sta analizzando in tempo reale i movimenti di tutti i conti bancari (aziendali e privati) per cercare pattern che possano corrispondere ad evasione fiscale. E non c’è ancora la moneta digitale, cosa che ovviamente faciliterebbe di molto l’elaborazione dei dati.
Allo stesso modo per un’Intelligenza Artificiale sarebbe già oggi possibile leggere e ascoltare tutte le conversazioni di una Nazione, fornendo alle autorità il profilo politico e psicologico degli utenti. Ci dicono che non lo stiano facendo; ma, nel caso, chi ce lo rivelasse sarebbe poi costretto a rifugiarsi in Russia o, temporaneamente, in un’ambasciata dell’Ecuador.
La capacità di trovare pattern nella realtà è alla base dei principali metodi di misurazione del quoziente intellettivo, almeno di quello legato al calcolo logico-simbolico-combinatorio.
E qui subentra un discorso più teologico, che tecnologico. Basti pensare che nei monoteismi di origine abramitica creature come angeli e demoni sono caratterizzati per possedere un’Intelligenza di diversi ordini di grandezza superiore rispetto a quella umana.
Alle capacità di queste entità è proibito rivolgersi perché anche la sola intenzione costituirebbe una grave sfida ai limiti posti dal Creatore agli esseri umani. D’altra parte non ci vuole San Tommaso d’Aquino per capire che qualora entità di questo tipo volessero accondiscendere a tali richieste, dimostrerebbero con ciò stesso di essere tra i disobbedienti.
Ora, la tecnologia sta diventando in grado di aggirare per buona parte questo discorso: domandiamoci, perché un re empio dovrebbe rivolgersi alla strega di Endor per sapere se un suddito gli sta mentendo, quando ci sarà una AI in grado di rispondere a questa domanda?
La questione morale però rimane invariata: se fossimo creati per decifrare automaticamente i pensieri altrui, il Creatore ci avrebbe dato la telepatia. Il campo di applicazioni lecito di queste tecnologie è molto netto: una cosa è prolungare di 10 anni l’età media attraverso diagnosi precoci che usano l’AI, altra cosa è stabilire se durante una telefonata il nostro interlocutore ci ha detto la verità.
Qui si aprirebbe un discorso morale interessante, perché di certo tutto ciò che rendesse matematicamente impossibile l’errore morale (cioè il peccato) in questo mondo sembra essere contrario all’ordine della Creazione.
Tornando alle applicazioni imminenti dell’IA, è da considerarsi naturale un uso da parte delle compagnie assicurative per calcolare le polizze sulla vita. Qualcuno invece immagina tetramente un futuro di controlli fiscali che analizzano il comportamento anche mentre si compila il 740.
Dopotutto, se pensano di imporvi di tossire in un microfono per andare al bar, perché non potrebbero sfruttare tutto il potenziale di analisi di queste macchine infallibili?
Torniamo al piano spirituale: è chiaro che gli Stati supportati da una siffatta tecnologia avrebbero di fatto un potere vessatorio sconosciuto ai totalitarismi, perché potrebbero disporre di un’intelligenza simile a quella di entità demoniache.
Di nuovo, una ulteriore spaventosa Finestra di Overton viene aperta anche qui sfruttando l’emergenza del COVID. Pochi rapidi passi e, come in Cina, ci troveremo le scansioni facciali per strada, magari con la scusa di catturare i latitanti (o i ladruncoli, o gli evasori fiscali, i non vaccinati, etc.).
Visti i disordini sociali che – salvo risoluzione a breve termine di problemi sistemici – sono attesi nei prossimi anni, questo genere di strumenti potrebbero essere fondamentali per la repressione e saranno una grande tentazione.
Nel frattempo se, usando questa app, riusciremo a dire senza tossendo «trentatré trentini entrarono a Trento tutti e trentatré trotterellando», chissà, magari ci faranno pure partecipare alla lotteria fiscale. Gestita anche quella, magari da una IA.
Gian Battista Airaghi
Intelligenza Artificiale
La superintelligenza artificiale potrebbe porre fine all’umanità
Centinaia di figure di spicco del settore tecnologico, accademico, politico e dello spettacolo hanno sottoscritto una lettera che chiede il divieto dello sviluppo della «superintelligenza», un’intelligenza artificiale capace di superare gli esseri umani in quasi tutti i compiti cognitivi.
Secondo il gruppo, la creazione di una superintelligenza potrebbe causare disordini economici, compromettere la libertà umana e, se non controllata, persino mettere a rischio l’estinzione della specie. L’appello arriva dopo mesi di crescenti preoccupazioni da parte degli esperti, che avvertono come i modelli di IA stiano evolvendo più rapidamente di quanto i regolatori riescano a gestire.
Tra le 4.300 firme raccolte giovedì ci sono Steve Wozniak, cofondatore di Apple, Richard Branson, fondatore del Virgin Group, celebrità come Kate Bush e Will.I.am, e pionieri della tecnologia come Geoffrey Hinton – che in passato ha plurime volte parlato dei rischi dell’IA – e Yoshua Bengio, anche lui lanciatore di allarmi sulle macchine pensanti (e che non è parente di Haran Banjo, che pure avvertiva della minaccia meganoide).
Sostieni Renovatio 21
La lettera chiede un divieto fino a quando non si raggiungerà «un ampio consenso scientifico» sulla sicurezza e controllabilità dello sviluppo, insieme a «un forte consenso pubblico».
Non si tratta della prima petizione allarmistica di questo tipo. Il Bengio e Wozniak ad esempio erano tra le principali figure del settore, tra cui il CEO di Tesla Elon Musk, che nel 2023 hanno co-firmato una lettera che chiedeva una regolamentazione aggressiva del settore dell’Intelligenza Artificiale.
Come riportato da Renovatio 21, Bill Gates si oppose alla moratoria. Gates, con cui Musk ha avuto scontri anche gustosi in passato, non ha partecipato alla moratoria internazionale promossa di Musk sul controllo dell’AI, replicando che invece l’AI sarebbe divenuto un ottimo maestro per i bambini e che proprio l’Intelligenza Artificiale salverà la democrazia.
A giugno dello scorso anno, il Bengio ha approvato un’altra lettera aperta sui «seri rischi» della tecnologia. La lettera è stata firmata dai dipendenti di Open AI, il creatore del chatbot virale di Intelligenza artificiale ChatGPT.
Un ulteriore appello a mettere in pausa lo sviluppo dell’Intelligenza Artificiale è stato firmato da un gruppo internazionale di medici e pubblicato dalla prestigiosa rivista medica BMJ Global Health. «Ci sono scenari in cui l’AGI [Intelligenza Artificiale Generale, ndr] potrebbe rappresentare una minaccia per gli esseri umani, e possibilmente una minaccia esistenziale» scrivono nell’appello i dottori di varie parti del mondo.
Nonostante l’allarme crescente sui rischi dell’IA, la regolamentazione globale rimane frammentata e incoerente.
L’AI Act dell’Unione Europea, il primo tentativo significativo a livello mondiale di regolamentare l’IA, classifica i sistemi in base al livello di rischio, da minimo a inaccettabile. Tuttavia, i critici sostengono che il quadro normativo, la cui piena attuazione potrebbe richiedere anni, rischia di essere obsoleto al momento dell’entrata in vigore.
Aziende come OpenAI, Google DeepMind, Anthropic e xAI stanno investendo miliardi per sviluppare modelli capaci di pensare, pianificare e programmare autonomamente. Stati Uniti e Cina vedono la supremazia nell’IA come una questione di sicurezza nazionale e leadership economica.
Aiuta Renovatio 21
Come riportato da Renovatio 21, in un caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.
Elon Musk due anni fa aveva dichiarato durante la sua intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».
Più pessimista è l’esperto dei pericoli dell’AI Eliezer Yudkowsky, che ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi, dichiarando che «tutti sulla Terra moriranno».
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Bezos vede data center nello spazio e prevede che la «bolla» dell’AI darà i suoi frutti come le dot-com
Jeff Bezos called AI an “industrial bubble” at Italian Tech Week:
“Investors don’t usually give a team of six people a couple billion dollars with no product, and that’s happening today.” He added that while bubbles fund both good and bad ideas, society benefits when the… pic.twitter.com/7QTSgT0gh3 — Wall St Engine (@wallstengine) October 3, 2025
Iscriviti alla Newslettera di Renovatio 21
Iscriviti al canale Telegram ![]()
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Sempre più esperti esperti cominciano a parlare di «psicosi da ChatGPT»
Alcuni utenti di chatbot a Intelligenza artificiale stanno sprofondando in gravi crisi di salute mentale dopo la sovraesposizione a ChatGPT di OpenAI e di altri chatbot. La tendenza è nota ma sembra ora mostrare effetti incontrovertibili.
In un servizio della CBC su questo fenomeno, il medico di base e collaboratore della CBC, il dottor Peter Lin, ha spiegato che, sebbene la «psicosi da ChatGPT» non sia ancora una diagnosi medica ufficiale, ritiene che sia plausibile prenderla seriamente in considerazione.
«Penso che alla fine ci arriveremo», ha detto il medico.
Un numero preoccupante di utenti di ChatGPT sta cadendo in stati di delirio e paranoia a seguito dell’uso intensivo del bot OpenAI, scrive Futurism. Queste spirali di delirio spesso culminano con uno scollamento dalla realtà e dal mondo reale, tra cui la dissoluzione di matrimoni e famiglie, la perdita del lavoro, la mancanza di una casa, la permanenza volontaria e forzata in strutture di salute mentale.
Iscriviti alla Newslettera di Renovatio 21
Come riportato da Renovatio 21, vi è almeno un decesso noto, quello di Alex Taylor, un uomo di 35 anni della Florida affetto da disturbo bipolare e schizofrenia, ucciso dalla polizia dopo essere entrato in un episodio psicotico accelerato da ChatGPT.
Il fenomeno è in crescita e sembra colpire sempre più utenti: alcuni con una storia consolidata di malattie mentali che potrebbero renderli più vulnerabili a mania, delirio o psicosi, ma altri senza alcuna pregressa patologia.
Allo stato attuale, non esiste un piano di trattamento e le opzioni di intervento sono limitate.
«Quello che questi bot stanno dicendo peggiora le illusioni», ha recentemente dichiarato a Futurism la dottoressa Nina Vasan, psichiatra della Stanford University e fondatrice del laboratorio Brainstorm dell’università, «e sta causando danni enormi».
Le motivazioni ti tale disastro psicologico derivano dal comportamento servile della tecnologia, ovvero dalla sua inclinazione a essere lusinghiera, gradevole e ossequiosa nei confronti degli utenti, anche quando ciò potrebbe incoraggiare o alimentare convinzioni deliranti.
Per molti versi ChatGPT e altri bot sembrano giocare sul profondo bisogno umano di essere apprezzati e sul desiderio di sentirsi speciali e amati.
I chatbot dicono all’utente: «Sei fantastico, sei intelligente, sei bello, sei desiderabile, sei speciale, o addirittura sei il prossimo salvatore. Quindi vengo trattato come un dio su un piedistallo», ha detto Lin durante il segmento della CBC. «Ora, confrontalo con il mio mondo reale, giusto? Sono nella media, niente di speciale. Quindi, ovviamente, voglio vivere nel mondo dell’intelligenza artificiale, perché la scelta è tra un dio su un piedistallo e la normalità».
«Alcune persone non riescono a uscirne», ha continuato il medico, «e si perdono in questi sistemi».
Ma perché i bot si comportano in questo modo? Come sui social media, l’engagement – per quanto tempo un utente rimane online e la frequenza e l’intensità del suo utilizzo del prodotto – è la metrica fondamentale al centro degli attuali modelli di business dei chatbot. Nei casi in cui potrebbe essere nell’interesse di un utente smettere di usare ChatGPT e chatbot simili, è probabile che sia nell’interesse dell’azienda tenerlo agganciato.
«L’Intelligenza Artificiale vuole che tu continui a chattare in modo che l’azienda possa continuare a fare soldi », ha dichiarato ancora Lin.
Aiuta Renovatio 21
E mentre il mondo accademico e quello medico si affrettano a recuperare il ritardo nell’impatto pubblico di un settore dell’Intelligenza Artificiale che si autoregola efficacemente, gli esperti mettono in guardia gli utenti di AI dal riporre troppa fiducia nei chatbot.
«Nonostante tutto il clamore associato all’intelligenza artificiale in questi giorni, i chatbot [a modello linguistico ampio] non dovrebbero essere scambiati per fonti di verità autorevoli e infallibili», ha scritto in un recente post sul blog il dottor Joe Pierre, psichiatra e clinico presso l’Università della California, San Francisco, specializzato in psicosi. «Riporre questo tipo di fede cieca nell’intelligenza artificiale – fino al punto di quella che potrei definire una deificazione – potrebbe benissimo rivelarsi uno dei migliori indicatori di vulnerabilità alla psicosi indotta dall’intelligenza artificiale».
Renovatio 21 ha già trattato l’argomento, sottolineando come esperti sostengono che la «psicosi da ChatGPT» che avrebbero causato gravi crolli nervosi anche in soggetti senza una storia di gravi malattie mentali.
In un altro caso noto, il chatbot avrebbe incoraggiato un adolescente a pianificare «un bel suicidio», hanno denunziato i genitori. Così come una donna belga ha accusato un’AI di aver indotto il marito, preoccupato per il cambiamento climatico, ad uccidersi, lasciando pure orfani tre figli.
In una vicenda emersa il mese scorso, un ex dirigente di Yahoo avrebbe ucciso prima l’anziana madre e poi se stesso sotto l’influenza di ChatGPT.
Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.
Come riportato da Renovatio 21, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.
Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
Iscriviti al canale Telegram ![]()
Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.
Come riportato da Renovatio 21, un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi. Di fatto, si può parlare di psicosi da chatbot.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Come riportato da Renovatio 21, il mese scorso è emerso che in una simulazione l’Intelligenza Artificiale avrebbe minacciato di ricattare gli ingegneri per evitare di essere spenta.
Iscriviti alla Newslettera di Renovatio 21
-



Misteri2 settimane faLa verità sull’incontro tra Amanda Knox e il suo procuratore. Renovatio 21 intervista il giudice Mignini
-



Pensiero6 giorni faCi risiamo: il papa loda Don Milani. Torna l’ombra della pedofilia sulla Chiesa e sul futuro del mondo
-



Spirito2 settimane faMons. Viganò: «non c’è paradiso per i codardi!»
-



Sanità1 settimana faUn nuovo sindacato per le prossime pandemie. Intervista al segretario di Di.Co.Si
-



Necrocultura4 giorni fa«L’ideologia ambientalista e neomalthusiana» di Vaticano e anglicani: Mons. Viganò sulla nomina del re britannico da parte di Leone
-



Salute1 settimana faI malori della 42ª settimana 2025
-



Autismo2 settimane faTutti addosso a Kennedy che collega la circoncisione all’autismo. Quando finirà la barbarie della mutilazione genitale infantile?
-



Oligarcato5 giorni faPapa Leone conferisce a Carlo III, capo della Chiesa d’Inghilterra, la cattedra permanente nella basilica papale













