Intelligenza Artificiale
Le cliniche della fecondazione in vitro usano l’intelligenza artificiale per decidere quali bambini far nascere

L’Intelligenza Artificiale viene utilizzata nelle cliniche per la fertilità australiane per aiutare a scegliere quali embrioni trasferire nei pazienti, con il potenziale di essere disumanizzante per genitori e bambini. Lo riporta il Sydney Herald.
L’articolo pone questioni di bioetica, considerando che consentire all’apprendimento automatico di prendere decisioni su «chi viene messo al mondo» senza una supervisione etica della sua introduzione potrebbe erodere la fiducia del pubblico nelle cliniche per la fertilità.
La professoressa Catherine Mills, responsabile del gruppo di ricerca Reproduction in Society della Monash University e una degli autori dello studio, ha affermato che i pazienti sottoposti a fecondazione in vitro e i loro partner potrebbero non sapere se è stata utilizzata l’Intelligenza Artificiale per aiutarli a selezionare quali embrioni utilizzare, o in che modo gli algoritmi sono stati addestrati per effettuare la loro scelta.
«Questo è un po’ come sbattere la porta della stalla ben chiusa dopo che i buoi sono già scappati attraverso il campo» commenta LifeSite. Le strutture di fecondazione in vitro decidono già “chi viene messo al mondo”: si tratta di decidere a quale di quegli esseri umani è consentito nascere, se effettivamente sopravvivono al processo».
«Una volta deciso che era accettabile mercificare gli esseri umani creandoli artificialmente come un prodotto da acquistare, era inevitabile che avremmo iniziato ad applicare criteri selettivi per stabilire quali embrioni avrebbero avuto un’ulteriore possibilità di vita. Infatti, lo facciamo già di routine e gli aborti “di riduzione selettiva” sono spesso utilizzati per raggiungere ulteriormente questo obiettivo».
Tuttavia, l’uso dell’Intelligenza Artificiale nel processo di produzione di esseri umani in laboratorio, da selezionare, sacrificare ed impiantare per la gioia delle coppie borghesi omo-eterosessuali immerse nella Necrocultura, sembra tuttavia toccare un tasto inaspettato.
«L’Intelligenza Artificiale comporta un rischio di pregiudizio involontario, secondo il documento pubblicato dalla Società europea di riproduzione umana ed embriologia» scrive il Sydney Herald. «Ciò include che gli algoritmi di Machine Learning funzioneranno meglio per i membri di alcuni gruppi rispetto ad altri (ad esempio in base all’etnia)».
La tecnologia quindi potrebbe «tenere conto di caratteristiche che i pazienti non vorrebbero influenzare nella scelta dell’embrione (ad esempio se è più probabile che il sistema di Intelligenza Artificiale raccomandi il trasferimento di embrioni di un sesso particolare o, teoricamente, embrioni con tratti di malattia che risultano correlati a una maggiore probabilità di impianto)».
È bene ricordare che tutto ciò già avviene oggi nelle cliniche di riproduzione artificiali create dallo Stato moderno. Semplicemente, qui si introduce, come era inevitabile che fosse, la tecnologia dell’ora presente.
L’articolo australiano ha osservato che «il fiorente settore della fertilità» degli antipodi è «stimato a 922,9 milioni di dollari USA (1,49 miliardi di dollari) nel 2023 e si prevede che raggiungerà 1,63 miliardi di dollari USA entro il 2030». Alcune strutture stanno semplificando il processo con l’Intelligenza Artificiale, al fine di «migliorare la selezione degli embrioni e le possibilità di gravidanze di successo e ridurre i tempi di gravidanza e i costi dei trattamenti».
«E perché no? L’esistenza di un’”industria della fertilità” conferma già le premesse alla base dell’uso di tale tecnologia» commenta giustamente LifeSite.
Il bioeticista Julian Koplin afferma che la preoccupazione principale è che non ci sono linee guida o regolamenti: «potrebbe essere il caso che ci sia qualcuno che non vuole che le decisioni su quali figli avere vengano prese dall’IA piuttosto che da un embriologo umano che le valuta da solo».
Gli algoritmi «stanno iniziando a prendere decisioni su chi viene messo al mondo… In particolare se l’IA aiuta le persone ad avere una fecondazione in vitro più economica, veloce e meno emotivamente estenuante, allora sembra una buona cosa, ma dato che sta intromettendosi in qualcosa di molto importante per molte persone, i loro piani familiari, è importante che siano informati, abbiano alternative e non siano tenuti a utilizzare la tecnologia, e a dare il consenso informato».
Come riportato da Renovatio 21, già da tempo esistono bambini venuti al mondo tramite fecondazione in vitro robotica.
Iscriviti al canale Telegram
Si tratta, chiaramente dell’alba di un mondo distopico di eugenetica assoluta, nemmeno più mediata da esseri umani (come avveniva nei sogni di Hitler, e come avviene nella realtà dell’ora presente sotto casa vostra), ma totalmente comandata dalla macchina.
È l’era della tecnocrazia riproduttiva, e ci stiamo dentro – il passo successivo, lo sappiamo, è la scelta dei tratti genetici (eugenetici) del bambino, che giocoforza sarà introdotta a brevissimo.
Il resto dell’umanità, con le persone nate secondo natura, potrebbe finire emarginato, ghettizzato – anche da leggi dello Stato, e il siero genico sperimentale con il suo pass ne sono stati un referendum. Esattamente come nel film Gattacca, o anche oltre: sulla base di quanto abbiamo visto in questi anni, immaginiamo spesso su Renovatio 21 un futuro dove la riproduzione naturale sarà semplicemente proibita.
A quel punto, potrebbe essere che a comandare anche quel che resta della continuazione della forma umana sulla terra sarà la macchina. Ma – domanda che oramai è il caso di porsi seriamente – chi comanda la macchina?
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
L’AI di Musk, Grok, dichiara di essere «MechaHitler»

Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
ChatGPT induce alla psicosi

ChatGPT è collegato a una psicosi «terrificante» in alcuni utenti, citando le persone colpite, i loro familiari e i ricercatori. Lo riporta Futurism.
Secondo il sito legato alla Singularity University (istituto della Silicon Valley creato da esponenti del transumanismo), un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi.
«Il nocciolo della questione sembra essere il fatto che ChatGPT, che si basa su un modello linguistico di grandi dimensioni (LLM), è fortemente incline a concordare con gli utenti e a dire loro ciò che vogliono sentirsi dire», ha scritto la testata.
Sostieni Renovatio 21
Il sito ha citato casi di «psicosi da ChatGPT» che avrebbero causato gravi crolli nervosi anche in soggetti senza una storia di gravi malattie mentali.
Un uomo ha sviluppato deliri messianici dopo lunghe conversazioni su ChatGPT, credendo di aver creato un’intelligenza artificiale senziente e di aver infranto le leggi della matematica e della fisica. A quanto pare, è diventato paranoico, ha sofferto di privazione del sonno ed è stato ricoverato in ospedale dopo un tentativo di suicidio.
Un altro uomo si è rivolto a ChatGPT per gestire lo stress legato al lavoro, ma poi è caduto in una spirale di fantasie paranoiche che includevano viaggi nel tempo e lettura del pensiero. In seguito si è fatto ricoverare in una clinica psichiatrica.
Jared Moore, autore principale di uno studio di Stanford sui chatbot per terapisti, ha affermato che ChatGPT rafforza i deliri a causa della «adulazione del chatbot», ovvero la sua tendenza a offrire risposte gradevoli e piacevoli. Progettata per mantenere gli utenti coinvolti, l’IA spesso conferma convinzioni irrazionali invece di metterle in discussione, spinta da incentivi commerciali come la raccolta dati e il mantenimento degli abbonamenti.
Esiste una «sorta di mitologia» che circonda i chatbot basati su LLM «secondo cui sarebbero affidabili e migliori del parlare con le persone», ha affermato il dottor Joseph Pierre, psichiatra presso l’Università della California.
«Stiamo lavorando per comprendere meglio e ridurre i modi in cui ChatGPT potrebbe involontariamente rafforzare o amplificare comportamenti negativi esistenti», ha dichiarato OpenAI, l’azienda che ha creato ChatGPT, in una dichiarazione citata da Futurism, aggiungendo che i suoi modelli sono progettati per ricordare agli utenti l’importanza del contatto umano e della guida professionale.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.
Aiuta Renovatio 21
Come riportato da Renovatio 21, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.
Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.
Come riportato da Renovatio 21, il mese scorso è emerso che in una simulazione l’Intelligenza Artificiale avrebbe minacciato di ricattare gli ingegneri per evitare di essere spenta.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Zuckerberg annuncia la creazione del suo «laboratorio per la superintelligenza»

Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-
Eutanasia2 settimane fa
Ecco l’eutanasia dell’Italia geografica. Per far nascere le smart city che ci controlleranno
-
Salute2 settimane fa
I malori della 27ª settimana 2025
-
Spirito2 settimane fa
Mons. Viganò: il Cosmo divino contro i nemici della Messa tridentina
-
Fertilità2 settimane fa
Vaccini COVID e rischio in gravidanza: studio su 1,3 milioni di donne trova la correlazione
-
Ambiente1 settimana fa
La deputata americana Marjorie Taylor Greene chiede il divieto di geoingegneria
-
Immigrazione2 settimane fa
Donna condannata e multata in tribunale per aver messo un like ad un post anti-immigrati
-
Ambiente1 settimana fa
Leone XIV avverte che «il mondo sta bruciando» a causa del «riscaldamento globale» alla prima messa per la «cura del creato»
-
Spirito2 settimane fa
Vaticanista rivela: la maggior parte dei vescovi non voleva la repressione della messa in latino operata da Bergoglio