Intelligenza Artificiale
Le cliniche della fecondazione in vitro usano l’intelligenza artificiale per decidere quali bambini far nascere
L’Intelligenza Artificiale viene utilizzata nelle cliniche per la fertilità australiane per aiutare a scegliere quali embrioni trasferire nei pazienti, con il potenziale di essere disumanizzante per genitori e bambini. Lo riporta il Sydney Herald.
L’articolo pone questioni di bioetica, considerando che consentire all’apprendimento automatico di prendere decisioni su «chi viene messo al mondo» senza una supervisione etica della sua introduzione potrebbe erodere la fiducia del pubblico nelle cliniche per la fertilità.
La professoressa Catherine Mills, responsabile del gruppo di ricerca Reproduction in Society della Monash University e una degli autori dello studio, ha affermato che i pazienti sottoposti a fecondazione in vitro e i loro partner potrebbero non sapere se è stata utilizzata l’Intelligenza Artificiale per aiutarli a selezionare quali embrioni utilizzare, o in che modo gli algoritmi sono stati addestrati per effettuare la loro scelta.
«Questo è un po’ come sbattere la porta della stalla ben chiusa dopo che i buoi sono già scappati attraverso il campo» commenta LifeSite. Le strutture di fecondazione in vitro decidono già “chi viene messo al mondo”: si tratta di decidere a quale di quegli esseri umani è consentito nascere, se effettivamente sopravvivono al processo».
«Una volta deciso che era accettabile mercificare gli esseri umani creandoli artificialmente come un prodotto da acquistare, era inevitabile che avremmo iniziato ad applicare criteri selettivi per stabilire quali embrioni avrebbero avuto un’ulteriore possibilità di vita. Infatti, lo facciamo già di routine e gli aborti “di riduzione selettiva” sono spesso utilizzati per raggiungere ulteriormente questo obiettivo».
Tuttavia, l’uso dell’Intelligenza Artificiale nel processo di produzione di esseri umani in laboratorio, da selezionare, sacrificare ed impiantare per la gioia delle coppie borghesi omo-eterosessuali immerse nella Necrocultura, sembra tuttavia toccare un tasto inaspettato.
«L’Intelligenza Artificiale comporta un rischio di pregiudizio involontario, secondo il documento pubblicato dalla Società europea di riproduzione umana ed embriologia» scrive il Sydney Herald. «Ciò include che gli algoritmi di Machine Learning funzioneranno meglio per i membri di alcuni gruppi rispetto ad altri (ad esempio in base all’etnia)».
La tecnologia quindi potrebbe «tenere conto di caratteristiche che i pazienti non vorrebbero influenzare nella scelta dell’embrione (ad esempio se è più probabile che il sistema di Intelligenza Artificiale raccomandi il trasferimento di embrioni di un sesso particolare o, teoricamente, embrioni con tratti di malattia che risultano correlati a una maggiore probabilità di impianto)».
È bene ricordare che tutto ciò già avviene oggi nelle cliniche di riproduzione artificiali create dallo Stato moderno. Semplicemente, qui si introduce, come era inevitabile che fosse, la tecnologia dell’ora presente.
L’articolo australiano ha osservato che «il fiorente settore della fertilità» degli antipodi è «stimato a 922,9 milioni di dollari USA (1,49 miliardi di dollari) nel 2023 e si prevede che raggiungerà 1,63 miliardi di dollari USA entro il 2030». Alcune strutture stanno semplificando il processo con l’Intelligenza Artificiale, al fine di «migliorare la selezione degli embrioni e le possibilità di gravidanze di successo e ridurre i tempi di gravidanza e i costi dei trattamenti».
«E perché no? L’esistenza di un’”industria della fertilità” conferma già le premesse alla base dell’uso di tale tecnologia» commenta giustamente LifeSite.
Il bioeticista Julian Koplin afferma che la preoccupazione principale è che non ci sono linee guida o regolamenti: «potrebbe essere il caso che ci sia qualcuno che non vuole che le decisioni su quali figli avere vengano prese dall’IA piuttosto che da un embriologo umano che le valuta da solo».
Gli algoritmi «stanno iniziando a prendere decisioni su chi viene messo al mondo… In particolare se l’IA aiuta le persone ad avere una fecondazione in vitro più economica, veloce e meno emotivamente estenuante, allora sembra una buona cosa, ma dato che sta intromettendosi in qualcosa di molto importante per molte persone, i loro piani familiari, è importante che siano informati, abbiano alternative e non siano tenuti a utilizzare la tecnologia, e a dare il consenso informato».
Come riportato da Renovatio 21, già da tempo esistono bambini venuti al mondo tramite fecondazione in vitro robotica.
Iscriviti al canale Telegram ![]()
Si tratta, chiaramente dell’alba di un mondo distopico di eugenetica assoluta, nemmeno più mediata da esseri umani (come avveniva nei sogni di Hitler, e come avviene nella realtà dell’ora presente sotto casa vostra), ma totalmente comandata dalla macchina.
È l’era della tecnocrazia riproduttiva, e ci stiamo dentro – il passo successivo, lo sappiamo, è la scelta dei tratti genetici (eugenetici) del bambino, che giocoforza sarà introdotta a brevissimo.
Il resto dell’umanità, con le persone nate secondo natura, potrebbe finire emarginato, ghettizzato – anche da leggi dello Stato, e il siero genico sperimentale con il suo pass ne sono stati un referendum. Esattamente come nel film Gattacca, o anche oltre: sulla base di quanto abbiamo visto in questi anni, immaginiamo spesso su Renovatio 21 un futuro dove la riproduzione naturale sarà semplicemente proibita.
A quel punto, potrebbe essere che a comandare anche quel che resta della continuazione della forma umana sulla terra sarà la macchina. Ma – domanda che oramai è il caso di porsi seriamente – chi comanda la macchina?
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
OpenAI stringe un accordo con il Pentagono
Aiuta Renovatio 21
Iscriviti al canale Telegram ![]()
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Trump inserisce Anthropic nella lista nera per lo scontro con il Pentagono sull’AI
Il presidente degli Stati Uniti Donald Trump ha ordinato alle agenzie federali di interrompere l’uso dei sistemi di intelligenza artificiale sviluppati da Anthropic, intensificando uno scontro senza precedenti tra il governo degli Stati Uniti e una delle aziende di intelligenza artificiale più influenti della Silicon Valley sull’uso militare di algoritmi avanzati.
In un post pubblicato venerdì su Truth Social, Trump ha accusato l’azienda di aver tentato di «dettare il modo in cui il nostro grande esercito combatte e vince le guerre», annunciando un’immediata lista nera a livello governativo insieme a un periodo di eliminazione graduale di sei mesi per le agenzie che attualmente fanno affidamento sulla sua tecnologia.
«Dico a TUTTE le agenzie federali del governo degli Stati Uniti di CESSARE IMMEDIATAMENTE ogni utilizzo della tecnologia di Anthropic. Non ne abbiamo bisogno, non la vogliamo e non faremo più affari con loro!», ha scritto Trump, circa un’ora prima della scadenza del termine stabilito dal Pentagono per l’accettazione da parte dell’azienda delle richieste di revoca delle principali misure di sicurezza, pena il rischio di essere inserita nella lista nera come «rischio per la catena di approvvigionamento».
Il presidente degli Stati Uniti ha inoltre intimato all’azienda di collaborare durante il periodo di eliminazione graduale, altrimenti andrà incontro a gravi conseguenze legali.
«Anthropic farebbe meglio a darsi una mossa e a rendersi utile durante questo periodo di eliminazione graduale, altrimenti userò tutti i poteri della Presidenza per costringerli a conformarsi, con gravi conseguenze civili e penali», ha scritto Trump.
La direttiva fa seguito a settimane di crescenti tensioni tra Anthropic e il Dipartimento della Guerra degli Stati Uniti in merito alle restrizioni integrate nel sistema di intelligenza artificiale di punta dell’azienda, Claude.
Aiuta Renovatio 21
Al centro della controversia ci sono le garanzie contrattuali che impediscono l’utilizzo dei modelli Anthropic per la sorveglianza interna di massa o per sistemi d’arma completamente autonomi. I funzionari del Pentagono hanno chiesto la rimozione di tali limiti, sostenendo che i comandanti militari non possono operare sotto i vincoli imposti da appaltatori privati in tempo di guerra o in situazioni di crisi.
Il CEO di Anthropic, Dario Amodei, ha respinto la richiesta, affermando che l’azienda non avrebbe supportato utilizzi che riteneva fossero in conflitto con le norme democratiche o comportassero rischi inaccettabili.
Trump ha accusato l’azienda di essere gestita da «pazzi di sinistra» che, a suo dire, antepongono le preoccupazioni etiche e i termini del loro servizio alla Costituzione americana. «Il loro egoismo sta mettendo a rischio le VITE DEGLI AMERICANI, le nostre truppe in pericolo e la nostra sicurezza nazionale in PERICOLO», ha dichiarato il presidente degli Stati Uniti.
L’ordine di Trump formalizza di fatto una minaccia precedentemente sollevata dal Segretario alla Guerra degli Stati Uniti Pete Hegseth, il quale aveva avvertito che l’azienda avrebbe potuto essere definita un «rischio per la catena di approvvigionamento», una classificazione solitamente riservata alle aziende legate ad avversari stranieri.
Anthropic è stato il primo sviluppatore commerciale di AI a implementare modelli linguistici di grandi dimensioni su reti classificate del Pentagono, nell’ambito di un contratto del valore di 200 milioni di dollari. Il suo chatbot Claude è stato utilizzato per analisi di intelligence, simulazioni operative, operazioni informatiche e flussi di lavoro di pianificazione.
Lo scontro emerso segue alle accuse secondo cui il modello di Intelligenza Artificiale dell’azienda sarebbe stato utilizzato durante l’operazione per rapire il presidente venezuelano Nicolas Maduro all’inizio di gennaio.
Come riportato da Renovatio 21, negli ultimi mesi vi è stato un progressivo deterioramento dei rapporti tra Anthropic e il Pentagono, legato alla volontà del dipartimento della Guerra statunitense di utilizzare l’IA per il controllo di armi autonome senza le garanzie di sicurezza che l’azienda ha cercato di imporre.
Il CEO di Anthropic, Dario Amodei, ha più volte espresso gravi preoccupazioni sui rischi della tecnologia che la sua azienda sta sviluppando e commercializzando. In un lungo saggio di quasi 20.000 parole pubblicato il mese scorso, ha avvertito che sistemi AI dotati di «potenza quasi inimmaginabile» sono «imminenti» e metteranno alla prova «la nostra identità come specie».
Amodei ha messo in guardia dai «rischi di autonomia», in cui l’IA potrebbe sfuggire al controllo e sopraffare l’umanità, e ha ipotizzato che la tecnologia potrebbe facilitare l’instaurazione di «una dittatura totalitaria globale» attraverso sorveglianza di massa basata sull’Intelligenza Artificiale e l’impiego di armi autonome.
Come riportato da Renovatio 21, l’anno passato l’Amodei ha dichiarato che l’AI potrebbe eliminare la metà di tutti i posti di lavoro impiegatizi di livello base entro i prossimi cinque anni.
Lo scorso mese Mrinank Sharma, fino a poco tempo fa responsabile del Safeguards Research Team presso l’azienda sviluppatrice del chatbot Claude, ha pubblicato su X la sua lettera di dimissioni, in cui scrive che «il mondo è in pericolo. E non solo per via dell’Intelligenza Artificiale o delle armi biologiche, ma a causa di un insieme di crisi interconnesse che si stanno verificando proprio ora».
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Le AI più potenti impiegano armi nucleari nel 95% delle simulazioni di giochi di guerra: studio
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Cina1 settimana faEnigmi femminili cinesi alle Olimpiadi
-



Spirito2 settimane faMons. Viganò sul set della «Resurrezione» del cattolico tradizionalista Mel Gibson
-



Spirito2 settimane faL’élite ostracizza chi si non si converte all’ideologia infernale del globalismo: omelia di mons. Viganò nel Mercoledì delle Ceneri
-



Predazione degli organi1 settimana faUn cuore «bruciato», due vite spezzate dalla predazione degli organi
-



Vaccini1 settimana faQuanto era coinvolto Epstein nelle strategie pandemiche?
-



Gender2 settimane faTransessuale uccide l’ex moglie e il figlio e spara ad altre persone durante una partita di hockey
-



Comunicati7 giorni faIn morte di Albachiara
-



Gender2 settimane faONU: verso la criminalizzazione del dissenso dall’ideologia gender















