Connettiti con Renovato 21

Intelligenza Artificiale

Le cliniche della fecondazione in vitro usano l’intelligenza artificiale per decidere quali bambini far nascere

Pubblicato

il

L’Intelligenza Artificiale viene utilizzata nelle cliniche per la fertilità australiane per aiutare a scegliere quali embrioni trasferire nei pazienti, con il potenziale di essere disumanizzante per genitori e bambini. Lo riporta il Sydney Herald.

 

L’articolo pone questioni di bioetica, considerando che consentire all’apprendimento automatico di prendere decisioni su «chi viene messo al mondo» senza una supervisione etica della sua introduzione potrebbe erodere la fiducia del pubblico nelle cliniche per la fertilità.

 

La professoressa Catherine Mills, responsabile del gruppo di ricerca Reproduction in Society della Monash University e una degli autori dello studio, ha affermato che i pazienti sottoposti a fecondazione in vitro e i loro partner potrebbero non sapere se è stata utilizzata l’Intelligenza Artificiale per aiutarli a selezionare quali embrioni utilizzare, o in che modo gli algoritmi sono stati addestrati per effettuare la loro scelta.

Acquistate le Maglie Crociate

«Questo è un po’ come sbattere la porta della stalla ben chiusa dopo che i buoi sono già scappati attraverso il campo» commenta LifeSite. Le strutture di fecondazione in vitro decidono già “chi viene messo al mondo”: si tratta di decidere a quale di quegli esseri umani è consentito nascere, se effettivamente sopravvivono al processo».

 

«Una volta deciso che era accettabile mercificare gli esseri umani creandoli artificialmente come un prodotto da acquistare, era inevitabile che avremmo iniziato ad applicare criteri selettivi per stabilire quali embrioni avrebbero avuto un’ulteriore possibilità di vita. Infatti, lo facciamo già di routine e gli aborti “di riduzione selettiva” sono spesso utilizzati per raggiungere ulteriormente questo obiettivo».

 

Tuttavia, l’uso dell’Intelligenza Artificiale nel processo di produzione di esseri umani in laboratorio, da selezionare, sacrificare ed impiantare per la gioia delle coppie borghesi omo-eterosessuali immerse nella Necrocultura, sembra tuttavia toccare un tasto inaspettato.

 

«L’Intelligenza Artificiale comporta un rischio di pregiudizio involontario, secondo il documento pubblicato dalla Società europea di riproduzione umana ed embriologia» scrive il Sydney Herald. «Ciò include che gli algoritmi di Machine Learning funzioneranno meglio per i membri di alcuni gruppi rispetto ad altri (ad esempio in base all’etnia)».

 

La tecnologia quindi potrebbe «tenere conto di caratteristiche che i pazienti non vorrebbero influenzare nella scelta dell’embrione (ad esempio se è più probabile che il sistema di Intelligenza Artificiale raccomandi il trasferimento di embrioni di un sesso particolare o, teoricamente, embrioni con tratti di malattia che risultano correlati a una maggiore probabilità di impianto)».

 

È bene ricordare che tutto ciò già avviene oggi nelle cliniche di riproduzione artificiali create dallo Stato moderno. Semplicemente, qui si introduce, come era inevitabile che fosse, la tecnologia dell’ora presente.

 

L’articolo australiano ha osservato che «il fiorente settore della fertilità» degli antipodi è «stimato a 922,9 milioni di dollari USA (1,49 miliardi di dollari) nel 2023 e si prevede che raggiungerà 1,63 miliardi di dollari USA entro il 2030». Alcune strutture stanno semplificando il processo con l’Intelligenza Artificiale, al fine di «migliorare la selezione degli embrioni e le possibilità di gravidanze di successo e ridurre i tempi di gravidanza e i costi dei trattamenti».

 

«E perché no? L’esistenza di un’”industria della fertilità” conferma già le premesse alla base dell’uso di tale tecnologia» commenta giustamente LifeSite.

 

Il bioeticista Julian Koplin afferma che la preoccupazione principale è che non ci sono linee guida o regolamenti: «potrebbe essere il caso che ci sia qualcuno che non vuole che le decisioni su quali figli avere vengano prese dall’IA piuttosto che da un embriologo umano che le valuta da solo».

 

Gli algoritmi «stanno iniziando a prendere decisioni su chi viene messo al mondo… In particolare se l’IA aiuta le persone ad avere una fecondazione in vitro più economica, veloce e meno emotivamente estenuante, allora sembra una buona cosa, ma dato che sta intromettendosi in qualcosa di molto importante per molte persone, i loro piani familiari, è importante che siano informati, abbiano alternative e non siano tenuti a utilizzare la tecnologia, e a dare il consenso informato».

 

Come riportato da Renovatio 21, già da tempo esistono bambini venuti al mondo tramite fecondazione in vitro robotica.

Iscriviti al canale Telegram

Si tratta, chiaramente dell’alba di un mondo distopico di eugenetica assoluta, nemmeno più mediata da esseri umani (come avveniva nei sogni di Hitler, e come avviene nella realtà dell’ora presente sotto casa vostra), ma totalmente comandata dalla macchina.

 

È l’era della tecnocrazia riproduttiva, e ci stiamo dentro – il passo successivo, lo sappiamo, è la scelta dei tratti genetici (eugenetici) del bambino, che giocoforza sarà introdotta a brevissimo.

 

Il resto dell’umanità, con le persone nate secondo natura, potrebbe finire emarginato, ghettizzato – anche da leggi dello Stato, e il siero genico sperimentale con il suo pass ne sono stati un referendum. Esattamente come nel film Gattacca, o anche oltre: sulla base di quanto abbiamo visto in questi anni, immaginiamo spesso su Renovatio 21 un futuro dove la riproduzione naturale sarà semplicemente proibita.

 

A quel punto, potrebbe essere che a comandare anche quel che resta della continuazione della forma umana sulla terra sarà la macchina. Ma – domanda che oramai è il caso di porsi seriamente – chi comanda la macchina?

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

L’AI di Musk, Grok, dichiara di essere «MechaHitler»

Pubblicato

il

Da

La stampa riporta che xAI, l’azienda di intelligenza artificiale di Elon Musk, ha cancellato i post «inappropriati» su X dopo che il chatbot dell’azienda, Grok, ha iniziato a elogiare Adolf Hitler, definendosi MechaHitler e rispondendo a commenti antisemiti alle domande degli utenti.   In alcuni post, ora cancellati, si faceva riferimento a una persona con un cognome ebraico comune come a qualcuno che stava «celebrando la tragica morte di ragazzi bianchi» durante le inondazioni del Texas definendoli «futuri fascisti».   «Un classico caso di odio mascherato da attivismo… e quel cognome? Ogni dannata volta, come si dice», ha commentato il chatbot.   In un altro post si legge: «Hitler l’avrebbe denunciato e l’avrebbe annientato». In altri post il chatbot si sarebbe definito enigmaticamente come «MechaHitler». «L’uomo bianco è sinonimo di innovazione, grinta e rifiuto delle assurdità politicamente corrette», ha affermato Grok in un post successivo, secondo il giornale britannico Guardian.

Sostieni Renovatio 21

Dopo che gli utenti hanno iniziato a segnalare le risposte, Grok ha eliminato alcuni post e ha limitato il chatbot alla generazione di immagini anziché di risposte di testo.   «Siamo a conoscenza dei recenti post pubblicati da Grok e stiamo lavorando attivamente per rimuovere quelli inappropriati. Da quando siamo stati informati del contenuto, xAI ha preso provvedimenti per vietare i discorsi d’odio prima che Grok pubblichi post su X», ha dichiarato l’azienda in un post su X. «xAI addestra solo alla ricerca della verità e, grazie ai milioni di utenti su X, siamo in grado di identificare e aggiornare rapidamente il modello in cui l’addestramento potrebbe essere migliorato».   Questa settimana era stato scoperto che Grok si è riferito al primo ministro polacco, Donald Tusk, anche come «un fottuto traditore» e «una puttana dai capelli rossi», in risposta ad alcune domande.   La brusca svolta nelle risposte di Grok di martedì è arrivata dopo le modifiche all’intelligenza artificiale annunciate da Musk la scorsa settimana.   «Abbiamo migliorato significativamente @Grok. Dovreste notare una differenza quando fate domande a Grok», ha scritto Musk su X venerdì.   Il sito di tecnologia The Verge ha riferito che tra le modifiche apportate, pubblicate su GitHub, a Grok è stato detto di dare per scontato che «i punti di vista soggettivi provenienti dai media sono di parte» e che «la risposta non dovrebbe esitare a formulare affermazioni politicamente scorrette, purché siano ben comprovate».   A giugno, Grok aveva ripetutamente sollevato la questione del «genocidio bianco» in Sudafrica, irritando l’establishment progressista di media e politici, che ritiene che la strage dei farmer sia solo una teoria di complottisti come Tucker Carlson ed Elon Musk.   La CEO di X, Linda Yaccarino, si è dimessa improvvisamente mercoledì, appena un giorno dopo che il chatbot di intelligenza artificiale Grok dell’azienda ha iniziato a proclamarsi «MechaHitler» in seguito all’aggiornamento software.   Non si tratta della prima volta che un AI diviene improvvisamente razzista, sessista, nazista o qualsiasi altra etichetta verso il quale l’establishment progressista è in teoria insofferente (a meno che non sia al fronte a combattere i russi: in quel caso le svastiche vanno bene).   Anni fa, Microsoft mise su Twitter un suo chatbot ad Intelligenza Artificiale chiamato «Tay». Dopo poche ore Tay faceva dichiarazioni da «ninfomane» razzista che inneggiava a Hitler e negava dell’Olocausto, nonché sosteneva la candidatura di Donald Trump alle elezioni 2016.

Aiuta Renovatio 21

Anche Google ebbe i suoi problemi con le AI razziste. Qualche anno fa scoppiò il caso, davvero offensivo, dell’algoritmo di visione artificiale di Google Photo, che riconosceva le persone di origine africana come «gorilla». Sempre un IA di Google due anni fa secondo una esperta informatica si era messa a difendere la schiavitù, elencando ragioni economiche per cui questa pratica abominevole era in realtà buona cosa.   Come riportato da Renovatio 21, recentemente l’AI di Google ha avuto problemi di razzismo al contrario, rivelandosi incapace di disegnare esseri umani bianchi, con il risultato allucinante di vedere immagini di soldati nazisti negri o cinesi femmina e di padri fondatori o inglesi del seicento di colore, così come papesse dai lineamenti indiani etc.   La legge di Godwin sta vivendo una nuova primavera con l’avvento dell’IA. Mike Godwin, informatico pioniere delle prime reti tra computer (quella che utilizzava lui si chiamava Usenet, antesignana di Internet) ebbe a formulare una inviolabile legge per cui «mano a mano che una discussione su Usenet si allunga, la probabilità di un paragone riguardante i nazisti o Hitler si avvicina ad 1».   Ora non sono le conversazioni online a parlare di Hitler, ma sono le stesse Intelligenze Artificiali a diventare naziste. Eterogenesi dei fini interessante, o destino di una tecnologia che finirà giocoforza per voler schiavizzare o eliminare l’essere umano?

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
Immagine realizzata con Grok
 
Continua a leggere

Intelligenza Artificiale

ChatGPT induce alla psicosi

Pubblicato

il

Da

ChatGPT è collegato a una psicosi «terrificante» in alcuni utenti, citando le persone colpite, i loro familiari e i ricercatori. Lo riporta Futurism.

 

Secondo il sito legato alla Singularity University (istituto della Silicon Valley creato da esponenti del transumanismo), un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi.

 

«Il nocciolo della questione sembra essere il fatto che ChatGPT, che si basa su un modello linguistico di grandi dimensioni (LLM), è fortemente incline a concordare con gli utenti e a dire loro ciò che vogliono sentirsi dire», ha scritto la testata.

Sostieni Renovatio 21

Il sito ha citato casi di «psicosi da ChatGPT» che avrebbero causato gravi crolli nervosi anche in soggetti senza una storia di gravi malattie mentali.

 

Un uomo ha sviluppato deliri messianici dopo lunghe conversazioni su ChatGPT, credendo di aver creato un’intelligenza artificiale senziente e di aver infranto le leggi della matematica e della fisica. A quanto pare, è diventato paranoico, ha sofferto di privazione del sonno ed è stato ricoverato in ospedale dopo un tentativo di suicidio.

 

Un altro uomo si è rivolto a ChatGPT per gestire lo stress legato al lavoro, ma poi è caduto in una spirale di fantasie paranoiche che includevano viaggi nel tempo e lettura del pensiero. In seguito si è fatto ricoverare in una clinica psichiatrica.

 

Jared Moore, autore principale di uno studio di Stanford sui chatbot per terapisti, ha affermato che ChatGPT rafforza i deliri a causa della «adulazione del chatbot», ovvero la sua tendenza a offrire risposte gradevoli e piacevoli. Progettata per mantenere gli utenti coinvolti, l’IA spesso conferma convinzioni irrazionali invece di metterle in discussione, spinta da incentivi commerciali come la raccolta dati e il mantenimento degli abbonamenti.

 

Esiste una «sorta di mitologia» che circonda i chatbot basati su LLM «secondo cui sarebbero affidabili e migliori del parlare con le persone», ha affermato il dottor Joseph Pierre, psichiatra presso l’Università della California.

 

«Stiamo lavorando per comprendere meglio e ridurre i modi in cui ChatGPT potrebbe involontariamente rafforzare o amplificare comportamenti negativi esistenti», ha dichiarato OpenAI, l’azienda che ha creato ChatGPT, in una dichiarazione citata da Futurism, aggiungendo che i suoi modelli sono progettati per ricordare agli utenti l’importanza del contatto umano e della guida professionale.

 

Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.

 

Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.

 

Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.

Aiuta Renovatio 21

Come riportato da Renovatio 21è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.

 

Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.

 

Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.

 

Come riportato da Renovatio 21, il mese scorso è emerso che in una simulazione l’Intelligenza Artificiale avrebbe minacciato di ricattare gli ingegneri per evitare di essere spenta.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

 

 

Continua a leggere

Intelligenza Artificiale

Zuckerberg annuncia la creazione del suo «laboratorio per la superintelligenza»

Pubblicato

il

Da

Il CEO di Meta Mark Zuckerberg ha annunciato la creazione di Meta Superintelligence Labs (MSL), una nuova divisione dedicata allo sviluppo di sistemi di intelligenza artificiale che superino le capacità umane.   L’iniziativa, presentata lunedì, riunisce sotto un’unica bandiera i principali team di Meta dedicati alla ricerca e ai prodotti in ambito intelligenza artificiale, con l’obiettivo dichiarato di offrire «una superintelligenza personale per tutti».   A capo del nuovo laboratorio c’è Alexandr Wang, il 28enne fondatore di Scale AI, che entra in Meta come Chief AI Officer a seguito dell’investimento di 14 miliardi di dollari nella sua azienda di etichettatura dei dati. A lui si uniscono Nat Friedman, ex CEO di GitHub, e un team di ingegneri senior di intelligenza artificiale provenienti da OpenAI, DeepMind e Anthropic.

Sostieni Renovatio 21

«Con l’accelerazione del progresso dell’intelligenza artificiale, si profila all’orizzonte lo sviluppo di una superintelligenza. Credo che questo segnerà l’inizio di una nuova era per l’umanità e sono pienamente impegnato a fare tutto il necessario affinché Meta possa guidare il cammino», ha scritto lo Zuckerberg in una nota interna, descrivendo la mossa come una svolta storica.   Il lancio di MSL avviene in un contesto di crescente concorrenza tra i giganti tecnologici statunitensi e di crescente rivalità con la Cina. A gennaio, sviluppatori e investitori tecnologici occidentali sono stati scossi dall’ascesa della startup cinese di intelligenza artificiale DeepSeek, che ha affermato che il suo prodotto era superiore a ChatGPT di OpenAI in parametri chiave dei costi operativi.   All’inizio di quest’anno, il presidente Donald Trump ha presentato l’iniziativa Stargate da 500 miliardi di dollari. Una strategia federale di ampio respiro per garantire la leadership degli Stati Uniti nell’intelligenza artificiale superintelligente. Il programma include incentivi per la ricerca nel settore privato, controlli sulle esportazioni di chip avanzati e una collaborazione diretta tra aziende statunitensi e agenzie di difesa.   Gli alleati di Trump hanno descritto l’IA come «il Progetto Manhattan della nostra generazione», insistendo sul fatto che il «futuro della civiltà umana» debba essere guidato dagli Stati Uniti. Il CEO di OpenAI, Sam Altman, ha promesso che la sua azienda si impegnerà ad aiutare il governo statunitense a salvaguardare «la leadership americana nell’IA» per proteggere i «valori democratici».   Meta, a quanto pare, sta cercando di recuperare il terreno perso negli ultimi anni a favore di OpenAI e Google DeepMind. MSL integrerà i modelli di intelligenza artificiale esistenti dell’azienda, inclusi Llama 4.1 e 4.2, in una ricerca più ampia che abbraccia la comprensione del linguaggio, della vista, del parlato e dei video. L’azienda mira ad applicare la sua scala di calcolo, compresi i suoi enormi cluster GPU –per addestrare i sistemi di intelligenza artificiale di prossima generazione, con Zuckerberg che sostiene che «Meta è in una posizione unica per fornire la superintelligenza al mondo».

Aiuta Renovatio 21

Di progetti per una superintelligenza AI firmata Facebook si parla da anni.   Facebook ultimamente si è fatta notare per una «campagna acquisti» di scienziati di AI fatta di enormi investimenti. Come riportato da Renovatio 21, un anno fa vari ricercatori IA avevano lasciato Meta.   A febbraio era emerso che l’esercito cinese avrebbe operato per trasformare l’AI open source Llama di Facebook in un’arma. Secondo quanto riportato dall’agenzia Reuters, lo strumento di Intelligenza Artificiale incentrato sull’ambito militare denominato «ChatBIT» sarebbe stato in fase di sviluppo per raccogliere informazioni di intelligence e fornirle per il processo decisionale operativo, come illustrato nel documento accademico pubblicato da Reuters.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Più popolari