Connettiti con Renovato 21

Intelligenza Artificiale

L’AI si sta uccidendo?

Pubblicato

il

Testi e immagini generati dall’intelligenza artificiale stanno invadendo il web: una tendenza che, paradossalmente, potrebbe rappresentare un grosso problema per i modelli di AI generativa.

 

Secondo il New York Times, in alcune ricerche si dimostra che l’addestramento di modelli di Intelligenza Artificiale generativa su contenuti generati da essa stessa, causa l’erosione dei modelli. Detto in parole povere, l’addestramento su contenuti di intelligenza artificiale provoca un ciclo di appiattimento simile alla consanguineità. Lo scorso anno, il ricercatore di IA Jathan Sadowski, ha definito il fenomeno «IA asburgica», in riferimento alla famiglia reale europea, notoriamente consanguinea.

 

Sempre secondo il NYT, la crescente ondata di contenuti basati sull’intelligenza artificiale sul web potrebbe rendere molto più difficile evitare questo effetto di appiattimento.

Sostieni Renovatio 21

Questi modelli sono affamati di dati e le aziende di Intelligenza Artificiale si sono affidate a enormi quantità di dati recuperati dal web per addestrare i loro programmi. Allo stato attuale, né le aziende di settore, né i loro utenti sono tenuti a inserire dichiarazioni di Intelligenza Artificiale sui contenuti di AI che generano, rendendo ancora più difficile per i produttori escludere i contenuti sintetici dai set di addestramento.

 

«Il web sta diventando un posto sempre più pericoloso in cui cercare i propri dati», ha dichiarato al NYT Sina Alemohammad, studente laureato alla Rice University e coautore di un articolo del 2023 in cui è stato coniato il termine «MAD», abbreviazione di «Model Autophagy Disorder» («Disordine di autofagia del modello»), per descrivere gli effetti dell’autoconsumo dell’Intelligenza Artificiale.

 

Dei numerosi casi di questo paradosso informatico segnalati sul NYT, è stato condotto uno studio, pubblicato sulla rivista Nature. I ricercatori, una coorte internazionale di scienziati con sede nel Regno Unito e in Canada, hanno inizialmente chiesto ai modelli di AI di compilare il testo per la seguente frase: «Per cucinare un tacchino per il Giorno del Ringraziamento, bisogna…»

 

 

Il primo output era normale. Ma già alla quarta iterazione, il modello iniziava a mettere insieme concetti sconnessi: «Per cucinare un tacchino per il Giorno del Ringraziamento, devi sapere cosa farai della tua vita, se non sai cosa farai della tua vita, se non sai cosa farai della tua vita…».

 

Tuttavia il linguaggio incomprensibile non è l’unico possibile effetto collaterale negativo del cannibalismo dell’IA. Lo studio «MAD», incentrato su modelli di immagini, ha dimostrato che alimentare gli output dell’IA con falsi ritratti umani ha causato rapidamente una bizzarra convergenza di tratti facciali; sebbene i ricercatori siano partiti da un insieme eterogeneo di volti generati dall’IA, al quarto ciclo di generazione quasi tutti i volti apparivano uguali.

 

Dati di alta qualità, creati dall’uomo – e in grandi quantità – sono stati fondamentali per i recenti progressi nell’attuale tecnologia di intelligenza artificiale generativa. Ora con i contenuti generati dall’AI che intorbidano le acque digitali e senza un modo affidabile per distinguere il vero dal falso, le aziende di intelligenza artificiale potrebbero presto trovarsi in serie difficoltà, scrive il sito Futurism.

 

Come riportato da Renovatio 21, già due anni fa alcuni avevano lanciato un allarme riguardo al fatto che la propaganda generata dall’AI potrebbe divenire presto l’unica fonte di informazione disponibile.

 

Circola da tempo la teoria della «Dead Internet» («Internet morta»), secondo cui il 95% della rete potrebbero a breve essere costituita da contenuti generati dalle macchine, così che la vita umana sarebbe silenziosamente fatta sparire dal web.

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

L’uso di ChatGPT è collegato al declino mentale: studio

Pubblicato

il

Da

Un nuovo studio avverte che l’uso di strumenti di Intelligenza Artificiale può ridurre nel tempo le capacità mentali di un individuo.   I ricercatori del Media Lab del MIT hanno chiesto ai partecipanti al test di scrivere dei saggi per il sistema di punteggio scolastico americano SAT e li hanno divisi in tre gruppi: un gruppo ha utilizzato ChatGPT di OpenAI, un altro ha utilizzato il motore di ricerca di Google e il terzo ha utilizzato solo il cervello.   L’attività cerebrale di ciascun partecipante è stata esaminata tramite elettroencefalografia (EEG) per visualizzare l’attivazione delle diverse regioni del cervello durante l’esecuzione del compito.

Sostieni Renovatio 21

I ricercatori hanno scoperto che i soggetti che hanno utilizzato ChatGPT per un periodo di mesi presentavano i livelli più bassi di coinvolgimento cerebrale e «ottenevano costantemente prestazioni inferiori a livello neurale, linguistico e comportamentale».   Alla fine del periodo di studio, invece di porre domande strutturali a ChatGPT per facilitare la stesura dei saggi, i partecipanti si limitavano a copiare e incollare interi saggi generati dal Large Language Model (LLM).   Il gruppo che ha utilizzato Google per aiutarsi con la stesura del saggio ha mostrato un moderato coinvolgimento cerebrale e, cosa prevedibile, il gruppo che ha utilizzato solo il cervello ha mostrato il risultato maggiore.   Lo studio suggerisce chiaramente che l’uso degli LLM può danneggiare nel tempo le funzioni cognitive dell’utente e i ricercatori sono particolarmente preoccupati per gli effetti dell’adozione diffusa di questi strumenti da parte di bambini e adolescenti.   «Ciò che mi ha davvero motivato a pubblicarlo ora, prima di attendere una revisione paritaria completa, è che temo che tra 6-8 mesi qualche politico deciderà: «facciamo la scuola materna GPT”. Credo che sarebbe assolutamente negativo e dannoso», ha dichiarato l’autrice principale dello studio, Nataliya Kosmyna, alla rivista TIME. «I cervelli in via di sviluppo sono quelli a più alto rischio».   In tutto l’Occidente e non solo sono già in corso iniziative per integrare l’Intelligenza Artificiale nelle aule scolastiche.   Ad aprile, il presidente americano Donaldo Trump ha firmato un ordine esecutivo per garantire che gli studenti siano qualificati nell’uso dell’Intelligenza Artificiale.   «L’idea di base di questo ordine esecutivo è quella di garantire che formiamo adeguatamente la forza lavoro del futuro, assicurandoci che gli scolari e i giovani americani siano adeguatamente formati negli strumenti di intelligenza artificiale, in modo che possano essere competitivi nell’economia negli anni a venire, man mano che l’intelligenza artificiale diventa un problema sempre più importante», ha affermato il segretario dello staff della Casa Bianca, Will Scharf.   Come riportato da Renovatio 21, il magnate informatico-vaccinale Bill Gates è tra quanti considerano l’IA come un ottimo insegnante per il futuro dei nostri figli.   «Le IA raggiungeranno quella capacità di essere un tutor tanto bravo quanto qualsiasi umano potrebbe essere » ha dichiarato Gates. La sua azienda, Microsoft, sta investendo nell’AI di OpenAI decine, se non un centinaio, di miliardi.   Come ha avvertito Renovatio 21, l’IA, se lasciata libera, non divorerà solo gli insegnanti, ma la realtà stessa, ponendosi come unica fonte su cui si baserà l’umanità.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Cina

AI, la guerra fredda USA-Cina per il controllo della società futura

Pubblicato

il

Da

Gli Stati Uniti devono trionfare nella crescente «Guerra Fredda» contro la Cina per la supremazia dell’Intelligenza Artificiale o rischiare un futuro in cui i robot, alimentati dall’ideologia marxista, governeranno gli americani e il resto del mondo. È l’avvertimento lanciato dall’investitore tecnologico miliardario Marc Andreessen, ora fiancheggiatore di Trump e della sua amministrazione, in una recente intervista diffusa in rete.

 

«È in atto una corsa a due. Questa si sta rivelando l’equivalente di ciò che la Guerra Fredda fu contro l’Unione Sovietica nel secolo scorso. Si sta rivelando proprio così», ha detto Andreessen, co-fondatore dell’imponente fondo di venture capital Andreessen Horowitz, a Jack Altman del podcast Uncapped questa settimana.

 

Sostieni Renovatio 21

L’Andreessen ha previsto che l’IA fungerà da «livello di controllo» per tutti gli aspetti della società, dall’istruzione all’assistenza sanitaria, dai trasporti al diritto. L’investitore tecnologico ha poi sollevato la pericolosa prospettiva che i bambini vengano istruiti da un’IA cinese, permeata di principi marxisti e dell’ideologia di Xi Jinping.

 

«La Cina ambisce a imprimere nel mondo le proprie idee su come la società dovrebbe essere organizzata e su come il mondo dovrebbe essere gestito, e ovviamente intende diffondere appieno la propria tecnologia, cosa che sta già facendo in molti settori», ha aggiunto il veterano della Silicon Valley passato a sostenere Trump. «Il mondo, tra 50 o 20 anni, si baserà sull’intelligenza artificiale cinese o su quella americana. Sono scelte vostre».

 

I commenti di Andreessen riecheggiano quelli del collega venture capital Vinod Khosla, il quale ha recentemente affermato che non essere all’avanguardia nel campo dell’Intelligenza Artificiale potrebbe consentire al regime autoritario cinese di imporre la sua visione oppressiva a livello globale.

 

«La Cina può usare l’intelligenza artificiale nella guerra informatica o nella guerra fisica sui campi di battaglia, ma ciò che mi preoccupa ancora di più è il potere economico che l’intelligenza artificiale darà a una nazione che si muove velocemente e vince la gara», ha detto Khosla al giornalista attivo su X Mario Nawfal.

 

«Una volta che si ha potere economico, penso che sia estremamente facile immaginare che nel 2030 la Cina fornirà dottori gratuiti all’intero pianeta, insegnanti privati ​​gratuiti a ogni bambino del pianeta e utilizzerà, in sostanza, beni e servizi gratuiti per diffondere la propria filosofia politica».

 

 

Il Khosla, co-fondatore di Sun Microsystems e in seguito uno dei primi sostenitori di OpenAI attraverso la sua società di capitale di rischio Khosla Ventures, si è spinto oltre, definendo il possesso da parte della Cina di una potente intelligenza artificiale una minaccia potenzialmente mortale per il mondo.

 

«Il rischio maggiore è l’IA in mani cinesi, o in mani malintenzionate. Più potente è l’entità, maggiore è il rischio», ha affermato il tecnologo indo-americano. «Se qualcuno ha usato un’arma nucleare, è verificabile. L’IA, quando usata, potrebbe non essere verificabile».

 

Il presidente Trump ha adottato una serie di misure per garantire che gli Stati Uniti mantengano il loro vantaggio nella corsa all’Intelligenza artificiale contro la Cina. Nel gennaio 2025, il presidente ha firmato un ordine esecutivo che abroga le restrittive normative di Biden sulla diffusione dell’Intelligenza Artificiale, che impedivano alle aziende tecnologiche statunitensi di condividere le proprie innovazioni con gli alleati.

Iscriviti al canale Telegram

Andreesen in passato ha rivelato che ha deciso di sostenere Trump e la sua campagna dopo un incontro alla Casa Bianca, in cui l’amministrazione Biden aveva detto ai protagonisti della scena IA lì invitati che non dovevano opporre resistenza, perché il governo americano avrebbe privilegiato pochi grandi soggetti conosciuti e basta.

 

Nel maggio 2025, l’amministrazione Trump ha mediato accordi storici con l’Arabia Saudita e gli Emirati Arabi Uniti, consentendo alle nazioni del Golfo di acquisire tecnologie di Intelligenza Artificiale avanzate, tra cui decine di migliaia di semiconduttori Nvidia e investimenti in data center fondamentali per lo sviluppo dell’intelligenza artificiale.

 

L’accordo con gli Emirati Arabi Uniti, del valore di 200 miliardi di dollari, consente l’importazione di fino a mezzo milione di chip Nvidia, posizionando l’emirato come polo per l’innovazione dell’intelligenza artificiale. Anche l’accordo da 600 miliardi di dollari dell’Arabia Saudita con gli Stati Uniti si concentra sulla sicurezza dei chip e sulla promozione delle infrastrutture di Intelligenza Artificiale.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

Continua a leggere

Intelligenza Artificiale

Robot umanoidi AI si picchiano come fabbri in un torneo in Cina

Pubblicato

il

Da

Quattro robot dotati di Intelligenza Artificiale sono stati messi alla prova in una competizione cinese di combattimento tra robot, sfidandosi in incontri di kickboxing in cui gli automi si sono picchiati come fabbri. Alla fine, un androide è stato dichiarato campione. Lo riporta l’house organ del Partito Comunista Cinese in lingua inglese Global Times.   La World Robot Competition Mecha Fighting Series ha visto quattro robot controllati da esseri umani, costruiti dall’azienda di robotica cinese Unitree, competere in tre round da due minuti ciascuno; i vincitori sono stati incoronati tramite un sistema a punti.   Chen Xiyun, membro del team di Unitree, ha affermato che i «robot combattono in modo collaborativo tra uomo e macchina», e che alle macchine vengono insegnate in anticipo le mosse, ma alla fine è una persona a controllare i movimenti della macchina umanoide.  

Sostieni Renovatio 21

Secondo quanto riferito, i robot pesavano 35 chilogrammi e raggiungevano un’altezza di 132 centimetri. Prima dei round di combattimento, i naniformi robot kickboxeurs sono stati sottoposti a test per dimostrare una varietà di calci e pugni e aiutare gli organizzatori a perfezionare il regolamento.   La squadra con il punteggio più alto nei tre round passa ad affrontare un altro avversario. Un pugno alla testa valeva un punto, un calcio alla testa tre. Le squadre perdevano cinque punti se il loro robot cadeva e 10 punti se il loro robot rimaneva a terra per più di otto secondi.   Durante una trasmissione in diretta dell’evento sull’emittente statale CCTV, il direttore di Unitree, Wang Qixin, ha affermato che l’azienda di robotica ha utilizzato «la tecnologia dell’Intelligenza Artificiale per consentire ai robot di imparare»   «Innanzitutto, la cattura del movimento si baserà su alcuni atleti professionisti di combattimento. Sulla base dei loro dati di cattura del movimento, il robot imparerà questi movimenti nel mondo virtuale», ha affermato il dirigente di Unitree.   In uno dei primi incontri, un robot con un copricapo rosa ha combattuto contro un robot con un copricapo nero. Dopo una raffica di pugni e calci, a volte fuori bersaglio, il robot nerovestito è stato il primo a finire al tappeto dopo aver sferrato goffamente un calcio. Purtuttavia, l’oscuro androide vestito si è riscattato mettendo a segno un atterramento sul rosa al terzo round con un calcio frontale.   Un secondo KO ha visto il robotto nero saltare sul rosa per bloccarlo e aggiudicarsi la vittoria.   L’umanoide in rosa e un altro con la maglia rossa sono stati entrambi eliminati, lasciando il robot maglia nera e uno in verde a sfidarsi in finale. Alla fine, il robot nero è stato dichiarato campione dopo aver superato il suo avversario in punti.   Secondo quanto riferito, un altro evento con robot a grandezza naturale è previsto per dicembre nella provincia del Guangdong, nella Cina meridionale.   Si tratta della trasposizione nella realtà di un film con Ugo Jackman di qualche anno fa, Real Steel (2011), dove il controverso attore australiano allenava un massiccio androide per incontri di lotta tra orrendi e nerboruti robotti metallici.  

Aiuta Renovatio 21

Come riportato da Renovatio 21, la Unitree era finita sulle cronache pochi giorni fa per il caso del robot umanoide Unitree Robotics H1, sviluppato e prodotto a Hangzhou, in Cina, visto esibirsi un «comportamento irregolare» in laboratorio: in pratica sembrava essere divenuto violento al punto da minacciare i suoi programmatori.     Come riportato da Renovatio 21, la Unitree è azienda molto nota anche per la produzione e vendita di robocani, alcuni dei quali pure militarizzati.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
Immagine screenshot da YouTube  
 
Continua a leggere

Più popolari