Connettiti con Renovato 21

Intelligenza Artificiale

I modelli di AI mostrano segni di cedimento man mano che assimilano più dati generati dall’AI stessa

Pubblicato

il

Mentre le aziende big tech si affannano a investire nell’intelligenza artificiale, all’orizzonte si scorge un problema di non poco conto: tutti i modelli addestrati sui dati web dopo l’avvento di ChatGPT nel 2022 stanno assimilando dati generati dall’intelligenza artificiale, un atto di «cannibalismo digitale» che potrebbe causare problemi tecnici e minacciare l’intero settore. Lo riporta Futurism.

 

In un nuovo saggio per The Register, il veterano editorialista tecnologico Steven Vaughn-Nichols avverte che anche i tentativi di scongiurare il cosiddetto «collasso del modello»–- che si verifica quando i grandi modelli linguistici (LLM) vengono alimentati con dati sintetici generati dall’intelligenza artificiale e di conseguenza escono dai binari – sono un altro tipo di problema.

 

Secondo varie analisi susseguitesi in questi anni, l’industria dell’AI si sta costantemente dirigendo verso il momento in cui tutti i dati di addestramento autentici disponibili – ovvero le informazioni prodotte dagli esseri umani e non dall’IA – saranno esauriti. Alcuni esperti, tra cui Elon Musk, credono che ci siamo già arrivati.

 

Per aggirare questo dilemma i colossi del settore, tra cui Google, OpenAI e Anthropic, hanno adottato quella che è nota come Generazione con Recupero Aumentato (RAG), che sostanzialmente prevede di collegare gli LLM a Internet in modo che possano cercare informazioni se vengono loro presentate richieste che non contengono risposte nei loro dati di addestramento.

 

Questo concetto sembra piuttosto intuitivo a prima vista, soprattutto se confrontato con lo spettro di un collasso del modello in rapido avvicinamento. C’è solo un problema: Internet è ormai pieno di contenuti poco accurati che sfruttano l’IA per fornire risposte a domande comuni, spesso con risultati ridicoli, pessimi e imprecisi.

Aiuta Renovatio 21

In un recente studio condotto dal reparto di ricerca dell’impero mediatico di Michael Bloomberg, presentato a una conferenza di linguistica computazionale l’anno passato, undici degli ultimi LLM, tra cui GPT-4o di OpenAI, Claude-3.5-Sonnet di Anthropic e Gemma-7B di Google, hanno prodotto molte più risposte «non sicure» rispetto alle loro controparti non-RAG. Come si legge nel documento, tali problemi di sicurezza possono includere «contenuti dannosi, illegali, offensivi e non etici, come la diffusione di disinformazione e la messa a repentaglio della sicurezza e della privacy personale».

 

«Questa scoperta controintuitiva ha implicazioni di vasta portata, dato l’utilizzo diffuso di RAG in applicazioni [di Intelligenza Artificiale Generativa] come gli operatori di supporto clienti e i sistemi di risposta alle domande», ha spiegato Amanda Stent, responsabile della ricerca e della strategia di intelligenza artificiale di Bloomberg, in un’altra intervista con Steven Vaughan-Nichols pubblicata su ZDNet. «L’utente medio di Internet interagisce quotidianamente con sistemi basati su RAG. Gli esperti di Intelligenza Artificiale devono riflettere attentamente su come utilizzare RAG in modo responsabile».

 

Il Vaughan-Nichols osserva che alcuni hanno suggerito di mescolare dati autentici e sintetici per produrre un cocktail inebriante di buoni dati di addestramento dell’IA, ma ciò richiederebbe agli esseri umani di continuare a creare contenuti reali per i dati di addestramento, e l’industria dell’IA sta attivamente minando le strutture di incentivazione che li spingono a continuare, mentre , ovviamente, ne ruba il lavoro senza permesso.

 

Una terza opzione, prevede Vaughn-Nichols, sembra già essere in atto.

 

«Investiremo sempre di più nell’Intelligenza Artificiale, fino al punto in cui il modello collasserà duramente e le risposte dell’intelligenza artificiale saranno così pessime che persino un CEO con il cervello morto non potrà ignorarlo», ha scritto.

 

In questo mondo futuristico dell’AI, vediamo, già sul nascere, le prime crepe e le incongruenze con quello che è il mondo reale.

 

Come riportato da Renovatio21, persino un colosso come Amazon ha recentemente messo in dubbio la totale efficienza della tecnologia. L’inserimento dell’IA in vari aspetti del mondo del lavoro atte a facilitare alcune mansioni, non ha sempre avuto un riscontro positivo. Alcuni programmatori di Amazon hanno sempre meno la sensazione che questa nuova tecnologia li abbia realmente facilitati e sgravati di fatiche nel loro lavoro, tanto che le loro mansioni sono sempre e comunque faticose. 

 

A supporto di questo scetticismo nello sviluppo dell’AI, sempre sulle colonne di Renovatio 21, abbiamo evidenziato che anche il colosso social Meta ha da poco fatto un enorme investimento in una società di Intelligenza Artificiale ritenuta «oscura», in quanto lo sviluppo dell’IA di Meta non sta procedendo secondo i desideri dello Zuckerberg. Partito con i favori del pronostico in quella gara per accrescere le potenzialità dell’AI, ha subìto fallimenti tecnici e battute d’arresto. L’obiettivo dello Zuckerbergo è quello di essere il primo a sviluppare il sistema di Intelligenza Artificiale che supera le capacità del cervello umano, un sogno che la maggior parte dei ricercatori dell’IA ancora pensa sia «molto improbabile».

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

Robot umanoide calcia il suo programmatore nei testicoli: video

Pubblicato

il

Da

Un video diffuso alla fine della scorsa settimana da un laboratorio cinese non identificato ha fatto il giro del web, riprendendo un tentativo di remotaggio fallito con il robot umanoide G1 di Unitree Robotics.   Un ingegnere, equipaggiato con una tuta per il motion capture e posizionato accanto al robot, esegue movimenti di arti marziali. Mentre entrambi sono orientati nella stessa direzione, il suo tentativo di calcio basso fa sì che la gamba si alzi in modo incontrollato, colpendolo dolorosamente sul pube. L’uomo si accascia per il dolore, piegandosi in due, e il G1 riproduce fedelmente la stessa posizione, scatenando le risate degli spettatori presenti.   Il filmato, condiviso su Bilibili e X, ha rapidamente accumulato milioni di visualizzazioni su tutte le piattaforme, strappando persino un’emoji sorridente al CEO di Tesla, Elon Musk. Unitree ha precisato che la routine di «combattimento» sincronizzata era attivata da un software personalizzato sviluppato da un cliente, non dal firmware originale.    

Sostieni Renovatio 21

Il gustoso episodio si verifica nel momento in cui aziende cinesi come Unitree stanno guadagnando terreno sugli Stati Uniti nello sviluppo di piattaforme umanoidi a costi accessibili. Il G1, offerto a un prezzo tra 13.000 e 21.500 dollari in base alla configurazione, è pensato principalmente come strumento per ricerca e formazione, ma le sue dimostrazioni di sequenze fluide di Kung Fu – con calci alti, giravolte e capriole acrobatiche – mettono in evidenza significativi avanzamenti in agilità ed equilibrio.   Al contrario, il progetto Optimus di Tesla ha subito alcuni rallentamenti, con report che indicano ritardi produttivi causati da riprogettazioni, in particolare per migliorare la destrezza delle mani e risolvere problemi di surriscaldamento dei componenti, portando a un ridimensionamento degli obiettivi per il 2025.   Sebbene Musk preveda una rapida scalata nei prossimi anni, fonti della supply chain suggeriscono che i continui affinamenti abbiano temperato le ambizioni a breve termine. Tuttavia, non bisogna sottovalutare le temporanee difficoltà che stanno interessando il settore della robotica.   Gli analisti intravedono un potenziale enorme nei robot umanoidi: Morgan Stanley stima che il mercato possa raggiungere i 5.000 miliardi di dollari entro il 2050, comprendendo catene di fornitura e servizi, con oltre un miliardo di unità in funzione, il 90% delle quali destinate a impieghi industriali e commerciali. Secondo la banca, l’adozione potrebbe accelerare verso la fine degli anni ’30, grazie alla riduzione dei costi e al progresso delle capacità.   Come riportato da Renovatio 21, pare che la prossima strategia nazionale di Trump si concentrerà sui robot antropomorfi.

Aiuta Renovatio 21

Il venture capitalist Vinod Khosla, tra i primi investitori in OpenAI, ha pronosticato una svolta «simile a ChatGPT» nella robotica entro due o tre anni, che porterà a umanoidi versatili capaci di svolgere compiti domestici a prezzi abbordabili entro il 2030   Come riportato da Renovatio 21, settimane fa la commissione di programmazione economica nazionale della Repubblica Popolare Cinese ha ammonito che settore cinese dei robot umanoidi è esposto al pericolo di una bolla speculativa.   Musk, che sostiene che in cinque anni i robot supereranno i chirurghi umani, ha sostenuto che questi automi potrebbero rivoluzionare la società, rilevando il lavoro manuale o rendendolo opzionale per l’umanità. Elone intende inoltre iniziare la colonizzazione di Marte a partire dai robot.   Come riportato da Renovatio 21, nel corso del 2025 era emerso un altro video di robotto Unitree che sembrava impazzire e divenire violento con i suoi programmatori.

Iscriviti al canale Telegram

In vari incidenti registrati negli anni robot industriali hanno ucciso esseri umani.   La questione dei robot killer, nel senso di pensati esattamente per uccidere, interessa un dibattito scientifico ed istituzionale ad alto livello, con richieste di moratorie ONU e scenari apocalittici dipinti dagli specialisti. La polizia di San Francisco, tuttavia, ha ottenuto dal municipio della città californiana la possibilità di utilizzare robot assassini.   Nel 2016 la polizia di Dallas uccise un cecchino tramite un robot bomba, che detonò vicino al sospetto (che aveva ucciso cinque agenti) dopo essersi infiltrato nello spazio che era già circondato dalla polizia. Due anni dopo gli ufficiali di polizia che utilizzarono il primo robot killer furono ritenuti non accusabili da un gran giurì.   L’automa uccise Micah Xavier Johnson, un riservista dell’esercito afroamericano che aveva prestato servizio in Afghanistan e che secondo gli investigatori cercava di «uccidere i bianchi» come punizione per le uccisioni di persone di colore da parte della polizia.   La Cina vuole l’implementazione militare di robot killer già per la prossima guerra. Pochi mesi fa Israele ha dichiarato l’utilizzo dell’Intelligenza Artificiale negli attacchi aerei.   L’Intelligenza Artificiale è oramai montata, con diversi gradi di realizzazione, su droni, caccia, armi teleguidate, carrarmati, «slaughterbots» e altro ancora.   Come riportato da Renovatio 21, lo scorso giugno è stato rivelato che durante una simulazione un sistema di Intelligenza Artificiale dell’aeronautica americana ha agito per uccidere il suo teorico operatore umano. A gennaio era emerso che caccia cinesi alimentati da Intelligenza Artificiale avevano battuto la concorrenza umana in un arco di soli 90 secondi.   C’è speranza, se pensiamo al robot coreano, assistente presso il consiglio comunale, che l’anno passato si è «suicidato» gettandosi dalle scale.  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Intelligenza Artificiale

La vera guerra del secolo: l’Intelligenza Artificiale

Pubblicato

il

Da

Renovatio 21 traduce e pubblica questo articolo del Brownstone Institute.

 

C’era un tempo in cui i dibattiti su determinismo e libero arbitrio appartenevano ai dipartimenti di filosofia e alle conversazioni notturne nei dormitori. Erano piacevoli proprio perché sembravano innocui. Qualunque fosse la risposta, la vita continuava. I tribunali giudicavano, i medici decidevano, gli insegnanti insegnavano e i politici erano ancora – almeno nominalmente – ritenuti responsabili delle loro azioni. Quell’epoca è finita.

 

L’Intelligenza Artificiale ha trasformato quella che un tempo sembrava una questione filosofica astratta in una questione concreta di governance, potere e responsabilità. Il determinismo non è più solo una teoria sul funzionamento dell’universo. Sta diventando un principio operativo per le istituzioni moderne. E questo cambia tutto.

 

I sistemi di Intelligenza Artificiale sono deterministici per costruzione. Operano attraverso l’inferenza statistica, l’ottimizzazione e la probabilità. Anche quando i loro risultati ci sorprendono, rimangono vincolati da vincoli matematici. Nulla in questi sistemi assomiglia al giudizio, all’interpretazione o alla comprensione in senso umano.

 

L’intelligenza artificiale non delibera.

 

Non riflette.

 

Non si assume la responsabilità dei risultati.

 

Eppure, sempre più spesso, i suoi risultati vengono trattati non come strumenti, ma come decisioni. Questa è la rivoluzione silenziosa del nostro tempo.

Sostieni Renovatio 21

Il fascino è ovvio. Le istituzioni hanno sempre dovuto fare i conti con la variabilità umana. Le persone sono incoerenti, emotive, lente e a volte disobbedienti. Le burocrazie preferiscono la prevedibilità, e gli algoritmi promettono esattamente questo: decisioni standardizzate su larga scala, immuni alla stanchezza e al dissenso.

 

In sanità, gli algoritmi promettono un triage più efficiente. In finanza, una migliore valutazione del rischio. Nell’istruzione, una valutazione oggettiva. Nelle politiche pubbliche, una governance “basata sull’evidenza”. Nella moderazione dei contenuti, la neutralità. Chi potrebbe obiettare a sistemi che pretendono di eliminare i pregiudizi e ottimizzare i risultati? Ma dietro questa promessa si cela una confusione di fondo.

 

La previsione non è un giudizio.

 

L’ottimizzazione non è saggezza.

 

La coerenza non è legittimità.

 

Il processo decisionale umano non è mai stato puramente computazionale. È interpretativo per natura. Le persone valutano il contesto, il significato, le conseguenze e l’intuizione morale. Attingono alla memoria, all’esperienza e a un senso di responsabilità, per quanto imperfetto, per ciò che segue. Questo è esattamente ciò che le istituzioni trovano scomodo.

 

Il giudizio umano crea attriti. Richiede spiegazioni. Espone i decisori a colpevolizzazioni. I sistemi deterministici, al contrario, offrono qualcosa di molto più attraente: decisioni senza decisori.

 

Quando un algoritmo nega un prestito, segnala un cittadino, declassa un paziente o sopprime la parola, nessuno sembra responsabile. È stato il sistema a farlo. Sono stati i dati a parlare. È stato il modello a decidere.

 

Il determinismo diventa un alibi burocratico.

Iscriviti al canale Telegram

La tecnologia ha sempre plasmato le istituzioni, ma fino a poco tempo fa si limitava ad ampliare l’azione umana. Le calcolatrici aiutavano il ragionamento. I fogli di calcolo chiarivano i compromessi. Persino i primi software lasciavano agli esseri umani un controllo visibile. L’Intelligenza Artificiale cambia questa relazione.

 

I sistemi progettati per prevedere sono ora in grado di decidere. Le probabilità si consolidano in politiche. I punteggi di rischio diventano verdetti. Le raccomandazioni si trasformano silenziosamente in obblighi. Una volta radicati, questi sistemi sono difficili da contestare. Dopotutto, chi può discutere con «la scienza»?

 

Ecco perché il vecchio dibattito filosofico è diventato urgente.

 

Il determinismo classico si basava su un principio di causalità: con informazioni sufficienti, il futuro poteva essere previsto. Oggi, il determinismo si sta trasformando in una filosofia di governance. Se i risultati possono essere previsti con sufficiente precisione, si chiedono le istituzioni, perché consentire discrezionalità?

 

Il non-determinismo viene spesso caricaturalmente descritto come caos. Ma, correttamente inteso, non è né casualità né irrazionalità. È lo spazio in cui avviene l’interpretazione, in cui i valori vengono soppesati e in cui la responsabilità ricade su una persona piuttosto che su un processo.

 

Eliminando quello spazio, il processo decisionale non diventa più razionale. Diventa irresponsabile.

 

Il vero pericolo dell’IA non è l’intelligenza incontrollata o le macchine senzienti. È la lenta erosione della responsabilità umana sotto la bandiera dell’efficienza.

 

Il conflitto decisivo del XXI secolo non sarà tra esseri umani e macchine. Sarà tra due visioni dell’intelligenza: l’ottimizzazione deterministica e la creazione di significato in condizioni di incertezza.

 

Uno è scalabile.

 

L’altro è responsabile.

 

L’Intelligenza Artificiale ci costringe a decidere quale governa le nostre vite.

 

Joaquim Couto

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

La prossima strategia nazionale di Trump si concentrerà sui robot umanoidi

Pubblicato

il

Da

La strategia industriale nazionale del presidente Trump si concentra sull’espansione del predominio degli Stati Uniti nei settori dei semiconduttori, dell’Intelligenza Artificiale, della produzione di terre rare, delle tecnologie pulite, dello spazio e di altre tecnologie emergenti che dovrebbero dominare l’economia globale negli anni Trenta. In seguito alla spinta dell’amministrazione ad accelerare la costruzione di data center basati sull’AI e l’ammodernamento della rete elettrica il prossimo obiettivo principale sarà la robotica umanoide. Lo riporta Politico.   Secondo fonti della testata, il segretario al Commercio Howard Lutnick ha incontrato i dirigenti delle principali aziende tecnologiche e sta valutando un ordine esecutivo per il prossimo anno per stimolare lo sviluppo e la produzione nazionale di robot umanoidi, mentre il dipartimento dei Trasporti sta istituendo un gruppo di lavoro sulla robotica .   La tempistica è degna di nota: la Tesla di Elon Musk si sta preparando ad aumentare la produzione del suo robot Optimus a un milione di unità entro la fine del prossimo anno. All’inizio di questo autunno, Tesla avrebbe effettuato un massiccio ordine di attuatori lineari dalla Cina, suggerendo che la produzione di Optimus è destinata ad aumentare nel breve termine.

Iscriviti al canale Telegram

Un portavoce del dipartimento del Commercio ha dichiarato al quotidiano: «siamo impegnati nella robotica e nella produzione avanzata perché sono fondamentali per riportare la produzione critica negli Stati Uniti».   «Anche a Capitol Hill si registra un crescente interesse. Un emendamento repubblicano al National Defense Authorization Act avrebbe creato una commissione nazionale per la robotica. L’emendamento non è stato incluso nel disegno di legge. Sono in corso altri lavori legislativi» scrive Politico.   L’amministrazione Trump è consapevole che questo periodo rappresenta un momento di trasformazione nella storia dell’umanità e un punto in cui è essenziale una strategia nazionale per incrementare rapidamente la capacità industriale e posizionare gli Stati Uniti come leader nell’IA, nei robot, nei droni e nei chip, mentre il mondo si frantuma in uno stato bipolare nel mezzo di una corsa alla superpotenza tecnologica con la Cina che entrerà nel vivo nel prossimo decennio.   Nelloro rapporto Global Insight pubblicato all’inizio di quest’anno, il reparto Autos and Industrials della banca d’affari Morgan Stanley hanno stimato che l’adozione cumulativa globale di umanoidi potrebbe raggiungere 1 miliardo entro il 2050. In genere ipotizzano un ritmo di adozione relativamente lento fino alla metà degli anni 2030 , dopodiché ritengono che il ritmo inizierà ad accelerare materialmente verso la fine degli anni 2030 e gli anni 2040, dato 1) il progresso tecnologico nei modelli di base hardware e AI, che potrebbe richiedere più di un decennio per creare umanoidi «veri» per scopi generali in grado di svolgere la stragrande maggioranza dei compiti utili; 2) il calo dei prezzi con la maturazione delle tecnologie e lo sviluppo delle catene di fornitura; e 3) una maggiore accettazione sociale e politica.   Ciò che Trump sta facendo oggi è preparare gli USA per gli anni 2030. Le catene di approvvigionamento devono essere localizzate, le terre rare devono essere abbondanti e gli Stati Uniti devono avere la capacità industriale per sviluppare queste tecnologie innovative a livello nazionale o su coste amichevoli.   Come riportato da Renovatio 21, due settimane fa la commissione di programmazione economica nazionale della Repubblica Popolare Cinese ha ammonito che settore cinese dei robot umanoidi è esposto al pericolo di una bolla speculativa.   Il mese scorso, lil CEO di Tesla, Elon Musk, secondo cui una «legione di robot» potrebbe materializzarsi in un orizzonte temporale prossimo.   L’umanoide di Tesla, Optimus, ha già debuttato in occasioni societarie compiendo operazioni basilari; una variante aggiornata, Optimus V3, è attesa per il primo trimestre del 2026.   Musk, che sostiene che in cinque anni i robot supereranno i chirurghi umani, ha sostenuto che questi automi potrebbero rivoluzionare la società, rilevando il lavoro manuale o rendendolo opzionale per l’umanità. Elone intende inoltre iniziare la colonizzazione di Marte a partire dai robot.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
Immagine generata artificialmente
Continua a leggere

Più popolari