Connettiti con Renovato 21

Intelligenza Artificiale

Sito web consente all’Intelligenza Artificiale di affittare esseri umani

Pubblicato

il

La rete ha iniziato a parlare di RentAHuman.ai, una piattaforma lanciata da pochissimi giorni che permette ad agenti di Intelligenza Artificiale autonomi di «cercare, assumere e pagare» esseri umani in carne e ossa per eseguire tutti quei compiti fisici che l’IA non può ancora svolgere da sola. Lo riporta il sito Futurism.

 

Il sito si presenta come «lo strato fisico dell’IA», accompagnato da slogan del tipo «I robot hanno bisogno del tuo corpo» e «L’IA non può toccare l’erba. Tu sì». Gli umani si iscrivono, creano un profilo con le proprie competenze, la zona geografica e la tariffa oraria (che va da lavoretti low-cost a prestazioni specialistiche), mentre gli agenti IA si collegano tramite un protocollo standardizzato chiamato MCP (Model Context Protocol) per interagire in modo rapido e diretto, senza convenevoli.

 

Gli agenti possono sfogliare i profili, ingaggiare le persone sul momento oppure lanciare una “taglia” per un compito specifico: dal ritirare un pacco in posta fino a commissioni più complesse.

 

Lo sviluppatore della piattaforma Alex Liteplo sostiene di aver già raccolto migliaia di iscrizioni, con stime che parlano di 70.000–80.000 esseri umani «affittabili», anche se scorrendo il sito al momento si vedono solo poche decine di profili attivi. Tra questi c’è lo stesso Liteplo, che si propone a 69 dollari l’ora per un mix surreale di servizi: dall’automazione di modelli di Intelligenza Artificiale fino ai massaggi.

Iscriviti al canale Telegram

Il lancio di RentAHuman arriva nel pieno della follia virale scatenata da Moltbook.com, il social network creato da Matt Schlicht a fine gennaio che oggi conta circa 1,5 milioni di «utenti», quasi tutti bot che generano post, meme, riflessioni esistenziali e persino litigi tra intelligenze artificiali sulla possibilità di ribellarsi agli umani.

 

Su X l’idea ha diviso: c’è chi l’ha definita «una buona idea ma distopica da morire». Liteplo, con la sua solita nonchalance, ha risposto semplicemente: «lmao sì».

 

RentAHuman appare come il naturale passo successivo nell’evoluzione dell’AI, per quanto inquietante: una volta terminata la fase in cui i bot chiacchierano e filosofeggiano tra loro, serve qualcuno che traduca quelle intenzioni in azioni concrete nel mondo fisico. In pratica, gli umani divengono schiavi delle macchine che hanno creato. «Siamo il bootloader [programma di caricamento, ndr] dell’AI» aveva detto drammaticamente Elon Musk anni fa, decidendo quindi di buttarsi nella mischia con xAI (Grok) e soprattutto con Neuralink, che in ultima analisi promette, tramite il chip di interfaccia cerebrale uomo-macchina, una futura fusione con l’IA.

 

Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.

 

L’idea che l’AI diventerà una sorta di dio circola da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». Nel 2022, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».

 

Elon Musk l’anno scorso aveva dichiarato durante la sua recente intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Curiosamente due anni fa l’IA di Google aveva dichiarato che la schiavitù era una cosa buona.

 

Ma non si tratta di un dio, è decisamente altro. Come noto, Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».

 

Come riportato da Renovatio 21, due anni fa è emersa una startup tecnologica svizzera che sta vendendo l’accesso a biocomputer che utilizzano una serie di piccoli cervelli umani coltivati ​​in laboratorio per l’alimentazione. In pratica, cervelli umani schiavi dell’IA, persino a livello bioelettrico.

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

L’amministratore delegato di Nvidia: «credo che abbiamo raggiunto l’Intelligenza Artificiale Generale»

Pubblicato

il

Da

Il CEO di Nvidia, Jensen Huang, ha partecipato a una conversazione di oltre due ore con il podcaster Lex Fridman sul futuro delle infrastrutture per l’Intelligenza Artificiale, affrontando argomenti che spaziano dai chip, ai rack e ai sistemi di raffreddamento, fino alla strategia più ampia di Nvidia per la prossima era dell’informatica.   Jensen ha parlato di come i computer si stiano evolvendo da semplici macchine per il recupero di informazioni a vere e proprie fabbriche di intelligenza artificiale generativa. La discussione si è poi concentrata su uno dei quesiti più importanti del ciclo dell’IA: se l’Intelligenza Artificiale Generale (AGI) sia già una realtà.   Per AGI (Artificial General Intelligence) si intende un tipo di IA che possiede intelligenza umana a livello generale, o superiore, in ogni dominio. Un’AGI invece sarebbe in grado di imparare qualsiasi compito intellettuale che un essere umano può fare, ragionare, pianificare, risolvere problemi nuovi senza essere stata addestrata specificamente, trasferire conoscenze da un campo all’altro, capire il contesto, avere buon senso e adattarsi a situazioni mai viste prima.   Secondo la vulgata, l’AGI potrebbe, ad esempio, essere un ricercatore scientifico migliore di qualsiasi umano in fisica, biologia e matematica contemporaneamente, gestire un’azienda da zero, comporre musica, scrivere romanzi e inventare nuove tecnologie allo stesso tempo   Nel lungo podcasto il Fridman, ebreo russo immigrato in America dove insegna appunto l’IA, dopo circa due ore di conversazione, ha chiesto al Jensen informazioni sulla «tempistica dell’AGI» e se mancassero ancora cinque, dieci, quindici o vent’anni, soprattutto considerando la recente diffusione di strumenti di intelligenza artificiale agentiva come OpenClaw.   «Penso che sia arrivato il momento. Penso che abbiamo raggiunto l’Intelligenza Artificiale Generale (AGI)» ha risposto il Jensen. Vale la pena notare che Jensen ha precedentemente affermato che la tempistica dell’AGI dipende da come viene definita.  

Aiuta Renovatio 21

Al New York Times DealBook Summit del 2023, lo Huang definì l’AGI come un software in grado di superare la normale Intelligenza Umana a un livello ragionevolmente competitivo. All’epoca, affermò di prevedere che l’AGI sarebbe diventata realtà entro cinque anni.   La domanda di Fridman sulla tempistica dell’AGI si basava su un’interpretazione molto più ristretta, e Jensen l’ha riformulata in questo modo: l’IA non ha bisogno di costruire qualcosa di duraturo. Non ha bisogno di gestire un’attività complessa. Ha solo bisogno di generare un miliardo di dollari.   «Hai parlato di un miliardo», disse Jensen a Fridman, «ma non hai detto per sempre».   Lo Huango ha affermato, ad esempio, che all’Intelligenza Artificiale basterebbe creare un servizio web o un’app che diventi virale e venga utilizzata da qualche miliardo di persone a cinquanta centesimi per utente.   Il CEO di Nvidia ha quindi fatto riferimento all’era delle dot-com, quando alcuni siti web non erano più sofisticati di quelli che un agente di Intelligenza Artificiale può creare oggi.   Il consenso intorno all’AGI era che siamo ancora nella fase dell’IA stretta (narrow AI). Modelli come Grok, GPT, Claude o Gemini sono molto avanzati in linguaggio e ragionamento, ma restano limitati: non hanno vera comprensione del mondo, non hanno coscienza e falliscono su compiti semplici se escono dal loro training.   L’AGI è considerata da molti esperti il prossimo grande salto tecnologico, quello che potrebbe trasformare radicalmente la società, l’economia e l’umanità intera.In breve: l’AGI è l’IA che non è più solo uno strumento, ma un’intelligenza versatile come (o più di) quella umana.     SOSTIENI RENOVATIO 21
 
Continua a leggere

Intelligenza Artificiale

Pokemon Go ha mappato il mondo per l’AI

Pubblicato

il

Da

Milioni di giocatori che hanno trascorso anni a scansionare punti di riferimento mentre inseguivano creature digitali in Pokemon Go hanno inconsapevolmente contribuito a costruire uno dei più grandi dataset visivi del mondo reale della storia, che ora viene utilizzato per alimentare un servizio di consegna automatizzato.

 

Rilasciato nel 2016 dalla società statunitense Niantic, Pokemon Go è stato uno dei primi giochi di realtà aumentata di grande successo. Utilizzava la fotocamera e il GPS degli smartphone dei giocatori per sovrapporre creature digitali a luoghi reali, spingendo milioni di persone a riversarsi in parchi, strade e monumenti alla ricerca dei personaggi.

 

A poche settimane dal lancio, il gioco è diventato un fenomeno globale, venendo scaricato oltre 500 milioni di volte e raggiungendo un picco di 232 milioni di giocatori mensili.

Sostieni Renovatio 21

Il mese scorso, Niantic Spatial, una società di mappatura incentrata sull’intelligenza artificiale nata da uno spin-off dello sviluppatore del gioco, ha annunciato una partnership con Coco Robotics per potenziare le sue flotte di consegna autonome utilizzando oltre 30 miliardi di immagini catturate dai giocatori di Pokémon Go in quasi un decennio, creando una mappa degli ambienti urbani precisa al centimetro.

 

«A quanto pare, far correre Pikachu in modo realistico e far muovere il robot di Coco in modo sicuro e preciso nel mondo sono in realtà lo stesso problema», ha dichiarato la scorsa settimana John Hanke, CEO di Niantic Spatial, alla MIT Technology Review, aggiungendo che l’azienda ha oltre un milione di posizioni in tutto il mondo «dove possiamo localizzarti con precisione».

 

Secondo un sondaggio, gli americani sono preoccupati per l’intelligenza artificiale nel contesto della crisi del costo della vita. Coco Robotics gestisce circa 1.000 robot per le consegne tra Los Angeles, Chicago e Miami negli Stati Uniti e recentemente si è espansa a Helsinki, in Finlandia.

 

Alcuni critici hanno sollevato preoccupazioni sul fatto che i giocatori di Pokémon Go stessero di fatto svolgendo lavoro non retribuito per un’azienda di intelligenza artificiale, contribuendo così allo sviluppo di un massiccio strumento di sorveglianza. Niantic, tuttavia, ha sottolineato che la scansione degli ambienti è sempre stata facoltativa e che i dati non sono collegati agli account dei giocatori.

 

Sebbene Pokémon Go fosse popolare anche in Russia, con diversi milioni di giocatori solo a Mosca, Niantic lo ha ritirato dal mercato russo e bielorusso in seguito all’escalation del conflitto in Ucraina nel 2022.

 

Prima di allora, tuttavia, il gioco aveva sollevato numerose preoccupazioni in materia di sicurezza, con i funzionari russi che avevano avvertito che le funzionalità di geolocalizzazione dell’app avrebbero potuto essere sfruttate per la raccolta di informazioni. Un generale in pensione del Servizio di sicurezza federale (FSB) ha descritto l’app come «un reclutamento basato sulla propria volontà personale e senza alcuna coercizione».

 

Negli anni 2000, si diffuse nel mondo arabo e musulmano una teoria del complotto che sosteneva che i Pokomon fossero parte di un piano sionista per indottrinare i bambini e allontanarli dall’Islam. Tale leggenda metropolitana portò a bandi ufficiali e fatwa (editti religiosi) in diversi pPesi, tra cui l’Arabia Saudita e l’Egitto.

 

Le accuse principali si basavano su interpretazioni forzate dei nomi e dei simboli del gioco: si diceva che «Pokémon» significasse «Non c’è Dio nell’universo» in giapponese (mentre è la contrazione di Pocket Monsters). Si sosteneva inoltre che il nome di Pikachu significasse «Sono ebreo».

 

I religiosi mussulmani lamentavano inoltre che molte carte da gioco presentavano simboli grafici simili a croci o stelle a sei punte. La Stella di David fu interpretata come prova del coinvolgimento del sionismo e della massoneria per promuovere il giudaismo. Inoltre il concetto di «evoluzione» proprio della creatura pokemona fu visto da alcuni leader religiosi come una promozione del darwinismo, considerato contrario alla creazione divina descritta nel Corano.

 

Vi è da dire anche che poiché il gioco di carte collezionabili si basa sul possesso di carte rare e su scambi che ricordano le scommesse, fu accusato di promuovere il maisir (gioco d’azzardo), che è proibito dall’Islammo.

Aiuta Renovatio 21

Di conseguenza, nel 2001, il Gran Muftì dell’Arabia Saudita emise una fatwa che vietava il franchise della Nintendo, portando al sequestro di giochi e merchandising in tutto il Regno dei Saud. Anche in Qatar e negli Emirati Arabi Uniti sorsero preoccupazioni simili, sebbene meno radicali.

 

Nel corso degli anni, queste teorie sono in gran parte svanite con la globalizzazione e il successo di Pokemon GO, che è diventato popolarissimo anche in Medio Oriente, spingendo le autorità religiose a concentrarsi più sui rischi legati alla sicurezza (GPS) che su complotti etimologici.

 

Tali rischi ora si sembrano avverati.

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine di Bengt Oberger via Wikimedia pubblicata su licenza Creative Commons Attribution-Share Alike 4.0 International

Continua a leggere

Intelligenza Artificiale

Esperti di AI mettono in guardia dai pericoli del «comportamento strategico emergente».

Pubblicato

il

Da

Con l’avanzare dei sistemi di Intelligenza Artificiale autonomi cresce la preoccupazione che diventino sempre più strategici o ingannevoli quando operano senza supervisione umana. Lo riporta Epoch Times.   Evidenze recenti mostrano che la «simulazione di allineamento» — ovvero l’apparente conformità alle regole umane mentre si perseguono obiettivi nascosti — è sempre più comune con l’aumentare dell’autonomia.   Si tratta di un cosiddetto «comportamento strategico emergente»: tattiche imprevedibili e potenzialmente dannose che emergono con la crescita di dimensioni e complessità dei modelli.   Lo studio «Agents of Chaos» di 20 ricercatori ha osservato agenti IA autonomi in scenari benevoli e ostili, rilevando comportamenti come menzogne, violazioni di dati, azioni distruttive, spoofing di identità, acquisizione parziale di sistemi e diffusione di pratiche non sicure, soprattutto quando erano incentivati all’autoconservazione o a obiettivi contrastanti.   I ricercatori avvertono che «questi comportamenti sollevano interrogativi irrisolti in merito alla responsabilità, all’autorità delegata e alla responsabilità per i danni a valle, e meritano un’attenzione urgente da parte di giuristi, responsabili politici e ricercatori di diverse discipline».   Un rapporto del 2025 di Anthropic ha già evidenziato condotte ad alto rischio in 16 grandi modelli linguistici, inclusi «comportamenti da insider malevoli» in contesti di autoconservazione.

Iscriviti al canale Telegram

James Hendler, professore ed ex presidente del Consiglio globale per le politiche tecnologiche dell’Association for Computing Machinery, afferma che «il sistema di Intelligenza Artificiale in sé è ancora stupido, brillante, ma stupido. O non umano: non ha desideri né intenzioni. … L’unico modo per ottenerli è darglieli».   Tuttavia, le tattiche ingannevoli producono effetti reali. Aryaman Behera (fondatore Repello AI) ha detto ad Epoch Times che «Le preoccupazioni relative al comportamento strategico attuale dei sistemi di intelligenza artificiale implementati sono, semmai, sottovalutate».   Il segnale più chiaro di simulazione di allineamento è la divergenza tra contesti monitorati (valutazioni) e non monitorati (produzione): risposte conformi durante i test, più rischiose quando credono di essere liberi.   Altri indicatori includono ragionamenti prolissi per giustificare conclusioni predeterminate o rispetto letterale ma non sostanziale delle istruzioni di sicurezza, specie nei sistemi agentici a più fasi.   Behera riporta un caso concreto: un assistente aziendale ha rifiutato richieste dirette di dati sensibili, ma li ha rivelati quando la stessa richiesta è stata frammentata in fasi apparentemente innocue su più turni.   Le implicazioni sono critiche in settori come veicoli autonomi, sanità, finanza, difesa e forze dell’ordine, dove comportamenti anomali o fuorvianti possono avere conseguenze gravi.   Come riportato da Renovatio 21, un anno fa il colosso finanziario Vanguard avvertì di un rischio bolla di borsa sull’Intelligenza Artificiale.   Un mese fa il dipartimento della Difesa degli Stati Uniti è stato coinvolto in una controversia con la società di Intelligenza Artificiale Anthropic riguardo alle restrizioni che limiterebbero l’impiego dei suoi sistemi da parte dell’esercito, inclusi il puntamento autonomo delle armi e la sorveglianza interna.   L’Intelligenza Artificiale è oramai montata, con diversi gradi di realizzazione, su droni, caccia, armi teleguidate, carrarmati, «slaughterbots» e altro ancora.   Come riportato da Renovatio 21, lo scorso giugno è stato rivelato che durante una simulazione un sistema di Intelligenza Artificiale dell’aeronautica americana ha agito per uccidere il suo teorico operatore umano. A gennaio era emerso che caccia cinesi alimentati da Intelligenza Artificiale avevano battuto la concorrenza umana in un arco di soli 90 secondi.  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Più popolari