Connettiti con Renovato 21

Intelligenza Artificiale

L’Intelligenza Artificiale ucciderà la scrittura e dividerà il mondo tra chi pensa e chi no

Pubblicato

il

L’uso dell’intelligenza artificiale (IA) nella scrittura, sia sul lavoro che a scuola, porterà la maggior parte delle persone a perdere questa competenza nel giro di qualche decennio. È l’allarme di Paul Graham, informatico e scrittore, figura centrale della Silicon Valley per anni, che ritiene che a breve la maggior parte delle persone dimenticherà come leggere, scrivere e pensare in modo chiaro, poiché le reti neurali lo faranno per loro.

 

La capacità di leggere e scrivere sarà la sorte degli eletti, dunque..

 

Secondo il Graham, la mancanza di facoltà scrittorie creerà un problema perché scrivere significa pensare, ritiene Graham, investitore veterano e cofondatore di Y Combinator, il primo, grande acceleratore di startup e società di capitale di rischio. Sam Altman, il discusso CEO di OpenAI, ha iniziato proprio come sostituto di Graham a Y Combinatori.

Iscriviti al canale Telegram

«Il motivo per cui così tante persone hanno difficoltà a scrivere è che è fondamentalmente difficile. Per scrivere bene, devi pensare in modo chiaro, e pensare in modo chiaro è difficile», ha detto in un saggio pubblicato sul suo sito web la scorsa settimana.

 

Tuttavia, lo sviluppo della tecnologia ha permesso alle persone di esternalizzare la scrittura all’Intelligenza Artificiale. Non c’è più bisogno di imparare a scrivere, o di assumere qualcuno che lo faccia per te, o persino di fare plagio, ha scritto lo scienziato anglo-americano.

 

«Di solito sono riluttante a fare previsioni sulla tecnologia, ma su questa mi sento abbastanza sicuro: tra un paio di decenni non ci saranno molte persone in grado di scrivere», ha affermato il Graham.

 

È comune che le competenze scompaiano man mano che le tecnologie le sostituiscono; dopotutto, «non ci sono più molti fabbri, e non sembra essere un problema», ha ammesso. Ma che le persone non siano in grado di scrivere è «un male», ha insistito.

 

«Un mondo diviso tra chi scrive e chi non scrive è più pericoloso di quanto sembri. Sarà un mondo di chi pensa e chi non pensa», crede Graham: secondo la definizione di questi, l’umanità sarà divisa in write e write-nots, che diverranno think e think-nots.

 

Non sarà una situazione senza precedenti, ha osservato, riferendosi all’epoca preindustriale, quando «il lavoro della maggior parte delle persone le rendeva forti».

 

«Ora, se vuoi essere forte, ti alleni. Quindi ci sono ancora persone forti, ma solo quelle che scelgono di esserlo«, ha detto Graham. Secondo lui, sarà lo stesso con la scrittura. «Ci saranno ancora persone intelligenti, ma solo quelle che scelgono di esserlo».

 

Circa l’86% degli studenti usa l’IA nei propri studi, secondo un recente sondaggio del Digital Education Council. Mentre il 28% di loro ricorre alle tecnologie per parafrasare i documenti, il 24% usa l’IA per creare le prime bozze, ha scoperto lo studio.

Aiuta Renovatio 21

Come noto, l’AI sviluppata dall’allievo di Graham Sam Altman è addestrata per mentire agli esseri umani. ChatGPT simula la conoscenza e fornisce dati completamente errati, talvolta chiaramente influenzati dalla mentalità goscista dei programmatori californiani.

 

Ciononostante, Bill Gates vi ha investito miliardi e, rifiutando le moratorie sui pericoli dell’IA firmate da tantissimi esperti, è arrivato a dichiarare che i robot «salveranno la democrazia» e diverranno «buoni maestri».

 

Come scritto da Renovatio 21, se non verrà posto un freno all’IA essa finirà non solo per divorare il lavoro degli insegnanti, ma la realtà stessa, che sarà filtrata e distorta dalle macchine oracolari, senza cui non sarà possibilè più scrivere, pensare, esistere.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

Continua a leggere

Intelligenza Artificiale

Sito web consente all’Intelligenza Artificiale di affittare esseri umani

Pubblicato

il

Da

La rete ha iniziato a parlare di RentAHuman.ai, una piattaforma lanciata da pochissimi giorni che permette ad agenti di Intelligenza Artificiale autonomi di «cercare, assumere e pagare» esseri umani in carne e ossa per eseguire tutti quei compiti fisici che l’IA non può ancora svolgere da sola. Lo riporta il sito Futurism.   Il sito si presenta come «lo strato fisico dell’IA», accompagnato da slogan del tipo «I robot hanno bisogno del tuo corpo» e «L’IA non può toccare l’erba. Tu sì». Gli umani si iscrivono, creano un profilo con le proprie competenze, la zona geografica e la tariffa oraria (che va da lavoretti low-cost a prestazioni specialistiche), mentre gli agenti IA si collegano tramite un protocollo standardizzato chiamato MCP (Model Context Protocol) per interagire in modo rapido e diretto, senza convenevoli.   Gli agenti possono sfogliare i profili, ingaggiare le persone sul momento oppure lanciare una “taglia” per un compito specifico: dal ritirare un pacco in posta fino a commissioni più complesse.   Lo sviluppatore della piattaforma Alex Liteplo sostiene di aver già raccolto migliaia di iscrizioni, con stime che parlano di 70.000–80.000 esseri umani «affittabili», anche se scorrendo il sito al momento si vedono solo poche decine di profili attivi. Tra questi c’è lo stesso Liteplo, che si propone a 69 dollari l’ora per un mix surreale di servizi: dall’automazione di modelli di Intelligenza Artificiale fino ai massaggi.

Iscriviti al canale Telegram

Il lancio di RentAHuman arriva nel pieno della follia virale scatenata da Moltbook.com, il social network creato da Matt Schlicht a fine gennaio che oggi conta circa 1,5 milioni di «utenti», quasi tutti bot che generano post, meme, riflessioni esistenziali e persino litigi tra intelligenze artificiali sulla possibilità di ribellarsi agli umani.   Su X l’idea ha diviso: c’è chi l’ha definita «una buona idea ma distopica da morire». Liteplo, con la sua solita nonchalance, ha risposto semplicemente: «lmao sì».   RentAHuman appare come il naturale passo successivo nell’evoluzione dell’AI, per quanto inquietante: una volta terminata la fase in cui i bot chiacchierano e filosofeggiano tra loro, serve qualcuno che traduca quelle intenzioni in azioni concrete nel mondo fisico. In pratica, gli umani divengono schiavi delle macchine che hanno creato. «Siamo il bootloader [programma di caricamento, ndr] dell’AI» aveva detto drammaticamente Elon Musk anni fa, decidendo quindi di buttarsi nella mischia con xAI (Grok) e soprattutto con Neuralink, che in ultima analisi promette, tramite il chip di interfaccia cerebrale uomo-macchina, una futura fusione con l’IA.   Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.   L’idea che l’AI diventerà una sorta di dio circola da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». Nel 2022, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».   Elon Musk l’anno scorso aveva dichiarato durante la sua recente intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Curiosamente due anni fa l’IA di Google aveva dichiarato che la schiavitù era una cosa buona.   Ma non si tratta di un dio, è decisamente altro. Come noto, Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».   Come riportato da Renovatio 21, due anni fa è emersa una startup tecnologica svizzera che sta vendendo l’accesso a biocomputer che utilizzano una serie di piccoli cervelli umani coltivati ​​in laboratorio per l’alimentazione. In pratica, cervelli umani schiavi dell’IA, persino a livello bioelettrico.  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Intelligenza Artificiale

Generale dell’intelligence militare russa ferito in un attentato

Pubblicato

il

Da

Un alto funzionario dell’Intelligence militare russa, il tenente generale Vladimir Alekseev, è rimasto ferito in un presunto tentativo di assassinio a Mosca venerdì, secondo quanto riferito dal Comitato investigativo russo.

 

Il generale, 64 anni e primo vice capo della Direzione principale dell’intelligence (GRU) dal 2011, è stato colpito più volte alla schiena da un uomo armato non identificato fuori dalla sua abitazione, in un condominio nella zona nord-occidentale della capitale. È stato immediatamente trasportato in ospedale, dove le sue condizioni sono descritte come gravi o critiche, anche se non sono stati forniti aggiornamenti ufficiali dettagliati.

 

Le autorità hanno aperto un’inchiesta per tentato omicidio e traffico illegale di armi, mentre l’assalitore è fuggito e risulta ricercato. Sul posto stanno operando investigatori e tecnici della scientifica.

 

I funzionari russi non hanno indicato pubblicamente i responsabili, ma il ministro degli Esteri Sergei Lavrov ha accusato l’Ucraina di aver orchestrato l’attacco come atto terroristico per sabotare i negoziati di pace in corso. L’Intelligence ucraina ha in passato definito Alekseev un ðcriminale internazionale» e Kiev è stata collegata a precedenti operazioni contro alti ufficiali e comandanti russi.

 

 


Iscriviti alla Newslettera di Renovatio 21

Alekseev, decorato nel 2017 con il titolo di Eroe della Federazione Russa, ha supervisionato operazioni antiterrorismo in Siria e ha avuto un ruolo chiave nell’intelligence legata all’invasione dell’Ucraina nel 2022, oltre a essere coinvolto nella repressione della ribellione Wagner nel 2023. È sotto sanzioni occidentali per presunti legami con cyberattacchi e l’uso di agenti nervini.

 

Il ministro degli Esteri russo Sergej Lavrov ha dichiarato che il governo ucraino sta ancora una volta tentando di sabotare i negoziati di pace attraverso il terrorismo, descrivendo l’incidente come un «atto terroristico» che «ha confermato ancora una volta l’attenzione del regime di Zelens’kyj su provocazioni costanti volte, a loro volta, a interrompere il processo negoziale».

 

Le autorità ucraine sembrano inoltre determinate a «fare qualsiasi cosa» per convincere i loro sponsor occidentali a ostacolare qualsiasi tentativo di raggiungere una giusta soluzione del conflitto, ha aggiunto il ministro.

 

Il presunto tentativo di assassinio arriva poco dopo il secondo round di colloqui di pace trilaterali tra Russia, Stati Uniti e Ucraina, tenutosi mercoledì e giovedì ad Abu Dhabi. L’inviato speciale degli Stati Uniti Steve Witkoff ha descritto le consultazioni come «produttive».

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine da Twitter

Continua a leggere

Intelligenza Artificiale

Il Pentagono vuole un’intelligenza artificiale killer senza garanzie

Pubblicato

il

Da

Il dipartimento della Difesa degli Stati Uniti è coinvolto in una controversia con la società di Intelligenza Artificiale Anthropic riguardo alle restrizioni che limiterebbero l’impiego dei suoi sistemi da parte dell’esercito, inclusi il puntamento autonomo delle armi e la sorveglianza interna.   Il disaccordo ha bloccato un contratto da 200 milioni di dollari, poiché i funzionari militari si oppongono a quelli che ritengono vincoli eccessivi imposti dall’azienda con sede a San Francisco sull’utilizzo della sua tecnologia, secondo quanto riportato da Reuters, che cita sei persone informate sulla vicenda.   Fonti citate da Reuters hanno riferito che Anthropic nutre timori sul fatto che i suoi strumenti di AI possano essere impiegati per condurre operazioni letali senza un’adeguata supervisione umana o per monitorare i cittadini americani.   I rappresentanti del Pentagono, tuttavia, sostengono che i sistemi di IA commerciali debbano poter essere utilizzati per scopi militari, indipendentemente dalle politiche interne di utilizzo stabilite dall’azienda, a patto che rispettino la legislazione statunitense.

Sostieni Renovatio 21

La disputa si colloca nel quadro più ampio degli sforzi dell’amministrazione Trump per integrare con rapidità l’AI artificiale nelle forze armate. All’inizio di questo mese, il Dipartimento della Difesa ha presentato una nuova strategia finalizzata a trasformare l’esercito statunitense in una forza «AI-first», cioè prioritariamente basata sull’Intelligenza Artificiale.   Il Pentagono considera essenziale mantenere il pieno controllo sull’impiego degli strumenti di IA sia sul campo di battaglia sia nelle operazioni di Intelligence. Il segretario alla Difesa Pete Hegseth ha dichiarato che non verranno adottati modelli che «non consentono di combattere guerre».   Un portavoce di Anthropic ha precisato che l’Intelligenza Artificiale dell’azienda è «ampiamente utilizzata dal governo degli Stati Uniti per missioni di sicurezza nazionale» e che sono in corso «discussioni produttive con il Dipartimento della Difesa su come proseguire tale collaborazione». Il Pentagono non ha ancora commentato ufficialmente la presunta rottura.   Il CEO di Anthropic, Dario Amodei, ha più volte espresso preoccupazione sui rischi legati a un uso incontrollato dell’IA, in particolare nella sorveglianza di massa e nei sistemi d’arma completamente autonomi. In un recente saggio ha affermato che l’azienda dovrebbe sostenere la difesa nazionale «in tutti i modi, tranne quelli che ci renderebbero più simili ai nostri avversari autocratici».   Lo stallo rappresenta un rischio significativo per Anthropic, che ha investito notevolmente nel conquistare clienti governativi e del settore della sicurezza nazionale e si sta preparando a una possibile quotazione in borsa. L’azienda è stata tra i principali sviluppatori di IA – insieme a OpenAI, Google e xAI di Elon Musk – ad aggiudicarsi contratti con il Pentagono nel corso dell’anno scorso.   Come riportato da Renovatio 21, ancora tre anni fa la Repubblica Popolare stava investendo in piattaforme abilitate all’Intelligenza Artificiale completamente senza input o controllo umano. La Cina vuole l’implementazione militare di robot killer già per la prossima guerra. Pochi mesi fa Israele ha dichiarato l’utilizzo dell’Intelligenza Artificiale negli attacchi aerei.   L’Intelligenza Artificiale è oramai montata, con diversi gradi di realizzazione, su droni, caccia, armi teleguidate, carrarmati, «slaughterbots» e altro ancora.   Come riportato da Renovatio 21, lo scorso giugno è stato rivelato che durante una simulazione un sistema di Intelligenza Artificiale dell’aeronautica americana ha agito per uccidere il suo teorico operatore umano. A gennaio era emerso che caccia cinesi alimentati da Intelligenza Artificiale avevano battuto la concorrenza umana in un arco di soli 90 secondi.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Più popolari