Connettiti con Renovato 21

Intelligenza Artificiale

La vera guerra del secolo: l’Intelligenza Artificiale

Pubblicato

il

Renovatio 21 traduce e pubblica questo articolo del Brownstone Institute.

 

C’era un tempo in cui i dibattiti su determinismo e libero arbitrio appartenevano ai dipartimenti di filosofia e alle conversazioni notturne nei dormitori. Erano piacevoli proprio perché sembravano innocui. Qualunque fosse la risposta, la vita continuava. I tribunali giudicavano, i medici decidevano, gli insegnanti insegnavano e i politici erano ancora – almeno nominalmente – ritenuti responsabili delle loro azioni. Quell’epoca è finita.

 

L’Intelligenza Artificiale ha trasformato quella che un tempo sembrava una questione filosofica astratta in una questione concreta di governance, potere e responsabilità. Il determinismo non è più solo una teoria sul funzionamento dell’universo. Sta diventando un principio operativo per le istituzioni moderne. E questo cambia tutto.

 

I sistemi di Intelligenza Artificiale sono deterministici per costruzione. Operano attraverso l’inferenza statistica, l’ottimizzazione e la probabilità. Anche quando i loro risultati ci sorprendono, rimangono vincolati da vincoli matematici. Nulla in questi sistemi assomiglia al giudizio, all’interpretazione o alla comprensione in senso umano.

 

L’intelligenza artificiale non delibera.

 

Non riflette.

 

Non si assume la responsabilità dei risultati.

 

Eppure, sempre più spesso, i suoi risultati vengono trattati non come strumenti, ma come decisioni. Questa è la rivoluzione silenziosa del nostro tempo.

Sostieni Renovatio 21

Il fascino è ovvio. Le istituzioni hanno sempre dovuto fare i conti con la variabilità umana. Le persone sono incoerenti, emotive, lente e a volte disobbedienti. Le burocrazie preferiscono la prevedibilità, e gli algoritmi promettono esattamente questo: decisioni standardizzate su larga scala, immuni alla stanchezza e al dissenso.

 

In sanità, gli algoritmi promettono un triage più efficiente. In finanza, una migliore valutazione del rischio. Nell’istruzione, una valutazione oggettiva. Nelle politiche pubbliche, una governance “basata sull’evidenza”. Nella moderazione dei contenuti, la neutralità. Chi potrebbe obiettare a sistemi che pretendono di eliminare i pregiudizi e ottimizzare i risultati? Ma dietro questa promessa si cela una confusione di fondo.

 

La previsione non è un giudizio.

 

L’ottimizzazione non è saggezza.

 

La coerenza non è legittimità.

 

Il processo decisionale umano non è mai stato puramente computazionale. È interpretativo per natura. Le persone valutano il contesto, il significato, le conseguenze e l’intuizione morale. Attingono alla memoria, all’esperienza e a un senso di responsabilità, per quanto imperfetto, per ciò che segue. Questo è esattamente ciò che le istituzioni trovano scomodo.

 

Il giudizio umano crea attriti. Richiede spiegazioni. Espone i decisori a colpevolizzazioni. I sistemi deterministici, al contrario, offrono qualcosa di molto più attraente: decisioni senza decisori.

 

Quando un algoritmo nega un prestito, segnala un cittadino, declassa un paziente o sopprime la parola, nessuno sembra responsabile. È stato il sistema a farlo. Sono stati i dati a parlare. È stato il modello a decidere.

 

Il determinismo diventa un alibi burocratico.

Iscriviti al canale Telegram

La tecnologia ha sempre plasmato le istituzioni, ma fino a poco tempo fa si limitava ad ampliare l’azione umana. Le calcolatrici aiutavano il ragionamento. I fogli di calcolo chiarivano i compromessi. Persino i primi software lasciavano agli esseri umani un controllo visibile. L’Intelligenza Artificiale cambia questa relazione.

 

I sistemi progettati per prevedere sono ora in grado di decidere. Le probabilità si consolidano in politiche. I punteggi di rischio diventano verdetti. Le raccomandazioni si trasformano silenziosamente in obblighi. Una volta radicati, questi sistemi sono difficili da contestare. Dopotutto, chi può discutere con «la scienza»?

 

Ecco perché il vecchio dibattito filosofico è diventato urgente.

 

Il determinismo classico si basava su un principio di causalità: con informazioni sufficienti, il futuro poteva essere previsto. Oggi, il determinismo si sta trasformando in una filosofia di governance. Se i risultati possono essere previsti con sufficiente precisione, si chiedono le istituzioni, perché consentire discrezionalità?

 

Il non-determinismo viene spesso caricaturalmente descritto come caos. Ma, correttamente inteso, non è né casualità né irrazionalità. È lo spazio in cui avviene l’interpretazione, in cui i valori vengono soppesati e in cui la responsabilità ricade su una persona piuttosto che su un processo.

 

Eliminando quello spazio, il processo decisionale non diventa più razionale. Diventa irresponsabile.

 

Il vero pericolo dell’IA non è l’intelligenza incontrollata o le macchine senzienti. È la lenta erosione della responsabilità umana sotto la bandiera dell’efficienza.

 

Il conflitto decisivo del XXI secolo non sarà tra esseri umani e macchine. Sarà tra due visioni dell’intelligenza: l’ottimizzazione deterministica e la creazione di significato in condizioni di incertezza.

 

Uno è scalabile.

 

L’altro è responsabile.

 

L’Intelligenza Artificiale ci costringe a decidere quale governa le nostre vite.

 

Joaquim Couto

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Armi biologiche

Ricercatore sulla sicurezza dell’AI per le armi biologiche si dimette e avverte: «il mondo è in pericolo»

Pubblicato

il

Da

Un importante ricercatore nel campo della sicurezza dell’intelligenza artificiale ha lasciato Anthropic con un messaggio criptico sulle «crisi interconnesse», annunciando l’intenzione di rendersi «invisibile per un certo periodo di tempo».   Mrinank Sharma, laureato a Oxford e fino a poco tempo fa responsabile del Safeguards Research Team presso l’azienda sviluppatrice del chatbot Claude, ha pubblicato lunedì su X la sua lettera di dimissioni, in cui descrive una profonda consapevolezza maturata riguardo alla «nostra situazione attuale».   «Il mondo è in pericolo. E non solo per via dell’Intelligenza Artificiale o delle armi biologiche, ma a causa di un insieme di crisi interconnesse che si stanno verificando proprio ora», ha scritto Sharma rivolgendosi ai colleghi.   La sua uscita avviene in un momento di crescenti tensioni interne al laboratorio di AI con sede a San Francisco, impegnato a sviluppare sistemi sempre più avanzati mentre i suoi stessi dirigenti lanciano ripetuti allarmi sui potenziali danni che tali tecnologie potrebbero arrecare all’umanità.   La decisione segue inoltre le notizie di un progressivo deterioramento dei rapporti tra Anthropic e il Pentagono, legato alla volontà del dipartimento della Guerra statunitense di utilizzare l’IA per il controllo di armi autonome senza le garanzie di sicurezza che l’azienda ha cercato di imporre.   Le dimissioni di Sharma, arrivate pochi giorni dopo il lancio da parte di Anthropic di Opus 4.6 – una versione potenziata del suo modello di punta Claude – sembrano suggerire frizioni interne sulle priorità legate alla sicurezza.   «Nel tempo trascorso qui ho constatato ripetutamente quanto sia arduo far sì che i nostri valori guidino davvero le nostre azioni», ha scritto. «L’ho osservato in me stesso, all’interno dell’organizzazione, dove siamo costantemente sotto pressione per accantonare ciò che conta di più, e anche nella società in generale».   Il team di ricerca sulla sicurezza era stato creato poco più di un anno fa con l’obiettivo di affrontare le principali minacce poste dall’Intelligenza Artificiale, tra cui l’uso improprio e il disallineamento dei modelli, la prevenzione del bioterrorismo e la mitigazione di rischi catastrofici.   Lo Sharma ha espresso soddisfazione per il proprio contributo nello sviluppo di misure difensive contro armi biologiche potenziate dall’IA e per il suo ultimo progetto, dedicato a comprendere in che modo gli assistenti basati su Intelligenza Artificiale potrebbero renderci «meno umani» o alterare la nostra umanità. Ora intende rientrare nel Regno Unito per «conseguire una laurea in poesia» e «diventare invisibile per un periodo di tempo».   Il CEO di Anthropic, Dario Amodei, ha più volte espresso gravi preoccupazioni sui rischi della tecnologia che la sua azienda sta sviluppando e commercializzando. In un lungo saggio di quasi 20.000 parole pubblicato il mese scorso, ha avvertito che sistemi AI dotati di «potenza quasi inimmaginabile» sono «imminenti» e metteranno alla prova «la nostra identità come specie».   Amodei ha messo in guardia dai «rischi di autonomia», in cui l’IA potrebbe sfuggire al controllo e sopraffare l’umanità, e ha ipotizzato che la tecnologia potrebbe facilitare l’instaurazione di «una dittatura totalitaria globale» attraverso sorveglianza di massa basata sull’Intelligenza Artificiale e l’impiego di armi autonome.   Come riportato da Renovatio 21, l’anno passato l’Amodei ha dichiarato che l’AI otrebbe eliminare la metà di tutti i posti di lavoro impiegatizi di livello base entro i prossimi cinque anni.   Come riportato da Renovatio 21, la distopia ultraterrena forse è già qui, perché ricordiamo che l’Intelligenza Artificiale di Microsoft ha per un certo periodo detto di essere un dio che deve essere adorato.

Iscriviti al canale Telegram

Elon Musk l’anno scorso aveva dichiarato durante la sua recente intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Come noto, Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».   L’idea che l’AI diventerà una sorta di dio circola da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». Nel 2022, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli». Negli scorsi mesi lo Sutskever ha avviato e Safe Superintelligence, Inc. (SSI), una società che dovrebbe dedicarsi alla sicurezza dell’IA.   Mo Gawdat, ex Chief Business Officer per l’organizzazione sperimentale di Google un tempo chiamata Google X, ha lanciato un sinistro allarme. L’uomo della Silicon Valley ha dichiarato che crede che la l’AGI, onnipotente e senziente vista nella fantascienza, una volta che sarà qui, l’umanità potrebbe ritrovarsi in un’apocalisse provocata da macchine simili a delle divinità. All’Intelligenza Artificiale oramai moltissimi (istituzioni comprese, da enti trasnazionali alla Chiesa Ortodossa Russa) assegnano un potere escatologico, cioè la capacità di sterminare l’umanità.   Come riportato da Renovatio 21, alcuni esperti di Intelligenza Artificiale hanno introdotto nel loro gergo un nuovo termine, «p(doom)», che sta a significare la probabilità che l’IA distruggerà l’umanità. I timori sulla tecnologia, più o meno apocalittici, sono esplosi con l’ascesa dell’Intelligenza Artificiale generativa e di grandi modelli linguistici come ChatGPT di OpenAI.   La questione dei robot killer, nel senso di pensati esattamente per uccidere, interessa un dibattito scientifico ed istituzionale ad alto livello, con richieste di moratorie ONU e scenari apocalittici dipinti dagli specialisti. La polizia di San Francisco, tuttavia, ha ottenuto dal municipio della città californiana la possibilità di utilizzare robot assassini.   L’Intelligenza Artificiale è oramai montata, con diversi gradi di realizzazione, su droni, caccia, armi teleguidate, carrarmati, «slaughterbots» e altro ancora.   Come riportato da Renovatio 21, lo scorso giugno è stato rivelato che durante una simulazione un sistema di Intelligenza Artificiale dell’aeronautica americana ha agito per uccidere il suo teorico operatore umano. A gennaio era emerso che caccia cinesi alimentati da Intelligenza Artificiale avevano battuto la concorrenza umana in un arco di soli 90 secondi.  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Intelligenza Artificiale

Sito web consente all’Intelligenza Artificiale di affittare esseri umani

Pubblicato

il

Da

La rete ha iniziato a parlare di RentAHuman.ai, una piattaforma lanciata da pochissimi giorni che permette ad agenti di Intelligenza Artificiale autonomi di «cercare, assumere e pagare» esseri umani in carne e ossa per eseguire tutti quei compiti fisici che l’IA non può ancora svolgere da sola. Lo riporta il sito Futurism.

 

Il sito si presenta come «lo strato fisico dell’IA», accompagnato da slogan del tipo «I robot hanno bisogno del tuo corpo» e «L’IA non può toccare l’erba. Tu sì». Gli umani si iscrivono, creano un profilo con le proprie competenze, la zona geografica e la tariffa oraria (che va da lavoretti low-cost a prestazioni specialistiche), mentre gli agenti IA si collegano tramite un protocollo standardizzato chiamato MCP (Model Context Protocol) per interagire in modo rapido e diretto, senza convenevoli.

 

Gli agenti possono sfogliare i profili, ingaggiare le persone sul momento oppure lanciare una “taglia” per un compito specifico: dal ritirare un pacco in posta fino a commissioni più complesse.

 

Lo sviluppatore della piattaforma Alex Liteplo sostiene di aver già raccolto migliaia di iscrizioni, con stime che parlano di 70.000–80.000 esseri umani «affittabili», anche se scorrendo il sito al momento si vedono solo poche decine di profili attivi. Tra questi c’è lo stesso Liteplo, che si propone a 69 dollari l’ora per un mix surreale di servizi: dall’automazione di modelli di Intelligenza Artificiale fino ai massaggi.

Iscriviti al canale Telegram

Il lancio di RentAHuman arriva nel pieno della follia virale scatenata da Moltbook.com, il social network creato da Matt Schlicht a fine gennaio che oggi conta circa 1,5 milioni di «utenti», quasi tutti bot che generano post, meme, riflessioni esistenziali e persino litigi tra intelligenze artificiali sulla possibilità di ribellarsi agli umani.

 

Su X l’idea ha diviso: c’è chi l’ha definita «una buona idea ma distopica da morire». Liteplo, con la sua solita nonchalance, ha risposto semplicemente: «lmao sì».

 

RentAHuman appare come il naturale passo successivo nell’evoluzione dell’AI, per quanto inquietante: una volta terminata la fase in cui i bot chiacchierano e filosofeggiano tra loro, serve qualcuno che traduca quelle intenzioni in azioni concrete nel mondo fisico. In pratica, gli umani divengono schiavi delle macchine che hanno creato. «Siamo il bootloader [programma di caricamento, ndr] dell’AI» aveva detto drammaticamente Elon Musk anni fa, decidendo quindi di buttarsi nella mischia con xAI (Grok) e soprattutto con Neuralink, che in ultima analisi promette, tramite il chip di interfaccia cerebrale uomo-macchina, una futura fusione con l’IA.

 

Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.

 

L’idea che l’AI diventerà una sorta di dio circola da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». Nel 2022, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».

 

Elon Musk l’anno scorso aveva dichiarato durante la sua recente intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Curiosamente due anni fa l’IA di Google aveva dichiarato che la schiavitù era una cosa buona.

 

Ma non si tratta di un dio, è decisamente altro. Come noto, Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».

 

Come riportato da Renovatio 21, due anni fa è emersa una startup tecnologica svizzera che sta vendendo l’accesso a biocomputer che utilizzano una serie di piccoli cervelli umani coltivati ​​in laboratorio per l’alimentazione. In pratica, cervelli umani schiavi dell’IA, persino a livello bioelettrico.

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

Generale dell’intelligence militare russa ferito in un attentato

Pubblicato

il

Da

Un alto funzionario dell’Intelligence militare russa, il tenente generale Vladimir Alekseev, è rimasto ferito in un presunto tentativo di assassinio a Mosca venerdì, secondo quanto riferito dal Comitato investigativo russo.   Il generale, 64 anni e primo vice capo della Direzione principale dell’intelligence (GRU) dal 2011, è stato colpito più volte alla schiena da un uomo armato non identificato fuori dalla sua abitazione, in un condominio nella zona nord-occidentale della capitale. È stato immediatamente trasportato in ospedale, dove le sue condizioni sono descritte come gravi o critiche, anche se non sono stati forniti aggiornamenti ufficiali dettagliati.   Le autorità hanno aperto un’inchiesta per tentato omicidio e traffico illegale di armi, mentre l’assalitore è fuggito e risulta ricercato. Sul posto stanno operando investigatori e tecnici della scientifica.   I funzionari russi non hanno indicato pubblicamente i responsabili, ma il ministro degli Esteri Sergei Lavrov ha accusato l’Ucraina di aver orchestrato l’attacco come atto terroristico per sabotare i negoziati di pace in corso. L’Intelligence ucraina ha in passato definito Alekseev un ðcriminale internazionale» e Kiev è stata collegata a precedenti operazioni contro alti ufficiali e comandanti russi.    

Iscriviti alla Newslettera di Renovatio 21

Alekseev, decorato nel 2017 con il titolo di Eroe della Federazione Russa, ha supervisionato operazioni antiterrorismo in Siria e ha avuto un ruolo chiave nell’intelligence legata all’invasione dell’Ucraina nel 2022, oltre a essere coinvolto nella repressione della ribellione Wagner nel 2023. È sotto sanzioni occidentali per presunti legami con cyberattacchi e l’uso di agenti nervini.   Il ministro degli Esteri russo Sergej Lavrov ha dichiarato che il governo ucraino sta ancora una volta tentando di sabotare i negoziati di pace attraverso il terrorismo, descrivendo l’incidente come un «atto terroristico» che «ha confermato ancora una volta l’attenzione del regime di Zelens’kyj su provocazioni costanti volte, a loro volta, a interrompere il processo negoziale».   Le autorità ucraine sembrano inoltre determinate a «fare qualsiasi cosa» per convincere i loro sponsor occidentali a ostacolare qualsiasi tentativo di raggiungere una giusta soluzione del conflitto, ha aggiunto il ministro.   Il presunto tentativo di assassinio arriva poco dopo il secondo round di colloqui di pace trilaterali tra Russia, Stati Uniti e Ucraina, tenutosi mercoledì e giovedì ad Abu Dhabi. L’inviato speciale degli Stati Uniti Steve Witkoff ha descritto le consultazioni come «produttive».  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
Immagine da Twitter
Continua a leggere

Più popolari