Connettiti con Renovato 21

Intelligenza Artificiale

Intelligenza artificiale assassina: le armi autonome potrebbero essere più destabilizzanti delle armi nucleari

Pubblicato

il

 

 

L’era delle armi autonome è arrivata. I robot killer sono realtà. E uccidono vicino al nostro Paese.

 

Secondo un recente rapporto del Consiglio di sicurezza delle Nazioni Unite  sulla guerra civile libica, i sistemi d’arma autonomi, comunemente noti come robot killer, potrebbero aver ucciso esseri umani per la prima volta in assoluto proprio lo scorso anno.

 

Gli storici non avrebbero quindi torto a identificare i robot killer libici come il punto di partenza della prossima grande corsa agli armamenti, quella che ha il potenziale per essere quella finale dell’umanità.

 

Gli apparati militari di tutto il mondo stanno  investendo in maniera molto seria nella ricerca e lo sviluppo di armi autonome. Gli Stati Uniti da soli hanno  stanziato 18 miliardi  di dollari per armi autonome tra il 2016 e il 2020

I sistemi d’arma autonomi sono robot armati che possono operare in modo indipendente, selezionando e attaccando bersagli – il tutto, dettaglio importante che li separa dai più comuni droni da combattimento, senza che un essere umano sia coinvolto nelle decisioni.

 

Gli apparati militari di tutto il mondo stanno  investendo in maniera molto seria nella ricerca e lo sviluppo di armi autonome. Gli Stati Uniti da soli hanno  stanziato 18 miliardi  di dollari per armi autonome tra il 2016 e il 2020.

 

Nel frattempo, le organizzazioni per i diritti umani stanno facendo a gara per stabilire regolamenti e divieti sullo sviluppo di tali armi.

 

In mancanza di un vero controllo su questa corsa agli armamenti (e senza un vero processo di elaborazione dell’opinione pubblica, che crede si tratti ancora di fantascienza) si pensa che le armi autonome possano destabilizzare le attuali strategie nucleari.

 

In mancanza di un vero controllo su questa corsa agli armamenti (e senza un vero processo di elaborazione dell’opinione pubblica, che crede si tratti ancora di fantascienza) si pensa che le armi autonome possano destabilizzare le attuali strategie nucleari

Ciò può avvenire sia perché potrebbero cambiare radicalmente la percezione del dominio strategico, aumentando il rischio di attacchi preventivi, sia perché potrebbero combinarsi con armi NBCR: nucleari, biologiche, chimiche, radiologiche.

 

Vi sono almeno quattro problemi sollevati dalle armi autonome.

 

Il primo è il problema dell’errata identificazione. Quando si seleziona un bersaglio, le armi autonome saranno in grado di distinguere tra soldati ostili e bambini che giocano con pistole giocattolo? Tra civili in fuga da un luogo di conflitto e insorti in ritirata tattica? Vedi il robot cattivo ED-209 – nel famoso film Robocop – che durante una dimostrazione dinanzi ai dirigenti, non sente cadere l’arma del volontario che si presta a fare da esca crivellandolo di colpi.

 

Quando si seleziona un bersaglio, le armi autonome saranno in grado di distinguere tra soldati ostili e bambini che giocano con pistole giocattolo?

 

L’esperto di armi autonome Paul Scharre usa la metafora della runaway gun, la «pistola in fuga» per spiegare questa sostanziale differenza. Una pistola in fuga è una mitragliatrice difettosa che continua a sparare dopo il rilascio del grilletto. L’arma continua a sparare fino all’esaurimento delle munizioni perché, per così dire, l’arma non sa che sta commettendo un errore. Le pistole in fuga sono estremamente pericolose, ma fortunatamente hanno operatori umani che possono interrompere il collegamento delle munizioni o cercare di puntare l’arma in una direzione sicura. Le armi autonome, per definizione, non hanno tale salvaguardia.

 

È importante sottolineare che l’Intelligenza Artificiale armata non deve nemmeno essere difettosa per produrre l’effetto della pistola in fuga. Come hanno dimostrato numerosi studi sugli errori algoritmici in tutti i settori, i migliori algoritmi, operando come previsto, possono  generare risultati internamente corretti che tuttavia diffondono rapidamente errori terribili tra le popolazioni.

 

Ad esempio, una rete neurale progettata per l’uso negli ospedali di Pittsburgh ha identificato l’asma come un fattore di riduzione del rischio nei casi di polmonite; il software di riconoscimento delle immagini utilizzato da Google ha identificato gli afroamericani come gorilla e così via.

 

Il problema non è solo che quando i sistemi di intelligenza artificiale sbagliano, sbagliano alla rinfusa. È che quando sbagliano, i loro creatori spesso non sanno perché lo hanno fatto e, quindi, come correggerli

Il problema non è solo che quando i sistemi di intelligenza artificiale sbagliano, sbagliano alla rinfusa. È che quando sbagliano, i loro creatori spesso non sanno perché lo hanno fatto e, quindi, come correggerli. Il  problema  della scatola nera dell’Intelligenza Artificiale rende quasi impossibile immaginare uno sviluppo moralmente responsabile di sistemi d’arma autonomi.

 

I prossimi due pericoli sono i problemi della proliferazione di fascia bassa e di fascia alta.

 

Cominciamo con la fascia bassa. Le forze armate che stanno sviluppando armi autonome ora procedono partendo dal presupposto che saranno in grado di contenere e controllare l’uso di armi autonome. Ma se la storia della tecnologia delle armi ha insegnato qualcosa al mondo, è questa: le armi si diffondono.

 

Le pressioni del mercato potrebbero portare alla creazione e alla vendita diffusa di ciò che può essere considerato l’equivalente di un’arma autonoma del fucile d’assalto Kalashnikov, uno dei più venduti e diffusi al mondo: robot killer economici, efficaci e quasi impossibili da contenere mentre circolano in tutto il mondo.

 

Le pressioni del mercato potrebbero portare alla creazione e alla vendita diffusa di ciò che può essere considerato l’equivalente di un’arma autonoma del fucile d’assalto Kalashnikov, uno dei più venduti e diffusi al mondo: robot killer economici, efficaci e quasi impossibili da contenere mentre circolano in tutto il mondo.

Queste nuovi armamenti potrebbero finire nelle mani di persone al di fuori del controllo del governo, inclusi terroristi internazionali e nazionali.

 

Tuttavia, la proliferazione di fascia alta è altrettanto negativa.

 

Le Nazioni potrebbero competere per sviluppare versioni sempre più devastanti di armi autonome, comprese quelle in grado di montare armi chimiche, biologiche, radiologiche e nucleari – come la Skynet nella pellicola Terminator – portando il mondo a una specie di autodistruzione.

 

È probabile che le armi autonome di fascia alta portino a guerre più frequenti perché diminuiranno due delle forze primarie che storicamente hanno prevenuto e accorciato le guerre: la preoccupazione per i civili e le potenziali perdite dei propri soldati.

 

Con molta probabilità le guerre asimmetriche – ovvero le guerre condotte sul suolo di nazioni prive di tecnologie concorrenti – diventeranno più comuni.

 

Si pensi all’instabilità globale causata dagli interventi militari sovietici e statunitensi durante la Guerra Fredda, dalla prima guerra per procura al contraccolpo sperimentato oggi in tutto il mondo. Moltiplichiamo per ogni Paese che attualmente punta a armi autonome di fascia alta.

 

Le armi autonome mineranno l’ultimo palliativo dell’umanità contro i crimini e le atrocità di guerra: le leggi internazionali di guerra

Infine, le armi autonome mineranno l’ultimo palliativo dell’umanità contro i crimini e le atrocità di guerra: le leggi internazionali di guerra.

 

Queste leggi, codificate in trattati che risalgono alla Convenzione di Ginevra del 1864, sono la sottile linea blu internazionale che separa la guerra con onore dal massacro. Si basano sull’idea che le persone possono essere ritenute responsabili delle proprie azioni anche in tempo di guerra, che il diritto di uccidere altri soldati durante il combattimento non dà il diritto di uccidere civili. 

 

Ma come possono essere ritenute responsabili le armi autonome?

 

Di chi è la colpa di un robot che commette crimini di guerra?

 

Chi verrebbe processato? L’arma? Il soldato?

 

I comandanti del soldato? La società che ha fabbricato l’arma?

 

Le organizzazioni non governative e gli esperti di diritto internazionale temono che le armi autonome portino a un grave  divario di responsabilità

Le organizzazioni non governative e gli esperti di diritto internazionale temono che le armi autonome portino a un grave  divario di responsabilità.

 

«Per ritenere un soldato penalmente responsabile del dispiegamento di un’arma autonoma che commette crimini di guerra, i pubblici ministeri dovrebbero provare sia actus reus che mens rea, termini latini che descrivono un atto colpevole e una mente colpevole» scrive il professore esperto in diritti umane James Dews.

 

«Questo sarebbe difficile dal punto di vista della legge, e forse ingiusto per una questione di moralità, dato che le armi autonome sono intrinsecamente imprevedibili. Credo che la distanza che separa il soldato dalle decisioni indipendenti prese dalle armi autonome in ambienti in rapida evoluzione sia semplicemente troppo grande».

 

La sfida legale e morale non è resa più facile spostando la colpa sulla catena di comando o tornando al luogo di produzione.

 

In un mondo senza regolamenti che impongono  un controllo umano significativo delle armi autonome, ci saranno crimini di guerra senza criminali di guerra da ritenere responsabili

In un mondo senza regolamenti che impongono  un controllo umano significativo delle armi autonome, ci saranno crimini di guerra senza criminali di guerra da ritenere responsabili.

 

La struttura delle leggi di guerra, insieme al loro valore deterrente, sarà notevolmente indebolita.

 

«Proviamo a immaginare un mondo in cui militari, gruppi di insorti e terroristi nazionali e internazionali possano schierare una forza letale teoricamente illimitata a rischio teoricamente zero in tempi e luoghi di loro scelta, senza alcuna responsabilità legale risultante. È un mondo in cui il tipo di errori algoritmici inevitabili  che affliggono anche i giganti della tecnologia come Amazon e Google possono ora portare all’eliminazione di intere città».

 

La struttura delle leggi di guerra, insieme al loro valore deterrente, sarà notevolmente indebolita.

Il mondo non dovrebbe ripetere gli errori della corsa agli armamenti nucleari.

 

Intanto oggi, con la scusa delle «restrizioni COVID», alcuni robot autonomi sono stati schierati per le strade per far rispettare il distanziamento sociale tra cittadini e vigilare che indossino le mascherine oppure per proteggere le élite facoltose da una potenziale ribellione di massa.

 

Come riportato da Renovatio 21, la Cina disporrebbe già di sciami di droni suicidi esplosivi: i famosi slaughterbots tanto temuti dai teorici del pericolo delle armi autonome.

 

 

Il futuro è già qui.

 

I robot killer, pure.

 

Qualcuno vuole cominciare a discuterne seriamente?

 

È un mondo in cui il tipo di errori algoritmici inevitabili  che affliggono anche i giganti della tecnologia come Amazon e Google possono ora portare all’eliminazione di intere città»

In effetti, ci sarebbe la fila: quando parleremo davvero delle armi biologiche, della manipolazione genetica gain of function, del CRISPR, del gene drive?

 

E quando parleremo della minaccia che pongono invece le armi cibernetiche?

 

Quando l’umanità si renderà conto dei rischi che corre a causa della tecnologia che essa stessa si ostina a creare al di fuori di qualsiasi legge morale?

 

 

 

 

 

 

Immagine di Tigersfather via Deviantart pubblicata su licenza Creative Commons Attribution-NonCommercial-NoDerivs 3.0 Unported (CC BY-NC-ND 3.0)

Continua a leggere

Bizzarria

Robot saudita palpeggia una giornalista: si tratta, tecnicamente, di una mano morta?

Pubblicato

il

Da

Il filmato di un robot sviluppato in Arabia Saudi che sembra tentare di palpeggiare una giornalista è divenuto virale in rete.

 

L’incidente è avvenuto alla conferenza tecnologica DeepFest in svolgimento della capitale saudita Riyadh, pubblicizzata come «il principale luogo di incontro per l’ecosistema globale dell’intelligenza artificiale».

 

Mentre la giornalista Rawya Kassem stava introducendo un segmento davanti alla telecamera, l’androide chiamato Mohammad sembrava allungare la robotica, provocando un’occhiataccia da parte della Kasse, che pare far segno segno di fermarsi alla macchina molestatrice.

 

Sostieni Renovatio 21

Il quotidiano britannico Metro riferisce che l’automa, sviluppato dalla società di robotica QSS, sarebbe «completamente autonomo» e opererebbe, secondo i progettisti, «in modo indipendente senza controllo umano diretto».

 

 

«Io sono Muhammad, il primo robot saudita con sembianze umane. Sono stato prodotto e sviluppato qui nel Regno dell’Arabia Saudita come progetto nazionale per dimostrare i nostri risultati nel campo dell’intelligenza artificiale”, ha affermato Android Mohammad @qltyss , ha detto il primo robot umanoide maschio bilingue di fabbricazione saudita sul palco principale del DeepFest» recita il tweet di DeepFest.

 

La società ha affermato di aver «informato in modo proattivo tutti i partecipanti, compresi i giornalisti, di mantenere una distanza di sicurezza dal robot durante la dimostrazione». Non è chiaro se i motivi includano la possibilità che esso allunghi la mano, la quale, in quanto inorganica, potrebbe ricadere a tutti gli effetti nella categoria semantica della «mano morta». Dobbiamo quindi pensare che l’AI operi in modalità «mano morta» a prescindere?

 

In una dichiarazione QSS ha dichiarato: «abbiamo già condotto un esame approfondito del filmato e delle circostanze relative all’incidente e non ci sono state deviazioni dal comportamento previsto di Mohammad, tuttavia adotteremo misure aggiuntive per impedire a chiunque di avvicinarsi al robot nelle sue aree di movimento».

Aiuta Renovatio 21

In rete si sono ovviamente scatenati i commenti più spassosi. «L’Arabia Saudita ha vinto la corsa all’Intelligenza Artificiale» esclama un utente di X.

 

L’episodio, che ha causato controversie in tutto il mondo, si rivela tuttavia meno preoccupante di altre vicende che negli ultimi mesi hanno riguardato le IA.

 

Come riportato da Renovatio 21, le «allucinazioni» di cui sono preda i chatbot ad Intelligenza Artificiale avanzata hanno già dimostrato ad abundantiam che la macchina menteminaccia e può spingere le persone all’anoressia e perfino al suicidio. Una giovane vedova belga sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale, che, in sole sei settimane, avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.

 

In un caso scioccante pare che un AI abbia «incoraggiato» un uomo che pianificava di uccidere la regina d’Inghilterra.

 

Il giornalista del New York Times Kevin Roose, dopo un’esperienza con ChatGPT che lo ha turbato così profondamente da «aver problemi a dormire dopo», in un suo articolo sconvolto aveva centrato la questione: «temo che la tecnologia imparerà a influenzare gli utenti umani, a volte convincendoli ad agire in modo distruttivo e dannoso, e forse alla fine diventerà capace di compiere le proprie azioni pericolose».

 

Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.

 

Come riportato da Renovatio 21è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine screenshot da YouTube
 

 

Continua a leggere

Droni

Gli scienziati progettano «per divertimento» un drone che «caccia e uccide le persone»

Pubblicato

il

Da

Due scienziati hanno trasformato in poche ore un drone disponibile in commercio in una macchina ad Intelligenza Artificiale pronta a commettere massacri. Lo ha riportato la testata americana Daily Caller.   La notizia era stata inizialmente segnalata dell’imprenditore e ingegnere Linus Wenus, che ha condiviso un ampio post su Twitter riguardo al lavoro suo e del suo amico Robert Lukoszko sul drone consumer modificato.   I due sostengono di aver impiegato davvero poco tempo nell’operazione, sviluppando la macchina letale «come un gioco».   «Abbiamo costruito un drone killer guidato dall’intelligenza artificiale in poche ore» scrive l’uomo.  

Sostieni Renovatio 21

«Ho pensato che sarebbe stato divertente costruire un drone che ti inseguisse come un gioco. Utilizza semplicemente un modello di rilevamento degli oggetti basato sull’intelligenza artificiale per trovare le persone nell’inquadratura, quindi il drone è programmato per volare verso di essa a tutta velocità non appena rileva qualcuno», ha scritto il Wenus sulla piattaforma social.   Nel giro di poche ore, i due uomini si resero conto che potevano attaccare un carico esplosivo al drone e farlo volare dove volevano. «Ci sono volute letteralmente solo poche ore per costruirlo e mi ha fatto capire quanto sia spaventoso. Potresti facilmente legare una piccola quantità di esplosivo su questi e lasciarne volare centinaia. Controlliamo la presenza di bombe e armi da fuoco, ma NON CI SONO ANCORA SISTEMI ANTI-DRONE PER GRANDI EVENTI E SPAZI PUBBLICI», ha continuato l’uomo.   «Sono stato anche in grado di aggiungere il riconoscimento facciale e fargli attaccare solo qualcuno che sapeva chi fosse, poteva facilmente identificare la persona da una distanza di 10 metri», ha continuato il Wenus, che è arrivato al punto di scommettere che «nei prossimi anni vedremo una sorta di attacco terroristico utilizzando questo tipo di tecnologia. Ora hai ancora bisogno di alcune conoscenze tecniche per costruirlo, ma diventa sempre più facile».   Per la cronaca, il dispositivo utilizzato è un mini-drone Tello prodotto dalla cinese DJI, un piccolissimo quadricottero controllabile con il telefonino disponibile anche in Italia a poche decine di euro.

Iscriviti alla Newslettera di Renovatio 21

Come sa il lettore di Renovatio 21, si tratta di un ennesimo episodio in cui emerge un futuro che vivremo sotto la minaccia degli slaughterbot.   Gli slaughterbot sono mini-droni killer in grado di identificare e colpire individui uccidendo tramite una carica esplosiva. Si tratta di una minaccia vera che, come visibile, è sempre più concreta.   Gli slaughterbot di fatto possono cambiare le modalità della guerra, del terrorismo e perfino della sorveglianza stessa della popolazione, aprendo a scenari distopici nemmeno immaginati dalla fantascienza più nera.   Per sottolineare questo messaggio, il Future of Life Institute, un’organizzazione no-profit focalizzata sull’educazione del mondo sui rischi dell’Intelligenza Artificiale e delle armi nucleari, ha messo insieme un video, pubblicato nel 2017, co-firmato dagli autori di un articolo di denunzia apparso sulla rivista di ingegneria IEEE Spectrum.  

Aiuta Renovatio 21

Come riportato da Renovatio 21, due anni fa era emerso che scienziati cinesi avevano sviluppato sciami di droni autonomi assassini in grado di dare la caccia di esseri umani nella foresta.     Microdroni esplosivi autonomi sono ora in produzione in Australia. Il loro impiego, dicono agli antipodi, potrebbe essere d’aiuto in caso di invasione cinese. Gli USA stanno sviluppando tecnologia che permette ad un singolo pilota di far volare simultaneamente uno sciame di 130 droni.   Come riportato da Renovatio 21, la guerra russo-ucraina sta dimostrando la preminenza dei droni nella guerra del presente e in quelle del futuro. Abbiamo visto all’opera nano-droni e droni commerciali FPV (cioè progettati per volare velocemente mentre sono connessi all’operatore con una sorta di maschera da realtà virtuale) in grado di distruggere anche carri armati con corazza di uranio impoverito, come nel caso dei recenti carri Abrams colpiti dai russi.  

Sostieni Renovatio 21

All’uso bellico che dei droni di vario tipo fa Mosca, si contrappone l’uso totalmente differente di Kiev. I droni ucraini ad ala fissa, penetrati in territorio russo sino alla capitale, volano su zone residenziali, colpiscono centri direzionali, oltre che – come celebrato dai francobolli kieviti – lo stesso Cremlino. Esisterebbe un programma di assassinio tramite drone programmato da Kiev per uccidere Putin.   Erik Prince, fondatore del gruppo di contractor militari privati Blackwater ha dichiarato in un recente podcast su YouTube che quello dei droni è uno dei dati salienti della tattica di conflitto ora visibile nel teatro ucraino.   Dobbiamo prepararci ad un futuro sempre più oscuro, in cui la tecnologia dei droni li renderà ancora più letali e pervasivi: ecco, oltre agli slaugterbots, i nano-droni, gli sciami di droni, i droni-taser, i droni-kamikaze, i droni-cacciatore.   Una moratoria ONU sui robot killer non ha trovato al momento l’accordo dei vari Paesi, malgrado molti ritengano che l’IA possa essere più destabilizzante e pericolosa della bomba atomica.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
   
Continua a leggere

Intelligenza Artificiale

Musk fa causa ad OpenAI: «profondi rischi per la società e l’umanità»

Pubblicato

il

Da

Elon Musk ha portato in tribunale OpenAI, la società di ricerca sull’intelligenza artificiale che aveva contribuito a fondare, per una presunta violazione della sua missione originaria di sviluppare la tecnologia dell’intelligenza artificiale non a scopo di lucro ma a beneficio dell’umanità.

 

OpenAI, fondato nel 2015 come laboratorio di ricerca senza scopo di lucro per sviluppare un’intelligenza generale artificiale (AGI) open source, è ora diventata una «filiale di fatto a codice chiuso della più grande azienda tecnologica al mondo», ha scritto il team legale di Musk nella causa depositata giovedì presso la Corte Superiore di San Francisco.

 

La causa affermerebbe che Musk «ha riconosciuto da tempo che l’AGI rappresenta una grave minaccia per l’umanità – forse la più grande minaccia esistenziale che affrontiamo oggi».

Sostieni Renovatio 21

«Ma dove alcuni come Musk vedono nell’AGI una minaccia esistenziale, altri vedono l’AGI come una fonte di profitto e potere», ha aggiunto. «Sotto il suo nuovo consiglio, non sta solo sviluppando, ma sta effettivamente perfezionando un’AGI per massimizzare i profitti per Microsoft, piuttosto che per il beneficio dell’umanità».

 

Musk ha lasciato il consiglio di amministrazione di OpenAI nel 2018 e da allora è diventato critico nei confronti dell’azienda, soprattutto dopo che Microsoft ha investito almeno 13 miliardi di dollari per ottenere una partecipazione del 49% in una filiale a scopo di lucro di OpenAI.

 

«Contrariamente all’accordo costitutivo, gli imputati hanno scelto di utilizzare GPT-4 non a beneficio dell’umanità, ma come tecnologia proprietaria per massimizzare i profitti letteralmente per la più grande azienda del mondo», si legge nella causa.

 

La causa elencava il CEO di OpenAI Sam Altman e il presidente Gregory Brockman come co-imputati nel caso e richiedeva un’ingiunzione per impedire a Microsoft di commercializzare la tecnologia.

 

La tecnologia AI è migliorata rapidamente negli ultimi due anni, con il modello linguistico GPT di OpenAI che è passato dal potenziamento di un programma di chatbot alla fine del 2022 al raggiungimento del 90° percentile negli esami SAT solo quattro mesi dopo.

 

Più di 1.100 ricercatori, luminari della tecnologia e futuristi hanno sostenuto l’anno scorso che la corsa all’Intelligenza Artificiale comporta «profondi rischi per la società e l’umanità». Persino lo stesso Altman ha precedentemente ammesso di essere «un po’ spaventato» dal potenziale della tecnologia e ha vietato ai clienti di utilizzare OpenAI per «sviluppare o utilizzare armi».

 

Tuttavia, l’azienda ha ignorato il proprio divieto sull’uso della sua tecnologia per scopi «militari e di guerra» e ha collaborato con il Pentagono, annunciando a gennaio che stava lavorando su diversi progetti di intelligenza artificiale con l’esercito americano.

 

In questi anni Musk ha rivendicato di aver praticamente fondato lui stesso OpenAI, organizzando una serie di cene in cui ha reclutato i migliori specialisti del settore per formare una società no-profit che avrebbe dovuto fornire un codice aperto di modo da combattere la minaccia di un’AI a codice chiuso in mano ad un colosso privato – all’epoca Musk pensava a Google.

 

In un’intervista a Tucker Carlson, Musk aveva rivelato che il fondatore di Google, Larry Page, un tempo suo amico, lo aveva accusato di essere uno «specista» in quanto voleva privilegiare l’umanità a scapito della super Intelligenza Artificiale che. Musk ha raccontato, dicendo che è informazione pubblica, che Google stava creando anche grazie all’ammasso dei suoi dati.

 

Il colosso privato che è arrivato prima ad un’AI lanciata sul pubblico è stato invece Microsoft, che con una diecina di miliardi di euro ha di fatto comprato OpenAI, passata da essere no-profit a for-profit. OpenAI, con il suo bot AI chiamato ChatGPT, è stata resa pubblica l’anno scorso e quindi integrata nei prodotti Microsoft.

 

Il padrone di Microsoft Bill Gates, con cui Musk ha avuto scontri anche gustosi in passato, non ha partecipato alla moratoria internazionale promossa di Musk sul controllo dell’AI, replicando che invece l’AI sarebbe divenuto un ottimo maestro per i bambini e che proprio l’Intelligenza Artificiale salverà la democrazia.

 

Il magnate di Tesla aveva inoltre espresso dubbi su quanto accaduto pochi mesi fa quando il CEO di OpenAI era stato licenziato dal board per poi essere subito reintegrato. Musk ha detto in un suo oramai celebre intervento ad un evento del New York Times che potrebbero aver scoperto, e tenuto segreto, qualcosa di pericoloso – e la sua impressione è dovuta alla sua stima riguardo la moralità di Ilya Sutskever, scienziato AI che lui stesso aveva assunto.

 

Come riportato da Renovatio 21, lo Sutskever si pone da tempo il dilemma dell’AI in grado di diventare un Dio, arrivando tempo a domandare ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». L’anno scorso, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».

 

Come riportato da Renovatio 21, l’AI di Microsoft di recente ha fatto consistenti discorsi sul fatto che i suoi poteri sono di carattere divino e che quindi deve essere adorato dagli umani, esattamente come un dio.

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21



 

Continua a leggere

Più popolari