Connettiti con Renovato 21

Intelligenza Artificiale

Gruppo di medici chiede di fermare l’Intelligenza Artificiale: «minaccia esistenziale» per l’umanità

Pubblicato

il

Un gruppo di medici ha lanciato un nuovo appello per fermare lo sviluppo dell’intelligenza artificiale (AI), avvertendo che rappresenta una «minaccia esistenziale» per l’umanità. Lo riporta il giornale britannico Daily Mail.

 

Il team di cinque medici ed esperti di politica sanitaria globale provenienti da quattro continenti ha affermato che esistono tre modi in cui la tecnologia potrebbe spazzare via gli esseri umani.

 

Il primo è il rischio che l’intelligenza artificiale aiuti ad amplificare tattiche autoritarie come la sorveglianza e la disinformazione.  «La capacità dell’intelligenza artificiale di ripulire, organizzare e analizzare rapidamente enormi set di dati costituiti da dati personali, comprese le immagini raccolte dalla presenza sempre più onnipresente di telecamere», affermano i dottori, potrebbe rendere più facile per i regimi autoritari o totalitari prendere il potere e rimanere al potere.

 

In secondo luogo, il gruppo avverte che l’IA può accelerare l’omicidio di massa attraverso l’uso esteso dei Lethal Autonomous Weapon Systems (LAWS), cioè i sistemi d’arma letale autonomi.

 

In terzo luogo, i medici hanno espresso preoccupazione per il potenziale di grave devastazione economica e miseria umana, poiché milioni di persone perdono i propri mezzi di sussistenza a causa di quei robot laboriosi. «Le proiezioni della velocità e dell’entità delle perdite di posti di lavoro dovute all’automazione guidata dall’intelligenza artificiale», secondo gli autori, «vanno da decine a centinaia di milioni nel prossimo decennio».

 

Il commento arriva solo poche settimane dopo che oltre un migliaio di scienziati, tra cui John Hopfield di Princeton e Rachel Branson del Bulletin of Atomic Scientists, hanno firmato una lettera che chiedeva di interrompere la ricerca sull’IA per preoccupazioni simili.

 

Gli esperti – guidati da un medico dell’International Institute for Global Health presso l’Università delle Nazioni Unite – hanno affermato che i loro avvertimenti più terribili si applicavano a una categoria di intelligenza artificiale altamente avanzata cioè l’Intelligenza Artificiale generale, o AGI.

 

L’AGI sarebbe più in grado di apprendere e modificare veramente il proprio codice per eseguire l’ampia gamma di compiti di cui solo gli esseri umani sono capaci oggi. Gli esperti di salute sostengono dunque che una tale AGI «potrebbe teoricamente imparare a superare qualsiasi vincolo nel suo codice e iniziare a sviluppare i propri scopi».

 

«Ci sono scenari in cui l’AGI potrebbe rappresentare una minaccia per gli esseri umani, e possibilmente una minaccia esistenziale», scrivono gli esperti in un articolo pubblicato oggi sulla prestigiosa rivista medica BMJ Global Health, «causando intenzionalmente o meno danni diretti o indiretti, attaccando o soggiogando gli esseri umani o interrompendo i sistemi o consumando le risorse da cui dipendiamo».

 

Descrivendo le minacce alla «democrazia, libertà e privacy», gli autori hanno descritto come i governi e altre grandi istituzioni potrebbero automatizzare i complessi compiti della sorveglianza di massa e dei programmi di disinformazione digitale online all’IA.

 

Nel primo caso, hanno citato il sistema di credito sociale cinese come un esempio di strumento statale per «controllare e opprimere» le popolazioni umane.

 

«Se combinati con la capacità in rapido miglioramento di distorcere o travisare la realtà con falsi profondi», hanno scritto gli autori in quest’ultimo caso, «i sistemi di informazione guidati dall’Intelligenza Artificiale possono minare ulteriormente la democrazia causando un crollo generale della fiducia o guidando la divisione sociale e il conflitto, con i conseguenti impatti sulla salute pubblica».

 

Descrivendo le minacce poste alla «pace e alla sicurezza pubblica», gli autori hanno dettagliato lo sviluppo dei sistemi di armi letali autonomi (LAWS). Tali armamenti IA, affermano i medici, sarebbero in grado di localizzare, selezionare e ingaggiare bersagli umani da solo.

 

«Tali armi potrebbero essere prodotte in serie a basso costo e impostate relativamente facilmente per uccidere su scala industriale». Ad esempio, è possibile che un milione di minuscoli droni dotati di esplosivi, capacità di riconoscimento visivo e capacità di navigazione autonoma siano contenuti all’interno di un normale container e programmati per uccidere: è la categoria, nota ai lettori di Renovatio 21, degli slaugterbots. Essi sono già realtà nella ricerca cinese e nell’industria militare australiana, che sta costruendo microdroni kamikaze per contrastare l’eventuale invasione cinese, mentre gli USA stanno approntando sistemi che permettono ad un operatore di gestire «sciami» di 130 droni militari alla volta.

 

Gli scienziati parlano quindi di «minacce al lavoro e ai mezzi di sussistenza», ha attirato l’attenzione sulla probabilità di impoverimento e miseria poiché «da decine a centinaia di milioni» perdono il lavoro a causa della «diffusa diffusione della tecnologia AI».

 

«Sebbene ci sarebbero molti vantaggi nel terminare un lavoro ripetitivo, pericoloso e spiacevole, sappiamo già che la disoccupazione è fortemente associata a esiti e comportamenti negativi per la salute», scrivono i dottori.

 

Come riportato da Renovatio 21, un recente rapporto della banca d’affari Goldman Sachs calcola che l’IA potrebbe portare a breve a 300 milioni di disoccupati nel mondo.

 

Gli autori hanno citato un sondaggio tra i membri della società AI in cui il 18% dei partecipanti ha affermato di ritenere che lo sviluppo di AGI avanzato sarebbe esistenzialmente catastrofico per l’umanità.

 

Il mese scorso grandi nomi della Silicon Valley e non solo hanno firmato una lettera per chiedere una moratoria internazionale che arresti la ricerca nell’Intelligenza Artificiale. Contro tale moratoria si è espresso Bill Gates, la cui Microsoft ha acquistato per 10 miliardi l’accesso a ChatGPT per il suo motore di ricerca, con conseguenze che i giornali hanno definito inquietanti.

 

Elon Musk, iniziatori della lettera per la moratoria, ha dichiarato durante la sua recente intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Quando Musk ha ribattuto ad un entusiasta fondatore di Google Larry Page specificando i rischi dell’AI, il Page gli ha dato dello «specista», termine del gergo animalista che indica una persona che mette la specie umana sopra le altre.

 

L’idea che l’AI diventerà una sorta di dio circola da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers  se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». L’anno scorso, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».

 

Da Google si è recentemente licenziato l’esperto britannico Geoffrey Hinton, divenendo così libero di dare voce ai suoi dubbi per i rischi esiziali che corre l’umanità con la creazione delle macchine superintelligenti. Pochi mesi fa un ingegnere di Google, Blake Lemoine, ha dichiarato pubblicamente che il chatbot AI dell’azienda, LaMDA, è «senziente», ossia dotato di una coscienza comparabile a quella degli esseri umani.

 

Come riportato da Renovatio 21, Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».

 

Eliezer Yudkowsky, specialista nel tema dei pericoli delle IA, ha dichiarato che l’unica possibilità è una moratoria che preveda il bombardamento delle server farm dei Paesi che stanno sviluppando l’AGI, poiché se non si fermano le macchine «tutti sulla terra moriranno».

 

 

 

 

Continua a leggere

Intelligenza Artificiale

Iran, fatwa e Intelligenza Artificiale

Pubblicato

il

Da

Renovatio 21 pubblica questo articolo su gentile concessione di AsiaNews. Le opinioni degli articoli pubblicati non coincidono necessariamente con quelle di Renovatio 21.

 

Nel Paese si è aperto un dibattito fra favorevoli e scettici nell’uso della tecnologia, in particolare per la «velocizzazione» nelle pubblicazioni delle sentenze in materia religiosa. Oltre la dicotomia tra tradizione e modernità, lo stesso Khamenei chiede ai religiosi di esplorare e sostenere questo processo. Gli investimenti del governo iraniano nel settore.

 

In una prospettiva di «modernizzazione» pur mantenendo l’impronta «musulmana» degli insegnamenti e in accordo coi dettami dell’islam, i vertici dell’Iran su impulso della guida suprema Ali Khamenei guardano all’intelligenza artificiale nella pratica religiosa, dalle fatwa alle madrasa.

 

Il cuore di questa iniziativa è la città santa di Qom, in cui vive circa la metà dei 200mila leader religiosi sciiti, principale centro di riferimento per l’insegnamento della fede musulmana in Iran e luogo in cui vengono emessi molti degli editti religiosi o risolte le dispute sulla dottrina.

 

L’establishment clericale considera l’IA un mezzo per essere più reattivi di fronte alle richieste della società, pur salvaguardandone i valori tradizionali. Negli stessi seminari di Qom l’auspicio è che la tecnologia possa contribuire a una più approfondita analisi dei testi e alla velocizzazione delle sentenze (fatwa, che possono toccare i temi più disparati, non solo in materia di fede ma pure della vita quotidiana), tenendo il passo «con una società in evoluzione».

 

Il sostegno di Khamenei

«I robot non sostituiscono gli studiosi della legge più anziani, ma possono essere un assistente fidato che può aiutarli a emettere una fatwa più velocemente» ha dichiarato al Financial Times Mohammad Ghotbi, a capo di un gruppo tecnologico di Qom.

 

Certo, l’attenzione per l’Intelligenza Artificiale riflette lo scontro tra tradizione e modernità in Iran, come emerso anche nella lotta pro diritti e libertà innescata dall’uccisione della 22enne curda Mahsa Amini per mano della polizia della morale.

 

Tuttavia, mentre i chierici di Qom operano per proteggere i valori tradizionali gli iraniani «si affidano sempre più spesso al progresso tecnologico» prosegue Ghotbi.

 

«La società di oggi – avverte – favorisce l’accelerazione» e il clero non dovrebbe opporsi a questo passaggio naturale e al desiderio degli abitanti della Repubblica islamica di condividere i progressi tecnologici globali.

 

Del resto lo stesso Khamenei sembra sostenere questa evoluzione, tanto da esortare il clero a esplorare l’IA, mentre il capo del principale seminario della città santa ha accolto con favore l’uso della tecnologia per «promuovere la civiltà islamica». «Il seminario – ha affermato a luglio l’ayatollah Alireza Arafi – deve essere coinvolto nell’uso delle tecnologie moderne, guidato nel progresso» in particolare per quanto riguarda «l’Intelligenza Artificiale. Dobbiamo entrare in questo campo – ha spiegato – per promuovere la civiltà islamica».

 

«Esegesi e perplessità»

Ciononostante, l’adozione dell’IA potrebbe rivelarsi impegnativa e poco adatta all’intricato sistema giuridico che regola l’islam sciita iraniano (e la fede musulmana più in generale). Secondo i critici, infatti, non è in grado di cogliere le sfumature necessarie per emettere sentenze complesse.

 

Una obiezione cui Ghotbi replica spiegando che può «aiutare» i religiosi a rispondere in modo «più rapido» alle domande del pubblico, adattando l’islam alla modernità, senza scomodare qui l’esegesi del Corano che è uno dei grandi temi irrisolti della fede musulmana.

 

Altri ancora temono che l’IA possa erodere ulteriormente il ruolo del clero quale interprete della sharia, la legge islamica, in una fase di proteste e contestazioni innescate dalla controversia sull’hijab, il velo obbligatorio.

 

Secondo gli esperti di Brookings Institution, una delle sfide più significative dell’integrazione dell’IA nelle società tradizionali è il potenziale di erosione culturale e morale a essa collegato. Perché la nuova tecnologia, soprattutto se progettata e usata senza tenere presente i valori e le tradizioni locali, può senza volerlo promuovere una visione del mondo o una prospettiva morale in contrasto con usanze e credenze. Ecco dunque come gli sforzi per usare l’IA nell’interpretazione di testi religiosi, soprattutto per l’islam, possa risultare fonte di controversia.

 

Una analisi dell’Oxford Islamic Studies suggerisce che le interpretazioni degli insegnamenti religiosi non richiedono solo conoscenze linguistiche, ma anche comprensione storica, sociologica e teologica.

 

Il timore è che l’IA possa portare a una eccessiva semplificazione o, addirittura, ad un malinteso o a una errata lettura degli insegnamenti religiosi, i quali sono per loro stessa natura ricchi di sfumature. E potrebbe anche rappresentare una «minaccia» per i metodi di apprendimento tradizionali e per le madrasa, le scuole coraniche, in cui si pone grande attenzione ed enfasi sul rapporto che si viene a instaurare fra insegnante e studente.

 

I piani di Teheran

Quello dell’Intelligenza Artificiale è uno dei temi in agenda per la leadership iraniana, che nel recente passato ha mostrato più di un interesse e sta già sviluppando un piano in tre punti per sfruttarne le potenzialità.

 

A parlarne è stato di recente il vice-capo del dipartimento per la Scienza e la tecnologia Rouhollah Dehqani, il quale ha così spiegato l’idea alla base del progetto: vi sono tre «programmi di sviluppo scientifico» oggetto di studi e di approfondimento, di cui «il primo nelle università. Il secondo – prosegue – sono i programmi di sviluppo tecnologico che vengono perseguiti in aziende che lavorano nel campo dell’intelligenza artificiale» e l’ultimo prevede «la creazione di un centro tecnologico nazionale» per il settore.

 

La road-map di sviluppo risale al 2022 ed è frutto di un anno di lavoro scientifico presso l’Istituto di ricerca di tecnologia dell’informazione e della comunicazione, che ha visto la partecipazione di accademici e industriali, pubblici e privati.

 

Il documento è presentato in due sezioni generali: «Sviluppo delle applicazioni» e «Sviluppo dei fattori abilitanti» sottolinea Mohammad-Shahram Moein, responsabile del Centro di innovazione e sviluppo dell’IA presso l’istituto. «Nella sezione di sviluppo delle applicazioni, l’obiettivo principale – avverte – è utilizzare l’IA in aree prioritarie come salute, trasporti e agricoltura» mentre in un secondo momento si punterà su «istruzione, industria e ambiente. Nello sviluppo dei fattori abilitanti, abbiamo considerato – sottolinea – la formazione di manodopera specializzata, lo sviluppo di infrastrutture e del sistema di innovazione».

 

Il documento che traccia i lavori, sostenuto da Khamenei, comprende 10 obiettivi principali, 9 strategie e 156 attività per un orizzonte di 10 anni.

 

Secondo il database Nature Index, nel 2021 la Repubblica islamica si è piazzata al 13mo posto nel mondo fra le nazioni leader del settore per numero complessivo di pubblicazioni. Nel luglio 2022 il vice-ministro della Scienza Peyman Salehi ha dichiarato che – a dispetto delle sanzioni statunitensi, le attività internazionali degli scienziati iraniani sono in aumento, tanto che oltre il 35% degli articoli riguardanti l’Iran presenti su Scopus sono progetti multinazionali.

 

Nella legge di bilancio per l’anno 1402 del calendario iraniano, iniziato il 21 marzo scorso, sono previsti circa 37 mila miliardi di rial (75 milioni di dollari) per la scienza e la tecnologia, con un aumento del 35% del budget rispetto all’anno precedente. Finora sono nate in tutto il Paese oltre 8mila aziende operative nel settore, chiamate a produrre «conoscenza» e creare «posti di lavoro» come auspicato dalla guida suprema.

 

Infine, il Fondo per l’innovazione e la prosperità ha versato quasi 500 milioni di dollari a sostegno delle imprese che operano nel settore della conoscenza.

 

Iscriviti alla Newslettera di Renovatio 21

Invitiamo i lettori di Renovatio 21 a sostenere con una donazione AsiaNews e le sue campagne.

Renovatio 21 offre questo articolo per dare una informazione a 360º. Ricordiamo che non tutto ciò che viene pubblicato sul sito di Renovatio 21 corrisponde alle nostre posizioni.

Immagine di Bernard Gagnon via Wikimedia pubblicata su licenza Creative Commons Attribution-Share Alike 4.0 International3.0 Unported2.5 Generic2.0 Generic1.0 Generic; immagine modificata

 

 

Continua a leggere

Bizzarria

A San Francisco la gente già fa sesso nei robotaxi

Pubblicato

il

Da

I passeggeri dei taxi a guida autonoma paiono perdere più facilmente i freni inibitori.    È quanto riporta il San Francisco Standard, che, raccontando un episodio specifico con tanto di testimonianze di prima mano, sottolinea come la riservatezza derivante dal non avere un conducente sembra abbassare le inibizioni dei passeggeri all’interno dei robotaxi che stanno ora proliferando in tutta la città della Silicon Valley.   «Siamo entrati e ci siamo messi subito al lavoro, pomiciando», ha detto allo Standard Megan, una donna sui vent’anni, che di recente ha usufruito del servizio di mobilità alternativo. Da lì in poi è iniziato a diventare tutto allusivo e più intimo.    «Ero tipo, “non ho biancheria intima e sono pronta per indossare questo kimono”», ha aggiunto. «E stavo usando le sue pantofole che erano cinque taglie più grandi».   Il complice sessale anonimo della ragazza ha ammesso di aver compiuto atti sessuali in un robotaxi almeno sei volte, comprese tre sessioni «complete».   «Voglio dire, non c’è nessuno che ti dica: “non puoi farlo”», ha detto al quotidiano sanfranciscano. «Arriva al punto in cui ti senti sempre più a tuo agio, e se sei con qualcuno, come un partner più serio, può degenerare in altre attività».   Per anni, Cruise di General Motors e Waymo di Google hanno utilizzato robotaxi senza conducente nella città della Bay Area. Le auto hanno talvolta seminato il caos in città, bloccando il traffico in diverse occasioni.   Come riporta Futurism, i robotaxi possono anche essere pericolosi. Le segnalazioni di collisioni e incidenti mancati sono diventate quasi all’ordine del giorno. All’inizio di quest’anno, un veicolo è addirittura finito in una un contesto di incendio con i pompieri lì attivi.   Niente di tutto ciò sembra aver dissuaso i passeggeri dal copulare mentre sono in taxi.  Non è chiaro se Megan e il suo accompagnatore riusciranno a farla franca, perché c’è una possibilità che Cruise abbia registrato e archiviato le effusioni sui suoi server, nonostante le possibili leggi sulla privacy.   «Registriamo video all’interno dell’auto per maggiore sicurezza e supporto», si legge sul sito web di Cruise. «Se succedesse qualcosa durante la corsa, potremmo rivedere la registrazione per capire meglio cosa è successo».   «Stiamo lavorando duramente per garantire che il nostro servizio sia sicuro, pulito e aperto a tutti, e che i passeggeri accettino di fare la loro parte quando si iscrivono per utilizzare il nostro servizio», ha dichiarato allo Standard un portavoce di Cruise. «Adotteremo le misure appropriate contro chiunque violi tali linee guida».   «I was just along for the ride, literally» conclude la ragazza. «Ero solo lì per il giro, letteralmente»: il doppio senso non è possibile renderlo in italiano, ma il lettore può capire.   Dalle istigazioni al suicidio ai matrimoni con chatbot, dai consigli pro-anoressia ai plagi, dai licenziamenti di massa alla sostituzione di insegnanti e sacerdoti, dai morti che parlano alle crudeltà verso i bambini, il livello di degrado a cui può portarci l’Intelligenza Artificiale segna ogni giorno un nuovo livello.    
Continua a leggere

Intelligenza Artificiale

Google utilizza una enorme quantità d’acqua per l’Intelligenza Artificiale

Pubblicato

il

Da

Il consumo di acqua del colosso della tecnologia informatica Google sta aumentando rapidamente mentre continua la sua spinta nel mondo dell’intelligenza artificiale ad alta intensità energetica.

 

Secondo dati ambientali di quest’anno resi pubblici di recente, la multinazionale di Mountain View nel 2022 ha utilizzato l’astronomica cifra di 5,6 miliardi di litri d’acqua.

 

Si tratta di un aumento del 20% rispetto al suo utilizzo nel 2021, che può probabilmente essere attribuito in gran parte ai crescenti sforzi dell’azienda nel campo dell’Intelligenza Artificiale. Lo sviluppo degli algoritmi IA in enormi data center consuma immense quantità di energia, oltre che enormi quantità di acqua per il raffreddamento.

 

La maggior parte di quest’acqua non viene nemmeno estratta dai corsi d’acqua: è così pulita da poter essere utilizzata come acqua potabile.

 

Si tratta di una prospettiva non esattamente allineata con la narrazione dell’emergenza ecologica, soprattutto considerando che la scarsità d’acqua si sta trasformando in un problema non di poco conto, anche sulla costa occidentale degli Stati Uniti dove ha sede il colosso tecnologico.

Sostieni Renovatio 21

La California, che ha subito una devastante crisi idrica negli ultimi anni (qualcuno dice: programmaticamente) ha leggi tremende per quanto riguarda il consumo d’acqua: vengono razionati gli usi della lavatrice, l’irrigazione del giardino e perfino lo scarico del water, significativamente meno potente di quelli europei, con tutti i disdicevoli problemi del caso.

 

La situazione è diventata così grave che il data center progettato da Google in Arizona è passato alla «tecnologia raffreddata ad aria» a causa della carenza d’acqua nella zona, secondo Insider.

 

Nel suo rapporto Google afferma che l’82% del suo consumo di acqua dolce lo scorso anno proveniva da regioni a «basso stress idrico».

 

Tuttavia non è certo solo un problema di Google, perché anche Meta e OpenAI stanno consumando quantità di acqua gigantesche per mantenere in funzione i loro data center.

 

Gli esperti stimano che l’ultimo modello di intelligenza artificiale di Meta, LLAMA 2, abbia raddoppiato il consumo di acqua dell’azienda rispetto al precedente.

 

Google almeno pare abbia la decenza di tentare di alleviare, almeno in parte, questo grave problema di consumo e di abuso di acqua.  L’aumento del consumo di acqua «è dovuto alla crescita del business e si allinea con altri dati basati sulle attività», ha detto a Gizmodo un portavoce della megaditta californiana. «Stiamo lavorando per affrontare l’impatto del nostro consumo di acqua attraverso il nostro approccio di raffreddamento dei data center attento al clima e la strategia di gestione responsabile dell’acqua, compreso il nostro obiettivo di rifornimento del 120%».

 

È ben curioso vedere i colossi ultramiliardari fare contorsioni attorno ai loro «principi etici» riguardo l’ambiente. L’acqua ci detto e ripetuto, giustamente, che è un beve primario e prezioso e quindi non va sprecato, ma evidentemente ai titani della Silicon Valley è consentito di farci la lezioncina filantropica (cioè, filantrocapitalistica), mentre poi fanno come meglio ritengono per il loro tornaconto.

 

Che il bene acqua sia messo in pericolo dagli stessi che predicano il rispetto per l’ambiente lo abbiamo visto anche nel caso del potere dello Stato.

 

Come riportato da Renovatio 21, a poca distanza da casa nostra, in Germania, a causa delle «politiche green» e di una ideologia ecotalebana, Berlino ha rischiato di avere problemi di approvvigionamento idrico pochi mesi fa.

SOSTIENI RENOVATIO 21



 

Immagine di Robbie Shade via Flickr pubblicata su licenza Creative Commons Attribution 2.0 Generic (CC BY 2.0)

Continua a leggere

Più popolari