Intelligenza Artificiale
La prospettiva di estinzione causata dall’IA dovrebbe avere la stessa priorità della guerra nucleare: parlano gli esperti
Impedire che l’intelligenza artificiale fuori controllo causi l’estinzione dell’umanità dovrebbe essere una priorità globale di massimo livello, ha affermato a inizio settimana un’organizzazione senza scopo di lucro chiamata Center for AI Safety in una dichiarazione firmata da 350 persone di spicco nell’IA e nei campi correlati.
«Mitigare il rischio di estinzione dell’IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare», si legge nella dichiarazione.
I firmatari includevano il CEO di Google DeepMind Demis Hassabis, il CEO di Anthropic Dario Amodei e – sorpresa – il CEO di OpenAI Sam Altman, che ha recentemente dichiarato al Congresso USA di essere preoccupato che la tecnologia potesse andare «abbastanza male» e li ha esortati a imporre regolamenti al settore.
I tre leader del settore hanno incontrato il presidente degli Stati Uniti Joe Biden e il vicepresidente Kamala Harris all’inizio di questo mese per discutere di potenziali normative. Numerosi dirigenti di grandi aziende hanno anche aggiunto i loro nomi alla dichiarazione di martedì.
Geoffrey Hinton e Yoshua Bengio, considerati i «padrini dell’IA» per il loro lavoro sulle reti neurali, sono stati elencati per primi nel documento, anche se Yann LeCun, che ha svolto la ricerca con loro e ora gestisce la ricerca sull’IA per Meta, invece non ha firmato. Hinton ha lasciato il suo lavoro in Google all’inizio di questo mese per lanciare l’allarme sui rischi dell’IA e ha dichiarata che a volte si rammarica del lavoro della sua vita. Pochi mesi fa un ingegnere di Google, Blake Lemoine, ha dichiarato pubblicamente che il chatbot AI dell’azienda, LaMDA, è «senziente», ossia dotato di una coscienza comparabile a quella degli esseri umani.
La lettera rappresenta un ulteriore «coming out» per i leader del settore che in precedenza tenevano nascoste le loro preoccupazioni sul futuro dell’IA, ha dichiarato martedì al New York Times il direttore esecutivo del Center for AI Safety Dan Hendrycks.
«C’è un malinteso molto comune, anche nella comunità dell’AI, secondo cui ci sono solo una manciata di apocalittici», ha spiegato, chiarendo che «molte persone in privato esprimerebbero preoccupazioni su queste cose».
Il messaggio fa eco a un’altra lettera aperta pubblicata a marzo dal Future of Life Institute, sostenendo una moratoria di sei mesi sugli sviluppi dell’IA su larga scala al fine di evitare «una corsa fuori controllo per sviluppare e distribuire menti digitali sempre più potenti».
Il messaggio che richiedeva una moratoria per mettere in pausa le ricerche sull’AI è stato firmato da più di 1.000 figure influenti della tecnologia, tra cui il miliardario Elon Musk, che è particolarmente apocalittico da sempre sul tema, ed ha appena ricevuto l’approvazione del governo degli Stati Uniti per procedere con i test umani sulla sua interfaccia cervello-computer Neuralink, che ha lo scopo di dare alle persone un vantaggio competitivo contro l’Intelligenza Artificiale – una sorta di «transumanismo difensivo».
Tuttavia, non tutti gli esperti di Intelligenza Artificiale sono timidi.
Jensen Huang, il CEO di Nvidia (società di microprocessori che ha pena raggiunto il trilione di dollari di capitalizzazione), ha recentemente dichiarato a un pubblico della National Taiwan University che coloro che non sono saltati sul colosso dell’IA vedranno il loro lavoro rubato, le loro aziende morte e loro stessi divorati.
Ricordiamo anche la posizione del co-fondatore di Microsoft Bill Gates, un grande investitore di intelligenza artificiale (ha elargito 10 miliardi a OpenAI per usare ChatGPT sul suo motore di ricerca Microsoft Bing), insiste sul fatto che la tecnologia porterà solo «enormi vantaggi».
Come riportato da Renovatio 21, a chiedere di fermare l’Intelligenza Artificiale è stato anche un gruppo di medici che hanno firmato un appello sulla prestigiosa rivista scientifica BMJ Global Health.
Un recente rapporto della banca d’affari Goldman Sachs calcola che l’IA potrebbe portare a breve a 300 milioni di disoccupati nel mondo.
Il Musk aveva dichiarato durante la sua recente intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Quando Musk ha ribattuto ad un entusiasta fondatore di Google Larry Page specificando i rischi dell’AI, il Page gli ha dato dello «specista», termine del gergo animalista che indica una persona che mette la specie umana sopra le altre.
L’idea che l’AI diventerà una sorta di dio circola da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». L’anno scorso, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».
Eliezer Yudkowsky, specialista nel tema dei pericoli delle IA, ha dichiarato che l’unica possibilità è una moratoria che preveda il bombardamento delle server farm dei Paesi che stanno sviluppando l’AGI, poiché se non si fermano le macchine «tutti sulla terra moriranno».
Bioetica
Controverso centro di Bioetica di Oxford che si occupa di AI chiude i battenti
Renovatio 21 traduce questo articolo di Bioedge.
Una centrale elettrica di Oxford che genera controverse idee bioetiche ha chiuso i battenti. Il Future of Humanity Institute, diretto dal filosofo svedese Nick Bostrom, è stato inaugurato nel 2005 ed è stato chiuso all’inizio di questo mese.
Un messaggio di commiato sul sito web della FHI afferma che l’istituto ha dato un prezioso contributo allo studio del futuro, «Argomenti che un tempo faticavano a sopravvivere a un’esistenza precaria ai margini di un singolo dipartimento di filosofia sono ora perseguiti da importanti laboratori di Intelligenza Artificiale, agenzie governative, organizzazioni no-profit e centri di ricerca accademica specializzati (e molti altri in fase di creazione)».
Al di fuori del mondo accademico, il professor Bostrom è meglio conosciuto per il suo libro del 2014, Superintelligence: Paths, Dangers and Strategies. Le stelle più importanti della Silicon Valley lo adoravano. «Consiglio vivamente questo libro», ha detto Bill Gates. «Vale la pena leggerlo», ha detto Elon Musk, che non solo ha contribuito con un trafiletto; ha anche donato oltre 1 milione di dollari alla FHI.
Alla FHI sono emerse una serie di idee e movimenti selvaggi e importanti. Secondo il sito web:
Sostieni Renovatio 21
«La FHI è stata coinvolta nella germinazione di un’ampia gamma di idee tra cui il rischio esistenziale, l’effective altruism, l’orientamento a lungo termine, l’allineamento dell’Intelligenza artificiale, la governance dell’Intelligenza Artificiale, il rischio catastrofico globale, il grande futuro, i rischi dell’informazione, la maledizione dell’unilateralismo e l’incertezza morale. Ha inoltre svolto un lavoro significativo sull’antropizzazione, sull’etica del miglioramento umano, sulla modellazione del rischio sistemico, sui mercati di previsione e previsione, sulla ricerca di intelligenza extraterrestre e sugli attributi e le implicazioni strategiche delle principali tecnologie future».
Bostrom è un transumanista che è stato un convinto sostenitore del miglioramento umano per creare «un essere umano potenziato in modo ottimale». Ma più recentemente è stato conosciuto come un pioniere dell’etica dell’Intelligenza Artificiale.
Che cosa è andato storto?
Il crollo dell’exchange di criptovalute FTX e la condanna per frode del suo CEO Sam Bankman-Fried potrebbero aver avuto qualcosa a che fare con questo. Bankman-Fried era un sostenitore di una filosofia promossa da FHI, l’effective altruism. Questa è la convinzione utilitaristica secondo cui le persone dovrebbero concentrarsi sulla massimizzazione della quantità di bene globale che possono fare. Bankman-Fried fece una montagna di danaro e lo regalò, ma erano soldi di altre persone.
Come filosofia, l’altruismo efficace si è rivelato molto fragile. Probabilmente non era il benvenuto al dipartimento di filosofia di Oxford, di cui la FHI faceva parte.
Inoltre, all’inizio dell’anno scorso qualcuno ha riesumato un’e-mail degli anni ’90 in cui Bostrom faceva un commento scandalosamente razzista. Si è scusato, ma la notizia ha fatto scandalo. Alla fine dell’anno scorso, Oxford annunciò che i contratti del restante personale della FHI non sarebbero stati rinnovati.
Michael Cook
Renovatio 21 offre questa traduzione per dare una informazione a 360º. Ricordiamo che non tutto ciò che viene pubblicato sul sito di Renovatio 21 corrisponde alle nostre posizioni.
Iscriviti alla Newslettera di Renovatio 21
Immagine di Tony Hisgett via Wikimedia pubblicata su licenza Creative Commons Attribution 2.0 Generic
Intelligenza Artificiale
Robocani lanciafiamme in vendita per 9000 euro
Robocani sono utilizzati ai confini con il Messico. Tuttavia vi è polemica: c’è chi ritiene che il loro uso spaventa gli immigrati spingendoli verso sentieri dove poi incontrano la morte. Come riportato da Renovatio 21, è emerso questo mese che le forze di difesa israeliane stanno utilizzando robocani nella loro operazione a Gaza. Nel frattempo, le forze dell’ordine di varie città americane da tempo ne fanno incetta. Come riportato da Renovatio 21, Los Angeles, come Nuova York, hanno fornito le loro forze dell’ordine di robodogghi. Anche la vicina San Francisco ha persino preso in considerazione l’idea di consentire al suo dipartimento di polizia di utilizzare i robot dotati di forza letale in caso di emergenza. Al Forum militare di Mosca dell’anno scorso di due mesi fa erano visibili robocani dotati di bazooka. Roboquadrupedi militari sono in produzione ovunque – pure in versione «telepatica». Lo scorso ottobre un robocane con lanciarazzi è stato testato dai soldati USA. Mesi fa robocani hanno fatto la loro comparsa anche a Genova, sia pure in quella che sembrava una tranquilla dimostrazione universitaria. Come riportato Renovatio 21, robocagnoidi sono stati mandati in giro pure per la campagna umbra. Per far cosa? Controllare l’ambiente, ci è stato detto. Almeno, al momento…Shanghai has deployed robotic dogs to blare lockdown instructions to the public. pic.twitter.com/PK72YIPfxs
— Ian Miles Cheong (@stillgray) March 30, 2022
Droni
I droni israeliani attirano i palestinesi con audio di bambini che piangono e poi gli sparano
I quadricotteri israeliani starebbe impiegando una nuova, inquietante tattica che consiste nel riprodurre registrazioni audio di bambini e donne che piangono per attirare i palestinesi in luoghi dove possono essere presi di mira. La notizia è riportata dal giornale Middle East Eye.
Domenica e lunedì notte, i residenti della parte settentrionale del campo profughi di Nuseirat, a Gaza, si sono svegliati al suono dei pianti dei bambini e delle donne che chiedevano aiuto. Quando sono usciti per individuare la fonte delle grida e fornire aiuti, secondo quanto riferito, i quadricotteri israeliani hanno aperto il fuoco direttamente contro di loro.
Samira Abu al-Leil, residente nel campo profughi, ha detto a Middle East Eye di aver sentito i quadricotteri israeliani aprire il fuoco durante e subito dopo la riproduzione dei suoni registrati, che sono durati diversi minuti e si sono ripetuti più volte lunedì notte.
«Ho sentito una donna piangere e gridare aiuto, dicendo: “Aiutatemi, mio figlio è stato martirizzato”. I suoni provenivano dalla strada ed erano bizzarri», ha detto il 49enne. «Alcuni uomini sono accorsi in soccorso, solo per essere colpiti dai quadricotteri che hanno continuato a vagare per tutta la notte».
Israeli drones are reported emitting sounds of crying children at al-Nuseirat camp in Gaza to target and shoot civilians searching for the source of the distress calls. pic.twitter.com/5w02CqYwqs
— Middle East Eye (@MiddleEastEye) April 16, 2024
Sostieni Renovatio 21
Secondo testimoni oculari, durante la notte almeno 7-10 persone sono rimaste ferite dagli spari del drone, scrive il giornale. «Le ferite erano gravi: alcuni sono stati colpiti direttamente alla testa» ha detto uno dei residenti del campo profughi di Nuiserat.
I residenti non sono stati in grado di aiutare le vittime, poiché «i quadricotteri sparavano a qualsiasi cosa si muovesse». Un’ambulanza è però riuscita a raggiungere la zona e a trasportarli in ospedale.
«Di notte, le strade sono solitamente vuote e gli uomini sono nelle loro case», ha aggiunto Leil. «Quando i quadricotteri aprono il fuoco, colpiscono solo i tetti e le strade, non trovano persone a cui sparare. Quindi hanno riprodotto questi suoni perché conoscono la natura della nostra società; sanno che gli uomini avrebbero cercato di fornire aiuto. Volevano che uscissero per potergli sparare».
«Ieri e la notte prima, i proiettili dei quadricotteri hanno colpito il nostro tetto, la nostra porta e la strada davanti a casa nostra. Ma ieri mattina hanno lanciato delle bombe esplosive con schegge che si sono sparse ovunque nel nostro quartiere, lasciando feriti molti residenti».
I quadricotteri sono droni telecomandati che sono stati ampiamente utilizzati contro combattenti e civili palestinesi nella Striscia di Gaza dal 7 ottobre.
Questa tecnologia sta gradualmente sostituendo le truppe di terra, aiutando nell’identificazione degli obiettivi, nel targeting individuale e nella sicurezza delle aree in cui sono di stanza i soldati israeliani.
I quadricotteri possono esplorare posizioni avanzate, prendere di mira individui all’interno delle residenze e disperdere la folla negli spazi pubblici.
Un evento significativo che ha coinvolto l’uso di quadricotteri si è verificato l’11 gennaio, quando una grande folla in attesa di cibo in via al-Rasheed, vicino alla costa di Gaza City, è stata colpita dal fuoco dell’esercito israeliano. Numerosi testimoni hanno raccontato che i quadricotteri hanno sparato su centinaia di persone in attesa dell’arrivo dei camion dei soccorsi.
Muhammed Abu Youssef, 19 anni, ha detto a Middle East Eye che lunedì intorno alle 2 di notte ha sentito i pianti dei bambini. Tuttavia, poiché le persone postavano sui social media per aumentare la consapevolezza della fonte di questi suoni, ha scelto di non avventurarsi all’esterno. «Non siamo usciti, perché abbiamo appreso che queste erano solo registrazioni riprodotte dai quadricotteri per indurci ad uscire» ha detto il residente del campo profughi. «C’erano suoni diversi provenienti dai quadricotteri. Facevano rumore; alcune registrazioni erano comprensibili e altre no. Sono durati dai 30 ai 60 minuti, poi i quadricotteri hanno iniziato ad aprire il fuoco e a lanciare bombe nel quartiere».
Un video registrato da un residente del campo profughi di Nuseirat e circolante sui social media mostrerebbe suoni di bambini che piangono, mentre il residente spiegava che si trattava di suoni preregistrati riprodotti da quadricotteri israeliani.
🚨BREAKING: Israeli quadcopter drones are emitting sounds of crying children and women to lure civilians for targeting in Al-Nusairat! pic.twitter.com/dGaSw8hJXX
— S A R A H✌️🇵🇸 (@sarabahaa94) April 15, 2024
Aiuta Renovatio 21
«Negli ultimi tre giorni ci sono stati almeno 12 feriti a causa dell’incendio del quadricottero. Solo questa mattina abbiamo soccorso sei persone ferite nel quartiere. Le ferite erano gravi: alcuni sono stati colpiti direttamente alla testa».
Secondo i residenti, le registrazioni audio includevano anche canzoni sia in ebraico che in arabo, comprese canzoni per bambini, suoni di scontri e carri armati in movimento, voci di uomini armati palestinesi e voci di venditori ambulanti locali di prodotti per la pulizia familiari ai residenti di Gaza.
«Da oltre una settimana, l’esercito israeliano porta avanti un intenso attacco militare nella parte nord-occidentale di Nuseirat, prendendo di mira individui, case e quartieri con artiglieria, bombardamenti aerei e navali, nonché colpi di quadricotteri» scrive Middle East Eye, che è un giornale basato a Londra ma che, è stato riferito, riceve finanziamenti dal governo del Qatar, vicino come noto alla Fratellanza Musulmana da cui proviene Hamas.
Quanto riporta il giornale arabo, se vero, risulterebbe davvero sconvolgente – ma fino ad un certo punto. Varie voci, a destra come a sinistra e perfino in USA, stanno parlando apertamente di «genocidio massivo robotizzato» in corso in Palestina.
Come riportato da Renovatio 21, nel conflitto presente Israele starebbe utilizzando anche – una prima volta nella storia – robocani militarizzati, che sarebbero stati dispiegati a Gaza.
Il massacro di Gaza si presenta quindi come un grande banco di prova per la guerra antiumana del futuro, la guerra dei veri terminatori: con la caccia e l’eliminazione degli esseri umani affidate alle macchine – droni, Intelligenza Artificiale, automi militari, slaughterbots – diviene inevitabile che vedremo, nel futuro prossimo, sempre più «genocidi robotici» in tutto il mondo.
Tali tecnologie sono implementabili in qualsiasi contesto, urbano o rurale, del pianeta. Qualsiasi campagna o città – anche italiana – può diventare teatro di una guerra di sterminio macchinale: satelliti, UAV e a robot killer sono pronti ad operarvi, e guardando a Gaza e all’Ucraina non ci deve essere alcun dubbio a riguardo.
Iscriviti alla Newslettera di Renovatio 21
Immagine generata artificialmente
-
Vaccini2 settimane fa
Lanciati i vaccini RNA monodose contro COVID e influenza per i bambini. I critici: «livelli di follia senza precedenti»
-
Droni2 settimane fa
I droni israeliani attirano i palestinesi con audio di bambini che piangono e poi gli sparano
-
Salute1 settimana fa
I malori della 17ª settimana 2024
-
Spirito1 settimana fa
Sacrifici animali fermati sul Monte del Tempio di Gerusalemme
-
Pensiero2 settimane fa
«Preghiera» pagana a Zeus ed Apollo recitata durante cerimonia di accensione della torcia olimpica. Quanti sacrifici umani verranno fatti, poi, con l’aborto-doping?
-
Ospedale1 settimana fa
«Sapevo che stavano uccidendo le persone»: un informatore afferma che i protocolli ospedalieri COVID hanno portato alla morte dei pazienti
-
Epidemie2 settimane fa
La Casa Bianca di Biden firma un nuovo piano di sorveglianza pandemica finanziato da Gates
-
Animali2 settimane fa
Scoperto in India un serpente lungo quanto uno scuolabus. Probabilmente pure molto meno letale