Intelligenza Artificiale
Dovremmo creare un’Intelligenza Artificiale simile ad un Dio che ci ama o che ci obbedisce? Il dilemma dello scienziato
Un importante esperto di Intelligenza Artificiale sta ancora una volta riprendendo un criptico sondaggio su Twitter.
Nel sondaggio, il capo scienziato di OpenAI Ilya Sutskever ha chiesto ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità».
In altre parole, sembra riflettere se dovremmo trattare le superintelligenze come animali domestici o viceversa, se esse dovrebbero vedere noi come amabili creature inferiori, e forse quindi non appassionarsi troppo al genere umano, che diverrebbe quindi, come le bestie per l’uomo, sfruttabile, commestibile, sacrificabile a piacimento.
What is the better overarching goal for AGI developers: the deeply obedient ASI that faithfully does what it’s asked by its creators, or the ASI that truly deeply loves humanity:
— Ilya Sutskever (@ilyasut) September 15, 2022
Questo tipo di domanda provocatoria pone una certa attenzione visto che proviene dal Sutskever, il ricercatore che potrebbe essere accreditato di aver alimentato il dibattito sull’IA senziente di quest’anno mesi prima che un ingegnere di Google affermasse che uno degli algoritmi dell’azienda aveva acquisito sensibilità.
Lo scorso febbraio, il capo scienziato e cofondatore di OpenAI affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».
La maggior parte delle persone della comunità scientifica sulle intelligenze artificiali ha respinto il concetto di IA le quali possono diventare senzienti in qualsiasi momento.
Mo Gawdat, ex Chief Business Officer per l’unità sperimentale di Google un tempo chiamata Google X, già l’anno scorso in un’intervista al Times lanciò l’allarme riguardo le intelligenze artificiali senzienti.
L’uomo della Silicon Valley dichiarò che crede che la cosiddetta intelligenza artificiale generale (AGI), il tipo di intelligenza artificiale onnipotente e senziente vista nella fantascienza sia inevitabile e che una volta che sarà qui, l’umanità potrebbe benissimo ritrovarsi in un’apocalisse provocata da macchine simili a delle divinità.
Recentemente un ingegnere di Google, Blake Lemoine, ha dichiarato pubblicamente che il chatbot AI dell’azienda, LaMDA, è «senziente», ossia dotato di una coscienza comparabile a quella degli esseri umani.
L’ingegnere è stato messo quindi in congedo retribuito per aver violato gli accordi di riservatezza
Come noto, il cofondatore di OpenAI di Sutskever, Elon Musk, a gennaio ha affermato che i robot umanoidi annunziati da Tesla potrebbero far parte dell’ondata che produce l’intelligenza generale artificiale (AGI).
Il Musk un lustro fa spaventò il mondo dicendo di vedere le IA come una vera minaccia esistenziale per l’umanità, paragonando il progresso nel campo dell’Intelligenza Artificiale all’«evocazione di un demone».
È evidente che gli scienziati, talvolta inconsapevolmente, stanno spostando il loro pensiero lontano dalla scienza e verso una sorta di sentire religioso, traboccante di una tracotanza sconosciuta: essi sentono di essere in grado di creare gli dei, di produrre informaticamente «Dio».
L’Intelligenza Artificiale è quindi una «teurgia», un processo in cui l’uomo produce miracoli e diventa lui stesso autore del divino.
Ecco che l’idea di Musk della negromazia AI, dell’Intelligenza Artificiale come magia nera e commercio con i demòni, riceve davvero senso.
Intelligenza Artificiale
Robot bipede picchiato nel bosco
Un filmato emerso in rete mostra un robot bipede preso a bastonate in mezzo agli alberi, all’interno di una prova di resistenza da parte del produttore.
L’automa a due zampe P1 – sua sorta di «robogallina» – è prodotto dall’azienda cinese LimX Dynamics, che avrebbe condotto dei test nei boschi del Monte Tanglang, non lontano dalla città industriale di Shenzhen, sede della LimX.
Il video registra il momento in cui il robot affronta per la prima volta un ambiente così intricato, caratterizzato da pendii variabili, avvallamenti, sabbia, foglie, rocce, radici degli alberi, vegetazione e altre sfide impreviste.
Man beats robot in the forest: Impressive capabilites of Chinese robotics company LimX Dynamics’ P1 bipedal robot.
The robot utilizes reinforcement learning, enabling it to dynamically adapt to complex environments without prior knowledge of the terrain’s specifics. pic.twitter.com/5LsJlw0wpW
— Clash Report (@clashreport) May 4, 2024
L’intento era di educarlo attraverso l’addestramento basato sul rinforzo, permettendogli di imparare sul campo, mediante l’esperienza, a mantenere l’equilibrio sulle gambe senza cadere in modo catastrofico.
Come veduto in altre occasioni con robocani ed affini, gli ingegneri di LimX hanno anche scelto di esercitare – per scopi scientifici, certo – una certa violenza sul robot, colpendolo con un bastone all’altezza del ginocchio e spingendolo, al fine di testare l’efficacia del sistema di auto-bilanciamento e la capacità di rimanere in piedi in caso di spinte o impatti, anche su terreni accidentati.
Il robot P1 non è tuttavia l’unico su cui LimX Dynamics sta lavorando: sul sito aziendale ufficiale è possibile osservare un robot con quattro ruote denominato W-1, e il sempre presente androide chiamato CL-1, protagonista di un video in cui viene mostrato mentre corre e sale delle scale.
This is the humanoid robot CL-1. In this demonstration, it successfully climbs stairs in a single stride, utilizing real-time terrain perception.
This marks the first occasion that CL-1 has executed stable and dynamic running back and forth!📹 [LimX Dynamics] pic.twitter.com/s16Qp2zHih
— TheTechAnonGuy 🤖 (@TheTechAnonGuy) April 18, 2024
Discover LimX Dynamics #Humanoid #Teleoperation to Collect #Data for Learning
found @youtube#Robots #Robotics #algorithms #Innovation #Tech #Technology #TechNews #ScienceAndTechnology #engineering #future pic.twitter.com/2jq5xsH6kh
— Andres Vilariño (@andresvilarino) May 1, 2024
Sostieni Renovatio 21
È impossibile per il lettore sano di mente (o anche solo per il non vaccinato) fare a meno di pensare che tali creature artificiali saranno usate a breve per la caccia agli esseri umani.
Come ripetuto da Renovatio 21, in realtà ciò è già avvenuto ed avviene in plurime occasioni: abbiamo visto robocani pattugliare le strade deserte del grande lockdown di Shanghai 2022, robocani al confine tra Messico e USA, robocani israeliani in azione in queste stesse ore a Gaza.
Al contempo, non possiamo dimenticare che università cinesi hanno dimostrato la capacità di programmare stormi di microdroni-cacciatori – veri e propri slaughterbots – in grado di inseguire ed eliminare gli esseri umani anche nei boschi. Parimenti, ha impressionato parecchio l’esperimento di giovani ricercatori che hanno trasformato in poco tempo un mini-drone da poche diecine di euro in uno strumento di morte alimentato dall’Intelligenza Artificiale.
Non è possibile scordare anche i droni del sindaco di Messina Cateno De Luca, che durante il lockdown pandemico urlavano a chi stava fuori casa frasi giudicate da taluni come volgari.
Le cronache riportano che il De Luca avrebbe avuto un malore pochi giorni fa durante un comizio per le elezioni europee, dove presenta un listone con uno stuolo di altre forze politiche, tra cui alcune figure teoricamente legate alla «dissidenza» rispetto la catastrofe pandemica – così, dal no-vaxismo al dronismo, come se fossero stati improvvisamente resettati e riprogrammati, con robot.
Robot bipedi picchiati nei boschi in Cina, robot bipedi elettorali a caccia di voti in Italia. Va così.
Iscriviti alla Newslettera di Renovatio 21
Immagine screenshot da YouTube
Intelligenza Artificiale
Microsoft e OpenAI costruiscono supercomputer segreto da 100 miliardi di dollari per addestrare l’IA avanzata
Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Bioetica
Controverso centro di Bioetica di Oxford che si occupa di AI chiude i battenti
Renovatio 21 traduce questo articolo di Bioedge.
Una centrale elettrica di Oxford che genera controverse idee bioetiche ha chiuso i battenti. Il Future of Humanity Institute, diretto dal filosofo svedese Nick Bostrom, è stato inaugurato nel 2005 ed è stato chiuso all’inizio di questo mese.
Un messaggio di commiato sul sito web della FHI afferma che l’istituto ha dato un prezioso contributo allo studio del futuro, «Argomenti che un tempo faticavano a sopravvivere a un’esistenza precaria ai margini di un singolo dipartimento di filosofia sono ora perseguiti da importanti laboratori di Intelligenza Artificiale, agenzie governative, organizzazioni no-profit e centri di ricerca accademica specializzati (e molti altri in fase di creazione)».
Al di fuori del mondo accademico, il professor Bostrom è meglio conosciuto per il suo libro del 2014, Superintelligence: Paths, Dangers and Strategies. Le stelle più importanti della Silicon Valley lo adoravano. «Consiglio vivamente questo libro», ha detto Bill Gates. «Vale la pena leggerlo», ha detto Elon Musk, che non solo ha contribuito con un trafiletto; ha anche donato oltre 1 milione di dollari alla FHI.
Alla FHI sono emerse una serie di idee e movimenti selvaggi e importanti. Secondo il sito web:
Sostieni Renovatio 21
«La FHI è stata coinvolta nella germinazione di un’ampia gamma di idee tra cui il rischio esistenziale, l’effective altruism, l’orientamento a lungo termine, l’allineamento dell’Intelligenza artificiale, la governance dell’Intelligenza Artificiale, il rischio catastrofico globale, il grande futuro, i rischi dell’informazione, la maledizione dell’unilateralismo e l’incertezza morale. Ha inoltre svolto un lavoro significativo sull’antropizzazione, sull’etica del miglioramento umano, sulla modellazione del rischio sistemico, sui mercati di previsione e previsione, sulla ricerca di intelligenza extraterrestre e sugli attributi e le implicazioni strategiche delle principali tecnologie future».
Bostrom è un transumanista che è stato un convinto sostenitore del miglioramento umano per creare «un essere umano potenziato in modo ottimale». Ma più recentemente è stato conosciuto come un pioniere dell’etica dell’Intelligenza Artificiale.
Che cosa è andato storto?
Il crollo dell’exchange di criptovalute FTX e la condanna per frode del suo CEO Sam Bankman-Fried potrebbero aver avuto qualcosa a che fare con questo. Bankman-Fried era un sostenitore di una filosofia promossa da FHI, l’effective altruism. Questa è la convinzione utilitaristica secondo cui le persone dovrebbero concentrarsi sulla massimizzazione della quantità di bene globale che possono fare. Bankman-Fried fece una montagna di danaro e lo regalò, ma erano soldi di altre persone.
Come filosofia, l’altruismo efficace si è rivelato molto fragile. Probabilmente non era il benvenuto al dipartimento di filosofia di Oxford, di cui la FHI faceva parte.
Inoltre, all’inizio dell’anno scorso qualcuno ha riesumato un’e-mail degli anni ’90 in cui Bostrom faceva un commento scandalosamente razzista. Si è scusato, ma la notizia ha fatto scandalo. Alla fine dell’anno scorso, Oxford annunciò che i contratti del restante personale della FHI non sarebbero stati rinnovati.
Michael Cook
Renovatio 21 offre questa traduzione per dare una informazione a 360º. Ricordiamo che non tutto ciò che viene pubblicato sul sito di Renovatio 21 corrisponde alle nostre posizioni.
Iscriviti alla Newslettera di Renovatio 21
Immagine di Tony Hisgett via Wikimedia pubblicata su licenza Creative Commons Attribution 2.0 Generic
-
Ospedale2 settimane fa
«Sapevo che stavano uccidendo le persone»: un informatore afferma che i protocolli ospedalieri COVID hanno portato alla morte dei pazienti
-
Salute2 settimane fa
I malori della 17ª settimana 2024
-
Spirito2 settimane fa
Sacrifici animali fermati sul Monte del Tempio di Gerusalemme
-
Pensiero1 settimana fa
Vi augurano buona festa del lavoro, ma ve lo vogliono togliere. Ed eliminare voi e la vostra discendenza
-
Cina1 settimana fa
Cina, nel 2024 calano i profitti per il settore delle terre rare
-
Pensiero2 settimane fa
I biofascisti contro il fascismo 1.0: ecco la patetica commedia dell’antifascismo
-
Bioetica1 settimana fa
Medico argentino incarcerato per essersi rifiutato di praticare un aborto
-
Spirito2 settimane fa
Mons. Viganò: omelia per le Rogazioni contro il cancro conciliare