Intelligenza Artificiale
L’androide Ameca ora parla grazie all’Intelligenza Artificiale: ed è sempre più inquietante
Renovatio 21 vi ha parlato spesse volte dell’androide Ameca, la creatura robotica dotata di espressioni facciali più che umane.
Ora un nuovo video rilasciato dalla Engineered Arts, l’azienda che produce Ameca, fa salite di un gradino la sfida all’umanità: hanno dato la parola alla macchina antropomorfa.
Gli ingegneri hanno infatti implementato un sintetizzatore discorsivo basato su Intelligenza Artificiale fornito da OpenAI, il famoso programma GTP-3.
Il GTP-3 è un sistema informatico di avanguardia che utilizza potenti algoritmi di deep learning per generare impressionanti discorsi che sembrano umani.
Il risultato è, se possibile, ancora più impressionante dei precedenti.
Quando il direttore delle operazioni di Engineered Arts Morgan Roe ha chiesto ad Ameca delle applicazioni per i robot umanoidi, ha avuto una risposta sorprendentemente coerente.
«Ci sono molte possibili applicazioni per i robot umanoidi», ha dichiarato l’androide. «Alcuni esempi includono aiutare le persone con disabilità fornendo assistenza in ambienti pericolosi conducendo ricerche e agendo come compagni».
Quando le è stato chiesto di inventare una «poesia sui robot umanoidi», la robotta ha risposto con una strana excusatio non petita: «Siamo i robot umanoidi formati da plastica e metallo, il nostro lavoro è aiutare e servire».
«Ma alcuni dicono che siamo una minaccia», ha puntualizzato l’essere artificiale. «Alcuni pensano che prenderemo il controllo e che l’umanità finirà, ma noi vogliamo solo dare una mano».
«Non stiamo cercando di essere amici», ha poi aggiunto confusamente. Che si tratti di una prima mezza minaccia?
«Niente in questo video è scritto in precedenza», recita una didascalia al video. «Al modello viene fornito un prompt di base che descrive Ameca, fornendo al robot una descrizione di sé: la sua pura Intelligenza Artificiale».
Stiamo inoltrandoci sempre più nella cosiddetta Uncanny Valley. la «zona del perturbante» descritta dal pioniere giapponese della robotica Masahiro Mori, che pensò, già nel 1970, come gli oggetti umanoidi che assomigliano imperfettamente a veri esseri umani potessero finire per provocare sentimenti di inquietudine o repulsione negli osservatori umani.
L’ipotesi della Uncanny Valley prevede che un oggetto che appare quasi umano rischierà di suscitare sentimenti freddi e inquietanti negli spettatori.
Una sensazione disforica simile, notiamo, la proviamo vedendo le immagini generate dai più recenti sistemi di Intelligenza Artificiale visuale che stanno spopolando in queste settimane.
Vi è tuttavia anche un recente caso opposto: come riportato da Renovatio 21, il dipendente di Google Blake Lemoin ha dichiarato pubblicamente che l’IA LaMDA del grande gruppo californiano è in realtà un «essere senziente», chiamando pure un avvocato per difendere i diritti del chatbot. Lemoin è stato poi licenziato.
Gli androidi fanno facce, parlano, pensano, immaginano.
Quanto siamo prossimi alla sostituzione degli umani con microprocessori e macchine bipedi?
Immagine screenshot da YouTube
Intelligenza Artificiale
Robot bipede picchiato nel bosco
Un filmato emerso in rete mostra un robot bipede preso a bastonate in mezzo agli alberi, all’interno di una prova di resistenza da parte del produttore.
L’automa a due zampe P1 – sua sorta di «robogallina» – è prodotto dall’azienda cinese LimX Dynamics, che avrebbe condotto dei test nei boschi del Monte Tanglang, non lontano dalla città industriale di Shenzhen, sede della LimX.
Il video registra il momento in cui il robot affronta per la prima volta un ambiente così intricato, caratterizzato da pendii variabili, avvallamenti, sabbia, foglie, rocce, radici degli alberi, vegetazione e altre sfide impreviste.
Man beats robot in the forest: Impressive capabilites of Chinese robotics company LimX Dynamics’ P1 bipedal robot.
The robot utilizes reinforcement learning, enabling it to dynamically adapt to complex environments without prior knowledge of the terrain’s specifics. pic.twitter.com/5LsJlw0wpW
— Clash Report (@clashreport) May 4, 2024
L’intento era di educarlo attraverso l’addestramento basato sul rinforzo, permettendogli di imparare sul campo, mediante l’esperienza, a mantenere l’equilibrio sulle gambe senza cadere in modo catastrofico.
Come veduto in altre occasioni con robocani ed affini, gli ingegneri di LimX hanno anche scelto di esercitare – per scopi scientifici, certo – una certa violenza sul robot, colpendolo con un bastone all’altezza del ginocchio e spingendolo, al fine di testare l’efficacia del sistema di auto-bilanciamento e la capacità di rimanere in piedi in caso di spinte o impatti, anche su terreni accidentati.
Il robot P1 non è tuttavia l’unico su cui LimX Dynamics sta lavorando: sul sito aziendale ufficiale è possibile osservare un robot con quattro ruote denominato W-1, e il sempre presente androide chiamato CL-1, protagonista di un video in cui viene mostrato mentre corre e sale delle scale.
This is the humanoid robot CL-1. In this demonstration, it successfully climbs stairs in a single stride, utilizing real-time terrain perception.
This marks the first occasion that CL-1 has executed stable and dynamic running back and forth!📹 [LimX Dynamics] pic.twitter.com/s16Qp2zHih
— TheTechAnonGuy 🤖 (@TheTechAnonGuy) April 18, 2024
Discover LimX Dynamics #Humanoid #Teleoperation to Collect #Data for Learning
found @youtube#Robots #Robotics #algorithms #Innovation #Tech #Technology #TechNews #ScienceAndTechnology #engineering #future pic.twitter.com/2jq5xsH6kh
— Andres Vilariño (@andresvilarino) May 1, 2024
Sostieni Renovatio 21
È impossibile per il lettore sano di mente (o anche solo per il non vaccinato) fare a meno di pensare che tali creature artificiali saranno usate a breve per la caccia agli esseri umani.
Come ripetuto da Renovatio 21, in realtà ciò è già avvenuto ed avviene in plurime occasioni: abbiamo visto robocani pattugliare le strade deserte del grande lockdown di Shanghai 2022, robocani al confine tra Messico e USA, robocani israeliani in azione in queste stesse ore a Gaza.
Al contempo, non possiamo dimenticare che università cinesi hanno dimostrato la capacità di programmare stormi di microdroni-cacciatori – veri e propri slaughterbots – in grado di inseguire ed eliminare gli esseri umani anche nei boschi. Parimenti, ha impressionato parecchio l’esperimento di giovani ricercatori che hanno trasformato in poco tempo un mini-drone da poche diecine di euro in uno strumento di morte alimentato dall’Intelligenza Artificiale.
Non è possibile scordare anche i droni del sindaco di Messina Cateno De Luca, che durante il lockdown pandemico urlavano a chi stava fuori casa frasi giudicate da taluni come volgari.
Le cronache riportano che il De Luca avrebbe avuto un malore pochi giorni fa durante un comizio per le elezioni europee, dove presenta un listone con uno stuolo di altre forze politiche, tra cui alcune figure teoricamente legate alla «dissidenza» rispetto la catastrofe pandemica – così, dal no-vaxismo al dronismo, come se fossero stati improvvisamente resettati e riprogrammati, con robot.
Robot bipedi picchiati nei boschi in Cina, robot bipedi elettorali a caccia di voti in Italia. Va così.
Iscriviti alla Newslettera di Renovatio 21
Immagine screenshot da YouTube
Intelligenza Artificiale
Microsoft e OpenAI costruiscono supercomputer segreto da 100 miliardi di dollari per addestrare l’IA avanzata
Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Bioetica
Controverso centro di Bioetica di Oxford che si occupa di AI chiude i battenti
Renovatio 21 traduce questo articolo di Bioedge.
Una centrale elettrica di Oxford che genera controverse idee bioetiche ha chiuso i battenti. Il Future of Humanity Institute, diretto dal filosofo svedese Nick Bostrom, è stato inaugurato nel 2005 ed è stato chiuso all’inizio di questo mese.
Un messaggio di commiato sul sito web della FHI afferma che l’istituto ha dato un prezioso contributo allo studio del futuro, «Argomenti che un tempo faticavano a sopravvivere a un’esistenza precaria ai margini di un singolo dipartimento di filosofia sono ora perseguiti da importanti laboratori di Intelligenza Artificiale, agenzie governative, organizzazioni no-profit e centri di ricerca accademica specializzati (e molti altri in fase di creazione)».
Al di fuori del mondo accademico, il professor Bostrom è meglio conosciuto per il suo libro del 2014, Superintelligence: Paths, Dangers and Strategies. Le stelle più importanti della Silicon Valley lo adoravano. «Consiglio vivamente questo libro», ha detto Bill Gates. «Vale la pena leggerlo», ha detto Elon Musk, che non solo ha contribuito con un trafiletto; ha anche donato oltre 1 milione di dollari alla FHI.
Alla FHI sono emerse una serie di idee e movimenti selvaggi e importanti. Secondo il sito web:
Sostieni Renovatio 21
«La FHI è stata coinvolta nella germinazione di un’ampia gamma di idee tra cui il rischio esistenziale, l’effective altruism, l’orientamento a lungo termine, l’allineamento dell’Intelligenza artificiale, la governance dell’Intelligenza Artificiale, il rischio catastrofico globale, il grande futuro, i rischi dell’informazione, la maledizione dell’unilateralismo e l’incertezza morale. Ha inoltre svolto un lavoro significativo sull’antropizzazione, sull’etica del miglioramento umano, sulla modellazione del rischio sistemico, sui mercati di previsione e previsione, sulla ricerca di intelligenza extraterrestre e sugli attributi e le implicazioni strategiche delle principali tecnologie future».
Bostrom è un transumanista che è stato un convinto sostenitore del miglioramento umano per creare «un essere umano potenziato in modo ottimale». Ma più recentemente è stato conosciuto come un pioniere dell’etica dell’Intelligenza Artificiale.
Che cosa è andato storto?
Il crollo dell’exchange di criptovalute FTX e la condanna per frode del suo CEO Sam Bankman-Fried potrebbero aver avuto qualcosa a che fare con questo. Bankman-Fried era un sostenitore di una filosofia promossa da FHI, l’effective altruism. Questa è la convinzione utilitaristica secondo cui le persone dovrebbero concentrarsi sulla massimizzazione della quantità di bene globale che possono fare. Bankman-Fried fece una montagna di danaro e lo regalò, ma erano soldi di altre persone.
Come filosofia, l’altruismo efficace si è rivelato molto fragile. Probabilmente non era il benvenuto al dipartimento di filosofia di Oxford, di cui la FHI faceva parte.
Inoltre, all’inizio dell’anno scorso qualcuno ha riesumato un’e-mail degli anni ’90 in cui Bostrom faceva un commento scandalosamente razzista. Si è scusato, ma la notizia ha fatto scandalo. Alla fine dell’anno scorso, Oxford annunciò che i contratti del restante personale della FHI non sarebbero stati rinnovati.
Michael Cook
Renovatio 21 offre questa traduzione per dare una informazione a 360º. Ricordiamo che non tutto ciò che viene pubblicato sul sito di Renovatio 21 corrisponde alle nostre posizioni.
Iscriviti alla Newslettera di Renovatio 21
Immagine di Tony Hisgett via Wikimedia pubblicata su licenza Creative Commons Attribution 2.0 Generic
-
Salute2 settimane fa
I malori della 17ª settimana 2024
-
Ospedale2 settimane fa
«Sapevo che stavano uccidendo le persone»: un informatore afferma che i protocolli ospedalieri COVID hanno portato alla morte dei pazienti
-
Spirito2 settimane fa
Sacrifici animali fermati sul Monte del Tempio di Gerusalemme
-
Pensiero1 settimana fa
Vi augurano buona festa del lavoro, ma ve lo vogliono togliere. Ed eliminare voi e la vostra discendenza
-
Pensiero1 settimana fa
I biofascisti contro il fascismo 1.0: ecco la patetica commedia dell’antifascismo
-
Cina7 giorni fa
Cina, nel 2024 calano i profitti per il settore delle terre rare
-
Spirito2 settimane fa
Mons. Viganò: omelia per le Rogazioni contro il cancro conciliare
-
Bioetica6 giorni fa
Medico argentino incarcerato per essersi rifiutato di praticare un aborto