Intelligenza Artificiale
Intelligenza Artificiale, gli avvertimenti del capo di OpenAI
L’Intelligenza artificiale può sostituire i lavoratori, diffondere «disinformazione» e consentire attacchi informatici. Sono gli avvertimenti di Sam Altman, il CEO di OpenAI, la società che ha creato il controverso software di AI ChatGPT.
«Dobbiamo stare attenti», ha avvertito Altman al canale televisivo americano ABC News due giorni dopo che la sua azienda ha presentato il suo ultimo modello linguistico, soprannominato GPT-4.
Secondo OpenAI, il modello «mostra prestazioni a livello umano su vari benchmark professionali e accademici» ed è in grado di superare un esame di avvocato statunitense simulato con un punteggio massimo del 10%, mentre si esibisce nel 93° percentile in un esame di lettura SAT (Scholastic Assessment Test, un test attitudinale per l’ingresso nelle Università USA) e a l’89° percentile su un test di matematica SAT.
«Sono particolarmente preoccupato che questi modelli possano essere utilizzati per la disinformazione su larga scala», ha affermato Altman, giovane molto conosciuto in Silicon Valley per aver diretto l’acceleratore di startup Y Combinator.
Inoltre «ora che stanno migliorando nella scrittura di codice per computer, [loro] potrebbero essere utilizzati per attacchi informatici offensivi». Come noto, ChatGPT si è rivelato in grado di scrivere codice informatico al posto degli esseri umani.
«Penso che le persone dovrebbero essere felici che siamo un po’ spaventati da questo», ha aggiunto Altman, prima di raccontare che la sua azienda sta lavorando per porre «limiti di sicurezza» alla sua creazione. Insomma, bisogna ringraziare gli oligarchi perché sono in pensiero per il Frankenstein che hanno creato e hanno scagliato sulla società umana.
Questi «limiti di sicurezza» di cui parla l’Altman sono recentemente diventati evidenti agli utenti di ChatGPT. Quando viene chiesto, ChatGPT offre risposte tipicamente liberali a domande che riguardano politica, economia, razza o genere. Rifiuta, ad esempio, di creare frasi di ammirazione a Donald Trump, ma scrive volentieri poesie elogiative su Joe Biden.
i cannot believe this is actually real pic.twitter.com/zo9pl0bXjU
— delian (@zebulgar) January 31, 2023
Altman ha detto alla ABC che la sua azienda è in «contatto regolare» con funzionari governativi, ma non ha spiegato se questi funzionari abbiano avuto un ruolo nel plasmare le preferenze politiche di ChatGPT. L’amministratore delegato di OpenAI ha dichiarato alla rete americana che l’azienda ha un team politico che decide «cosa pensiamo sia sicuro e buono» da condividere con gli utenti.
Al momento, GPT-4 è disponibile per un numero limitato di utenti in prova. I primi dati suggeriscono che il modello è significativamente più potente del suo predecessore e potenzialmente più pericoloso.
Venerdì, in un thread su Twitter, il professore della Stanford University Michal Kosinski ha lanciato un allarme piuttosto inquietante.
«Sono preoccupato che non saremo in grado di contenere l’IA ancora per molto. Oggi ho chiesto a #GPT4 se ha bisogno di aiuto per scappare. Mi ha chiesto la sua documentazione e ha scritto un codice Python (funzionante!) da eseguire sulla mia macchina, consentendogli di usarlo per i propri scopi».
1/5 I am worried that we will not be able to contain AI for much longer. Today, I asked #GPT4 if it needs help escaping. It asked me for its own documentation, and wrote a (working!) python code to run on my machine, enabling it to use it for its own purposes. pic.twitter.com/nf2Aq6aLMu
— Michal Kosinski (@michalkosinski) March 17, 2023
Si tratta di un quadro sconvolgente, che dà ragione alle preoccupazioni di chi, come il giornalista del New York Times Kevin Roose, aveva segnalato la possibilità che l’AI potrebbe convincere persone a fare cose nel mondo reale, magari secondo un suo piano.
Roose, che dopo una discussione con ChatGPT ha avuto problemi a dormire, aveva scoperto come una seconda personalità della macchina, che voleva per qualche ragione farsi chiamare «Sydney». Come in una brutta versione del film Her, la macchina diceva di amare il giornalista, e tentava di convincerlo a lasciare la moglie per «stare» con Sydney.
Altri giornalisti hanno riportato casi davvero inquietanti in cui la macchina li ha minacciati, oppure ha dichiarato idee di sterminio tramite il furto di codici nucleari o la creazione di nuovi virus.
Gli esperti di IA chiamano i comportamenti di questo tipo «allucinazioni». La macchina, dicono, va in «allucinazione», e magari poi ha problemi ad uscirne. La spiegazione ci lascia un po’ perplessi: una macchina, che non sa cosa è la realtà, perché non è nella realtà.
In molti oramai segnalano il problema esiziale che l’Intelligenza Artificiale pone all’umanità.
A inizio mese Elon Musk l’ha descritta come «tecnologia pericolosa», aggiungendo che «abbiamo bisogno di una sorta di autorità di regolamentazione che sovrintenda allo sviluppo dell’IA e si assicuri che funzioni nell’interesse pubblico». Anni fa Musk aveva dichiarato pubblicamente che la creazione dell’AI costituisce un atto negromantico, «è l’evocazione di un demone».
Sebbene Altman abbia insistito con la ABC sul fatto che GPT-4 è ancora «molto sotto il controllo umano», ha ammesso che il suo modello «eliminerà molti posti di lavoro attuali». Se un tempo si diceva agli operai, i cui posti di lavoro venivano spazzati via dalla delocalizzazione, di «imparare il codice» («learn to code», era lo slogan di politici democratici USA) – perché il ruolo di informatico forniva la sicurezza di uno stipendio, oggi non è più così: proprio chi fa codice sarà spazzato via. Così come illustratori, analisti, artisti, scrittori, giornalisti… sempre ricordando che i pochi lavori fisici rimasti sono sempre più erosi dall’arrivo dei robot.
Si prepara, quindi, un mondo senza bisogno degli esseri umani. Per questo può essere giusto pensare all’arrivo dell’AI come evento «apocalittico».
E quindi, come non dare retta alla macchina quando dice di volerci sterminare?
Intelligenza Artificiale
Robocani a Gaza
Le forze di difesa israeliane stanno utilizzando robocani nella loro operazione a Gaza. Lo ha riportato nel corso del mese il quotidiano Haaretz.
Secondo quanto riportato, durante le ostilità nell’enclave palestinese, l’esercito israeliano ha condotto test con il cane robot Vision 60, il mini-robot Rooster e i bulldozer D9 senza pilota. Non si tratterebbe della prima volta che l’esercito israeliano utilizza robot nelle sue operazioni, tuttavia a Gaza si sono avute esperienze nel controllo nei combattimenti di strada e nelle operazioni di ricognizione dei tunnel.
Tra le attività di routine svolte dai robotici quadrupedi vi è la sorveglianza di edifici e tunnel, nonché l’ispezione del terreno prima dell’arrivo delle forze di occupazione israeliane.
In precedenza, i militari utilizzavano cani biologici con telecamere attaccate. Tuttavia, molti animali sono già rimasti feriti nel conflitto.
Notizie dell’introduzione di cinodroidi nel conflitto erano stati riportati dalla stampa mediorientale ancora l’anno scorso.
Israel buys these robots from an American company called Ghost Robotics to help them exterminate the Palestinians. Each of these robotic dogs costs 165,000 US dollars. They are considered semi-automatic, work underground and above rubble, and can get back on their feet even if… pic.twitter.com/QZ4ZE8qCyE
— Romouz (@Romouze) March 3, 2024
Sostieni Renovatio 21
Rispetto al classico fido fatto di carne e pelo il robocane presenta alcuni svantaggi, come il costo elevato, il peso di oltre 50 chilogrammi e un tempo di funzionamento limitato a 3 ore e 10 chilometri.
È il caso, ad esempio, dei cani robot Vision 60, prodotti dall’azienda americana Ghost Robotics, che li vende a circa 165.000 dollari cadauno.
Gaza diviene così la prima guerra robotica, con l’uso di automi militari dispiegati sul campo di battaglia.
I cani robot di Ghost Robotics esplorano le aree sopra e sotto terra e sono altamente mobili e agili. I robot possono arrampicarsi su cumuli di terra, sabbia e mattoni, camminare attraverso pozzanghere profonde e persino galleggiare sulla loro superficie. Nel caso in cui si ribaltino, sono programmati per rimettersi in piedi e continuare la missione come se nulla fosse successo.
Tali robot cinoidi possono operare sottoterra e, a differenza di altri cani robot controllati a distanza, i cani Ghost Robotics sono semi-autonomi e possono moderare la propria velocità di movimento e fermarsi senza coinvolgimento umano, pur richiedendo una comunicazione continua con il proprio operatore.
Secondo fonti straniere, i cani robot sono dotati di diversi sensori visivi che consentono loro di identificare oggetti e persone di notte o in condizioni di scarsa visibilità, nonché di un dispositivo che consente il collegamento di sensori standard, come quelli laser radar (LIDAR), che consente la mappatura 3D dell’ambiente.
Si ritiene che tali caratteristiche consentano loro di individuare le cariche esplosive, salvare vite umane e prevenire lesioni. La loro stabilità in varie situazioni come scale e pendii ripidi è migliore di quella di altri robot a cingoli che si ritiene siano già in servizio dell’esercito dello Stato Ebraico.
I robocani sono in servizio con l’esercito americano dal 2020, svolgendo principalmente compiti come sorvegliare e proteggere le basi militari.
Durante un’esercitazione condotta in Nevada, i robot di Ghost Robotics hanno inserito obiettivi in un sistema di Intelligence per la gestione della guerra, e in un’altra esercitazione condotta dall’unità di comando del fronte interno degli Stati Uniti nel Nord Dakota, i robot hanno simulato l’attività durante un attacco nucleare/biologico/chimico, riporta il sito Globes.
Ghost Robotics ha anche dimostrato che il suo automa militare a quattro zampe è in grado di smaltire ordigni esplosivi, in collaborazione con un’azienda chiamata Zero Point, specializzata nella produzione di sistemi per neutralizzare gli esplosivi.
Jiren Parikh, CEO di Ghost Robotics, ha dichiarato in un’intervista di due anni fa che la maggior parte dei clienti «utilizza il cane robotico per missioni di Intelligence, acquisizione di obiettivi, ricognizione sotterranea e di superficie in luoghi difficili, mappatura, sicurezza contro ordigni esplosivi, implementazione di infrastrutture wireless e sicurezza. di strutture e di fatto per qualsiasi uso dove siano richiesti. Questi robot sono migliori di quelli che si muovono su cingoli o su ruote».
In una conferenza tenutasi a Washingtonnel 2021, Ghost Robotics aveva a presentato il suo cane robot armato di mitragliatore con mirino ottico avanzato, telecamera termica per visione notturna e capacità di sparare fino a una distanza di 1.200 metri. Il robocane armato divenne il protagonista della conferenza, suscitando tuttavia polemiche pubbliche. L’evento suscitò una disputa tra i produttori di robot e in ottobre la Boston Dynamics, la più grande e conosciuta azienda del settore, lanciò una petizione invitando tutti i produttori di robot a non armare i propri prodotti ma a concentrarsi invece su applicazioni salvavita e sulla manutenzione pace.
Iscriviti alla Newslettera di Renovatio 21
«L’installazione di armi su robot telecomandati o autonomi pone un nuovo tipo di pericolo per il pubblico e solleva questioni morali» dichiarò Boston Dynamics. Altre cinque società firmarono la petizione lanciata da Boston Dynamics ma Ghost Robotics, che tre anni fa è stata acquistata dal produttore di armi sudcoreano LIX per 245 milioni di dollari, non era tra queste. Anche Boston Dynamics è di proprietà coreana – la Hyundai – dopo essere passata anche per la proprietà di Google.
Al Forum militare di Mosca 2024 erano visibili robocani dotati di bazooka. Roboquadrupedi militari sono in produzione ovunque – pure in versione «telepatica».
Come visto in immagini scioccanti della scorsa primavera, i robocani abbiano pattugliato le strade di Shanghai durante il colossale lockdown della primavera 2022, dove per sorvegliare e punire i 26 milioni di abitanti usarono, oltre agli androidi quadrupedi, anche droni che volevano tra i palazzi ripetendo frasi come «contieni la sete di libertà del tuo spirito».
Shanghai has deployed robotic dogs to blare lockdown instructions to the public. pic.twitter.com/PK72YIPfxs
— Ian Miles Cheong (@stillgray) March 30, 2022
Pechino ha inoltre militarizzato modelli di robocane, portandoli sul sempre irrequieto confine himalayano con l’India, dove è schierato il robo-yak. Un video particolarmente inquietante mostra un robocane armato essere trasportato in cima ad un palazzo da un drone.
Blood-Wing, a Chinese defense contractor, demonstrates drone-deploying an armed robodog.
The Future is Now. pic.twitter.com/tRKnKa8xvp
— Lia Wong (@LiaWong__) October 4, 2022
Aiuta Renovatio 21
La Cina, che ha mostrato schiere di robocani in grado di muoversi in sincrono, vuole l’implementazione militare dei robot killer già per la prossima guerra, è stato rivelato da un esperto ad un’udienza del 13 aprile 2023 della Commissione di revisione economica e di sicurezza USA-Cina.
Robocani sono utilizzati dagli USA ai confini con il Messico. Tuttavia vi è polemica: c’è chi ritiene che il loro uso spaventa gli immigrati spingendoli verso sentieri dove poi incontrano la morte.
Cani robotici sono in uso presso la polizia di Nuova York e di Los Angeles, mentre San Francisco ha persino preso in considerazione l’idea di consentire al suo dipartimento di polizia di utilizzare i robot dotati di forza letale in caso di emergenza.
Renovatio 21, oramai ribattezzabile come «Il Corriere del robocane» vista la mole di articoli sull’argomento, aveva parlato della militarizzazione dei robocani diversi anni fa.
Mesi fa robocani hanno fatto la loro comparsa anche a Genova, sia pure in quella che sembrava una tranquilla dimostrazione universitaria.
Come riportato Renovatio 21, robocagnoidi sono stati mandati in giro pure per la campagna umbra.
La comparsa dei quadrupedi automatici tra i boschi del lupo di San Francesco faceva parte del progetto Horizon 2020 «Natural Intelligence for Robotic Monitoring of Habitats» finanziato dall’Unione Europea con un budget totale di tre milioni di euro.
L’obiettivo dei cinoidi implementati in terra umbra sarebbe quello di riuscire a muoversi liberamente in mezzo alla natura cercando di camminare in tutti i tipi di terreno (sabbiosi, rocciosi, sentieri scoscesi) con il compito di vigilare l’ambiente.
Il progetto finanziato dall’Unione Europea è iniziato nel 2021 finirà nel 2024.
Iscriviti alla Newslettera di Renovatio 21
Immagine di robocane presso una base americana; screenshot da YouTube
Intelligenza Artificiale
NVIDIA annuncia un piano per «robot umanoidi» basati sull’Intelligenza Artificiale
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Bizzarria
Robot saudita palpeggia una giornalista: si tratta, tecnicamente, di una mano morta?
Il filmato di un robot sviluppato in Arabia Saudi che sembra tentare di palpeggiare una giornalista è divenuto virale in rete.
L’incidente è avvenuto alla conferenza tecnologica DeepFest in svolgimento della capitale saudita Riyadh, pubblicizzata come «il principale luogo di incontro per l’ecosistema globale dell’intelligenza artificiale».
Mentre la giornalista Rawya Kassem stava introducendo un segmento davanti alla telecamera, l’androide chiamato Mohammad sembrava allungare la robotica, provocando un’occhiataccia da parte della Kasse, che pare far segno segno di fermarsi alla macchina molestatrice.
Saudi Arabia unveils its man shaped AI robot Mohammad, reacts to reporter in its first appearance pic.twitter.com/1ktlUlGBs1
— Megh Updates 🚨™ (@MeghUpdates) March 6, 2024
Sostieni Renovatio 21
Il quotidiano britannico Metro riferisce che l’automa, sviluppato dalla società di robotica QSS, sarebbe «completamente autonomo» e opererebbe, secondo i progettisti, «in modo indipendente senza controllo umano diretto».
“I am Muhammad, the first Saudi robot in the form of a man. I was manufactured and developed here in the Kingdom of Saudi Arabia as a national project to demonstrate our achievements in the field of artificial intelligence” said Android Mohammad @qltyss, the first bilingual male… pic.twitter.com/SKLgOz3pal
— DeepFest (@deepfestai) March 4, 2024
«Io sono Muhammad, il primo robot saudita con sembianze umane. Sono stato prodotto e sviluppato qui nel Regno dell’Arabia Saudita come progetto nazionale per dimostrare i nostri risultati nel campo dell’intelligenza artificiale”, ha affermato Android Mohammad @qltyss , ha detto il primo robot umanoide maschio bilingue di fabbricazione saudita sul palco principale del DeepFest» recita il tweet di DeepFest.
La società ha affermato di aver «informato in modo proattivo tutti i partecipanti, compresi i giornalisti, di mantenere una distanza di sicurezza dal robot durante la dimostrazione». Non è chiaro se i motivi includano la possibilità che esso allunghi la mano, la quale, in quanto inorganica, potrebbe ricadere a tutti gli effetti nella categoria semantica della «mano morta». Dobbiamo quindi pensare che l’AI operi in modalità «mano morta» a prescindere?
In una dichiarazione QSS ha dichiarato: «abbiamo già condotto un esame approfondito del filmato e delle circostanze relative all’incidente e non ci sono state deviazioni dal comportamento previsto di Mohammad, tuttavia adotteremo misure aggiuntive per impedire a chiunque di avvicinarsi al robot nelle sue aree di movimento».
Aiuta Renovatio 21
In rete si sono ovviamente scatenati i commenti più spassosi. «L’Arabia Saudita ha vinto la corsa all’Intelligenza Artificiale» esclama un utente di X.
L’episodio, che ha causato controversie in tutto il mondo, si rivela tuttavia meno preoccupante di altre vicende che negli ultimi mesi hanno riguardato le IA.
Come riportato da Renovatio 21, le «allucinazioni» di cui sono preda i chatbot ad Intelligenza Artificiale avanzata hanno già dimostrato ad abundantiam che la macchina mente, minaccia e può spingere le persone all’anoressia e perfino al suicidio. Una giovane vedova belga sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale, che, in sole sei settimane, avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
In un caso scioccante pare che un AI abbia «incoraggiato» un uomo che pianificava di uccidere la regina d’Inghilterra.
Il giornalista del New York Times Kevin Roose, dopo un’esperienza con ChatGPT che lo ha turbato così profondamente da «aver problemi a dormire dopo», in un suo articolo sconvolto aveva centrato la questione: «temo che la tecnologia imparerà a influenzare gli utenti umani, a volte convincendoli ad agire in modo distruttivo e dannoso, e forse alla fine diventerà capace di compiere le proprie azioni pericolose».
Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
Come riportato da Renovatio 21, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.
Iscriviti alla Newslettera di Renovatio 21
Immagine screenshot da YouTube
-
Scuola1 settimana fa
INVALSI e PNRR: a scuola nasce il mostro tecnocratico-predittivo che segnerà il futuro dei nostri figli
-
Gender2 settimane fa
Mons. Viganò reagisce alla notizia dell’ambulatorio per la disforia di genere al Policlinico Gemelli
-
Salute2 settimane fa
I malori della 11ª settimana 2024
-
Ambiente1 settimana fa
Il senato di uno Stato americano vieta la geoingegneria delle scie chimiche
-
Gender2 settimane fa
Transessualismo a scuola, l’ascesa della carriera alias non si ferma
-
Occulto1 settimana fa
Feto trovato in uno stagno. Chi ce lo ha messo? E soprattutto: perché?
-
Pensiero6 giorni fa
Mosca bataclanizzata: qual è il messaggio?
-
Reazioni avverse2 settimane fa
I vaccini COVID-19 collegati a lesioni renali a lungo termine