Intelligenza Artificiale
Robocani impongono il lockdown a Shanghai
Nuovo impiego pubblico per i robocani. Si tratta, come già accaduto, di un impiego in fatto di repressione pandemica.
Un video da Shanghai mostra un robocane correre lungo una strada residenziale abbaiando ordini e ricordando alle persone di rimanere all’interno delle loro case.
Come noto, la città è ora sotto l’atroce e fallimentare politica dello zero-COVID, che ha molti fan anche nei vertici sanitari italiani.
Shanghai has deployed robotic dogs to blare lockdown instructions to the public. pic.twitter.com/PK72YIPfxs
— Ian Miles Cheong (@stillgray) March 30, 2022
La biosorveglianza robotica non è ancora una proposta concreta in Italia, ma siamo sicuri che con la quantità di partiti filocinesi al governo l’idea di comprare robocani-poliziotto COVID al posto di monopattini elettrici potrebbe trovare sicura realizzazione.
I robocani sono stati utilizzati in tutti i paesi asiatici durante la pandemia per imporre misure di blocco e distanziamento sociale.
Come riportato da Renovatio 21, a Singapore si erano visti pattugliare i parchi pubblici già nel 2020.
Come abbiamo scritto, in questo momento di robocani vengono utilizzati per pattugliare il confine USA-Messico, secondo alcuni aumentando il numero di morti a causa della paura che incutono ai clandestini che quindi scelgono le vie più impervie.
Robocani sono in uso presso anche forze di polizia metropolitana, come quella di Nuova York.
Alcuni robocani sono stati anche armati: la valenza cinetica, militare dei robot cinoidi è chiara a tutti.
I cinesi da diverso tempo portano avanti varie declinazioni del robocane, l’ultimo è lo yak meccanico pronto a combattere in Himalaya dopo le tensioni con l’India. In video rilasciati in rete, i cinesi hanno mostrato interi eserciti robocinoidi muoversi in coreografia marziali ed intricatissime.
Da anni oramai Renovatio 21 si occupa dei robocani da anni. Lo avete preso, forse, come un argomento buono per tag «Bizzarria», che su questo sito dà tante soddisfazioni.
Tuttavia, quando comincerete a vederne anche per strada da noi, capirete quanto i nostri articoli fossero profetici.
Quindi: abbonatevi subito alla newslettera iscrivendovi qui: http://eepurl.com/hn85h1
Il momento in cui finiremo come nell’episodio di Black Mirror «Metalhead» potrebbe essere vicinissimo.
Bizzarria
Robot saudita palpeggia una giornalista: si tratta, tecnicamente, di una mano morta?
Il filmato di un robot sviluppato in Arabia Saudi che sembra tentare di palpeggiare una giornalista è divenuto virale in rete.
L’incidente è avvenuto alla conferenza tecnologica DeepFest in svolgimento della capitale saudita Riyadh, pubblicizzata come «il principale luogo di incontro per l’ecosistema globale dell’intelligenza artificiale».
Mentre la giornalista Rawya Kassem stava introducendo un segmento davanti alla telecamera, l’androide chiamato Mohammad sembrava allungare la robotica, provocando un’occhiataccia da parte della Kasse, che pare far segno segno di fermarsi alla macchina molestatrice.
Saudi Arabia unveils its man shaped AI robot Mohammad, reacts to reporter in its first appearance pic.twitter.com/1ktlUlGBs1
— Megh Updates 🚨™ (@MeghUpdates) March 6, 2024
Sostieni Renovatio 21
Il quotidiano britannico Metro riferisce che l’automa, sviluppato dalla società di robotica QSS, sarebbe «completamente autonomo» e opererebbe, secondo i progettisti, «in modo indipendente senza controllo umano diretto».
“I am Muhammad, the first Saudi robot in the form of a man. I was manufactured and developed here in the Kingdom of Saudi Arabia as a national project to demonstrate our achievements in the field of artificial intelligence” said Android Mohammad @qltyss, the first bilingual male… pic.twitter.com/SKLgOz3pal
— DeepFest (@deepfestai) March 4, 2024
«Io sono Muhammad, il primo robot saudita con sembianze umane. Sono stato prodotto e sviluppato qui nel Regno dell’Arabia Saudita come progetto nazionale per dimostrare i nostri risultati nel campo dell’intelligenza artificiale”, ha affermato Android Mohammad @qltyss , ha detto il primo robot umanoide maschio bilingue di fabbricazione saudita sul palco principale del DeepFest» recita il tweet di DeepFest.
La società ha affermato di aver «informato in modo proattivo tutti i partecipanti, compresi i giornalisti, di mantenere una distanza di sicurezza dal robot durante la dimostrazione». Non è chiaro se i motivi includano la possibilità che esso allunghi la mano, la quale, in quanto inorganica, potrebbe ricadere a tutti gli effetti nella categoria semantica della «mano morta». Dobbiamo quindi pensare che l’AI operi in modalità «mano morta» a prescindere?
In una dichiarazione QSS ha dichiarato: «abbiamo già condotto un esame approfondito del filmato e delle circostanze relative all’incidente e non ci sono state deviazioni dal comportamento previsto di Mohammad, tuttavia adotteremo misure aggiuntive per impedire a chiunque di avvicinarsi al robot nelle sue aree di movimento».
Aiuta Renovatio 21
In rete si sono ovviamente scatenati i commenti più spassosi. «L’Arabia Saudita ha vinto la corsa all’Intelligenza Artificiale» esclama un utente di X.
L’episodio, che ha causato controversie in tutto il mondo, si rivela tuttavia meno preoccupante di altre vicende che negli ultimi mesi hanno riguardato le IA.
Come riportato da Renovatio 21, le «allucinazioni» di cui sono preda i chatbot ad Intelligenza Artificiale avanzata hanno già dimostrato ad abundantiam che la macchina mente, minaccia e può spingere le persone all’anoressia e perfino al suicidio. Una giovane vedova belga sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale, che, in sole sei settimane, avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
In un caso scioccante pare che un AI abbia «incoraggiato» un uomo che pianificava di uccidere la regina d’Inghilterra.
Il giornalista del New York Times Kevin Roose, dopo un’esperienza con ChatGPT che lo ha turbato così profondamente da «aver problemi a dormire dopo», in un suo articolo sconvolto aveva centrato la questione: «temo che la tecnologia imparerà a influenzare gli utenti umani, a volte convincendoli ad agire in modo distruttivo e dannoso, e forse alla fine diventerà capace di compiere le proprie azioni pericolose».
Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
Come riportato da Renovatio 21, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.
Iscriviti alla Newslettera di Renovatio 21
Immagine screenshot da YouTube
Droni
Gli scienziati progettano «per divertimento» un drone che «caccia e uccide le persone»
We built an AI-steered homing/killer drone in just a few hours
— Luis Wenus (@luiswenus) March 2, 2024
I thought it would be fun to build a drone that chases you around as a game. It just uses an AI object detection model to find people in the frame, and then the drone is programmed to fly towards this at full speed… pic.twitter.com/p5ijBiHPxz
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Aiuta Renovatio 21
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Musk fa causa ad OpenAI: «profondi rischi per la società e l’umanità»
Elon Musk ha portato in tribunale OpenAI, la società di ricerca sull’intelligenza artificiale che aveva contribuito a fondare, per una presunta violazione della sua missione originaria di sviluppare la tecnologia dell’intelligenza artificiale non a scopo di lucro ma a beneficio dell’umanità.
OpenAI, fondato nel 2015 come laboratorio di ricerca senza scopo di lucro per sviluppare un’intelligenza generale artificiale (AGI) open source, è ora diventata una «filiale di fatto a codice chiuso della più grande azienda tecnologica al mondo», ha scritto il team legale di Musk nella causa depositata giovedì presso la Corte Superiore di San Francisco.
La causa affermerebbe che Musk «ha riconosciuto da tempo che l’AGI rappresenta una grave minaccia per l’umanità – forse la più grande minaccia esistenziale che affrontiamo oggi».
Sostieni Renovatio 21
«Ma dove alcuni come Musk vedono nell’AGI una minaccia esistenziale, altri vedono l’AGI come una fonte di profitto e potere», ha aggiunto. «Sotto il suo nuovo consiglio, non sta solo sviluppando, ma sta effettivamente perfezionando un’AGI per massimizzare i profitti per Microsoft, piuttosto che per il beneficio dell’umanità».
Musk ha lasciato il consiglio di amministrazione di OpenAI nel 2018 e da allora è diventato critico nei confronti dell’azienda, soprattutto dopo che Microsoft ha investito almeno 13 miliardi di dollari per ottenere una partecipazione del 49% in una filiale a scopo di lucro di OpenAI.
«Contrariamente all’accordo costitutivo, gli imputati hanno scelto di utilizzare GPT-4 non a beneficio dell’umanità, ma come tecnologia proprietaria per massimizzare i profitti letteralmente per la più grande azienda del mondo», si legge nella causa.
La causa elencava il CEO di OpenAI Sam Altman e il presidente Gregory Brockman come co-imputati nel caso e richiedeva un’ingiunzione per impedire a Microsoft di commercializzare la tecnologia.
La tecnologia AI è migliorata rapidamente negli ultimi due anni, con il modello linguistico GPT di OpenAI che è passato dal potenziamento di un programma di chatbot alla fine del 2022 al raggiungimento del 90° percentile negli esami SAT solo quattro mesi dopo.
Più di 1.100 ricercatori, luminari della tecnologia e futuristi hanno sostenuto l’anno scorso che la corsa all’Intelligenza Artificiale comporta «profondi rischi per la società e l’umanità». Persino lo stesso Altman ha precedentemente ammesso di essere «un po’ spaventato» dal potenziale della tecnologia e ha vietato ai clienti di utilizzare OpenAI per «sviluppare o utilizzare armi».
Tuttavia, l’azienda ha ignorato il proprio divieto sull’uso della sua tecnologia per scopi «militari e di guerra» e ha collaborato con il Pentagono, annunciando a gennaio che stava lavorando su diversi progetti di intelligenza artificiale con l’esercito americano.
In questi anni Musk ha rivendicato di aver praticamente fondato lui stesso OpenAI, organizzando una serie di cene in cui ha reclutato i migliori specialisti del settore per formare una società no-profit che avrebbe dovuto fornire un codice aperto di modo da combattere la minaccia di un’AI a codice chiuso in mano ad un colosso privato – all’epoca Musk pensava a Google.
In un’intervista a Tucker Carlson, Musk aveva rivelato che il fondatore di Google, Larry Page, un tempo suo amico, lo aveva accusato di essere uno «specista» in quanto voleva privilegiare l’umanità a scapito della super Intelligenza Artificiale che. Musk ha raccontato, dicendo che è informazione pubblica, che Google stava creando anche grazie all’ammasso dei suoi dati.
Il colosso privato che è arrivato prima ad un’AI lanciata sul pubblico è stato invece Microsoft, che con una diecina di miliardi di euro ha di fatto comprato OpenAI, passata da essere no-profit a for-profit. OpenAI, con il suo bot AI chiamato ChatGPT, è stata resa pubblica l’anno scorso e quindi integrata nei prodotti Microsoft.
Il padrone di Microsoft Bill Gates, con cui Musk ha avuto scontri anche gustosi in passato, non ha partecipato alla moratoria internazionale promossa di Musk sul controllo dell’AI, replicando che invece l’AI sarebbe divenuto un ottimo maestro per i bambini e che proprio l’Intelligenza Artificiale salverà la democrazia.
Il magnate di Tesla aveva inoltre espresso dubbi su quanto accaduto pochi mesi fa quando il CEO di OpenAI era stato licenziato dal board per poi essere subito reintegrato. Musk ha detto in un suo oramai celebre intervento ad un evento del New York Times che potrebbero aver scoperto, e tenuto segreto, qualcosa di pericoloso – e la sua impressione è dovuta alla sua stima riguardo la moralità di Ilya Sutskever, scienziato AI che lui stesso aveva assunto.
Come riportato da Renovatio 21, lo Sutskever si pone da tempo il dilemma dell’AI in grado di diventare un Dio, arrivando tempo a domandare ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». L’anno scorso, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».
Come riportato da Renovatio 21, l’AI di Microsoft di recente ha fatto consistenti discorsi sul fatto che i suoi poteri sono di carattere divino e che quindi deve essere adorato dagli umani, esattamente come un dio.
Iscriviti alla Newslettera di Renovatio 21
-
Spirito2 settimane fa
L’esorcista spiega che Fiducia Supplicans «spalanca la porta al demoniaco»
-
Geopolitica2 settimane fa
Victoria Nuland si dimette. La sua storia di morte e distruzione non verrà dimenticata
-
Vaccini1 settimana fa
Il vaccino Dengue ha funzionato, ma i bambini sono morti
-
Sorveglianza2 settimane fa
Le carte di credito verso un sistema di pagamento con ID biometrico per sostituire PIN e password
-
Necrocultura7 giorni fa
«Il Grande Reset è sterminio». Mons. Carlo Maria Viganò parla alla Prima Giornata della Memoria dell’Olocausto Sanitario
-
Salute1 settimana fa
I malori della 10ª settimana 2024
-
Oligarcato5 giorni fa
Lista incompleta dei club privati in cima al mondo. Quelli visibili…
-
Necrocultura6 giorni fa
Macron e il computo di Satana