Intelligenza Artificiale
Ecco i robo-cani da combattimento
Una società di robotica sta realizzando i robodog esplicitamente per applicazioni militari.
Ghost Robotics ha recentemente presentato i suoi robot Vision 60 : macchine a quattro zampe che possono essere controllate a distanza per sorvegliare un’area, rimuovere bombe o assistere in altro modo i soldati, secondo Digital Trends.
Macchine a quattro zampe che possono essere controllate a distanza per sorvegliare un’area, rimuovere bombe o assistere in altro modo i soldati
È possibile pensarli un po’ come i gemelli cattivi di Spot, il robo-cane sviluppato da Boston Dynamics, il robot a quattro zampe finito virale per alcuni video impressionanti.
«Cerchiamo di non chiamarli cani robot», ha detto a Digital Trends Jiren Parikh, CEO e presidente di Ghost Robotics . «Li chiamiamo Q-UGVs: Quadrupedal Unmanned Ground Vehicles», veicoli terrestri quadrupedi senza pilota…
I Vision 60 sono pensati per essere in grado di attraversare terreni difficili e sopravvivere a un colpo, agitando le gambe per raddrizzarsi se vengono calciati.
I Vision 60 sono pensati per essere in grado di attraversare terreni difficili e sopravvivere a un colpo, agitando le gambe per raddrizzarsi se vengono calciati
The latest Vision 60s ground drone prototypes in desert sand paint job shipping to our defense and homeland security customers this week. @USArmy @USNavy @usairforce @mhasingapore @AustralianArmy #defense #defence #autonomous #drones pic.twitter.com/b6NbXd0H6i
— Ghost Robotics (@Ghost_Robotics) July 21, 2020
La Ghost, scrive Futurism, spera di aumentare la propria autonomia e costruire una piattaforma per altri robot militari, ma per ora stanno ancora trovando nuovi usi per i robo-cani
«Immagina ogni volta che [l’aviazione va] da qualche parte per fare rifornimento, per raccogliere rifornimenti o per proteggere i nostri jet da combattimento sull’asfalto, i nostri robot scendono e fanno la sicurezza perimetrale», ha detto Parikh a Digital Trends.
L’azienda vuole invece che gestiscano lavori che normalmente metterebbero in pericolo un essere umano
Lo stesso Parikh ha chiarito che questi robot militari non trasporteranno armi proprie.
L’azienda vuole invece che gestiscano lavori che normalmente metterebbero in pericolo un essere umano.
«Non abbiamo sentito nemmeno una volta dove [i governi] vogliano usarlo per le armi», ha detto a Digital Trends.
Robot quadrupedi sono già in azione a Singapore per far rispettare le leggi pandemiche.
Robot quadrupedi sono tuttavia già in azione a Singapore per far rispettare le leggi pandemiche.
Al contempo, un altro robot quadrupede è stato avvistato recentemente in strada in Canada. Cosa stesse facendo, chi lo avesse mandato, sono cose che ancora non sono state spiegate.
Immagine screenshot da YouTube
Bizzarria
Robot saudita palpeggia una giornalista: si tratta, tecnicamente, di una mano morta?
Il filmato di un robot sviluppato in Arabia Saudi che sembra tentare di palpeggiare una giornalista è divenuto virale in rete.
L’incidente è avvenuto alla conferenza tecnologica DeepFest in svolgimento della capitale saudita Riyadh, pubblicizzata come «il principale luogo di incontro per l’ecosistema globale dell’intelligenza artificiale».
Mentre la giornalista Rawya Kassem stava introducendo un segmento davanti alla telecamera, l’androide chiamato Mohammad sembrava allungare la robotica, provocando un’occhiataccia da parte della Kasse, che pare far segno segno di fermarsi alla macchina molestatrice.
Saudi Arabia unveils its man shaped AI robot Mohammad, reacts to reporter in its first appearance pic.twitter.com/1ktlUlGBs1
— Megh Updates 🚨™ (@MeghUpdates) March 6, 2024
Sostieni Renovatio 21
Il quotidiano britannico Metro riferisce che l’automa, sviluppato dalla società di robotica QSS, sarebbe «completamente autonomo» e opererebbe, secondo i progettisti, «in modo indipendente senza controllo umano diretto».
“I am Muhammad, the first Saudi robot in the form of a man. I was manufactured and developed here in the Kingdom of Saudi Arabia as a national project to demonstrate our achievements in the field of artificial intelligence” said Android Mohammad @qltyss, the first bilingual male… pic.twitter.com/SKLgOz3pal
— DeepFest (@deepfestai) March 4, 2024
«Io sono Muhammad, il primo robot saudita con sembianze umane. Sono stato prodotto e sviluppato qui nel Regno dell’Arabia Saudita come progetto nazionale per dimostrare i nostri risultati nel campo dell’intelligenza artificiale”, ha affermato Android Mohammad @qltyss , ha detto il primo robot umanoide maschio bilingue di fabbricazione saudita sul palco principale del DeepFest» recita il tweet di DeepFest.
La società ha affermato di aver «informato in modo proattivo tutti i partecipanti, compresi i giornalisti, di mantenere una distanza di sicurezza dal robot durante la dimostrazione». Non è chiaro se i motivi includano la possibilità che esso allunghi la mano, la quale, in quanto inorganica, potrebbe ricadere a tutti gli effetti nella categoria semantica della «mano morta». Dobbiamo quindi pensare che l’AI operi in modalità «mano morta» a prescindere?
In una dichiarazione QSS ha dichiarato: «abbiamo già condotto un esame approfondito del filmato e delle circostanze relative all’incidente e non ci sono state deviazioni dal comportamento previsto di Mohammad, tuttavia adotteremo misure aggiuntive per impedire a chiunque di avvicinarsi al robot nelle sue aree di movimento».
Aiuta Renovatio 21
In rete si sono ovviamente scatenati i commenti più spassosi. «L’Arabia Saudita ha vinto la corsa all’Intelligenza Artificiale» esclama un utente di X.
L’episodio, che ha causato controversie in tutto il mondo, si rivela tuttavia meno preoccupante di altre vicende che negli ultimi mesi hanno riguardato le IA.
Come riportato da Renovatio 21, le «allucinazioni» di cui sono preda i chatbot ad Intelligenza Artificiale avanzata hanno già dimostrato ad abundantiam che la macchina mente, minaccia e può spingere le persone all’anoressia e perfino al suicidio. Una giovane vedova belga sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale, che, in sole sei settimane, avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
In un caso scioccante pare che un AI abbia «incoraggiato» un uomo che pianificava di uccidere la regina d’Inghilterra.
Il giornalista del New York Times Kevin Roose, dopo un’esperienza con ChatGPT che lo ha turbato così profondamente da «aver problemi a dormire dopo», in un suo articolo sconvolto aveva centrato la questione: «temo che la tecnologia imparerà a influenzare gli utenti umani, a volte convincendoli ad agire in modo distruttivo e dannoso, e forse alla fine diventerà capace di compiere le proprie azioni pericolose».
Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
Come riportato da Renovatio 21, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.
Iscriviti alla Newslettera di Renovatio 21
Immagine screenshot da YouTube
Droni
Gli scienziati progettano «per divertimento» un drone che «caccia e uccide le persone»
We built an AI-steered homing/killer drone in just a few hours
— Luis Wenus (@luiswenus) March 2, 2024
I thought it would be fun to build a drone that chases you around as a game. It just uses an AI object detection model to find people in the frame, and then the drone is programmed to fly towards this at full speed… pic.twitter.com/p5ijBiHPxz
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Aiuta Renovatio 21
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Musk fa causa ad OpenAI: «profondi rischi per la società e l’umanità»
Elon Musk ha portato in tribunale OpenAI, la società di ricerca sull’intelligenza artificiale che aveva contribuito a fondare, per una presunta violazione della sua missione originaria di sviluppare la tecnologia dell’intelligenza artificiale non a scopo di lucro ma a beneficio dell’umanità.
OpenAI, fondato nel 2015 come laboratorio di ricerca senza scopo di lucro per sviluppare un’intelligenza generale artificiale (AGI) open source, è ora diventata una «filiale di fatto a codice chiuso della più grande azienda tecnologica al mondo», ha scritto il team legale di Musk nella causa depositata giovedì presso la Corte Superiore di San Francisco.
La causa affermerebbe che Musk «ha riconosciuto da tempo che l’AGI rappresenta una grave minaccia per l’umanità – forse la più grande minaccia esistenziale che affrontiamo oggi».
Sostieni Renovatio 21
«Ma dove alcuni come Musk vedono nell’AGI una minaccia esistenziale, altri vedono l’AGI come una fonte di profitto e potere», ha aggiunto. «Sotto il suo nuovo consiglio, non sta solo sviluppando, ma sta effettivamente perfezionando un’AGI per massimizzare i profitti per Microsoft, piuttosto che per il beneficio dell’umanità».
Musk ha lasciato il consiglio di amministrazione di OpenAI nel 2018 e da allora è diventato critico nei confronti dell’azienda, soprattutto dopo che Microsoft ha investito almeno 13 miliardi di dollari per ottenere una partecipazione del 49% in una filiale a scopo di lucro di OpenAI.
«Contrariamente all’accordo costitutivo, gli imputati hanno scelto di utilizzare GPT-4 non a beneficio dell’umanità, ma come tecnologia proprietaria per massimizzare i profitti letteralmente per la più grande azienda del mondo», si legge nella causa.
La causa elencava il CEO di OpenAI Sam Altman e il presidente Gregory Brockman come co-imputati nel caso e richiedeva un’ingiunzione per impedire a Microsoft di commercializzare la tecnologia.
La tecnologia AI è migliorata rapidamente negli ultimi due anni, con il modello linguistico GPT di OpenAI che è passato dal potenziamento di un programma di chatbot alla fine del 2022 al raggiungimento del 90° percentile negli esami SAT solo quattro mesi dopo.
Più di 1.100 ricercatori, luminari della tecnologia e futuristi hanno sostenuto l’anno scorso che la corsa all’Intelligenza Artificiale comporta «profondi rischi per la società e l’umanità». Persino lo stesso Altman ha precedentemente ammesso di essere «un po’ spaventato» dal potenziale della tecnologia e ha vietato ai clienti di utilizzare OpenAI per «sviluppare o utilizzare armi».
Tuttavia, l’azienda ha ignorato il proprio divieto sull’uso della sua tecnologia per scopi «militari e di guerra» e ha collaborato con il Pentagono, annunciando a gennaio che stava lavorando su diversi progetti di intelligenza artificiale con l’esercito americano.
In questi anni Musk ha rivendicato di aver praticamente fondato lui stesso OpenAI, organizzando una serie di cene in cui ha reclutato i migliori specialisti del settore per formare una società no-profit che avrebbe dovuto fornire un codice aperto di modo da combattere la minaccia di un’AI a codice chiuso in mano ad un colosso privato – all’epoca Musk pensava a Google.
In un’intervista a Tucker Carlson, Musk aveva rivelato che il fondatore di Google, Larry Page, un tempo suo amico, lo aveva accusato di essere uno «specista» in quanto voleva privilegiare l’umanità a scapito della super Intelligenza Artificiale che. Musk ha raccontato, dicendo che è informazione pubblica, che Google stava creando anche grazie all’ammasso dei suoi dati.
Il colosso privato che è arrivato prima ad un’AI lanciata sul pubblico è stato invece Microsoft, che con una diecina di miliardi di euro ha di fatto comprato OpenAI, passata da essere no-profit a for-profit. OpenAI, con il suo bot AI chiamato ChatGPT, è stata resa pubblica l’anno scorso e quindi integrata nei prodotti Microsoft.
Il padrone di Microsoft Bill Gates, con cui Musk ha avuto scontri anche gustosi in passato, non ha partecipato alla moratoria internazionale promossa di Musk sul controllo dell’AI, replicando che invece l’AI sarebbe divenuto un ottimo maestro per i bambini e che proprio l’Intelligenza Artificiale salverà la democrazia.
Il magnate di Tesla aveva inoltre espresso dubbi su quanto accaduto pochi mesi fa quando il CEO di OpenAI era stato licenziato dal board per poi essere subito reintegrato. Musk ha detto in un suo oramai celebre intervento ad un evento del New York Times che potrebbero aver scoperto, e tenuto segreto, qualcosa di pericoloso – e la sua impressione è dovuta alla sua stima riguardo la moralità di Ilya Sutskever, scienziato AI che lui stesso aveva assunto.
Come riportato da Renovatio 21, lo Sutskever si pone da tempo il dilemma dell’AI in grado di diventare un Dio, arrivando tempo a domandare ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». L’anno scorso, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».
Come riportato da Renovatio 21, l’AI di Microsoft di recente ha fatto consistenti discorsi sul fatto che i suoi poteri sono di carattere divino e che quindi deve essere adorato dagli umani, esattamente come un dio.
Iscriviti alla Newslettera di Renovatio 21
-
Spirito2 settimane fa
L’esorcista spiega che Fiducia Supplicans «spalanca la porta al demoniaco»
-
Geopolitica2 settimane fa
Victoria Nuland si dimette. La sua storia di morte e distruzione non verrà dimenticata
-
Vaccini1 settimana fa
Il vaccino Dengue ha funzionato, ma i bambini sono morti
-
Vaccini2 settimane fa
Il programma di vaccinazione pediatrica ha portato al «maggior declino della salute pubblica nella storia umana»
-
Sorveglianza2 settimane fa
Le carte di credito verso un sistema di pagamento con ID biometrico per sostituire PIN e password
-
Necrocultura7 giorni fa
«Il Grande Reset è sterminio». Mons. Carlo Maria Viganò parla alla Prima Giornata della Memoria dell’Olocausto Sanitario
-
Salute1 settimana fa
I malori della 10ª settimana 2024
-
Necrocultura6 giorni fa
Macron e il computo di Satana