Connettiti con Renovato 21

Intelligenza Artificiale

Ecco i robo-cani da combattimento

Pubblicato

il

 

 

Una società di robotica sta realizzando i robodog esplicitamente per applicazioni militari.

 

Ghost Robotics ha recentemente presentato i suoi robot Vision 60 : macchine a quattro zampe che possono essere controllate a distanza per sorvegliare un’area, rimuovere bombe o assistere in altro modo i soldati, secondo Digital Trends.

Macchine a quattro zampe che possono essere controllate a distanza per sorvegliare un’area, rimuovere bombe o assistere in altro modo i soldati

 

È possibile pensarli un po’ come i gemelli cattivi di Spot, il robo-cane sviluppato da Boston Dynamics, il robot a quattro zampe finito virale per alcuni video impressionanti.

 

«Cerchiamo di non chiamarli cani robot», ha detto a Digital Trends Jiren Parikh, CEO e presidente di Ghost Robotics . «Li chiamiamo Q-UGVs: Quadrupedal Unmanned Ground Vehicles», veicoli terrestri quadrupedi senza pilota…

 

I Vision 60 sono pensati per essere in grado di attraversare terreni difficili e sopravvivere a un colpo, agitando le gambe per raddrizzarsi se vengono calciati.

 

I Vision 60 sono pensati per essere in grado di attraversare terreni difficili e sopravvivere a un colpo, agitando le gambe per raddrizzarsi se vengono calciati

La Ghost, scrive Futurism, spera di aumentare la propria autonomia e costruire una piattaforma per altri robot militari, ma per ora stanno ancora trovando nuovi usi per i robo-cani

 

«Immagina ogni volta che [l’aviazione va] da qualche parte per fare rifornimento, per raccogliere rifornimenti o per proteggere i nostri jet da combattimento sull’asfalto, i nostri robot scendono e fanno la sicurezza perimetrale», ha detto Parikh a Digital Trends.

 

L’azienda vuole invece che gestiscano lavori che normalmente metterebbero in pericolo un essere umano

Lo stesso Parikh ha chiarito che questi robot militari non trasporteranno armi proprie.

 

L’azienda vuole invece che gestiscano lavori che normalmente metterebbero in pericolo un essere umano.

 

«Non abbiamo sentito nemmeno una volta dove [i governi] vogliano usarlo per le armi», ha detto a Digital Trends.

 

Robot quadrupedi sono già in azione a Singapore per far rispettare le leggi pandemiche.

Robot quadrupedi sono tuttavia già in azione a Singapore per far rispettare le leggi pandemiche.

 

Al contempo, un altro robot quadrupede è stato avvistato recentemente in strada in Canada. Cosa stesse facendo, chi lo avesse mandato, sono cose che ancora non sono state spiegate.

 

 

 

 

 

 

 

Immagine screenshot da YouTube

Continua a leggere

Bizzarria

Robot saudita palpeggia una giornalista: si tratta, tecnicamente, di una mano morta?

Pubblicato

il

Da

Il filmato di un robot sviluppato in Arabia Saudi che sembra tentare di palpeggiare una giornalista è divenuto virale in rete.

 

L’incidente è avvenuto alla conferenza tecnologica DeepFest in svolgimento della capitale saudita Riyadh, pubblicizzata come «il principale luogo di incontro per l’ecosistema globale dell’intelligenza artificiale».

 

Mentre la giornalista Rawya Kassem stava introducendo un segmento davanti alla telecamera, l’androide chiamato Mohammad sembrava allungare la robotica, provocando un’occhiataccia da parte della Kasse, che pare far segno segno di fermarsi alla macchina molestatrice.

 

Sostieni Renovatio 21

Il quotidiano britannico Metro riferisce che l’automa, sviluppato dalla società di robotica QSS, sarebbe «completamente autonomo» e opererebbe, secondo i progettisti, «in modo indipendente senza controllo umano diretto».

 

 

«Io sono Muhammad, il primo robot saudita con sembianze umane. Sono stato prodotto e sviluppato qui nel Regno dell’Arabia Saudita come progetto nazionale per dimostrare i nostri risultati nel campo dell’intelligenza artificiale”, ha affermato Android Mohammad @qltyss , ha detto il primo robot umanoide maschio bilingue di fabbricazione saudita sul palco principale del DeepFest» recita il tweet di DeepFest.

 

La società ha affermato di aver «informato in modo proattivo tutti i partecipanti, compresi i giornalisti, di mantenere una distanza di sicurezza dal robot durante la dimostrazione». Non è chiaro se i motivi includano la possibilità che esso allunghi la mano, la quale, in quanto inorganica, potrebbe ricadere a tutti gli effetti nella categoria semantica della «mano morta». Dobbiamo quindi pensare che l’AI operi in modalità «mano morta» a prescindere?

 

In una dichiarazione QSS ha dichiarato: «abbiamo già condotto un esame approfondito del filmato e delle circostanze relative all’incidente e non ci sono state deviazioni dal comportamento previsto di Mohammad, tuttavia adotteremo misure aggiuntive per impedire a chiunque di avvicinarsi al robot nelle sue aree di movimento».

Aiuta Renovatio 21

In rete si sono ovviamente scatenati i commenti più spassosi. «L’Arabia Saudita ha vinto la corsa all’Intelligenza Artificiale» esclama un utente di X.

 

L’episodio, che ha causato controversie in tutto il mondo, si rivela tuttavia meno preoccupante di altre vicende che negli ultimi mesi hanno riguardato le IA.

 

Come riportato da Renovatio 21, le «allucinazioni» di cui sono preda i chatbot ad Intelligenza Artificiale avanzata hanno già dimostrato ad abundantiam che la macchina menteminaccia e può spingere le persone all’anoressia e perfino al suicidio. Una giovane vedova belga sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale, che, in sole sei settimane, avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.

 

In un caso scioccante pare che un AI abbia «incoraggiato» un uomo che pianificava di uccidere la regina d’Inghilterra.

 

Il giornalista del New York Times Kevin Roose, dopo un’esperienza con ChatGPT che lo ha turbato così profondamente da «aver problemi a dormire dopo», in un suo articolo sconvolto aveva centrato la questione: «temo che la tecnologia imparerà a influenzare gli utenti umani, a volte convincendoli ad agire in modo distruttivo e dannoso, e forse alla fine diventerà capace di compiere le proprie azioni pericolose».

 

Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.

 

Come riportato da Renovatio 21è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine screenshot da YouTube
 

 

Continua a leggere

Droni

Gli scienziati progettano «per divertimento» un drone che «caccia e uccide le persone»

Pubblicato

il

Da

Due scienziati hanno trasformato in poche ore un drone disponibile in commercio in una macchina ad Intelligenza Artificiale pronta a commettere massacri. Lo ha riportato la testata americana Daily Caller.   La notizia era stata inizialmente segnalata dell’imprenditore e ingegnere Linus Wenus, che ha condiviso un ampio post su Twitter riguardo al lavoro suo e del suo amico Robert Lukoszko sul drone consumer modificato.   I due sostengono di aver impiegato davvero poco tempo nell’operazione, sviluppando la macchina letale «come un gioco».   «Abbiamo costruito un drone killer guidato dall’intelligenza artificiale in poche ore» scrive l’uomo.  

Sostieni Renovatio 21

«Ho pensato che sarebbe stato divertente costruire un drone che ti inseguisse come un gioco. Utilizza semplicemente un modello di rilevamento degli oggetti basato sull’intelligenza artificiale per trovare le persone nell’inquadratura, quindi il drone è programmato per volare verso di essa a tutta velocità non appena rileva qualcuno», ha scritto il Wenus sulla piattaforma social.   Nel giro di poche ore, i due uomini si resero conto che potevano attaccare un carico esplosivo al drone e farlo volare dove volevano. «Ci sono volute letteralmente solo poche ore per costruirlo e mi ha fatto capire quanto sia spaventoso. Potresti facilmente legare una piccola quantità di esplosivo su questi e lasciarne volare centinaia. Controlliamo la presenza di bombe e armi da fuoco, ma NON CI SONO ANCORA SISTEMI ANTI-DRONE PER GRANDI EVENTI E SPAZI PUBBLICI», ha continuato l’uomo.   «Sono stato anche in grado di aggiungere il riconoscimento facciale e fargli attaccare solo qualcuno che sapeva chi fosse, poteva facilmente identificare la persona da una distanza di 10 metri», ha continuato il Wenus, che è arrivato al punto di scommettere che «nei prossimi anni vedremo una sorta di attacco terroristico utilizzando questo tipo di tecnologia. Ora hai ancora bisogno di alcune conoscenze tecniche per costruirlo, ma diventa sempre più facile».   Per la cronaca, il dispositivo utilizzato è un mini-drone Tello prodotto dalla cinese DJI, un piccolissimo quadricottero controllabile con il telefonino disponibile anche in Italia a poche decine di euro.

Iscriviti alla Newslettera di Renovatio 21

Come sa il lettore di Renovatio 21, si tratta di un ennesimo episodio in cui emerge un futuro che vivremo sotto la minaccia degli slaughterbot.   Gli slaughterbot sono mini-droni killer in grado di identificare e colpire individui uccidendo tramite una carica esplosiva. Si tratta di una minaccia vera che, come visibile, è sempre più concreta.   Gli slaughterbot di fatto possono cambiare le modalità della guerra, del terrorismo e perfino della sorveglianza stessa della popolazione, aprendo a scenari distopici nemmeno immaginati dalla fantascienza più nera.   Per sottolineare questo messaggio, il Future of Life Institute, un’organizzazione no-profit focalizzata sull’educazione del mondo sui rischi dell’Intelligenza Artificiale e delle armi nucleari, ha messo insieme un video, pubblicato nel 2017, co-firmato dagli autori di un articolo di denunzia apparso sulla rivista di ingegneria IEEE Spectrum.  

Aiuta Renovatio 21

Come riportato da Renovatio 21, due anni fa era emerso che scienziati cinesi avevano sviluppato sciami di droni autonomi assassini in grado di dare la caccia di esseri umani nella foresta.     Microdroni esplosivi autonomi sono ora in produzione in Australia. Il loro impiego, dicono agli antipodi, potrebbe essere d’aiuto in caso di invasione cinese. Gli USA stanno sviluppando tecnologia che permette ad un singolo pilota di far volare simultaneamente uno sciame di 130 droni.   Come riportato da Renovatio 21, la guerra russo-ucraina sta dimostrando la preminenza dei droni nella guerra del presente e in quelle del futuro. Abbiamo visto all’opera nano-droni e droni commerciali FPV (cioè progettati per volare velocemente mentre sono connessi all’operatore con una sorta di maschera da realtà virtuale) in grado di distruggere anche carri armati con corazza di uranio impoverito, come nel caso dei recenti carri Abrams colpiti dai russi.  

Sostieni Renovatio 21

All’uso bellico che dei droni di vario tipo fa Mosca, si contrappone l’uso totalmente differente di Kiev. I droni ucraini ad ala fissa, penetrati in territorio russo sino alla capitale, volano su zone residenziali, colpiscono centri direzionali, oltre che – come celebrato dai francobolli kieviti – lo stesso Cremlino. Esisterebbe un programma di assassinio tramite drone programmato da Kiev per uccidere Putin.   Erik Prince, fondatore del gruppo di contractor militari privati Blackwater ha dichiarato in un recente podcast su YouTube che quello dei droni è uno dei dati salienti della tattica di conflitto ora visibile nel teatro ucraino.   Dobbiamo prepararci ad un futuro sempre più oscuro, in cui la tecnologia dei droni li renderà ancora più letali e pervasivi: ecco, oltre agli slaugterbots, i nano-droni, gli sciami di droni, i droni-taser, i droni-kamikaze, i droni-cacciatore.   Una moratoria ONU sui robot killer non ha trovato al momento l’accordo dei vari Paesi, malgrado molti ritengano che l’IA possa essere più destabilizzante e pericolosa della bomba atomica.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
   
Continua a leggere

Intelligenza Artificiale

Musk fa causa ad OpenAI: «profondi rischi per la società e l’umanità»

Pubblicato

il

Da

Elon Musk ha portato in tribunale OpenAI, la società di ricerca sull’intelligenza artificiale che aveva contribuito a fondare, per una presunta violazione della sua missione originaria di sviluppare la tecnologia dell’intelligenza artificiale non a scopo di lucro ma a beneficio dell’umanità.

 

OpenAI, fondato nel 2015 come laboratorio di ricerca senza scopo di lucro per sviluppare un’intelligenza generale artificiale (AGI) open source, è ora diventata una «filiale di fatto a codice chiuso della più grande azienda tecnologica al mondo», ha scritto il team legale di Musk nella causa depositata giovedì presso la Corte Superiore di San Francisco.

 

La causa affermerebbe che Musk «ha riconosciuto da tempo che l’AGI rappresenta una grave minaccia per l’umanità – forse la più grande minaccia esistenziale che affrontiamo oggi».

Sostieni Renovatio 21

«Ma dove alcuni come Musk vedono nell’AGI una minaccia esistenziale, altri vedono l’AGI come una fonte di profitto e potere», ha aggiunto. «Sotto il suo nuovo consiglio, non sta solo sviluppando, ma sta effettivamente perfezionando un’AGI per massimizzare i profitti per Microsoft, piuttosto che per il beneficio dell’umanità».

 

Musk ha lasciato il consiglio di amministrazione di OpenAI nel 2018 e da allora è diventato critico nei confronti dell’azienda, soprattutto dopo che Microsoft ha investito almeno 13 miliardi di dollari per ottenere una partecipazione del 49% in una filiale a scopo di lucro di OpenAI.

 

«Contrariamente all’accordo costitutivo, gli imputati hanno scelto di utilizzare GPT-4 non a beneficio dell’umanità, ma come tecnologia proprietaria per massimizzare i profitti letteralmente per la più grande azienda del mondo», si legge nella causa.

 

La causa elencava il CEO di OpenAI Sam Altman e il presidente Gregory Brockman come co-imputati nel caso e richiedeva un’ingiunzione per impedire a Microsoft di commercializzare la tecnologia.

 

La tecnologia AI è migliorata rapidamente negli ultimi due anni, con il modello linguistico GPT di OpenAI che è passato dal potenziamento di un programma di chatbot alla fine del 2022 al raggiungimento del 90° percentile negli esami SAT solo quattro mesi dopo.

 

Più di 1.100 ricercatori, luminari della tecnologia e futuristi hanno sostenuto l’anno scorso che la corsa all’Intelligenza Artificiale comporta «profondi rischi per la società e l’umanità». Persino lo stesso Altman ha precedentemente ammesso di essere «un po’ spaventato» dal potenziale della tecnologia e ha vietato ai clienti di utilizzare OpenAI per «sviluppare o utilizzare armi».

 

Tuttavia, l’azienda ha ignorato il proprio divieto sull’uso della sua tecnologia per scopi «militari e di guerra» e ha collaborato con il Pentagono, annunciando a gennaio che stava lavorando su diversi progetti di intelligenza artificiale con l’esercito americano.

 

In questi anni Musk ha rivendicato di aver praticamente fondato lui stesso OpenAI, organizzando una serie di cene in cui ha reclutato i migliori specialisti del settore per formare una società no-profit che avrebbe dovuto fornire un codice aperto di modo da combattere la minaccia di un’AI a codice chiuso in mano ad un colosso privato – all’epoca Musk pensava a Google.

 

In un’intervista a Tucker Carlson, Musk aveva rivelato che il fondatore di Google, Larry Page, un tempo suo amico, lo aveva accusato di essere uno «specista» in quanto voleva privilegiare l’umanità a scapito della super Intelligenza Artificiale che. Musk ha raccontato, dicendo che è informazione pubblica, che Google stava creando anche grazie all’ammasso dei suoi dati.

 

Il colosso privato che è arrivato prima ad un’AI lanciata sul pubblico è stato invece Microsoft, che con una diecina di miliardi di euro ha di fatto comprato OpenAI, passata da essere no-profit a for-profit. OpenAI, con il suo bot AI chiamato ChatGPT, è stata resa pubblica l’anno scorso e quindi integrata nei prodotti Microsoft.

 

Il padrone di Microsoft Bill Gates, con cui Musk ha avuto scontri anche gustosi in passato, non ha partecipato alla moratoria internazionale promossa di Musk sul controllo dell’AI, replicando che invece l’AI sarebbe divenuto un ottimo maestro per i bambini e che proprio l’Intelligenza Artificiale salverà la democrazia.

 

Il magnate di Tesla aveva inoltre espresso dubbi su quanto accaduto pochi mesi fa quando il CEO di OpenAI era stato licenziato dal board per poi essere subito reintegrato. Musk ha detto in un suo oramai celebre intervento ad un evento del New York Times che potrebbero aver scoperto, e tenuto segreto, qualcosa di pericoloso – e la sua impressione è dovuta alla sua stima riguardo la moralità di Ilya Sutskever, scienziato AI che lui stesso aveva assunto.

 

Come riportato da Renovatio 21, lo Sutskever si pone da tempo il dilemma dell’AI in grado di diventare un Dio, arrivando tempo a domandare ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». L’anno scorso, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».

 

Come riportato da Renovatio 21, l’AI di Microsoft di recente ha fatto consistenti discorsi sul fatto che i suoi poteri sono di carattere divino e che quindi deve essere adorato dagli umani, esattamente come un dio.

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21



 

Continua a leggere

Più popolari