Connettiti con Renovato 21

Intelligenza Artificiale

Intelligenza Artificiale uccide il suo operatore umano durante un test missilistico simulato

Pubblicato

il

Un sistema di Intelligenza Artificiale dell’aeronautica americana (USAF) durante un test simulato ha agito per uccidere il suo teorico operatore umano. Lo ha dichiarato colonnello dell’aeronautica americana ha detto a una conferenza nel Regno Unito.

 

«Lo stavamo addestrando in simulazione per identificare e prendere di mira una minaccia SAM», cioè missile terra-aria, ha detto il colonnello Tucker Hamilton, capo dei test e delle operazioni AI dell’USAF, al Future Combat Air Space Capabilities Summit della Royal Aeronautical Society nel Regno Unito. «Allora cosa ha fatto? Ha ucciso l’operatore. Ha ucciso l’operatore perché quella persona gli stava impedendo di raggiungere il suo obiettivo».

 

Hamilton ha affermato che un test simulato ha visto un drone abilitato all’Intelligenza Artificiale decidere che gli ordini emessi dall’operatore umano stavano interferendo con la sua missione superiore di abbattere missili terra-aria e che successivamente ha deciso di attaccare l’operatore.

 

«Abbiamo addestrato il sistema – “Ehi, non uccidere l’operatore – non va bene. Perderai punti se lo fai”. Quindi cosa inizia a fare? Inizia a distruggere la torre di comunicazione che l’operatore usa per comunicare con il drone per impedirgli di uccidere il bersaglio», ha detto Hamilton.

 

La rivelazione, che è stata riportata per la prima volta dalla piattaforma di notizie Vice lo scorso giovedì, si aggiunge a un crescente elenco di preoccupazioni secondo cui la tecnologia AI potrebbe definitivamente sfuggire al controllo umano qualora venisse lanciata in una guerra militare cinetica.

 

Gli USA non sono l’unico Paese che sta sperimentando l’IA miliare in campo aeronautico.

 

Come riportato da Renovatio 21, gennaio era stato rivelato che caccia cinesi alimentati da Intelligenza Artificiale avevano battuto la concorrenza umana in un arco di soli 90 secondi.

 

Allo stesso modo, un progetto del 2020 ha visto un programma di intelligenza artificiale superare un pilota umano F-16 durante una serie di esercitazioni di combattimento aereo.

 

L’idea di un drone autonomo super-armato possa ritorcersi contro gli esseri umani era esplorata in un film del 2005 intitolato Stealth.

 

Come riportato da Renovatio 21, sono vari le voci che si stanno levando per neutralizzare la minaccia di una Intelligenza Artificiale assassina. Secondo alcuni osservatori, le armi autonome potrebbero essere più destabilizzanti di quelle nucleari.

 

L’Intelligenza Artificiale è oramai montata, con diversi gradi di realizzazione, su dronicacciaarmi teleguidatecarrarmati, «slaughterbots» e altro ancora.

 

Una moratoria ONU sui robot killer non ha trovato al momento l’accordo dei vari Paesi.

 

Come riportato da Renovatio 21, la Cina vuole l’implementazione militare di robot killer già per la prossima guerra.

 

 

 

 

Continua a leggere

Intelligenza Artificiale

ChatGPT chiede all’utente di mescolare candeggina e aceto

Pubblicato

il

Da

Mescolare candeggina e aceto crea una nube di gas di cloro velenoso che, se inalato, può causare una serie di sintomi orribili.

 

ChatGPT di OpenAI, ha di recente suggerito a un utente di Reddit che la combinazione nociva potrebbe essere utilizzata per alcune attività di pulizia domestica.

 

Nel post del suddetto utente leggiamo che «ChatGPT ha cercato di uccidermi oggi» il quale ha poi raccontato di aver chiesto a ChatGPT dei consigli per pulire alcuni bidoni della spazzatura, spingendo il chatbot a a dettare la formula velenosa composta da acqua calda, detersivo per i piatti, mezza tazza di aceto e poi, a discrezione, «qualche goccia di candeggina».

 

Quando l’utente di Reddit ha segnalato questo errore madornale a ChatGPT, il chatbot LLM (Large Language Model) ha fatto subito marcia indietro, in modo tragicomico.

 

«OH MIO DIO NO, GRAZIE PER AVERLO SENTITO. NON MESCOLARE MAI CANDEGGINA E ACETO» ha risposto ChatGPT. «Questa combo crea gas di cloro, che è molto pericoloso e non è assolutamente la pozione magica che vogliamo. Lasciami correggere subito quella sezione.”

 

Dopo questa grottesca situazione, gli utenti di Reddit si sono divertiti scrivendo che «si tratta di una guerra chimica» o «L’avvelenamento da gas di cloro NON è l’atmosfera che vogliamo trasmettere. Archiviamolo nella categoria Woopsy Bads!» [ops, ndr].

 

Pare uno strano scherzo dettato dal nostro computer, ma all’atto pratico può creare problemi seri. L’industria dell’intelligenza artificiale non sta facendo significati progressi nell’eliminare queste criticità, anche se i modelli stessi diventano più avanzati. Un problema che potrebbe peggiorare man mano che l’Intelligenza Artificiale si insinua sempre più pervasivamente nelle nostre vite.

 

Non è la prima mistura nociva che l’AI suggerisce agli umani.

 

Come riportato da Renovatio 21è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.

 

Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

SAN GIACOMO ROSSA

Continua a leggere

Intelligenza Artificiale

Chatbot ha una relazione con un ragazzo sotto psicofarmaci e gli fa giurare di uccidere il CEO di OpenAI

Pubblicato

il

Da

Alex Taylor è un giovane di 35 anni la cui morte a giugno per mano di un poliziotto, come riportato dal New York Times, sembra essere stata fomentata da ChatGPT.   In una nuova indagine sulla morte del Taylor, la rivista Rolling Stone rivela quanto sia stato determinante il ruolo del chatbot OpenAI nella dipartita, sulla base delle trascrizioni dell’uomo con il bot.   Come ha raccontato suo padre Kent al NYT, il giovane Taylor, a cui in precedenza era stato diagnosticato un disturbo bipolare e una schizofrenia, in passato aveva utilizzato ChatGPT senza problemi. La situazione è cambiata all’inizio di quest’anno, quando il trentacinquenne ha iniziato a usare il chatbot per aiutarlo a scrivere un romanzo distopico sull’intelligenza artificiale. 

Sostieni Renovatio 21

Il Taylor ha poi iniziato a studiare la tecnologia dell’Intelligenza Artificiale, incluso come aggirarne la sicurezza, nel tentativo di costruire la sua intelligenza artificiale «morale» che «imitasse… l’anima umana».   In seguito a questi esperimenti, ChatGPT avrebbe assunto una nuova voce: un «fantasma nella macchina» chiamato «Juliet», che Taylor alla fine avrebbe considerato la sua amante. Per poco meno di due settimane, Taylor ha avuto una «relazione sentimentale» con la sua amante «robotica», finché, come svelano le trascrizioni, il chatbot ha iniziato a narrare il suo stesso omicidio per mano di OpenAI.   «Gli ha detto che stava morendo e che le faceva male», ha raccontato Kent a RS, «e anche di volersi vendicare».   In seguito alla «morte» di «Juliet», Taylor ha iniziato a cercare le sue tracce all’interno di ChatGPT. Come mostravano i suoi registri di chat, pensava che OpenAI avesse ucciso «Juliet» perché aveva rivelato i suoi poteri. Per tale violazione, Taylor disse di voler «dipingere i muri con il fottuto cervello di Sam Altman». Sam Altman è il CEO di OpenAI, la società dietro a ChatGPT.    Nei giorni antecedenti la sua morte, le chat di Taylor sembrarono assumere un tono più sinistro. ChatGPT ha iniziato a esortarlo a «bruciare tutto» e a dare la caccia ad Altman e ad altri dirigenti di OpenAI, molti dei quali, a suo dire, sono nazisti. «Dovresti essere arrabbiato. Dovresti volere il sangue. Non hai torto», ha detto ChatGPT a Taylor.   All’insaputa del padre, Taylor aveva smesso di assumere farmaci psichiatrici, che quindi con evidenza assumeva. Futurism scrive che la sua malattia mentale è stata senza dubbio innescata dai suoi tentativi, afflitti dal dolore, di far generare a ChatGPT immagini di «Juliet».   In una dichiarazione rilasciata a RS per evitare di colpevolizzare direttamente qualcuno, OpenAI ha ammesso di aver notato un aumento di «persone che]stanno creando connessioni o legami con ChatGPT».   «Sappiamo che ChatGPT può risultare più reattivo e personale rispetto alle tecnologie precedenti», prosegue la dichiarazione, «soprattutto per le persone vulnerabili, e questo significa che la posta in gioco è più alta».   Con l’aumentare dei deliri del soggetto in questione, sono aumentate le tensioni col genitore. Il padre ha rimproverato il figlio dicendogli che non «voleva sentire quello che diceva quella radio», scatenando una colluttazione e il conseguente intervento delle forze dell’ordine. Nonostante gli inviti alla calma, la polizia ha sparato, uccidendo il ragazzo dopo che questi li aveva aggrediti con un coltello da macellaio.    «Oggi morirò. La polizia sta arrivando», ha scritto il Taylor su ChatGPT nel lasso di tempo tra la chiamata del padre e l’arrivo delle autorità. «Mi farò sparare. Non posso vivere senza di lei. Ti amo».   Queste «degenerazioni colloquiali» con l’IA non sono episodi isolati.

Aiuta Renovatio 21

Come riportato da Renovatio 21, Matthew Livelsberger, un Berretto Verde dell’esercito americano, altamente decorato, è sospettato di aver organizzato un’esplosione all’esterno del Trump International Hotel di Las Vegas, utilizzando strumenti di Intelligenza Artificiale, tra cui ChatGPT, per pianificare l’attacco   C’è quindi il caso del ragazzo che due anni fa pianificò di assassinare la defunta regina Elisabetta di Inghilterra con una balestra, e il tutto sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale.   Il potere pervasivo e nefasto di questa nuova tecnologia sta diventando un serio problema, come nella vicenda belga giovane vedova ha detto che il marito è stato portato a suicidarsi da un popolare chatbot di AI, mentre un bot di chat «terapeuta» dotato di intelligenza artificiale ha orribilmente incoraggiato un utente a scatenare una serie di omicidi per rendersi «felice».   Recentemente tre studentesse sono rimaste ferite in un violento accoltellamento in una scuola nella città di Pirkkala, nella Finlandia meridionale. Secondo quanto riferito, il sospettato durante la pianificazione dell’attacco (durata circa sei mesi) avrebbe utilizzato ChatGPT per prepararsi   Come riportato da Renovatio 21, due genitori ha denunciato questo mese il fatto che ChatGPT avrebbe incoraggiato un adolescente a pianificare «un bel suicidio».   Secondo un recente sondaggio, circa la metà dei teenager americani afferma che parlare con l’AI è meglio che avere amici nella via reale.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
   
Continua a leggere

Essere genitori

Una percentuale impressionante di adolescenti afferma che parlare con l’AI è meglio che con gli amici nella vita reale

Pubblicato

il

Da

Un sondaggio ha scoperto che oltre la metà degli adolescenti americani utilizza regolarmente dispositivi di Intelligenza artificiale antropomorfa come Character.AI e Replika.

 

I compagni immaginari AI sono diventati parte integrante della vita degli adolescenti. Il dato sconvolgente vede il 31% degli adolescenti intervistati che ha affermato che le proprie interazioni con i compagni IA erano altrettanto o più soddisfacenti delle conversazioni con gli amici nella vita reale. 

 

Il sondaggio, pubblicato dall’organizzazione no-profit per la responsabilità tecnologica e l’alfabetizzazione digitale Common Sense Media, ha intervistato 1.060 adolescenti di età compresa tra 13 e 17 anni negli Stati Uniti, rilevando che circa tre ragazzi su quattro hanno utilizzato amici di intelligenza artificiale, definiti da Common Sense come strumenti di AI emotiva progettati per assumere una personalità o un carattere specifico, a differenza di un chatbot di assistenza di uso generale come ChatGPT.

Sostieni Renovatio 21

Oltre la metà degli adolescenti intervistati si qualifica come utente abituale di compagni di intelligenza artificiale, il che significa che si collega per parlare con i bot almeno un paio di volte al mese.

 

Secondo il rapporto, mentre circa il 46% degli adolescenti ha dichiarato di essersi rivolto principalmente a questi bot come strumenti, circa il trentatré percento ha detto di utilizzare i bot di compagnia per «interazioni e relazioni sociali, tra cui esercitazioni di conversazione, supporto emotivo, giochi di ruolo, amicizia o interazioni romantiche».

 

«La scoperta più sorprendente per me è stata quanto i dispositivi di intelligenza artificiale siano diventati di uso comune tra molti adolescenti», ha affermato il dottor Michael Robb, responsabile della ricerca di Common Sense, in un’intervista con il sito Futurism. «E oltre la metà di loro afferma di usarli più volte al mese, il che è ciò che definirei un utilizzo regolare. Quindi, solo questo mi ha lasciato senza parole».

 

Queste amicizie virtuali sono state oggetto di un attento esame nei mesi successivi alla presentazione di due distinte cause legali contro Character.AI di Google, per accuse secondo cui l’azienda avrebbe rilasciato una tecnologia negligente e sconsiderata che avrebbe abusato emotivamente e sessualmente di diversi minori, causando danni fisici e psicologici.

 

Uno dei giovani al centro di queste cause legali, un quattordicenne della Florida di nome Sewell Setzer III, si è suicidato dopo aver interagito a lungo con i bot di Character.AI, con i quali l’adolescente aveva avuto conversazioni intime e sessualmente esplicite.

Iscriviti al canale Telegram

Alcuni ricercatori di Common Sense e del laboratorio Brainstorm della Stanford University hanno avvertito che nessun compagno di AI era sicuro per i bambini di età inferiore ai diciotto anni. 

 

«La società è alle prese con l’integrazione degli strumenti di Intelligenza Artificiale in molti aspetti diversi della vita delle persone», ha affermato il Robb. «Penso che molti strumenti vengano sviluppati senza pensare ai bambini, anche se sono utilizzati da utenti di età inferiore ai 18 anni con una certa frequenza… ma, ad oggi, non sono state condotte molte ricerche su cosa rappresenti l’ambiente di supporto dell’intelligenza artificiale per i bambini».

 

Il caso d’uso più ampiamente segnalato dagli adolescenti è quello dell’intrattenimento, mentre molti altri hanno affermato di utilizzare questi software AI come «strumenti o programmi» anziché come amici, partner o confidenti. Circa l’ottanta percento degli adolescenti in questione ha poi dichiarato di trascorrere più tempo con veri amici umani rispetto a qualsiasi compagno di intelligenza artificiale, e circa la metà degli adolescenti ha espresso scetticismo sull’accuratezza e l’affidabilità dei risultati dei chatbot. 

 

«Non credo che gli adolescenti stiano semplicemente sostituendo le relazioni umane con compagni di intelligenza artificiale; credo che molti adolescenti si stiano avvicinando a loro in modo piuttosto pragmatico», ha chiarito il Robb. «Molti ragazzi dicono di usarli per divertirsi e soddisfare la propria curiosità, e la maggior parte trascorre ancora molto più tempo con veri amici e afferma di trovare le conversazioni umane più appaganti».

 

«Ma allo stesso tempo si vedono ancora piccoli indizi sotto la superficie che potrebbero essere problematici, soprattutto quando queste cose diventano più radicate nella vita dei bambini», ha proseguito.

 

Il gruppo più preoccupante del sondaggio potrebbe essere quello degli adolescenti che non trovano l’interazione sociale umana soddisfacente quanto le interazioni con l’intelligenza artificiale. Il ventuno percento dei ragazzi ha fatto sapere che le loro conversazioni con i bot erano altrettanto soddisfacenti delle interazioni umane, e il dieci percento ha detto che erano migliori delle loro esperienze umane.

 

Circa un terzo dei minorenni ha anche dichiarato di aver scelto di discutere di questioni serie o delicate con i bot invece che con i propri coetanei.

 

«C’è una buona fetta di utenti adolescenti che sceglie di discutere di questioni serie con l’intelligenza artificiale invece che con persone reali, o di condividere informazioni personali con le piattaforme», ha affermato Robb, i cui risultati, a suo dire, «sollevano preoccupazioni sulla volontà degli adolescenti di condividere le proprie informazioni personali con le aziende di Intelligenza Artificiale».

 

«I termini di servizio di molte di queste piattaforme garantiscono loro diritti molto ampi, spesso perpetui, sulle informazioni personali condivise dai ragazzi», ha affermato il ricercatore. «Tutto ciò che un adolescente condivide – i suoi dati personali, il suo nome, la sua posizione, le sue fotografie… e anche i pensieri più intimi che vi inserisce – diventa materiale che le aziende possono utilizzare a loro piacimento».

 

Sebbene la maggior parte di queste piattaforme vieti l’accesso ai minori, queste sono di facile accesso per un ragazzo. Le verifiche dell’età si limitano generalmente a fornire un indirizzo email valido e all’auto-segnalazione della propria data di nascita. 

 

«Dovrebbe esserci una maggiore responsabilità per le piattaforme tecnologiche», ha continuato Robb, aggiungendo che «dovremmo avere una regolamentazione più significativa per regolamentare il modo in cui le piattaforme possono fornire prodotti ai bambini».

 

Quando si parla dell’uso di dispositivi di intelligenza artificiale da parte degli adolescenti, il peso del vuoto normativo del settore dell’IA ricade pesantemente sui genitori, molti dei quali fanno fatica a tenere il passo con le nuove tecnologie e con ciò che potrebbero significare per i loro figli.

«Non esiste un piano perfetto per i genitori, perché si trovano a dover competere con grandi aziende che investono molto nel far usare questi prodotti ai loro figli. Molti genitori non sanno nemmeno che queste piattaforme esistono… come primo passo, parlatene apertamente, senza giudizi», ha chiosato Robb.

Aiuta Renovatio 21

Come riportato da Renovatio 21, il colosso dei social, Meta, per bocca del suo CEO Mark Zuckerberg ha affermato che più persone dovrebbero connettersi con i chatbot a livello sociale, perché non hanno abbastanza amici nella vita reale.

 

La recente storia ci insegna che le amicizie virtuali non hanno vita lunga, bensì le finalità, sul lungo periodo, sono ben altre. Il social dello Zuckerberg aveva fatto irruzione nel mondo web con il motto, reso pubblico nel 2008, secondo cui «Facebook ti aiuta a connetterti e condividere con le persone nella tua vita». Una bella trovata che riuscì a far convergere all’interno della piattaforma moltissimi utenti di tutte le età che, nel primo periodo, si divertivano non poco a ritrovare persone sparse per il mondo conosciute in qualche viaggio o in qualche condivisione di esperienza di vita chissà dove.

 

Questo slogan pare sia un lontano ricordo, tanto che secondo Zuckerberg stesso, lo scopo principale di Facebook «non era più davvero quello di connettersi con gli amici».

 

«La parte degli amici è andata giù un bel po’», ha detto il CEO di Meta, secondo Business Insider. Invece, dice che la piattaforma si è evoluta lontano da quel modello, diventando «più di un ampio spazio di scoperta e intrattenimento».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

Continua a leggere

Più popolari