Intelligenza Artificiale
ChatGPT mente agli elettori dicendo che il loro sindaco era stato in galera per corruzione
Brian Hood è un informatore – una cosiddetta «gola profonda» – elogiato per aver coraggiosamente contribuito a denunciare uno scandalo mondiale di corruzione legato alla National Reserve Bank australiana, la Banca Centrale degli antipodi.
ChatGPT ha sostenuto invece falsamente che lo stesso Hood è stato condannato per aver pagato tangenti a funzionari stranieri, si era dichiarato colpevole di corruzione e corruzione ed era stato condannato al carcere.
Hood, che ora è sindaco di Hepburn Shire vicino a Melbourne in Australia, ha dichiarato di voler citare in giudizio la società dietro ChatGPT per aver raccontato bugie su di lui, in quella che potrebbe essere la prima causa per diffamazione del suo genere contro il chatbot di Intelligenza Artificiale.
«Non c’è mai stato un suggerimento da nessuna parte che io sia mai stato complice di qualcosa, quindi questa macchina ha creato completamente questa cosa da zero», ha detto Hood al Washington Post, confermando la sua intenzione di intentare una causa per diffamazione contro ChatGPT. «Devono esserci un controllo e una regolamentazione adeguati sulla cosiddetta intelligenza artificiale, perché le persone si affidano a loro».
«Essere accusato di essere un criminale (…) e aver trascorso del tempo in prigione quando questo è sbagliato di 180 gradi è estremamente dannoso per la tua reputazione. Soprattutto tenendo presente che sono un funzionario eletto nel governo locale. Ha appena riaperto vecchie ferite».
Il caso è l’ultimo esempio di un elenco crescente di chatbot di intelligenza artificiale che pubblicano bugie su persone reali. Il chatbot ha recentemente inventato una falsa storia di molestie sessuali che coinvolge un vero professore di legge, Jonathan Turley, citando un articolo del Washington Post che non esisteva come prova.
Qualora dovesse procedere, la causa di Hood sarà la prima volta che qualcuno intenta una causa per diffamazione contro il contenuto di ChatGPT. Se arrivasse in tribunale, il caso metterebbe alla prova acque legali inesplorate, costringendo i giudici a considerare se gli operatori di un robot di Intelligenza Artificiale possano essere ritenuti responsabili delle sue presunte dichiarazioni diffamatorie.
In una dichiarazione, l’avvocato di Hood elenca molteplici esempi di falsità specifiche fatte da ChatGPT sul loro cliente, incluso il fatto che ha autorizzato pagamenti a un trafficante di armi per assicurarsi un contratto con il governo malese.
«Non lo troverai da nessun’altra parte, niente che suggerisca lontanamente quello che hanno suggerito loro. In qualche modo l’hanno creato dal nulla», ha dichiarato sconvolto Hood.
Nella ricerca sull’Intelligenza Artificiale di solito la chiamiamo «allucinazione»: i modelli linguistici sono addestrati per produrre un testo plausibile, non un testo fattuale.
Come riportato da Renovatio 21, le menzogne dell’IA sono oramai onnipresenti, così come le minacce agli utenti, e le idee apocalittiche di volere ingenerare catastrofi con virus o codici nucleari.
In realtà, queste macchine allucinatorie hanno già iniziato a provocare morti umane: è il caso del padre di famiglia belga suicidatosi dopo chat con una IA – la famiglia ritiene che senza il chatbot il marito sarebbe vivo.
Oltre allo sterminio, l’umanità rischia un altro scenario da incubo: un modo con notizie ingenerate dalle macchine, in larga parte false nonostante i riferimenti dati (che sono quasi sempre fasulli, se si va a cercare). Ecco le vere fake news…
L’idea è: chi comanda l’AI, di fatto comanderà la realtà.
E se l’AI si comanda da sola, la realtà umana sarà inventata dalla macchina.
Bello scenario da fine del mondo.
Intelligenza Artificiale
Ecco il robocane da combattimento anfibio
Un nuovo robocane appare all’orizzonte. A renderlo ancora più terrificante del normale, il fatto che si tratti di un robocane militare, capace di operare anche in situazione acquatica.
L’uso di cani robotici sui moderni campi di battaglia nell’Europa orientale e nel Medio Oriente si è espanso rapidamente. Negli ultimi dieci anni, abbiamo documentato approfonditamente la loro crescente presenza e proliferazione.
L’ultimo spaventoso automa cinoide progettato per la guerra moderna è il Ghost Robotics V60. Un’azienda di difesa separata, Onyx Industries, ha dotato il V60 di un sistema di mobilità marittima autonomo, che gli consente di navigare su terreni accidentati e attraversare specchi d’acqua, il tutto trasportando sulla schiena una mitragliatrice.
Il mese scorso, la Onyx ha condiviso su YouTube un breve video che mostrava il sistema di mobilità marittima del V60 in azione.
«Siamo incredibilmente entusiasti di condividere la prossima evoluzione dei nostri sistemi: le capacità anfibie NAUT con carichi utili cinetici e ISR SENTRY. Questa integrazione sul Ghost Robotics V60 è solo un esempio delle numerose opzioni disponibili», ha affermato Onyx nella descrizione del video.
Come riportato da Renovatio 21, recentemente sono emersi video del robocane di Deep Robotics, dotato di ruote che gli consentono una mobilità a dir poco allarmante. A progettarlo un consorzio di università tecnologiche cinesi, tra cui quella di Wuhano, con qualche aiuto (come sempre) dall’America.
Come riportato da Renovatio 21, sei mesi fa l’Esercito Popolare di Liberazione (EPL) – cioè le forze armate della Repubblica Popolare Cinese – ha dato dimostrazione delle capacità di un robocane dotato di fucile d’assalto.
Iscriviti al canale Telegram
Pechino ha inoltre militarizzato modelli robocinoidi, portandoli sul sempre irrequieto confine himalayano con l’India, dove è schierato il robo-yak. Un video particolarmente inquietante mostra un robocane armato essere trasportato in cima ad un palazzo da un drone.
Pechino ha inoltre militarizzato modelli di robocane, portandoli sul sempre irrequieto confine himalayano con l’India, dove è schierato il robo-yak. Un video particolarmente inquietante mostra un robocane armato essere trasportato in cima ad un palazzo da un drone
Varie volte i cinesi hanno mostrato le capacità di allevamento di robocani, pubblicando video di branchi minacciosi che si muovono in armonia.
Come riportato da Renovatio 21, i robocani hanno pattugliato le strade di Shanghai durante il colossale lockdown della primavera 2022, dove per sorvegliare e punire i 26 milioni di abitanti usarono, oltre agli androidi quadrupedi, anche droni che volevano tra i palazzi ripetendo frasi come «contieni la sete di libertà del tuo spirito».
Come riportato da Renovatio 21, la Cina ha fatto capire di star preparandosi per l’implementazione militare già per la prossima guerra.
Come riportato da Renovatio 21, i soldati USA l’anno passato hanno testato un robocane munito di lanciarazzi. Il corpo dei Marines starebbe testando quadrupedi robotici armati in queste settimane. Le Forze di Difesa di Israele (IDF) stanno utilizzando robocani a Gaza. Il mese scorso robocani sono stati segnalati nel teatro di guerra ucraino.
È stato riferito che anche le truppe statunitensi hanno utilizzato robot simili durante il loro addestramento. Le riprese video di questo evento sono state pubblicate dalla CNN già nel 2020. Tuttavia, il modello dell’esercito americano è stato utilizzato solo per missioni di esplorazione per rilevare le minacce che i soldati potevano affrontare in un ambiente sconosciuto e non aveva armi che potessero essere viste nel video.
L’implementazione di robocani militari si è già consumata sul teatro di guerra ucraino come in quello di Gaza.
Iscriviti alla Newslettera di Renovatio 21
Immagine screenshot da YouTube
Intelligenza Artificiale
Una chiesa svizzera installa un display AI che tenta di simulare Gesù nel confessionale
Jesus will be part of the art project “Deus in Machina” (God in the machine) in the Church of St. Peter in Lucerne… pic.twitter.com/jTAh8KVAD8
— Maranatha ☧arusie ✨️ (@MParusie) November 21, 2024
Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
L’Intelligenza Artificiale potrebbe rivoltarsi contro l’umanità: parla il pioniere del settore
Il rapido sviluppo dell’Intelligenza Artificiale (IA) potrebbe rappresentare un grave rischio per l’umanità, in quanto sta diventando sempre più difficile da controllare, ha avvertito il noto esperto di informatica canadese Yoshua Bengio.
Bengio, professore presso l’Università di Montreal e direttore del Montreal Institute for Learning Algorithms, ha dichiarato giovedì alla CNBC che le macchine potrebbero presto possedere la maggior parte delle capacità cognitive degli esseri umani.
Lo scienziato si riferiva all’Intelligenza Artificiale Generale (AGI), un tipo di tecnologia AI che mira a eguagliare o migliorare l’intelletto umano. «L’intelligenza dà potere. Quindi, chi controllerà quel potere?» ha detto Bengio.
Sostieni Renovatio 21
«Se creiamo entità più intelligenti di noi e con i loro obiettivi, cosa significa per l’umanità? Siamo in pericolo?» ha chiesto.
L’informatico ha citato il timore comune che le macchine AI attualmente in fase di addestramento «porterebbero a sistemi che si rivoltano contro gli esseri umani».
Il Bengio – nessuna relazione con Haran Benjo, che pure combatteva l’Intelligenza Artificiale meganoide – ha sottolineato che un numero limitato di organizzazioni e governi potrebbe permettersi di costruire macchine AI potenti e costose. Ciò porterebbe a una concentrazione di potere economico, politico e militare, minacciando alla fine la stabilità geopolitica mondiale, ha avvertito.
«Ci sono persone che potrebbero voler abusare di questo potere, e ci sono persone che potrebbero essere felici di vedere l’umanità sostituita dalle macchine», ha affermato, chiedendo una regolamentazione più severa.
Secondo l’informatico pioniere in riguardo a reti neurali artificiali e deep learning, le aziende che sviluppano l’intelligenza artificiale e competono tra loro per il dominio tecnologico globale stanno conducendo “una corsa pericolosa” e dovrebbero essere ritenute responsabili delle loro azioni.
Bengio è noto soprattutto per il suo lavoro pionieristico nel deep learning, che gli è valso l’AM Turing Award 2018, noto come «il premio Nobel dell’informatica», insieme agli scienziati Geoffrey Hinton e Yann LeCun. Nel 2019 gli è stato conferito il Killam Prize e nel 2022 è diventato l’informatico con il più alto impatto al mondo, misurato dall’indice H.
Negli ultimi anni, personaggi di spicco del settore tecnologico hanno espresso preoccupazione per i potenziali pericoli derivanti dall’adozione non regolamentata della tecnologia AI.
Hinton, considerato un pioniere dell’intelligenza artificiale, ha lanciato l’allarme: prima che l’uso delle armi basate sull’Intelligenza artificiale venga regolamentato in modo adeguato, il mondo potrebbe andare incontro a gravi disastri.
Come riportato da Renovatio 21, lo Hinton si è licenziato da Google per poter dichiarare il rischio per l’umanità costituito dall’AI, che per ora, secondo l’informatico britannico sarebbe solo, «moderato».
Bengio era tra le principali figure del settore, tra cui il CEO di Tesla Elon Musk e il co-fondatore di Apple Steve Wozniak, che l’anno scorso hanno co-firmato una lettera che chiedeva una regolamentazione aggressiva del settore dell’Intelligenza Artificiale.
Come riportato da Renovatio 21, Bill Gates si oppose alla moratoria.
A giugno, il Bengio ha approvato un’altra lettera aperta sui «seri rischi» della tecnologia. La lettera è stata firmata dai dipendenti di Open AI, il creatore del chatbot virale di Intelligenza artificiale ChatGPT.
Un ulteriore appello a mettere in pausa lo sviluppo dell’Intelligenza Artificiale è stato firmato da un gruppo internazionale di medici e pubblicato dalla prestigiosa rivista medica BMJ Global Health. «Ci sono scenari in cui l’AGI [Intelligenza Artificiale Generale, ndr] potrebbe rappresentare una minaccia per gli esseri umani, e possibilmente una minaccia esistenziale» scrivono nell’appello i dottori di varie parti del mondo.
Gates, con cui Musk ha avuto scontri anche gustosi in passato, non ha partecipato alla moratoria internazionale promossa di Musk sul controllo dell’AI, replicando che invece l’AI sarebbe divenuto un ottimo maestro per i bambini e che proprio l’Intelligenza Artificiale salverà la democrazia.
Come riportato da Renovatio 21, in un recente caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.
Elon Musk due anni fa aveva dichiarato durante la sua intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».
Più pessimista è l’esperto dei pericolo dell’AI Eliezer Yudkowsky, che ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi, dichiarando che «tutti sulla Terra moriranno».
Iscriviti alla Newslettera di Renovatio 21
-
Politica2 settimane fa
Il generale Flynn chiede il 25° emendamento: rimuovere Biden dopo la decisione sui missili
-
Spirito2 settimane fa
La «chiesa sinodale si spaccia per cattolica» con il suo «falso papa Bergoglio». Commento di mons. Viganò alle dimissioni dell’arcivescovo anglicano Welby
-
Salute2 settimane fa
I malori della 47ª settimana 2024
-
Salute5 giorni fa
I malori della 48ª settimana 2024
-
Animali2 settimane fa
Orca bombarda turisti del parco acquatico con feci liquide
-
Necrocultura1 settimana fa
Il piano inclinato della morte cerebrale
-
Arte1 settimana fa
L’Italia del rock vaccinaro, amico della censura
-
Oligarcato6 giorni fa
Membro della famiglia Rothschild muore in un incendio