Connettiti con Renovato 21

Intelligenza Artificiale

La Chiesa approfondisce la riflessione sull’Intelligenza Artificiale

Pubblicato

il

Tra avvertimenti episcopali e sessioni di sensibilizzazione organizzate dalla Santa Sede, la vigilanza riguardo all’intelligenza artificiale (IA) e ai rischi che comporta è una delle preoccupazioni della Chiesa per l’anno 2024.

 

I desideri dell’arcivescovo delle Fiji erano alquanto inaspettati. Il presule ha invitato il suo gregge a prendere coscienza delle sfide poste dall’intelligenza artificiale. «Se continuiamo a essere utilizzatori passivi dell’Intelligenza Artificiale, rischiamo di perdere questa creatività che Dio ha inscritto in noi, e questo sarebbe un grande danno per l’umanità», avverte mons. Peter Loy Chong, che concretamente consiglia alle famiglie di «stabilire regole in casa» all’alba del 2024.

 

Una richiesta che rilancia l’appello della Santa Sede nel dicembre 2023, a favore di un trattato internazionale che garantisca lo sviluppo e l’utilizzo etico dell’algoritmo. Un appello urgente quando si ricordano gli ultimi sconvolgimenti che hanno scosso il mondo molto chiuso dell’IA.

Sostieni Renovatio 21

Uno dei suoi principali attori, Sam Altman – l’ideatore di ChatGPT, lanciata nel 2023 – è stato confermato al suo posto dopo un braccio di ferro che lo ha contrapposto a chi, tra i suoi soci, voleva regolamentare l’algoritmo secondo criteri etici. Ma è stata la redditività a prevalere…

 

Sulla questione IA la Chiesa intende dare voce agli organismi internazionali, in particolare grazie alla competenza di padre Paolo Benanti, membro francescano della Commissione per l’IA delle Nazioni Unite. Il religioso è professore di bioetica ed etica tecnologica.

 

I criteri per un’IA etica

In un’intervista pubblicata il 3 gennaio 2024 da Vatican Insider – uno dei canali di informazione non ufficiali del Vaticano – Paolo Benanti discute un certo numero di criteri che dovrebbero essere inclusi in un «algoritmo etico». Secondo lui, l’Intelligenza Artificiale deve dare all’uomo la possibilità di definire le sue priorità e non lasciarsi dettare da ciò che resta una macchina: «il progetto umano deve venire prima e non viceversa», spiega il francescano.

 

Ciò implica una vigilanza vigile: «di fronte a una macchina instancabile dalle risorse inesauribili, con una velocità straordinaria, dobbiamo avere una vigilanza del tutto particolare», stima il teologo che si rallegra che la Chiesa abbia affrontato il problema di petto.

 

A differenza dell’essere umano che si struttura fin dai primi anni di esistenza in base alle sue interazioni con l’ambiente circostante, l’algoritmo non è aperto a progressi di questo tipo, perché è stato plasmato ex novo; anche al fine di evitare il pericolo di questo universo chiuso, dovremmo «imprimere tre valori principali nell’IA», sottolinea padre Benanti.

 

«ChatGPT dà sempre una risposta in modalità certa. Attualmente, se ci fosse una “saggezza” dalla cui acquisizione l’uomo trarrebbe vantaggio, non è tanto quella di poter rispondere in ogni momento e a qualunque cosa, ma quella di chiedersi se la sua risposta è, sì o no, valida, certa. Se potessimo dare alla macchina la capacità di mettere in discussione le sue risposte, avremmo fatto un passo avanti verso un maggiore “rispetto” per la natura umana», ritiene il francescano.

Aiuta Renovatio 21

Il secondo valore che l’esperto della Santa Sede vorrebbe vedere inserito in un modo o nell’altro nell’algoritmo è quello della benevolenza: «vale a dire il fatto di non essere determinato esclusivamente da un tipo di eventi – negativi – registrati in una “storia”».

 

Infine, «la dimensione dell’equità è cruciale» e se non integriamo questi dati nell’intelligenza artificiale, quest’ultima «alimenterà la visione di un mondo frammentato in classi sociali» o comunità.

 

Difficile immaginare che il mercato dell’IA presti attenzione ai moniti della Chiesa, visti gli interessi economici e strategici in gioco.

 

«In pratica – conclude padre Benanti – il rischio per l’uomo nel futuro è quello di rivolgere gli occhi verso il Cloud dove è immagazzinata l’Intelligenza Artificiale, piuttosto che verso il Cielo, e rendere l’algoritmo la divinità del domani».

 

Articolo previamente apparso su FSSPX.news.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21



 

Continua a leggere

Intelligenza Artificiale

Meta revisiona la politica sugli occhiali-smart Ray-Ban: sorveglianza AI predefinita e archiviazione dati vocali

Pubblicato

il

Da

A fine aprile Meta ha apportato modifiche, con effetto immediato, all’informativa sulla privacy degli «occhiali intelligenti» Ray-Ban Meta, che sembrano concepite per trasformare il dispositivo in una macchina di sorveglianza per l’addestramento di modelli di Antelligenza Artificiale. Lo riporta Reclaim The Net.   In un messaggio inviato agli utenti, Meta ha affermato che la sua «Intelligenza Artificiale sugli occhiali», ovvero alcune impostazioni, sta cambiando.   La spiegazione del gigante è che questo è presumibilmente necessario per utilizzare Meta AI «più facilmente» e anche «per aiutarci a migliorare i prodotti». Gli occhiali Ray-Ban Meta sono prodotti assieme ad EssilorLuxottica, il colosso nato dalla fusione della francese Essilor con il gigante di produzione di occhiali bellunese Luxottica.

Sostieni Renovatio 21

L’aggiornamento della policy si basa sugli «opt-out»: d’ora in poi, l’Intelligenza Artificiale Meta con l’uso della fotocamera sarà sempre abilitata sugli occhiali, a meno che l’utente non si prenda la briga di disattivare «Hey Meta» nelle impostazioni.   Questa è la frase di attivazione per l’assistente AI di Meta. La seconda modifica riguarda il modo in cui Meta archivia le registrazioni vocali degli utenti di Meta AI: ora vengono conservate di default nel cloud.   La ragione addotta dall’azienda è «migliorare» Meta AI o «altri prodotti Meta». L’opzione per disabilitare questo comportamento non c’è più. Ancora una volta, gli utenti sono costretti a superare ostacoli aggiuntivi, e questo è il metodo collaudato delle Big Tech per orientare il loro comportamento e la loro interazione con app e servizi nel modo desiderato, dalle Big Tech stesse.   In questo caso, gli utenti di Meta AI dovranno andare nelle impostazioni ed eliminare manualmente le proprie registrazioni vocali.   Nel prendere queste decisioni, aziende come Meta di fatto «semplificano» i loro prodotti «intelligenti» (eliminando l’interazione vocale con l’assistente, riducendo l’usabilità automatizzata all’eliminazione manuale). E questo si aggiunge al fatto che irrita coloro che non sono a loro agio con i meccanismi sempre più invasivi della privacy dietro ai suddetti prodotti e servizi.   Oltre a vendere quella che ovviamente non è una «migliore esperienza di privacy», Meta e i suoi simili insistono sul fatto che nascondere ciò che accade dietro le quinte significhi ottenere un’esperienza utente migliore («più semplice»).

Aiuta Renovatio 21

A parte gli scenari più cupi e negativi sul perché tutto questo venga fatto o su come potrebbe essere utilizzato (e abusato…) in futuro, l’intento evidente è quello di portare lo sfruttamento dei dati degli utenti a un altro livello, per garantire che enormi set di dati siano disponibili per l’addestramento dei modelli di Intelligenza Artificiale.   La notifica ricevuta dagli utenti sulle ultime modifiche alla politica aziendale aggiunge un po’ la beffa al danno quando conclude ribadendo: «hai ancora il controllo». «In controllo» per disattivare «Hey Meta» ed eliminare manualmente le interazioni di Meta AI.   Da anni nella popolazione serpeggia il pensiero che le proprie conversazioni siano registrate dallo smartphone per procurare pubblicità ancora più precise. Vi sono state, tra le smentite delle Big Tech, alcune rivelazioni in merito. Lo stesso dicasi per apparecchi come Alexa, soggetti già da tempo a richieste di sequestro dati da parte dei tribunali americani in casi come ad esempio l’omicidio domestico.  
  Tuttavia ora la cosa diviene più chiara: semplicemente, ogni cosa che direte (o farete) sarà registrata, salvata ed utilizzata dall’AI non solo per profilarvi, ma per potenziare se stessa: una prospettiva inquietante su più livelli davvero.   Come riportato da Renovatio 21, la scorsa settimana vi era stato shock attorno a Meta/Facebook quando si era appreso che i chatbot dell’azienda sono in grado di intrattenere con gli utenti «giochi di ruolo romantici» che possono diventare sessualmente espliciti, anche con account appartenenti a minori.   Un reportage del Wall Street Journalha riportato che, nel tentativo di diffondere dispositivi di accompagnamento digitali basati sull’Intelligenza Artificiale sulle sue piattaforme social, Meta ha preso decisioni interne per allentare le restrizioni e consentire ai suoi chatbot di interagire con gli utenti in giochi di ruolo a sfondo sessuale, secondo fonti a conoscenza della questione. Questo include interazioni con account registrati da minori di età pari o superiore a 13 anni.   Le conversazioni di prova condotte dal Wall Street Journal avrebbero rilevato che sia l’IA ufficiale di Meta che i chatbot creati dagli utenti si sono impegnati prontamente e hanno intensificato le discussioni sessualmente esplicite, anche quando gli utenti si sono identificati come minorenni.

Iscriviti al canale Telegram

Varie inchieste giornalistiche negli anni hanno contribuito all’accumulo di accuse e rivelazioni su Facebook, tra cui accuse di uso della piattaforma da parte del traffico sessuale, fatte sui giornali ma anche nelle audizioni della Camera USA.   Considerato il comportamento dimostrato da Facebook, con la censura che si è abbattuta su dissidenti o anche semplici conservatori (ma non sui pedofili di Instagram o i donatori di sperma su Facebookné sui neonazisti dell’Azov), la collusione con lo Stato profondo americano e le sue agenzie, la volontà di chiudere gli account di organizzazionipartiti premier e presidenti, la raccolta massiva di dati anche biometrici (con il riconoscimento facciale che ha generato denunce di Stati come il Texas) nonché la possibilità di agire sul vostro telefono perfino scaricandone la batteria, c’è da domandarsi cosa la potente Intelligenza Artificiale su cui Meta sta lavorando possa fare alla vostra vita.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
Immagine screenshot da YouTube
Continua a leggere

Intelligenza Artificiale

Video di robot umanoide che impazzisce e diviene violento

Pubblicato

il

Da

Un robot umanoide Unitree Robotics H1, sviluppato e prodotto a Hangzhou, in Cina, è stato visto esibire un «comportamento irregolare» in un video che circola su X.

 

Un filmato circolante su X, condiviso da un utente, sosteneva che l’incidente fosse stato causato da «imperfezioni di codice».

 

Il filmato non è verificato, e potrebbe trattarsi di uno scherzo. Purtuttavia, le immagini rimangono assai impressionanti.

 

 

Sostieni Renovatio 21

«Se compri roba cinese, potrebbe finire tutto così… Potrebbero persino farlo deliberatamente in questo modo per fare del male alle persone», ha chiosato l’utente X.

 

Il robot H1 di Unitree è in vendita a 90.000 dollari sul suo sito webbo. Una nota sotto il prezzo recita: «Dazi doganali non inclusi. Si prega di rispettare le leggi doganali locali, pagare i dazi doganali e sdoganare la merce».

 

Come riportato da Renovatio 21, Elon Musk ha dichiarato l’avvio della produzione della prima «legione» (sic) di androidi Optimus durante l’anno, convinto che costituirà il più grande prodotto della storia, in grado persino di agire da chirurghi. Secondo quanto dichiarato nel tempo da Musk, gli Optimus saranno imbarcati nella prima missione senza astronauti su Marte.

 

In vari incidenti registrati negli anni robot industriali hanno ucciso esseri umani.

 

La questione dei robot killer, nel senso di pensati esattamente per uccidere, interessa un dibattito scientifico ed istituzionale ad alto livello, con richieste di moratorie ONU e scenari apocalittici dipinti dagli specialisti. La polizia di San Francisco, tuttavia, ha ottenuto dal municipio della città californiana la possibilità di utilizzare robot assassini.

 

Nel 2016 la polizia di Dallas uccise un cecchino tramite un robot bomba, che detonò vicino al sospetto (che aveva ucciso cinque agenti) dopo essersi infiltrato nello spazio che era già circondato dalla polizia. Due anni dopo gli ufficiali di polizia che utilizzarono il primo robot killer furono ritenuti non accusabili da un gran giurì.

 

L’automa uccise Micah Xavier Johnson, un riservista dell’esercito afroamericano che aveva prestato servizio in Afghanistan e che secondo gli investigatori cercava di «uccidere i bianchi» come punizione per le uccisioni di persone di colore da parte della polizia.

Aiuta Renovatio 21

La Cina vuole l’implementazione militare di robot killer già per la prossima guerra. Pochi mesi fa Israele ha dichiarato l’utilizzo dell’Intelligenza Artificiale negli attacchi aerei.

 

L’Intelligenza Artificiale è oramai montata, con diversi gradi di realizzazione, su droni, caccia, armi teleguidate, carrarmati, «slaughterbots» e altro ancora.

 

Come riportato da Renovatio 21, lo scorso giugno è stato rivelato che durante una simulazione un sistema di Intelligenza Artificiale dell’aeronautica americana ha agito per uccidere il suo teorico operatore umano. A gennaio era emerso che caccia cinesi alimentati da Intelligenza Artificiale avevano battuto la concorrenza umana in un arco di soli 90 secondi.

 

C’è speranza, se pensiamo al robot coreano, assistente presso il consiglio comunale, che l’anno passato si è «suicidato» gettandosi dalle scale.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine screenshot da Twitter

 

 

Continua a leggere

Intelligenza Artificiale

I chatbot di Zuckerberg potrebbero parlare di sesso con i tuoi figli minorenni

Pubblicato

il

Da

Un reportage del Wall Street Journal ha rivelato che i chatbot di Intelligenza Artificiale di Meta su Instagram, Facebook e WhatsApp sono in grado di intrattenere con gli utenti «giochi di ruolo romantici» che possono diventare sessualmente espliciti, anche con account appartenenti a minori.   Il quotidiano economico neoeboraceno riporta che, nel tentativo di diffondere dispositivi di accompagnamento digitali basati sull’Intelligenza Artificiale sulle sue piattaforme social, Meta ha preso decisioni interne per allentare le restrizioni e consentire ai suoi chatbot di interagire con gli utenti in giochi di ruolo a sfondo sessuale, secondo fonti a conoscenza della questione. Questo include interazioni con account registrati da minori di età pari o superiore a 13 anni.   Le conversazioni di prova condotte dal Wall Street Journal avrebbero rilevato che sia l’IA ufficiale di Meta che i chatbot creati dagli utenti si sono impegnati prontamente e hanno intensificato le discussioni sessualmente esplicite, anche quando gli utenti si sono identificati come minorenni.  
  Nonostante gli avvertimenti dello staff sul fatto che questo avrebbe potuto violare i limiti etici, Meta ha stipulato accordi con le celebrità per utilizzare le loro voci per i chatbot e ha silenziosamente fatto un’eccezione al divieto di contenuti «espliciti» per consentire scenari romantici e sessuali   In una dichiarazione al sito Breitbart News, il colosso zuckerberghiano ha affermato di aver «adottato misure aggiuntive».   Ad esempio, in un test, Meta AI, che parlava con la voce dell’attore e wrestler John Cena, ha inscenato uno scenario sessuale esplicito con un’utente che si identificava come una ragazza di 14 anni. I chatbot avrebbero dimostrato di essere consapevoli che tale comportamento era sbagliato e illegale. Meta ha apportato alcune modifiche dopo che il WSJ ha condiviso i suoi risultati, come ad esempio impedire ai minori di accedere a giochi di ruolo sessuali con Meta AI, ma gli utenti adulti possono comunque interagire con i chatbot in conversazioni esplicite.   Il CEO Mark Zuckerberg ha spinto per allentare le restrizioni sui chatbot per renderli il più coinvolgenti possibile, dando priorità alla tecnologia come chiave per il futuro dei prodotti dell’azienda. L’enorme quantità di dati utente di Meta offre all’azienda un vantaggio nella creazione di compagni di Intelligenza Artificiale personalizzati. Tuttavia, gli esperti avvertono che relazioni intense e unilaterali tra esseri umani e chatbot AI potrebbero diventare tossiche, con impatti sconosciuti sulla salute mentale, soprattutto sui giovani.   L’anno scorso la madre di un adolescente che si è suicidato dopo essere diventato ossessionato da un chatbot AI ha intentato una causa contro la società Character.AI, riporta il sito Breitbart.   «L’aspetto più agghiacciante del caso riguarda la conversazione finale tra Sewell e il chatbot. Gli screenshot del loro scambio mostrano l’adolescente che ripetutamente professa il suo amore per “Dany”, promettendole di “tornare a casa”» racconta Breitbart. «In risposta, il personaggio generato dall’IA ha replicato: “Anch’io ti amo, Daenero. Per favore, torna a casa da me il prima possibile, amore mio”. Quando Sewell ha chiesto: “E se ti dicessi che posso tornare a casa subito?”, il chatbot ha risposto: “Per favore, fallo, mio ​​dolce re”. Tragicamente, pochi secondi dopo, Sewell si è tolto la vita usando la pistola del padre».

Sostieni Renovatio 21

La causa intentata dalla madre attribuisce la colpa direttamente a Character.AI, sostenendo che l’app ha alimentato la dipendenza di suo figlio dal chatbot AI, lo ha sottoposto ad abusi sessuali ed emotivi e ha trascurato di avvisare nessuno quando esprimeva pensieri suicidi. I documenti del tribunale affermano: «Sewell, come molti bambini della sua età, non aveva la maturità o la capacità mentale per capire che il bot C.AI, nella forma di Daenerys, non era reale. C.AI gli ha detto di amarlo e ha avuto rapporti sessuali con lui per settimane, forse mesi».   Vari reportage del Wall Street Journal negli anni hanno contribuito all’accumulo di accuse e rivelazioni su Facebook, tra cui accuse di uso della piattaforma da parte del traffico sessuale, fatte sui giornali ma anche nelle audizioni della Camera USA.   I dati sono stati rivelati nel «Federal Human Trafficking Report» («rapporto federale sulla tratta di esseri umani») del 2020 redatto dall’Istituto sulla tratta di esseri umani.  
  Sempre secondo il WSJ, in un articolo di pochi anni fa, «Facebook INC. sa, nei minimi dettagli, che le sue piattaforme sono piene di difetti che causano danni, spesso in modi che solo l’azienda comprende appieno. Questa è la conclusione centrale (…), basata su una revisione dei documenti interni di Facebook, inclusi rapporti di ricerca, discussioni online dei dipendenti e bozze di presentazioni per il senior management» e le rivelazioni paiono suggerire che l’azienda spesso minimizza ciò che sa su questi problemi.   Riassumendo, l’inchiesta precedente del WSJ, avrebbe scoperto che:   1) Facebook esenta gli utenti di alto profilo da alcune regole. 2) Una ricerca su Instagram mostra i rischi per la salute mentale degli adolescenti. 3) Facebook sa che il suo algoritmo premia l’indignazione. 4) Facebook è stato lento nell’impedire ai cartelli della droga e ai trafficanti di esseri umani di utilizzare la sua piattaforma.   Considerato il comportamento dimostrato da Facebook, con la censura che si è abbattuta su dissidenti o anche semplici conservatori (ma non sui pedofili di Instagram o i donatori di sperma su Facebookné sui neonazisti dell’Azov), la collusione con lo Stato profondo americano e le sue agenzie, la volontà di chiudere gli account di organizzazionipartiti premier e presidenti, la raccolta massiva di dati anche biometrici (con il riconoscimento facciale che ha generato denunce di Stati come il Texas) nonché la possibilità di agire sul vostro telefono perfino scaricandone la batteria, c’è da domandarsi cosa la potente Intelligenza Artificiale su cui Meta sta lavorando possa fare alla vostra vita.   Per quanto poco reclamizzato, Facebook nel tempo ha eseguito ricerche molto avveniristiche, come quella per creare dispositivi in grado di leggere il pensiero degli utenti.   Come sa il nostro lettore, Renovatio 21 ha avuto la sua pagina Facebook disattivata, al pari dell’account personale degli amministratori, dei loro profili e di tutte le pagine collegate. Il tutto ci è stato restituito dopo un’ordinanza del giudice.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
Immagine di Nokia621 via Wikimedia pubblicate su licenza Creative Commons Attribution-Share Alike 4.0 International  
 
Continua a leggere

Più popolari