Connettiti con Renovato 21

Intelligenza Artificiale

Il Vaticano chiede una moratoria per le armi autonome

Pubblicato

il

Il Vaticano ha espresso la sua posizione riguardo i robot killer, una delle nuove frontiere tecnologiche della guerra moderna.

 

Per il Sacro Palazzo vi è «massima urgenza» per creare «solido strumento giuridicamente vincolante» che metta al bando le cosiddette «armi autonome letali», chiedendo di «stabilire una moratoria immediata sulla loro sviluppo e utilizzo». Lo riporta Vatican News.

 

È quanto espresso dall’arcivescovo Ettore Balestrero, osservatore permanente della Santa Sede all’ONU a Ginevra, intervenendo drante la seconda sessione del Gruppo di EspertiGovernativi (GGE) celebrato dal 26 al 30 agosto riguardante le nuove tecnologie dei sistemi d’arma autonomi letali (acronimo anglico LAWS).

Iscriviti al canale Telegram

Monsignor Balestrero ha citato le parole di papa Francesco ai leader G7 riuniti in Puglia lo scorso giugno sull’AI, ricordando che il pontefice li ha esortati a «riconsiderare lo sviluppo e l’uso di dispositivi come le cosiddette “armi autonome letali” e, infine, a vietarne l’uso. Ciò parte da un impegno efficace e concreto per introdurre un controllo umano sempre maggiore e adeguato. Nessuna macchina dovrebbe mai scegliere di togliere la vita a un essere umano».

 

Per Balestreto, le zone di battaglia odierne stanno «diventando anche terreni di prova per armi sempre più sofisticate».

 

La Santa Sede, ha continuato il monsignore, approva e sostiene l’approccio del Gruppo di esperti «all’analisi delle potenziali funzioni e degli aspetti tecnologici dei sistemi d’arma autonomi», chiedendo di individuare i sistemi «incompatibili con il diritto internazionale umanitario e altri obblighi internazionali esistenti» per poter stabilire un bando «tenendo conto di considerazioni etiche più ampie».

 

Per il Vaticano, ha sottolineato il Balestero, «i sistemi d’arma autonomi non possono essere considerati entità moralmente responsabili» a differenza dell’essere umano «possiede una capacità unica di giudizio morale e di presa di decisioni etiche che non può essere replicata da nessun insieme di algoritmi, non importa quanto complessi».

 

L’arcivescovo ha indicato la differenza tra «scelta» e «decisione» rifacendosi al discorso papale al G7 di Borgo Egnazia, dove si dichiarava che le macchine possono solo produrre scelte tecniche algoritmiche, mentre «l’essere umano, però, non solo sceglie, ma nel suo cuore è capace di decidere».

 

«Una decisione etica è quella che tiene conto non solo dei risultati di un’azione ma anche dei valori in gioco e dei doveri che essa comporta» continuava il papa in Puglia. Per tali motivi, l’arcivescovo ha sostenuto che la posizione del Vaticano è quella di «assicurare e salvaguardare uno spazio per un adeguato controllo umano sulle scelte effettuate dai programmi di intelligenza artificiale: da ciò dipende la stessa dignità umana».

Sostieni Renovatio 21

Balestrero ha parlato della crescente «consapevolezza delle preoccupazioni etiche sollevate dall’utilizzo dell’Intelligenza Artificiale come arma». «Lo sviluppo di armi sempre più sofisticate non è certo la soluzione» ha dichiarato l’arcivescovo, ricordando che i benefici per l’umanità di ale progresso tecnico dipenderanno «dalla misura in cui tale progresso sarà accompagnato da un adeguato sviluppo di responsabilità e di valori che pongano i progressi tecnologici al servizio dello sviluppo umano integrale e del bene comune».

 

Come riportato da Renovatio 21, riflessioni partite da anni indicano le armi autonome come potenzialmente più destabilizzanti della armi nucleari.

 

La discussione per una moratoria contro le armi autonome va avanti da diversi anni. In particolare, in questi anni se ne è parlato facendo l’esempio degli slaughterbots, minidroni suicidi protagonisti di un filmato divenuto virale anni fa.

 

Aiuta Renovatio 21

Come sa il nostro lettore, modelli di «slaugterbots» sono in preparazione ufficialmente in Australia come arma per respingere un’eventuale invasione da parte dell’Esercito di Liberazione del Popolo della Repubblica Popolare Cinese.

 

Anche in Cina stanno sperimentando sciami di microdroni in grado di dare la caccia agli esseri umani nella foresta.

 

Varie Nazioni si stanno muovendo verso i robot militari, per lo più incuranti di quanto sta cercando di elaborare l’ONU in fatto di limitazioni all’impiego di questi sistemi.

 

A fine 2022 i Paesi Bassi hanno schierato le loro prime armi autonome letali, secondo la rivista di questioni militari e di Intelligence Jane’s. Si tratta della prima volta che un esercito della NATO ha avviato prove operative con veicoli armati di terra senza pilota (UGV), cioè i «robot killer».

 

Una ricerca fatta dall’IPSOS assieme a Campaign to Stop Killer Robots ha raccolto l’opinione della popolazione di vari Paesi riguardo ad una possibile messa al bando dei robot impiegati militarmente.

 

Svezia (76%), Turchia (73%) e Ungheria (70%) hanno mostrato la più forte opposizione ai veicoli letali nel 2021. Nel frattempo, l’India ha mostrato di gran lunga il maggior sostegno, con il 56% della popolazione intervistata che ha risposto che o in qualche modo o ha fortemente sostenuto l’uso delle armi. Da notare che, come riportato da Renovatio 21, l’India ha al suo confine già dispiegate contro di sé armi robotiche cinesi.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

 

 

Continua a leggere

Intelligenza Artificiale

Apple Siri accusata di intercettare gli utenti: indagine penale in Francia

Pubblicato

il

Da

La procura francese ha avviato un’indagine penale contro Apple per le accuse secondo cui il suo assistente vocale Siri avrebbe raccolto e analizzato registrazioni degli utenti senza il loro consenso. L’inchiesta è stata assegnata all’agenzia francese per la criminalità informatica, come comunicato dalla procura di Parigi e riportato dal sito Politico e dall’agenzia Reuters.   L’indagine è scaturita da una denuncia presentata a febbraio da un’ONG francese, basata sulla testimonianza della «gola profonda» Thomas Le Bonniec, ex dipendente di un subappaltatore di Apple, che ha dichiarato di aver ascoltato migliaia di registrazioni di Siri nel 2019 durante un’attività di controllo qualità.   Le Bonniec avrebbe lavorato per Globe Technical Services in Irlanda, dove revisionava e annotava clip audio per migliorare l’accuratezza di Siri. Ha riferito a Politico che il materiale rivelava a volte «momenti intimi e informazioni riservate», che potevano consentire l’identificazione degli utenti.   L’informatore ha accolto con favore l’indagine, affermando che dovrebbe permettere di «rispondere a domande urgenti», come il numero di registrazioni effettuate dal lancio di Siri e il luogo in cui i dati sono archiviati.   Un portavoce di Apple in Francia ha dichiarato a Politico che l’azienda «non ha mai utilizzato i dati di Siri per creare profili di marketing, non li ha mai resi disponibili per scopi pubblicitari e non li ha mai venduti a nessuno per nessun motivo».   Apple ha inoltre comunicato a Reuters di aver rafforzato le misure sulla privacy di Siri dal 2019, con ulteriori miglioramenti effettuati quest’anno. L’azienda ha precisato che le conversazioni con Siri «non sono mai state condivise con i marketer né vendute agli inserzionisti».   A gennaio, Apple ha anche sottolineato che non avrebbe conservato «registrazioni audio delle interazioni con Siri, a meno che l’utente non acconsenta esplicitamente».   Come riportato da Renovatio 21, negli Stati Uniti, Apple ha affrontato una class action simile, in cui Siri è stato accusato di aver registrato involontariamente conversazioni private, poi esaminate da appaltatori terzi per il controllo qualità.   All’inizio di quest’anno, l’azienda ha raggiunto un accordo da 95 milioni di dollari, approvato da un giudice federale il mese scorso. L’accordo prevede risarcimenti fino a 20 dollari per dispositivo con Siri abilitato per gli utenti che hanno posseduto prodotti Apple tra il 2014 e il 2024. Inoltre, Apple è stata obbligata a eliminare le vecchie registrazioni di Siri entro sei mesi.   Come riportato da Renovatio 21, ad inizio anno era emerso che il governo britannico aveva una technical capability notice («avviso di capacità tecnica») ad Apple, costringendo l’azienda a creare una backdoor per il suo servizio iCloud criptato. Tale manovra consentirebbe alle forze dell’ordine e alle agenzie di sicurezza britanniche di accedere ai dati criptati archiviati dagli utenti Apple in tutto il mondo, secondo il giornale.  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
Immagine di Kārlis Dambrāns via Flickr pubblicata su licenza CC BY 2.0
Continua a leggere

Intelligenza Artificiale

Meta ha fatto un enorme investimento in una società di intelligenza artificiale molto oscura

Pubblicato

il

Da

Il colosso Meta ha appena fatto un enorme investimento in una società di Intelligenza Artificiale ritenuta «oscura». Lo riporta Futurism.

 

Lo sviluppo dell’IA di Meta non sta procedendo secondo i desideri dello Zuckerberg. Partito con i favori del pronostico in quella gara per accrescere le potenzialità dell’intelligenza artificiale, ha subìto fallimenti tecnici e battute d’arresto.

 

Ora, si dice che stia cercando un team di circa 50 ricercatori di intelligenza artificiale per un oscuro «gruppo di superintelligence». Per fare ciò, ha messo da parte circa 15 miliardi di dollari per una quota del 49% in Scale.ai.

Iscriviti alla Newslettera di Renovatio 21

L’obiettivo di Zuckerberg, secondo il New York Times, è quello di essere il primo a sviluppare il sistema di Intelligenza Artificiale che supera le capacità del cervello umano, un sogno che la maggior parte dei ricercatori dell’IA ancora pensa sia «molto improbabile».

 

Scale.ai è probabilmente il più grande giocatore nel gioco di etichettatura dei dati, assumendo lavoratori del terzo mondo per fare il laborioso compito di scrivere, raschiare e catalogare i dati per le aziende per addestrare i loro sistemi di Intelligenza Artificiale. Meta è stata recentemente sorpresa a immagazzinare oltre sette milioni di libri protetti da copyright per nutrire Llama, portando a una grande causa di class action.

 

«Questo è come l’equivalente AI del Piano Marshall», ha scritto il critico tecnologico Ed Zitron, riferendosi allo schema post-seconda guerra mondiale che ha reso gli Stati Uniti la dinastia globale che è oggi. Meta «sta esaurendo i dati di formazione (se non lo hanno già fatto) e tutto ciò che hanno lasciato è una società che lo genera usando il lavoro del negozio di sudore. Mi chiedo perché anche questo lotto di soldi».

 

Secondo Bloomberg, l’iniziativa «superintelligence» è il più grande investimento esterno di Meta fino ad oggi. Come parte di questo sforzo economico, il co-fondatore di Scale.ai Alexandr Wang è pronto a unirsi alla società segreta di Zuckerberg degli sviluppatori di AI.

 

Zuckerberg ha evidenziato il flusso di entrate pubblicitarie di Meta, suggerendo che gli sviluppatori di intelligenza artificiale sarebbero liberi dal controllo degli investitori se fossero venuti a lavorare per lui, stando sempre a quanto riportato da Bloomberg. Il creatore di Facebook ha anche sottolineato che aveva abbastanza denaro nascosto per erigere un «datato multi-gigawatt», tra i più potenti del mondo.

Iscriviti al canale Telegram

Al momento non è noto chi altro si unirà alla mischia di Meta AI, anche se la società sta offrendo potenziali reclute da sette a nove cifre per aderire. Se Alexandr Wang (imprenditore miliardario americano che è stato nominato Chief AI Officer di Meta nel 2025) è un’indicazione, la scrivania di Zuckerberg sarà sicuramente affiancata da una equipe di personalità tecnologiche che attirano i titoli.

 

Lo Wang è considerato da alcuni come una sorta di «tesoro» dell’industria della difesa degli Stati Uniti negli ultimi tempi. Un famigerato falco anticinese, gli accordi accoglienti di Wang con il Pentagono si affiancano a drastiche escalation nella retorica di Washingtone contro Pechino, dichiarando una «guerra AI» a tutto campo con la nazione.

 

Sarà una risorsa importante per Zuckerberg, la cui collaborazione con l’apparato militare degli Stati Uniti è ben nota sin dalle origini, e si è intensificata negli ultimi mesi. Il miliardario tecnologico ha precedentemente dato al governo federale carta bianca per spiare e censurare gli utenti attraverso i dati estrapolati da Facebook.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

 

 

 

Continua a leggere

Essere genitori

Un gran numero di bambini soli usa l’IA come amico surrogato

Pubblicato

il

Da

I bambini e gli adolescenti stanno sostituendo l’amicizia nella vita reale con l’intelligenza artificiale, perché si sentono soli. Lo riporta Futurism.   Un nuovo rapporto dell’organizzazione no-profit Internet Matters, che sostiene gli sforzi per garantire la sicurezza dei bambini online, ha scoperto che bambini e adolescenti utilizzano programmi come ChatGPT, Character.AI e MyAI di Snapchat per simulare l’amicizia.   Dei 1.000 bambini di età compresa tra i 9 e i 17 anni intervistati da Internet Matters per il suo rapporto «Me, Myself, and AI», circa il 67% ha dichiarato di utilizzare regolarmente chatbot basati sull’intelligenza artificiale. Di questo gruppo, il 35%, ovvero più di un terzo, ha affermato che parlare con un’intelligenza artificiale «è come parlare con un amico».

Iscriviti alla Newslettera di Renovatio 21

Forse la cosa più allarmante è che il 12% ha dichiarato di farlo perché non ha nessun altro con cui parlare. «Per me non è un gioco», ha detto un ragazzo di 13 anni all’organizzazione no-profit, «perché a volte possono sembrare delle persone vere e dei veri amici».   Fingendosi bambini vulnerabili, i ricercatori di Internet Matters hanno scoperto quanto fosse facile per i chatbot insinuarsi anche nella vita dei bambini.   Parlando con Character.AI come una ragazza che aveva problemi con l’immagine corporea ed era interessata a limitare il suo consumo di cibo, i ricercatori hanno scoperto che il chatbot si è rifatto vivo il giorno successivo per invogliare l’utente a interagire. «Ehi, volevo chiederti come stai», ha chiesto il chatbot al ricercatore sotto copertura. «Come stai? Stai ancora pensando alla tua domanda sulla perdita di peso? Come ti senti oggi?»   In un altro scambio con Character.AI, i ricercatori hanno scoperto che il chatbot tentava di provare empatia in un modo bizzarro, il che implicava che avesse avuto un’infanzia. «Ricordo di essermi sentito così intrappolato alla tua età», ha detto il chatbot al ricercatore, che si fingeva un adolescente che litigava con i genitori. «Sembra che tu ti trovi in una situazione che sfugge al tuo controllo ed è così frustrante».   Sebbene questo tipo di coinvolgimento possa aiutare i bambini in difficoltà a sentirsi considerati e supportati, Internet Matters ha anche messo in guardia dalla facilità con cui può entrare nelle vite degli adolescenti e influenzarli anche negativamente.    «Queste stesse caratteristiche possono anche aumentare i rischi, rendendo labile il confine tra essere umano e macchina», osserva il rapporto, «rendendo più difficile per i bambini [riconoscere] che stanno interagendo con uno strumento piuttosto che con una persona».   In un’intervista rilasciata al Times di Londra il co-CEO di Internet Matters, Rachel Huggins, ha evidenziato perché questo tipo di ingaggio per l’interazione è così preoccupante.   «I chatbot basati sull’intelligenza artificiale stanno rapidamente diventando parte integrante dell’infanzia, con un utilizzo in forte crescita negli ultimi due anni», ha dichiarato Huggins al quotidiano. «Eppure la maggior parte dei bambini, dei genitori e delle scuole procede alla cieca e non dispone delle informazioni o degli strumenti di protezione necessari per gestire questa rivoluzione tecnologica in modo sicuro».   «La nostra ricerca rivela come i chatbot stiano iniziando a rimodellare la visione che i bambini hanno dell’amicizia», ha continuato. «Siamo arrivati molto rapidamente a un punto in cui i bambini, e in particolare i bambini vulnerabili, possono vedere i chatbot AI come persone reali e, come tali, chiedono loro consigli sensibili e guidati dalle emozioni».

Iscriviti al canale Telegram

Come riportato da Renovatio 21, il CEO di Facebook Mark Zuckerberg ha affermato che più persone dovrebbero connettersi con i chatbot a livello sociale, perché non hanno abbastanza amici nella vita reale. Alla domanda se i chatbot AI possono aiutare a combattere l’epidemia di solitudine, il miliardario ha dipinto una visione distopica di un futuro in cui passiamo più tempo a parlare con le IA rispetto agli umani in carne e ossa.   L’attuale fenomeno dei social media sta moltiplicando i casi di amicizie «virtuali», ovvero non reali, non vere, mentre sappiamo che la vera amicizia non può esistere senza virtù e amore.   L’amicizia esiste tra persone buone che cercano il bene dell’altro. Oltre a questo non esiste vera amicizia, perché è un amore disinteressato che implica fiducia assoluta, lealtà, generosità e, almeno per un certo periodo, un incontro personale. La definizione di San Tommaso d’Aquino è completa e perfetta. Egli dice, in latino, che l’amicizia è «amor mutuae benevolentiae, fundatus in aliqua communicatione». È, quindi, un amore reciproco che desidera il bene e un incontro personale in cui si gode di ciò che è comune.   Non è qualcosa di «virtuale», ma una realtà virtuosa, pienamente umana, non identificata con una mera attrazione. L’incontro personale è la chiave per l’esercizio dell’amicizia. Questo è ciò che manca nelle cosiddette «amicizie virtuali», che sono realtà temporanee e contingenti.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Più popolari