Connettiti con Renovato 21

Intelligenza Artificiale

La Chiesa approfondisce la riflessione sull’Intelligenza Artificiale

Pubblicato

il

Tra avvertimenti episcopali e sessioni di sensibilizzazione organizzate dalla Santa Sede, la vigilanza riguardo all’intelligenza artificiale (IA) e ai rischi che comporta è una delle preoccupazioni della Chiesa per l’anno 2024.

 

I desideri dell’arcivescovo delle Fiji erano alquanto inaspettati. Il presule ha invitato il suo gregge a prendere coscienza delle sfide poste dall’intelligenza artificiale. «Se continuiamo a essere utilizzatori passivi dell’Intelligenza Artificiale, rischiamo di perdere questa creatività che Dio ha inscritto in noi, e questo sarebbe un grande danno per l’umanità», avverte mons. Peter Loy Chong, che concretamente consiglia alle famiglie di «stabilire regole in casa» all’alba del 2024.

 

Una richiesta che rilancia l’appello della Santa Sede nel dicembre 2023, a favore di un trattato internazionale che garantisca lo sviluppo e l’utilizzo etico dell’algoritmo. Un appello urgente quando si ricordano gli ultimi sconvolgimenti che hanno scosso il mondo molto chiuso dell’IA.

Sostieni Renovatio 21

Uno dei suoi principali attori, Sam Altman – l’ideatore di ChatGPT, lanciata nel 2023 – è stato confermato al suo posto dopo un braccio di ferro che lo ha contrapposto a chi, tra i suoi soci, voleva regolamentare l’algoritmo secondo criteri etici. Ma è stata la redditività a prevalere…

 

Sulla questione IA la Chiesa intende dare voce agli organismi internazionali, in particolare grazie alla competenza di padre Paolo Benanti, membro francescano della Commissione per l’IA delle Nazioni Unite. Il religioso è professore di bioetica ed etica tecnologica.

 

I criteri per un’IA etica

In un’intervista pubblicata il 3 gennaio 2024 da Vatican Insider – uno dei canali di informazione non ufficiali del Vaticano – Paolo Benanti discute un certo numero di criteri che dovrebbero essere inclusi in un «algoritmo etico». Secondo lui, l’Intelligenza Artificiale deve dare all’uomo la possibilità di definire le sue priorità e non lasciarsi dettare da ciò che resta una macchina: «il progetto umano deve venire prima e non viceversa», spiega il francescano.

 

Ciò implica una vigilanza vigile: «di fronte a una macchina instancabile dalle risorse inesauribili, con una velocità straordinaria, dobbiamo avere una vigilanza del tutto particolare», stima il teologo che si rallegra che la Chiesa abbia affrontato il problema di petto.

 

A differenza dell’essere umano che si struttura fin dai primi anni di esistenza in base alle sue interazioni con l’ambiente circostante, l’algoritmo non è aperto a progressi di questo tipo, perché è stato plasmato ex novo; anche al fine di evitare il pericolo di questo universo chiuso, dovremmo «imprimere tre valori principali nell’IA», sottolinea padre Benanti.

 

«ChatGPT dà sempre una risposta in modalità certa. Attualmente, se ci fosse una “saggezza” dalla cui acquisizione l’uomo trarrebbe vantaggio, non è tanto quella di poter rispondere in ogni momento e a qualunque cosa, ma quella di chiedersi se la sua risposta è, sì o no, valida, certa. Se potessimo dare alla macchina la capacità di mettere in discussione le sue risposte, avremmo fatto un passo avanti verso un maggiore “rispetto” per la natura umana», ritiene il francescano.

Aiuta Renovatio 21

Il secondo valore che l’esperto della Santa Sede vorrebbe vedere inserito in un modo o nell’altro nell’algoritmo è quello della benevolenza: «vale a dire il fatto di non essere determinato esclusivamente da un tipo di eventi – negativi – registrati in una “storia”».

 

Infine, «la dimensione dell’equità è cruciale» e se non integriamo questi dati nell’intelligenza artificiale, quest’ultima «alimenterà la visione di un mondo frammentato in classi sociali» o comunità.

 

Difficile immaginare che il mercato dell’IA presti attenzione ai moniti della Chiesa, visti gli interessi economici e strategici in gioco.

 

«In pratica – conclude padre Benanti – il rischio per l’uomo nel futuro è quello di rivolgere gli occhi verso il Cloud dove è immagazzinata l’Intelligenza Artificiale, piuttosto che verso il Cielo, e rendere l’algoritmo la divinità del domani».

 

Articolo previamente apparso su FSSPX.news.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21



 

Continua a leggere

Intelligenza Artificiale

Scienziati provano a dare un «monologo interiore» all’AI

Pubblicato

il

Da

In un paper non ancora peer-reviewed un gruppo di Stanford chiamato «Nonbad AI», hanno collaborato per creare un modello di Intelligenza Artificiale che si ferma a «pensare» prima di elaborare risposte, mostra il suo lavoro e chiede agli utenti di dirgli quale risposta è più corretta.   Il team dietro il Quiet-Taught Reasoner, o Quiet-STaR in breve, ha voluto che il loro modello non solo fosse in grado di insegnarsi alla, ma anche di farlo «tranquillamente» prima di fornire risposte, operando così come la coscienza interiore di un essere umano che, idealmente, riflette prima di parlare.   «Dal punto di vista esecutivo», come Eric Zelikam di Stanford ha scritto in un thread su Twitter riguardo al modello che ha contribuito a produrre, «ragionare l’auto-insegnante su diversi testi web migliora automaticamente altri ragionamenti!».

Iscriviti al canale Telegram

Per creare questa AI «contemplativa», il team di ricerca ha costruito Quiet-STaR su Mistral 7B, un modello di linguaggio di grandi dimensioni (LLM) open source che si sarebbe formato su sette miliardi di parametri e si dice che sia in grado di sovraperformare l’ultima versione del modello di Llama in forza a Meta (cioè, Facebook), che in questi mesi sta subendo diverse defezioni in campo di esperti di AI.   Quiet-STaR è stato programmato, essenzialmente, per mostrare il suo lavoro dopo che ha ragionato per i suoi output e gli utenti del modello sono stati quindi in grado di selezionare quale risposta era più accurata. Questo approccio, come osserva il documento, ha portato il modello ad essere accurato il 47,2% delle volte, rispetto al 36,3% ottenuto senza l’addestramento di ragionamento aggiuntivo.   Mentre il modello ha ancora percentuali basse sulla matematica, ottenendo solo il 10,9 per cento delle domande giuste, il Quiet-STaR pre-addestrato ha ottenuto solo il 5,9 per cento delle domande giuste, il che significa che ha raddoppiato la sua abilità matematica durante il suo allenamento.   Nessuno di questi risultati è particolarmente sconvolgente, ma risultano interessanti in proiezione futura, perché, ad oggi, chatbot come ChatGPT di OpenAI e Gemini di Google sono stati fallaci nei ragionamenti di buon senso.   Quiet-STaR, i ricercatori propongono nel loro articolo, potrebbero portare a colmare il gap che «chiude il divario tra il modello linguistico e le capacità di ragionamento umano».   Il ragionamento di un AI, si dice, non è in genere replicabile. Qualcuno ha paragonato la richiesta di una spiegazione sulla risposta ad una domanda ad un AI – cioè una serie di linee di codice – ad una radiografia come mezzo di leggere il pensiero di una persona: un’idea assurda e fallace.

Aiuta Renovatio 21

Difficile capire cosa possa aver portato l’IA di Microsoft a credersi, per un periodo, di essere divenuto un «dio» e pretendere l’adorazione da parte degli esseri umani.   L’uso dell’AI tuttavia avanza ovunque nelle società di tutto il mondo.   Come riportato da Renovatio 21, Intelligenza Artificiali sono state candidate in politica in Gran Bretagna e in Giappone. In Cina le AI sono usate per far «riapparire» i defunti e persino per creare androidi che hanno le sembianze di bambini destinati a chi è senza figli.   Nel frattempo, continuano le discussioni sul fatto che l’AI potrebbe portare alla distruzione della civiltà e all’estinzione dell’umanità.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
   
Continua a leggere

Intelligenza Artificiale

ChatGPT legato alla perdita di memoria e alla procrastinazione negli studenti.

Pubblicato

il

Da

Una nuova ricerca ha trovato un collegamento preoccupante alla perdita di memoria negli studenti che si affidavano a ChatGPT.

 

Come dettagliato in un nuovo studio pubblicato sull’International Journal of Educational Technology in Higher Education, i ricercatori hanno intervistato centinaia di studenti universitari, utilizzando valutazioni auto-riferite. Sono stati stimolati assistendo sempre più ai loro studenti a rivolgersi a ChatGPT.

 

«Il mio interesse per questo argomento deriva dalla crescente prevalenza dell’intelligenza artificiale generativa nel mondo accademico e dal suo potenziale impatto sugli studenti», ha detto a il coautore dello studio Muhammad Abhas presso l’Università Nazionale di Informatica e Scienze Emergenti in Pakistan. «Nell’ultimo anno, ho osservato una crescente, acritica, dipendenza dagli strumenti di intelligenza artificiale generativa tra i miei studenti per vari incarichi e progetti che ho assegnato».

 

In una prima fase, i ricercatori hanno raccolto risposte da 165 studenti che hanno utilizzato una scala di otto elementi per riportare il loro grado di dipendenza da ChatGPT. Gli articoli variavano da «Io uso ChatGPT per i miei compiti di corso» a «ChatGPT fa parte della mia vita nel campus».

Iscriviti al canale Telegram

Per convalidare questi risultati, hanno anche condotto una seconda fase più rigorosa, in cui hanno ampliato il loro campione a quasi 500 studenti, che sono stati intervistati tre volte a intervalli di una o due settimane, riporta Futurism.

 

Non sorprende che i ricercatori abbiano scoperto che gli studenti sotto un pesante carico di lavoro accademico e «pressione contro il tempo» erano molto più propensi a utilizzare ChatGPT. Hanno osservato che coloro che si affidavano a ChatGPT hanno riportato più procrastinazione, più perdita di memoria e un calo del GPA. E il motivo per cui è abbastanza semplice: il chatbot, per quanto siano valide o meno le sue risposte, facilita i compiti scolastici.

 

«Dal momento che ChatGPT può rispondere rapidamente a qualsiasi domanda posta da un utente», hanno scritto i ricercatori nello studio, «gli studenti che usano eccessivamente ChatGPT possono ridurre i loro sforzi cognitivi per completare i loro compiti accademici, con conseguente scarsa memoria».

 

«Contraria alle aspettative, gli studenti che erano più sensibili alle ricompense avevano meno probabilità di usare l’Intelligenza Artificiale generativa», ha detto Abbas a PsyPost, suggerendo che coloro che cercano buoni voti evitavano di usare il chatbot per paura di essere scoperti.

 

È possibile che la relazione tra l’uso di ChatGPT e i suoi effetti negativi sia bidirezionale, osserva PsyPost. Uno studente può rivolgersi al chatbot perché ha già voti cattivi, e non il contrario. 

 

Sulla base di questi risultati, dovremmo diffidare sul ruolo di ChatGPT nell’istruzione.

 

«La persona media dovrebbe riconoscere il lato oscuro dell’uso eccessivo dell’IA», ha detto Abbas a Psypost. «Mentre questi strumenti offrono praticità, possono anche portare a conseguenze negative come la procrastinazione, la perdita di memoria e le prestazioni accademiche compromesse».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

Continua a leggere

Intelligenza Artificiale

Lo spaventoso sorriso del robot ricoperto di pelle umana: Terminator stiamo arrivando

Pubblicato

il

Da

Gli scienziati stanno utilizzando la pelle umana viva come materiale da costruzione per creare volti per robot che consentirebbero loro di esprimere emozioni.   Lo dimostrano inquietanti filmati che stanno provocando paura e disgusto in rete.   Un video mostra la pelle applicata a un prototipo di robot che costringe una macchia rosa senza vita dotata di occhi a illuminarsi improvvisamente con un sorriso.  

Iscriviti al canale Telegram

«Il tessuto vivente è un mix coltivato di cellule della pelle umana cresciute in un’impalcatura di collagene e posizionate sopra una base di resina stampata in 3D. A differenza di precedenti esperimenti simili, la pelle contiene anche l’equivalente dei legamenti che, negli esseri umani e in altri animali, sono sepolti nello strato di tessuto sotto la pelle, tenendolo in posizione e conferendogli incredibile forza e flessibilità» scrive NewScientist.com.   Oltre ad avere un aspetto inquietante, i ricercatori di Harvard che stanno sperimentando questa consistenza simile alla pelle affermano che non solo potrebbe essere adattata agli scheletri robotici, ma potrebbe anche rivelarsi utile all’industria cosmetica.   Si tratta della realizzazione di quanto raccontato nel capolavoro distopico Terminator (1984), nella scena, successiva alla strage della discoteca Tech Noir, in cui Kyle Reese, l’uomo venuto dal futuro per salvare Sarah Connor dall’androide assassino, spiega come le macchine si erano evolute utilizzando tessuti umani per camuffarsi meglio e così ingannare gli umani per ucciderli.   «Il Terminator è un’unità di infiltrazione, in parte uomo, in parte macchina. Sotto, è un telaio da combattimento in iperlega, controllato da microprocessore, completamente corazzato. Molto resistente. Ma all’esterno, è tessuto umano vivente: carne, pelle, capelli, sangue, coltivati ​​per i cyborg».  

Aiuta Renovatio 21

«La serie 600 aveva la pelle in gomma. Li individuavamo facilmente, ma questi sono nuovi. Sembrano umani: sudore, alito cattivo, tutto. Molto difficile da individuare».   Stiamo inoltrandoci sempre più nella cosiddetta Uncanny Valley, la «zona del perturbante» descritta dal pioniere giapponese della robotica Masahiro Mori, che pensò, già nel 1970, come gli oggetti umanoidi che assomigliano imperfettamente a veri esseri umani potessero finire per provocare sentimenti di inquietudine o repulsione negli osservatori umani.   L’ipotesi della Uncanny Valley prevede che un oggetto che appare quasi umano rischierà di suscitare sentimenti freddi e inquietanti negli spettatori.   Ora, con la pelle umana, tale senso di straniamento, e di accettazione dell’androide nella propria vita (o nella propria morte…) potrebbe venire a mancare.   La scrittrice Annie Jacobsen nel suo monumentale The Pentagon’s Brain, libro dedicato alla scoperta della storia e dei piani della DARPA (il misterioso reparto ricerca e sviluppo del Pentagono), ha rivelato che gli scienziati militari stanno elaborando sistemi per far accettare ai soldati di combattere a fianco di robot, con discussione sull’uso sui militari dell’ossitocina – considerato come l’ormone dell’amore e del benessere – al fine da fornire loro empatia nei confronti delle macchine.   I robot soldati, saranno dunque coperti di pelle umana, esattamente con i T-800 di Terminator?

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
    Immagine screenshot da YouTube
Continua a leggere

Più popolari