Connettiti con Renovato 21

Intelligenza Artificiale

I ricercatori Microsoft affermano che ChatGPT-4 sta mostrando intelligenza di livello umano

Pubblicato

il

Un team di scienziati di Microsoft AI ha pubblicato un documento di ricerca affermando che il modello di linguaggio OpenAI mostra «scintille» di intelligenza di livello umano – cioè di quella intelligenza artificiale generale (AGI).

 

I ricercatori sono attenti a caratterizzare l’abilità di GPT-4 come «solo un primo passo verso una serie di sistemi sempre più generalmente intelligenti» piuttosto che un’IA a livello umano completa. Hanno anche ripetutamente evidenziato il fatto che questo paper si basa su una «versione precedente» di GPT-4, che hanno studiato mentre era «ancora in fase di sviluppo attivo da parte di OpenAI», e non necessariamente la versione che è stata contratta nella formazione applicabile al prodotto.

 

Sebbene molti nel settore dell’IA pensino all’AGI come a un sogno irrealizzabile, altri pensano che lo sviluppo dell’AGI costituisca il futuro dell’umanità; il GPT-4 di nuova generazione è l’iterazione più potente del Large Language Model (LLM) costruito da OpenAI fino ad oggi, e nell’elenco teorico dei potenziali contendenti AGI, GPT-4 è nella parte alta della lista, se non la numero uno.

 

«Sosteniamo», scrivono i ricercatori nel documento, «che (questa prima versione di) GPT-4 fa parte di una nuova coorte di LLM (insieme a ChatGPT e PaLM di Google per esempio) che mostrano un’intelligenza più generale di precedenti modelli di Intelligenza Artificiale».

 

I ricercatori sostengono che GPT-4 è più forte di altri modelli OpenAI che lo hanno preceduto in modi nuovi e generalizzati. Una cosa è progettare un modello per svolgere bene un esame o un’attività specifica, un’altra è costruire un dispositivo in grado di svolgere molte attività e svolgerle davvero bene, senza alcuna formazione specifica. E quest’ultimo, dicono, è dove GPT-4 può esaltarsi davvero.

 

«Dimostriamo che, oltre alla sua padronanza del linguaggio, GPT-4 può risolvere compiti nuovi e difficili che abbracciano matematica, programmazione, visione, medicina, legge, psicologia e altro ancora, senza bisogno di alcun suggerimento speciale», si legge nel paper. «Inoltre, in tutte queste attività, le prestazioni di GPT-4 sono sorprendentemente vicine alle prestazioni a livello umano e spesso superano di gran lunga i modelli precedenti come ChatGPT».

 

«Data l’ampiezza e la profondità delle capacità di GPT-4, riteniamo che possa ragionevolmente essere visto come una versione iniziale (ma ancora incompleta) di un sistema di intelligenza artificiale generale (AGI)».

 

A prescindere dai vari problemi che questi super programmi possono ancora incontrare, il modello ha alcune abilità straordinarie e notevolmente migliorate rispetto al suo predecessore. Ad esempio, GPT-4 è in grado esami notoriamente difficili come l’LSAT (il test di ammissione per le università di legge USA) e persino il test teorica per divenire Sommelier certificati, senza alcuna formazione specifica su quegli esami.

 

GPT-3.5, che è uscito alla fine dell’anno scorso, ha ottenuto un punteggio nel 10% inferiore di tutti i partecipanti all’esame di avvocato. 

 

Tuttavia, ci sono ancora alcuni avvertimenti sull’argomento AGI, con i ricercatori che ammettono nel documento che mentre GPT-4 è «al livello umano o oltre per molti compiti», i suoi «modelli di intelligenza complessivi non sono decisamente simili a quelli umani». 

 

Come scrive Futurism, vale anche la pena notare che i ricercatori Microsoft potrebbero avere un interesse acquisito nel promuovere il lavoro di OpenAI, dal momento che Microsoft ha stretto una partnership con OpenAI all’inizio di quest’anno versando alla società circa 10 miliardi di dollari.

 

Come gli scienziati sostengono, l’AGI non ha ancora una definizione solida e concordata e, a dire il vero, non ce la ha nemmeno il concetto più generale di «intelligenza».

 

«La nostra affermazione che GPT-4 rappresenta un progresso verso l’AGI non significa che sia perfetto in quello che fa, o che si avvicini alla capacità di fare tutto ciò che un essere umano può fare (che è una delle solite definizioni di AGI), o che abbia motivazione e obiettivi interni (un altro aspetto chiave in alcune definizioni di AGI)», scrive il paper.

 

«Riteniamo che l’intelligenza di GPT-4», scrivono i ricercatori, «segnali un vero cambio di paradigma nel campo dell’informatica e oltre».

 

Non si placano tuttavia gli allarmismi riguardo al destino dell’uomo una volta arrivata l’Intelligenza Artificiale senziente. Geoffrey Hinton, un informatico britannico, è dai più conosciuto come il «padrino dell’intelligenza artificiale», ha dichiarato che per ora c’è solo un «moderato» rischio per l’umanità.

 

In tanti non sono d’accordo. Elon Musk, oramai quasi una decina di anni fa, aveva parlato del fatto che creare l’AI era «come evocare un demone». Il Musk e altri lo scorso mese hanno pubblicato una pubblica richiesta di moratoria per fermare l’Intelligenza Artificiale.

 

Come riportato da Renovatio 21, Eliezer Yudkowsky, riconosciuto come uno dei più accaniti critici all’Intelligenza Artificiale in circolazione negli ultimi due decenni, ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi.

 

 

 

 

Continua a leggere

Intelligenza Artificiale

Robocani anche per la polizia di Los Angeles

Pubblicato

il

Da

Il consiglio comunale di Los Angeles ha autorizzato l’uso di robocani da parte del dipartimento di polizia locale, nonostante le proteste dei residenti e di alcuni membri del consiglio dissenzienti.

 

I legislatori della città hanno votato martedì 8 contro 4 per approvare una donazione di un cosiddetto «veicolo terrestre senza pilota quadrupede» alla polizia di Los Angeles dalla Los Angeles Police Foundation senza scopo di lucro, che ha fornito alle forze dell’ordine il robot gratuitamente. Il robocane, è stato riportato, avrebbe un costo di 277 mila dollari.

 

Il robocane in uso alla polizia losangelina è progettato e prodotto da Boston Dynamics, azienda di ingegneria robotica passata più volte di mano, da Google al fondo giapponese SoftBank ai coreani della Hyundai Motor Company, attuali proprietari. Il progetto BidDog era stato finanziato dalla DARPA, l’enigmatico e ricchissimo reparto ricerca e sviluppo del Pentagono.

 

Il robocane poliziotto californiano è in grado di navigare autonomamente su terreni ed edifici e può essere equipaggiato con un’ampia gamma di apparecchiature di sorveglianza, sensori e altri «carichi utili». Per la polizia, è generalmente destinato all’uso in situazioni pericolose che potrebbero mettere a rischio gli agenti, fungendo da occhi e orecchie in più per il dipartimento.

 

Tuttavia, la nuova aggiunta alla polizia di Los Angeles ha subito aspre critiche da parte dei residenti, con diversi cittadini che hanno criticato la decisione del consiglio durante i commenti pubblici di martedì. Un cittadino ha detto «Non voglio armare l’Intelligenza Artificiale», mentre un altro ha dichiarato che l’uso del robot alla fine avrebbe portato a «poliziotti robot». «Ragazzi, non avete visto quel film I, Robot o Terminator

 

Ancora un altro cittadino ha affermato che il periodo di commento pubblico del consiglio comunale è stato “chiaramente performante”, accusando i legislatori locali di ignorare i desideri dei loro elettori.

 

«Dopo aver ascoltato i travolgenti commenti del pubblico, voti nella direzione opposta, New York City e San Francisco hanno già rifiutato questi cani robot. La polizia di Los Angeles non ha bisogno di armi militari», è stato uno dei commenti. In realtà, dopo tentennamenti, le altre città hanno implementato i «terminator dogs» nei loro programmi di forza dell’ordine.

 

La decisione di New York nel 2020 di impiegare il cane robotico, che il Distretto di polizia cittadino aveva soprannominato «Digidog», si era rivelata altrettanto controversa, tanto che la città aveva interrotto il suo primo contratto per l’affitto del dispositivo dopo che i newyorkesi hanno denunciato la tecnologia come orwelliana.

 

Tuttavia, l’amministrazione della Grande Mela in seguito ha invertito la rotta e rimettendo in pista il robocane poliziotto il mese scorso, con il commissario di polizia Keechant Sewell che ha affermato che sarebbe stato utilizzato in un modo «trasparente, coerente e sempre fatto in stretta collaborazione con le persone che serviamo».

 

 

Come riportato da Renovatio 21, anche la vicina San Francisco ha persino preso in considerazione l’idea di consentire al suo dipartimento di polizia di utilizzare i robot dotati di forza letale in caso di emergenza.

 

Robocani sono utilizzati ai confini con il Messico. Tuttavia vi è polemica: c’è chi ritiene che il loro uso spaventa gli immigrati spingendoli verso sentieri dove poi incontrano la morte.

 

Come visto in immagini scioccanti della scorsa primavera, i robocani abbiano pattugliato le strade di Shanghai durante il colossale lockdown della primavera 2022, dove per sorvegliare e punire i 26 milioni di abitanti usarono, oltre agli androidi quadrupedi, anche droni che volevano tra i palazzi ripetendo frasi come «contieni la sete di libertà del tuo spirito».

 

Al Forum militare di Mosca dell’anno scorso di due mesi fa erano visibili robocani dotati di bazooka. Roboquadrupedi militari sono in produzione ovunque – pure in versione «telepatica».

 

Renovatio 21, oramai ribattezzabile come «L’Eco del robocane» vista la mole di articoli sull’argomento, aveva parlato della militarizzazione dei robocani più di un anno fa. Roboquadrupedi militari sono in produzione ovunque – pure in versione «telepatica».

 

In un ulteriore sviluppo inquietante, un team di ingegneri ha ben pensato di introdurre nella «mente» di un robocane ChatGPT.

 

Come riportato Renovatio 21, robocagnazzi sono stati mandati in giro pure per la campagna umbra.

 

 

 

 

Immagine screenshot da Telegram

 

 

 

Continua a leggere

Intelligenza Artificiale

Card. Eijk: la Chiesa deve dire la sua sull’Intelligenza Artificiale

Pubblicato

il

Da

Lo afferma con forza il cardinale Willem Jacobus Eijk, arcivescovo di Utrecht (Paesi Bassi): la proliferazione di nuovi servizi e offerte di Intelligenza Artificiale (IA) richiede una risposta e una considerazione da parte della Chiesa cattolica.

 

 

L’arcivescovo di Utrecht è medico di formazione ed esperto di sessualità e bioetica. Due sono le urgenze per lui: da una parte che la Chiesa sia presente su «chatbot» come ChatGPT o Google Bard, in modo che le risposte comprendano anche il punto di vista religioso.

 

D’altra parte, è necessario riflettere più ampiamente sull’impatto dell’IA e, in particolare, su come il suo utilizzo, anche nel campo della pastorale e dell’assistenza medica, influisca sul modo in cui le società percepiscono gli esseri umani.

 

Il porporato, noto per aver chiesto un chiarimento magisteriale della Chiesa sul tema dell’ideologia di genere, è convinto che la Chiesa debba decidere, anche attraverso un documento ufficiale, sull’impatto dell’IA sull’essere umano, che chiede un intervento molto ampio riflessione.

 

«È difficile avere una panoramica di tutto ciò che l’IA può fare per noi, perché è ancora un ambito poco conosciuto. Ma le tecnologie IA, come i chatbot, possono anche dire qualcosa sulle questioni religiose».

 

Il fatto è che «la risposta del chatbot è il risultato di un calcolo dell’IA. Ma significa che l’aggiunta di informazioni religiose può influenzare le risposte. Per questo, dobbiamo cercare di essere presenti nel campo dell’IA. Ma l’intelligenza artificiale può fare molto di più del testo. (…) Può rispondere raccogliendo dati e mettendoli in ordine o contesto».

 

Un esempio lampante è quello di «Bing» di Microsoft, che grazie all’IA si è trasformato da motore di ricerca a quello di chatbot. Un tale sistema può simulare conversazioni con santi sulla base di informazioni trasmesse sulla vita e le parole dei santi.

 

 

È necessaria cautela, ma senza aspettare troppo

Il cardinale Eijk ammette che serve una certa prudenza, ma allo stesso tempo: «se aspettiamo troppo, altri avranno introdotto più informazioni che determineranno le risposte. (…) Non conosciamo le conseguenze dell’uso diffuso del software chatbot, ma possiamo già prevedere un certo scenario».

 

«Questi software commettono errori, ma cosa succederà tra 10, 20 o anche 5 anni? Ci saranno altri tipi di IA, computer molto più potenti in grado di dare risposte molto più precise. Possiamo influenzare le risposte ora. (…) È comprensibile avere paura, perché l’IA può avere conseguenze molto negative per la nostra società».

 

La questione, prosegue il porporato, non riguarda solo l’uso dei software per l’interazione, ma la questione della «robotizzazione della nostra società, che potrebbe portare alla perdita di molti posti di lavoro, soprattutto per le persone che non hanno svolto alcuno studio specializzato. (…) Perché il robot è una specie di impiegato che non chiede aumento, che lavora 24 ore su 24 senza stancarsi. Potrebbe cambiare radicalmente la nostra società».

 

 

Transumanesimo

Un pericolo reale è anche il rischio di un nuovo «transumanesimo», in cui gli esseri umani possano essere trattati e percepiti come macchine. Così, il card. Eijk ha ricordato che «abbiamo già case di riposo dove i robot portano il cibo. Ma dare da mangiare ai malati è un momento di contatto umano con il malato che si è perso».

 

Il passaggio dalla semplice distribuzione del cibo alla cura del paziente fa sì che, in alcuni aspetti pratici, il contatto umano diventi sempre più impercettibile.

 

Così, «se un robot toglie un paziente dal letto e lo porta sotto la doccia, c’è il rischio che il contatto umano vada completamente perso. Con il miglioramento del software, nulla ostacola questo passaggio».

 

 

 

 

 

Articolo previamente apparso su FSSPX.news.

 

 

 

Continua a leggere

Intelligenza Artificiale

Musk insiste: l’AI può distruggere l’umanità

Pubblicato

il

Da

Il CEO di Tesla, Elon Musk, ha ancora una volta lanciato l’allarme sui potenziali pericoli dell’intelligenza artificiale (AI), che secondo il geniale magnate di Tesla potrebbe distruggere l’umanità.

 

«C’è una forte probabilità che renderà la vita molto migliore e che avremo un’era di abbondanza», ha detto Musk in un’intervista con il giornalista del canale CNBC David Faber. «E c’è qualche possibilità che vada storto e distrugga l’umanità».

 

«Si spera che questa possibilità sia piccola, ma non è zero. E quindi, penso che vogliamo intraprendere qualsiasi azione ci venga in mente per ridurre al minimo la probabilità che l’IA vada storta» ha dichiarato Elon.

 

Il discorso sul pericolo esistenziale per la civiltà costituito dalle macchine intelligenti viene portato avanti da Musk da anni, ed è stato ripetuto poche settimane fa in un’intervista TV con Tucker Carlson, quando ha raccontato dei retroscena della corsa all’AI nella Silicon Valley, dichiarando che il fine di Google sarebbe quello di creare un «dio AI», senza che ai fondatori interessi il destino degli esseri umani, preoccupazione vista come «specista» da Larry Page, ha rivelato Musk.

 

«Sono la ragione per cui esiste OpenAI», ha detto il miliardario parlando della società che ha creato ChatGPT, rivelando di aver donato circa 50 milioni di dollari al laboratorio di ricerca quando era ancora un’organizzazione senza scopo di lucro. «Ho inventato il nome… OpenAI si riferisce a “open source“» rivela Musk.

 

Musk ha ribadito di aver investito in OpenAI, sperando che rappresenti un’alternativa open source a Google DeepMind. Nel 2019, tuttavia, OpenAI è diventata una società a scopo di lucro con software closed-source in una mossa di cui Musk ha messo in dubbio la legalità. «Diciamo che finanzi un’organizzazione per salvare la foresta pluviale amazzonica, e invece diventa un’azienda di legname, abbatte la foresta e la vende per soldi…. E tu dici, “Beh, aspetta un secondo, è l’esatto opposto di quello per cui ho dato i soldi”. È legale? Non sembra legale».

 

Nonostante i suoi rimpianti per il suo coinvolgimento con OpenAI, Musk ha recentemente fondato la sua società di intelligenza artificiale a scopo di lucro, X.AI Corp., a marzo, secondo documenti commerciali dello Stato americano del Nevada. Il nome dell’azienda rafforza le precedenti affermazioni di Musk secondo cui intende creare una «app per tutto» chiamata X. L’applicazione sarebbe simile a quello che fa in Cina WeChat, un’app che permette di comunicare come un social ma anche di pagare merci e servizi. Secondo alcuni, l’acquisto di Twitter al prezzo mirabolante di 40 miliardi di dollari servirebbe a questo proposito: la base di utenti di Twitter, pur non essendo estesa come quella di Facebook o Whatsapp, è comunque ragguardevole.

 

X.com era il nome della startup di Musk da cui poi, fondendosi con un’altra startup guidata da Peter Thiel, sarebbe divenuta PayPal, che fu poi venduta a eBay facendo totalizzare a Elon le somme con le quali ha iniziato Tesla e SpaceX. In anni recenti è emerso che, per una somma non dichiarata, eBay avrebbe ceduto indietro il dominio internet X.com a Musk, che si dice affezionato per questioni personali. In seguito, anche il primo figlio avuto dalla concubina cantante Claire Boucher detta Grimes avrebbe avuto una X nel nome: l’impronunziabile X Æ A-Xii.

Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone». Con altri grandi nomi lo scorso mese aveva pubblicato una pubblica richiesta di moratoria per fermare l’Intelligenza Artificiale.

 

Un ulteriore appello a mettere in pausa lo sviluppo dell’Intelligenza Artificiale è stato firmato da un gruppo internazionale di medici e pubblicato dalla prestigiosa rivista medica BMJ Global Health. «Ci sono scenari in cui l’AGI [Intelligenza Artificiale Generale, ndr] potrebbe rappresentare una minaccia per gli esseri umani, e possibilmente una minaccia esistenziale» scrivono nell’appello i dottori di varie parti del mondo.

 

L’anno passato il pioniere dell’AI e capo del personale di Open AI Ilya Sutskever aveva affermato che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli». Recentemente un ingegnere di Google, Blake Lemoine, ha dichiarato pubblicamente che il chatbot AI dell’azienda, LaMDA, è «senziente», ossia dotato di una coscienza comparabile a quella degli esseri umani.

 

Come riportato da Renovatio 21, il padrino dell’AI Geoofrey Hinton si è licenziato da Google per poter dichiarare il rischio per l’umanità costituito dall’AI, che per ora, secondo l’informatico britannico sarebbe solo, «moderato».

 

Più pessimista è l’esperto dei pericolo dell’AI Eliezer Yudkowsky, che ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi, dichiarando che «tutti sulla Terra moriranno».

 

 

 

 

 

 

 

 

 

Continua a leggere

Più popolari