Intelligenza Artificiale
I ricercatori Microsoft affermano che ChatGPT-4 sta mostrando intelligenza di livello umano
Un team di scienziati di Microsoft AI ha pubblicato un documento di ricerca affermando che il modello di linguaggio OpenAI mostra «scintille» di intelligenza di livello umano – cioè di quella intelligenza artificiale generale (AGI).
I ricercatori sono attenti a caratterizzare l’abilità di GPT-4 come «solo un primo passo verso una serie di sistemi sempre più generalmente intelligenti» piuttosto che un’IA a livello umano completa. Hanno anche ripetutamente evidenziato il fatto che questo paper si basa su una «versione precedente» di GPT-4, che hanno studiato mentre era «ancora in fase di sviluppo attivo da parte di OpenAI», e non necessariamente la versione che è stata contratta nella formazione applicabile al prodotto.
Sebbene molti nel settore dell’IA pensino all’AGI come a un sogno irrealizzabile, altri pensano che lo sviluppo dell’AGI costituisca il futuro dell’umanità; il GPT-4 di nuova generazione è l’iterazione più potente del Large Language Model (LLM) costruito da OpenAI fino ad oggi, e nell’elenco teorico dei potenziali contendenti AGI, GPT-4 è nella parte alta della lista, se non la numero uno.
«Sosteniamo», scrivono i ricercatori nel documento, «che (questa prima versione di) GPT-4 fa parte di una nuova coorte di LLM (insieme a ChatGPT e PaLM di Google per esempio) che mostrano un’intelligenza più generale di precedenti modelli di Intelligenza Artificiale».
I ricercatori sostengono che GPT-4 è più forte di altri modelli OpenAI che lo hanno preceduto in modi nuovi e generalizzati. Una cosa è progettare un modello per svolgere bene un esame o un’attività specifica, un’altra è costruire un dispositivo in grado di svolgere molte attività e svolgerle davvero bene, senza alcuna formazione specifica. E quest’ultimo, dicono, è dove GPT-4 può esaltarsi davvero.
«Dimostriamo che, oltre alla sua padronanza del linguaggio, GPT-4 può risolvere compiti nuovi e difficili che abbracciano matematica, programmazione, visione, medicina, legge, psicologia e altro ancora, senza bisogno di alcun suggerimento speciale», si legge nel paper. «Inoltre, in tutte queste attività, le prestazioni di GPT-4 sono sorprendentemente vicine alle prestazioni a livello umano e spesso superano di gran lunga i modelli precedenti come ChatGPT».
«Data l’ampiezza e la profondità delle capacità di GPT-4, riteniamo che possa ragionevolmente essere visto come una versione iniziale (ma ancora incompleta) di un sistema di intelligenza artificiale generale (AGI)».
A prescindere dai vari problemi che questi super programmi possono ancora incontrare, il modello ha alcune abilità straordinarie e notevolmente migliorate rispetto al suo predecessore. Ad esempio, GPT-4 è in grado esami notoriamente difficili come l’LSAT (il test di ammissione per le università di legge USA) e persino il test teorica per divenire Sommelier certificati, senza alcuna formazione specifica su quegli esami.
GPT-3.5, che è uscito alla fine dell’anno scorso, ha ottenuto un punteggio nel 10% inferiore di tutti i partecipanti all’esame di avvocato.
Tuttavia, ci sono ancora alcuni avvertimenti sull’argomento AGI, con i ricercatori che ammettono nel documento che mentre GPT-4 è «al livello umano o oltre per molti compiti», i suoi «modelli di intelligenza complessivi non sono decisamente simili a quelli umani».
Come scrive Futurism, vale anche la pena notare che i ricercatori Microsoft potrebbero avere un interesse acquisito nel promuovere il lavoro di OpenAI, dal momento che Microsoft ha stretto una partnership con OpenAI all’inizio di quest’anno versando alla società circa 10 miliardi di dollari.
Come gli scienziati sostengono, l’AGI non ha ancora una definizione solida e concordata e, a dire il vero, non ce la ha nemmeno il concetto più generale di «intelligenza».
«La nostra affermazione che GPT-4 rappresenta un progresso verso l’AGI non significa che sia perfetto in quello che fa, o che si avvicini alla capacità di fare tutto ciò che un essere umano può fare (che è una delle solite definizioni di AGI), o che abbia motivazione e obiettivi interni (un altro aspetto chiave in alcune definizioni di AGI)», scrive il paper.
«Riteniamo che l’intelligenza di GPT-4», scrivono i ricercatori, «segnali un vero cambio di paradigma nel campo dell’informatica e oltre».
Non si placano tuttavia gli allarmismi riguardo al destino dell’uomo una volta arrivata l’Intelligenza Artificiale senziente. Geoffrey Hinton, un informatico britannico, è dai più conosciuto come il «padrino dell’intelligenza artificiale», ha dichiarato che per ora c’è solo un «moderato» rischio per l’umanità.
In tanti non sono d’accordo. Elon Musk, oramai quasi una decina di anni fa, aveva parlato del fatto che creare l’AI era «come evocare un demone». Il Musk e altri lo scorso mese hanno pubblicato una pubblica richiesta di moratoria per fermare l’Intelligenza Artificiale.
Come riportato da Renovatio 21, Eliezer Yudkowsky, riconosciuto come uno dei più accaniti critici all’Intelligenza Artificiale in circolazione negli ultimi due decenni, ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi.
Eutanasia
L’inventore della capsula suicida dice che l’AI rimpiazzerà i dottori per decidere la morte dei pazienti
L’inventore della controversa capsula per il suicidio assistito Sarco, Philip Nitschke, ha dichiarato che in futuro l’Intelligenza Artificiale potrebbe sostituire gli psichiatri nel valutare se chi richiede il suicidio assistito sia mentalmente capace di prendere tale decisione. Lo riporta Euronews.
Il Sarco (abbreviazione di «sarcofago») è una capsula stampata in 3D progettata per permettere a una persona di entrarvi, sdraiarsi e premere un pulsante: il dispositivo abbassa rapidamente i livelli di ossigeno e riempie l’interno con azoto, provocando la morte per ipossia. È stata anche ribattezzata da qualcuno la «Tesla eutanatica».
Nitschke, attivista australiano per il diritto all’eutanasia e creatore del dispositivo, ha sostenuto che l’iAI sarebbe in grado di stabilire chi possiede la «capacità mentale» per porre fine alla propria vita. Intervistato dalla testata, ha affermato che i medici non dovrebbero «andare in giro a concedere o negare il permesso di morire» e che la scelta dovrebbe spettare esclusivamente a chi è «sano di mente».
Iscriviti al canale Telegram ![]()
Nei Paesi in cui è legale la morte assistita, sono solitamente gli psichiatri a valutare la capacità decisionale del richiedente, anche se la procedura resta limitata e oggetto di forti controversie. Nitschke ha criticato tale sistema definendolo spesso incoerente.
«Ho visto numerosi casi in cui lo stesso paziente, visitato da tre psichiatri diversi, riceveva quattro valutazioni differenti», ha dichiarato.
L’attivista ha proposto un sistema basato su un’intelligenza artificiale che utilizza un avatar conversazionale: l’utente «si siede e parla dei suoi problemi» con l’avatar, il quale poi decide se la persona è mentalmente idonea a procedere. In caso di esito positivo, il pod Sarco verrebbe sbloccato per una finestra di 24 ore; trascorso tale periodo, la valutazione dovrebbe essere ripetuta. Nitschke ha riferito che le prime versioni del software sono già operative, sebbene non siano state sottoposte a validazione indipendente.
Il primo – e finora unico – utilizzo del Sarco in Svizzera, avvenuto nel settembre 2024, provocò un’ondata di indignazione internazionale. Le autorità elvetiche arrestarono diverse persone, tra cui il CEO dell’associazione pro-suicidio assistito The Last Resort, sostenendo che il dispositivo violava la normativa svizzera, che autorizza il suicidio assistito solo a condizioni estremamente rigorose.
Sostieni Renovatio 21
Come riportato da Renovatio 21, inizialmente vietata nella Confederazione, nel 2024 vi erano stati arresti dopo il primo uso della capsula eutanatica in Isvizzera. Due anni fa era emerso che gli americani avrebbero potuto dedurre dalle tasse i Sarco.
La proposta di Nitschke ha riacceso il dibattito sul ruolo dell’IA nelle decisioni di vita e di morte. Lo scorso anno OpenAI ha modificato ChatGPT dopo che un’analisi interna aveva rilevato che oltre un milione di utenti avevano condiviso pensieri suicidi con il chatbot.
Come riportato da Renovatio 21, diversi psichiatri hanno espresso preoccupazione per il rischio che interazioni prolungate con l’IA possano favorire deliri e paranoia, fenomeno talvolta definito «psicosi da IA».
nella prima metà del 2026.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Quando i medici vengono sostituiti da un protocollo
Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Iscriviti al canale Telegram ![]()
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Musk fa causa a OpenAI e Microsoft per 134 miliardi di dollari
Elon Musk ha chiesto un risarcimento danni compreso tra 79 e 134 miliardi di dollari a OpenAI e Microsoft, secondo quanto emerge da un documento depositato venerdì in tribunale dal suo avvocato.
Il miliardario statunitense sostiene che la società dietro ChatGPT abbia ottenuto «guadagni illeciti» grazie al suo sostegno iniziale, e che sia stato truffato dei circa 38 milioni di dollari investiti nel 2015 come capitale di avvio. Secondo il filing, Musk avrebbe diritto a una quota significativa dell’attuale valutazione di OpenAI, stimata intorno ai 500 miliardi di dollari.
Il documento stima che OpenAI abbia generato tra 65,5 e 109,4 miliardi di dollari di profitti indebiti a partire dai contributi di Musk, mentre Microsoft – che dal 2019 investe pesantemente nell’azienda e detiene circa il 27% delle azioni della sua entità for-profit – avrebbe beneficiato di guadagni compresi tra 13,3 e 25,1 miliardi di dollari.
Sostieni Renovatio 21
«Senza Elon Musk, non ci sarebbe OpenAI. Ha fornito la maggior parte dei finanziamenti iniziali, ha prestato la sua reputazione e ha insegnato loro tutto ciò che sa su come far crescere un’azienda», ha dichiarato all’agenzia Reuters l’avvocato principale di Musk, Steven Molo, citando le valutazioni di un testimone esperto, l’economista finanziario C. Paul Wazzan, menzionato nel documento.
OpenAI ha respinto le richieste definendole «infondate» e parte di una campagna di «molestie» da parte di Musk. Microsoft non ha rilasciato commenti specifici sulla questione del risarcimento.
Venerdì i due coimputati hanno presentato un atto separato chiedendo al giudice di escludere l’analisi di Wazzan, descritta come «inventata», «non verificabile» e priva di fondamento.
Musk ha contribuito a fondare OpenAI nel 2015, investendo complessivamente circa 45 milioni di dollari (di cui 38 milioni in donazioni seed), ma ha lasciato il board nel 2018 a causa di divergenze strategiche con il CEO Sam Altman. Da allora è diventato uno dei critici più accesi della commercializzazione di OpenAI e della sua stretta alleanza con Microsoft.
Nel febbraio 2025 Altman aveva offerto di acquistare OpenAI per 97,4 miliardi di dollari per contrastare la transizione verso un modello profit; l’offerta fu respinta, e Altman rispose ironicamente suggerendo a Musk di vendere invece la sua piattaforma X per 9,74 miliardi di dollari.
A ottobre OpenAI ha superato SpaceX diventando l’azienda tecnologica privata più valutata al mondo, raggiungendo i 500 miliardi di dollari dopo una vendita di quote da parte di dipendenti attuali ed ex per circa 6,6 miliardi di dollari a un consorzio di investitori. Il processo è previsto per aprile 2026.
Come riportato da Renovatio 21, una precedente querela di Musk contro OpenAI era stata ritirata due anni fa. L’anno scorso l’imprenditore di origini sudafricane si era offerto di acquistare OpenAI.
Iscriviti alla Newslettera di Renovatio 21
Immagine di pubblico dominio CC0 via Wikimedia
-



Vaccini2 settimane faGemelli di 18 mesi morti dopo la vaccinazione
-



Nucleare2 settimane faSappiamo che l’Europa potrebbe essere presto oggetto di lanci nucleari?
-



Spirito2 settimane faDifendere il patriarcato contro i princìpi infernali della Rivoluzione: omelia di mons. Viganò sulla famiglia come «cosmo divino»
-



Spirito1 settimana faMons. Viganò: «l’Unione Europea va rasa al suolo»
-



Autismo1 settimana faEcco la Barbie autistica: il mondo verso la catastrofe sanitaria (e il Regno Sociale di Satana)
-



Immigrazione1 settimana faEva Vlaardingerbroek bandita dalla Gran Bretagna
-



Spirito6 giorni fa«Sinodalità e vigile attesa»: mons. Viganò sul mito del Concilio Vaticano II «sicuro ed efficace»
-



Vaccini2 settimane faI ricercatori trovano DNA residuo, non rilevato dai test standard, nei vaccini mRNA contro il COVID












