Intelligenza Artificiale
Scienziati provano a dare un «monologo interiore» all’AI
In un paper non ancora peer-reviewed un gruppo di Stanford chiamato «Nonbad AI», hanno collaborato per creare un modello di Intelligenza Artificiale che si ferma a «pensare» prima di elaborare risposte, mostra il suo lavoro e chiede agli utenti di dirgli quale risposta è più corretta.
Il team dietro il Quiet-Taught Reasoner, o Quiet-STaR in breve, ha voluto che il loro modello non solo fosse in grado di insegnarsi alla, ma anche di farlo «tranquillamente» prima di fornire risposte, operando così come la coscienza interiore di un essere umano che, idealmente, riflette prima di parlare.
«Dal punto di vista esecutivo», come Eric Zelikam di Stanford ha scritto in un thread su Twitter riguardo al modello che ha contribuito a produrre, «ragionare l’auto-insegnante su diversi testi web migliora automaticamente altri ragionamenti!».
Iscriviti al canale Telegram
Per creare questa AI «contemplativa», il team di ricerca ha costruito Quiet-STaR su Mistral 7B, un modello di linguaggio di grandi dimensioni (LLM) open source che si sarebbe formato su sette miliardi di parametri e si dice che sia in grado di sovraperformare l’ultima versione del modello di Llama in forza a Meta (cioè, Facebook), che in questi mesi sta subendo diverse defezioni in campo di esperti di AI.
Quiet-STaR è stato programmato, essenzialmente, per mostrare il suo lavoro dopo che ha ragionato per i suoi output e gli utenti del modello sono stati quindi in grado di selezionare quale risposta era più accurata. Questo approccio, come osserva il documento, ha portato il modello ad essere accurato il 47,2% delle volte, rispetto al 36,3% ottenuto senza l’addestramento di ragionamento aggiuntivo.
Mentre il modello ha ancora percentuali basse sulla matematica, ottenendo solo il 10,9 per cento delle domande giuste, il Quiet-STaR pre-addestrato ha ottenuto solo il 5,9 per cento delle domande giuste, il che significa che ha raddoppiato la sua abilità matematica durante il suo allenamento.
Nessuno di questi risultati è particolarmente sconvolgente, ma risultano interessanti in proiezione futura, perché, ad oggi, chatbot come ChatGPT di OpenAI e Gemini di Google sono stati fallaci nei ragionamenti di buon senso.
Quiet-STaR, i ricercatori propongono nel loro articolo, potrebbero portare a colmare il gap che «chiude il divario tra il modello linguistico e le capacità di ragionamento umano».
Il ragionamento di un AI, si dice, non è in genere replicabile. Qualcuno ha paragonato la richiesta di una spiegazione sulla risposta ad una domanda ad un AI – cioè una serie di linee di codice – ad una radiografia come mezzo di leggere il pensiero di una persona: un’idea assurda e fallace.
Aiuta Renovatio 21
Difficile capire cosa possa aver portato l’IA di Microsoft a credersi, per un periodo, di essere divenuto un «dio» e pretendere l’adorazione da parte degli esseri umani.
L’uso dell’AI tuttavia avanza ovunque nelle società di tutto il mondo.
Come riportato da Renovatio 21, Intelligenza Artificiali sono state candidate in politica in Gran Bretagna e in Giappone. In Cina le AI sono usate per far «riapparire» i defunti e persino per creare androidi che hanno le sembianze di bambini destinati a chi è senza figli.
Nel frattempo, continuano le discussioni sul fatto che l’AI potrebbe portare alla distruzione della civiltà e all’estinzione dell’umanità.
Iscriviti alla Newslettera di Renovatio 21