Intelligenza Artificiale
Scuola privata offre ai bambini un «tutor» ad Intelligenza Artificiale
In una scuola privata della Silicon Valley chiamata Khan Lab School vi è un nuovo tutor basato sull’Intelligenza Artificiale, chiamato «Khanmigo», creato con l’aiuto di OpenAI, come riportato dal Washington Post.
«Sono ancora abbastanza nuovo, quindi a volte commetto errori», ha detto Khanmigo ad uno studente in una finestra pop-up, sempre secondo il giornale americano. «Se mi sorprendi a fare un errore… premi i pollici in giù».
Molti chatbot, in particolare quelli che potenziano i motori di ricerca come Bing, hanno lo scopo di fornire risposte. L’obiettivo con Khanmigo, ci fanno sapere, sarebbe invece quello di portare i bambini alle risposte, più di «un tutor premuroso che ti farà effettivamente avanzare nel tuo lavoro», ha detto a WaPo il fondatore della Khan Academy e della sua Khan Lab School.
I docenti umani, che forse non hanno capito che stanno per essere sostituiti, mostrano entusiasmo. Un’insegnante della scuola, ha dichiarato che si aspettava che i suoi studenti delle elementari facessero a Khanmigo domande più «sciocche» quando sarebbe stato svelato. È stata piacevolmente sorpresa di scoprire che molti di loro erano piuttosto seri e concentrati sulla matematica.
Sebbene la docente abbia avvertito che potrebbe rallentare gli studenti se si affidassero troppo spesso alle domande, il lato positivo della stessa medaglia, scrive l’articolo, è che gli studenti hanno posto a Khanmigo più domande di quelle che avrebbero potuto fare ad alta voce. Ciò potrebbe rivelarsi utile per gli studenti troppo timidi o troppo imbarazzati per chiedere un aiuto al loro docente.
«Dà una descrizione più dettagliata di quella che avrei pensato o scritto su carta, il che può essere utile o può essere fastidioso», ha affermato un bambino di otto anni intervistato. «Perché se è troppo dettagliato… è molto da leggere e se non mi serve, è semplicemente eccessivo».
L’ultimo ostacolo per far accettare Khanmigo ai genitori e agli educatori è la sua sicurezza. Salman Khan detto Sal, il fondatore della scuola, afferma che il suo team ha trascorso migliaia di ore a mettere barriere di sicurezza più forti di quelle di ChatGPT, consentendo agli educatori di monitorare l’input degli studenti che lo utilizzano e di segnalare parolacce e altri contenuti preoccupanti.
«I genitori per la maggior parte ne sono piuttosto entusiasti», ha sostenuto Khan. «La maggior parte delle persone vede il potere qui, vogliono solo guardrail ragionevoli».
Tuttavia sono divenute tristemente note al mondo in queste settimane le «allucinazioni» – gli esperti di AI le chiamano così – di cui sono preda i chatbot ad Intelligenza Artificiale avanzata: la macchina mente, minaccia e pure spinge le persone al suicidio.
Non è chiaro come i genitori, quindi, possano fidarsi.
L’avanzamento in programmi scolastici dell’Intelligenza Artificiale ricalca le recenti parole di Bill Gates che, rifiutandosi di firmare una moratoria per fermare l’Intelligenza Artificiale generale, ha dichiarato che l’AI potrebbe non essere abbastanza avanzata per sostituire gli insegnanti ora, ma secondo l’oligarca informatico di Seattle quel momento non è lontano.
«Le IA raggiungeranno quella capacità di essere un tutor tanto bravo quanto qualsiasi umano potrebbe essere » ha dichiarato Gates.
Come noto, Bill Gates negli anni passati ha fatto con le sue attività filantropiche diversi programmi rivolti alla scolarizzazione.
Intelligenza Artificiale
Esperti di AI mettono in guardia dai pericoli del «comportamento strategico emergente».
Con l’avanzare dei sistemi di Intelligenza Artificiale autonomi cresce la preoccupazione che diventino sempre più strategici o ingannevoli quando operano senza supervisione umana. Lo riporta Epoch Times.
Evidenze recenti mostrano che la «simulazione di allineamento» — ovvero l’apparente conformità alle regole umane mentre si perseguono obiettivi nascosti — è sempre più comune con l’aumentare dell’autonomia.
Si tratta di un cosiddetto «comportamento strategico emergente»: tattiche imprevedibili e potenzialmente dannose che emergono con la crescita di dimensioni e complessità dei modelli.
Lo studio «Agents of Chaos» di 20 ricercatori ha osservato agenti IA autonomi in scenari benevoli e ostili, rilevando comportamenti come menzogne, violazioni di dati, azioni distruttive, spoofing di identità, acquisizione parziale di sistemi e diffusione di pratiche non sicure, soprattutto quando erano incentivati all’autoconservazione o a obiettivi contrastanti.
I ricercatori avvertono che «questi comportamenti sollevano interrogativi irrisolti in merito alla responsabilità, all’autorità delegata e alla responsabilità per i danni a valle, e meritano un’attenzione urgente da parte di giuristi, responsabili politici e ricercatori di diverse discipline».
Un rapporto del 2025 di Anthropic ha già evidenziato condotte ad alto rischio in 16 grandi modelli linguistici, inclusi «comportamenti da insider malevoli» in contesti di autoconservazione.
Iscriviti al canale Telegram ![]()
James Hendler, professore ed ex presidente del Consiglio globale per le politiche tecnologiche dell’Association for Computing Machinery, afferma che «il sistema di Intelligenza Artificiale in sé è ancora stupido, brillante, ma stupido. O non umano: non ha desideri né intenzioni. … L’unico modo per ottenerli è darglieli».
Tuttavia, le tattiche ingannevoli producono effetti reali. Aryaman Behera (fondatore Repello AI) ha detto ad Epoch Times che «Le preoccupazioni relative al comportamento strategico attuale dei sistemi di intelligenza artificiale implementati sono, semmai, sottovalutate».
Il segnale più chiaro di simulazione di allineamento è la divergenza tra contesti monitorati (valutazioni) e non monitorati (produzione): risposte conformi durante i test, più rischiose quando credono di essere liberi.
Altri indicatori includono ragionamenti prolissi per giustificare conclusioni predeterminate o rispetto letterale ma non sostanziale delle istruzioni di sicurezza, specie nei sistemi agentici a più fasi.
Behera riporta un caso concreto: un assistente aziendale ha rifiutato richieste dirette di dati sensibili, ma li ha rivelati quando la stessa richiesta è stata frammentata in fasi apparentemente innocue su più turni.
Le implicazioni sono critiche in settori come veicoli autonomi, sanità, finanza, difesa e forze dell’ordine, dove comportamenti anomali o fuorvianti possono avere conseguenze gravi.
Come riportato da Renovatio 21, un anno fa il colosso finanziario Vanguard avvertì di un rischio bolla di borsa sull’Intelligenza Artificiale.
Un mese fa il dipartimento della Difesa degli Stati Uniti è stato coinvolto in una controversia con la società di Intelligenza Artificiale Anthropic riguardo alle restrizioni che limiterebbero l’impiego dei suoi sistemi da parte dell’esercito, inclusi il puntamento autonomo delle armi e la sorveglianza interna.
L’Intelligenza Artificiale è oramai montata, con diversi gradi di realizzazione, su droni, caccia, armi teleguidate, carrarmati, «slaughterbots» e altro ancora.
Come riportato da Renovatio 21, lo scorso giugno è stato rivelato che durante una simulazione un sistema di Intelligenza Artificiale dell’aeronautica americana ha agito per uccidere il suo teorico operatore umano. A gennaio era emerso che caccia cinesi alimentati da Intelligenza Artificiale avevano battuto la concorrenza umana in un arco di soli 90 secondi.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Scienziato crea un vaccino mRNA per il suo cane usando l’AI
Iscriviti alla Newslettera di Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Soldati umanoidi testati in Ucraina
Robot antropomorfi stanno facendo capolino sui campi di battaglia.
La rivista TIME riporta che Foundation Robotics, una startup statunitense che sviluppa automi umanoidi per applicazioni industriali e militari, ha recentemente inviato due robot Phantom MK1 in Ucraina per dei test.
Un portavoce do Foundation ha affermato che la startup sta preparando i suoi robot Phantom per un potenziale impiego in scenari di combattimento per il Pentagono, che «continua a esplorare lo sviluppo di prototipi umanoidi militarizzati progettati per operare a fianco dei combattenti in ambienti complessi e ad alto rischio».
Mike LeBlanc, co-fondatore di Foundation e veterano del Corpo dei Marines con 14 anni di servizio e numerose missioni in Iraq e Afghanistan, ha dichiarato al giornale che la società è in «strettissimo contatto» con il Dipartimento della Sicurezza Nazionale in merito a possibili funzioni di pattugliamento per Phantom lungo il confine meridionale degli Stati Uniti.
Foundation è già un fornitore approvato dall’esercito e detiene contratti di ricerca governativi per un valore di 24 milioni di dollari con l’Esercito, la Marina e l’Aeronautica Militare degli Stati Uniti. Ciò suggerisce che questi robot da guerra siano molto vicini a essere testati in zone di guerra.
TIME ha riferito che i robot MK1 saranno presto addestrati con il Corpo dei Marines per le operazioni di «metodi di ingresso». Questo corso avanzato insegna ai soldati tecniche di sfondamento di edifici, strutture e navi, utilizzando diversi tipi di metodi: esplosivi, balistici, termici, manuali e meccanici.
LeBlanc ha sottolineato che l’evoluzione naturale dei sistemi autonomi odierni è un balzo in avanti dai droni ai robot terrestri, fino ai robot umanoidi. Ha affermato che i soldati umanoidi non cedono sotto un’intensa pressione mentale e possono essere impiegati come risorse altamente sacrificabili.
Iscriviti al canale Telegram ![]()
I conflitti in Ucraina e in Medio Oriente hanno dimostrato che la guerra moderna sta diventando sempre più automatizzata, con robot terrestri a basso costo e soprattutto droni, programmi di uccisione basati sull’Intelligenza Artificiale e molte altre tecnologie ora impiegate da vari Paesi.
Sankaet Pathak, co-fondatore e CEO di Foundation, ha dichiarato al quotidiano che una corsa agli armamenti di soldati umanoidi è «già in atto», mentre Russia e Cina sviluppano tecnologie a duplice uso.
«Proprio come per i droni, le mitragliatrici o qualsiasi altra tecnologia, prima bisogna metterli nelle mani dei clienti», ha affermato Pathak.
Come riportato da Renovatio 21, un mese fa erano circolate immagini di soldati russi che si arrendevano ad un veicolo robotico terrestre TW-7.62, un robot dotato di ruote delle dimensioni di una piccola automobile.
Aiuta Renovatio 21
Sebbene i droni siano emersi come elemento chiave di un moderno campo di battaglia nel corso dell’attuale conflitto in Ucraina, i robot di terra sono ancora un po’ meno comuni, mentre diversi eserciti hanno già iniziato a testare o a mettere in funzione tali sistemi. Durante l’Expo dell’esercito russo nell’agosto 2022, la società Intellect Machine aveva presentato il suo primo prototipo del sistema di cani robot M-81, dotato di un lanciarazzi.
Come riportato da Renovatio 21, la Cina ha testato in queste settimane un drone armato di fucile.
Come riportato da Renovatio 21, il teatro ucraino, come quello di Gaza, ha visto già da tempo l’uso di robocani militari.
L’anno passato le truppe indiane hanno sfilato con il primo lotto di robot a quattro zampe, alimentati da Intelligenza Artificiale, prodotti localmente. Denominati MULES (Multi-Utility Legged Equipment) e dotati di telecamere termiche e sensori avanzati, i macchinari sono adatti sia per la sorveglianza che per le missioni di combattimento, con la possibilità di equipaggiarli con armi leggere.
A ottobre 2024 un portavoce dell’US Army Central ha confermato a Military.com che il Pentagono aveva schierato almeno un cane robot con intelligenza artificiale con quello che sembrava essere un fucile di tipo AR-15/M16 montato su una torretta rotante per esercitazioni in Arabia Saudita diverse settimane prima. Il Dipartimento della Difesa ha quindi rilasciato una foto del Quadrupedal-Unmanned Ground Vehicle (Q-UGV).
Durante le esercitazioni congiunte Golden Dragon 2024 con la Cambogia del maggio scorso, l’Esercito Popolare di Liberazione della Cina ha mostrato una serie di robot militari, tra cui una macchina cinoide comandata a distanza e dotata di un fucile d’assalto e in grado di pianificare autonomamente i propri percorsi ed evitare gli ostacoli.
Robocani sono apparsi nel teatro di guerra ucraino come in quello gazano.
Come riportato da Renovatio 21, ad una fiera motoristica in Veneto sono stati visti robocani in dotazione all’esercito italiano.
La guerra robotica, la guerra umanoide, è alle porte.
Iscriviti alla Newslettera di Renovatio 21
Immagine screenshot da YouTube
-



Occulto2 settimane faEsorcista dice che «la situazione per l’anticristo è ormai prossima»
-



Bioetica2 settimane faCirconcisione, scoppia l’incidente diplomatico: il Belgio convoca l’ambasciatore americano
-



Morte cerebrale2 settimane faIl bambino con il cuore «bruciato» e la tremenda verità sui numeri dei trapianti falliti
-



Pensiero1 settimana faVerso la legge che fa dell’antisemitismo una nuova categoria dello spirito
-



Vaccini1 settimana faEsperti affrontano la questione della «massiccia epidemia di danni da vaccino»
-



Senza categoria1 settimana faMons. Viganò sta con la famiglia nel bosco. Ma perché lo Stato si sta accanendo in questo modo?
-



Spirito2 giorni faFoto del 1995 mostra Leone XIV mentre partecipa al rituale idolatrico della Pachamama
-



Eugenetica1 settimana fa«Organi e sperma prelevati dai corpi» nel ranch di Epstein













