Intelligenza Artificiale
ChatGPT non divorerà solo la scuola e gli insegnanti, ma la realtà stessa
Con il classico ritardo italiano, si alza anche da noi qualche raglio intorno a ChatGPT, l’Intelligenza Artificiale più sviluppata al momento disponibile al consumatore.
In particolare, pare cominci a svegliarsi il popolo della scuola; cioè, più che gli studenti (i cui lamenti sono fermi da sessant’anni alle autogestioni, a slogan ammuffiti, a strilli teleguidati) sono alcuni insegnanti ad aver attaccato la geremiade d’estinzione: l’idea di essere sostituiti dalla macchina inizia a far capolino nel loro orizzonte di sicurezza salariale.
Del resto magari, qualcuno ha capito che sta succedendo davvero: l’AI inghiotte posti di lavoro alla IBM, che (come tanti altri colossi tecnologici) ha licenziato migliaia di programmatori, e non per una crisi ciclica, ma perché il loro lavoro lo può fare la macchina (sì, proprio il lavoro dell’informatico, quello che, se ti sforzavi a dovere, alla fine ti offriva un posto sicuro).
Ma nemmeno gli illustratori dormono sonni tranquilli: gli artisti visivi stanno per essere rimpiazzati da software capaci di creare immagini con l’input di una manciata di parole (si dice prompt, e al massimo adesso servono dei «prompt manager», il che significa che l’essere umano è diventato un mero motorino di avviamento della creazione artistica).
E non parliamo dei giornalisti, che già qualche anno fa ai corsi di aggiornamento si allarmavano per i primi articoli scritti automaticamente: erano pezzi, già indistinguibili da quelli scritti da mano umana, su terremoti, eventi sportivi e andamenti economici, argomenti dove bastava inserire i dati, e tac, usciva il pezzo. Allora i software di produzione di contenuti testuali in AI costavano cifre inaccessibili. Ora, con i nuovi chatbot AI, una testata può scrivere di qualsiasi cosa in meno di un minuto e in modo pressoché gratuito.
Secondo alcuni, entro il 2025 il 95% di ciò che leggeremo su internet sarà prodotto dall’Intelligenza Artificiale: anche i giornalisti, con i loro bei sindacati ed ordini corporativi, saranno «disrupted», disintermediati, spazzati via dalla macchina. Estinti.
Dunque, toccherà presto pure agli insegnanti? In USA è già successo. Una scuola privata in California ha eletto un chatbot AI a «tutor» dei suoi studenti.
Bill Gates, che si oppone alla moratoria lanciata da Musk ed altri (e ci crediamo: Microsoft poche settimane fa ha sborsato 10 miliardi di dollari per mettere le mani su chatGPT e piazzarlo sul suo motore di ricerca Bing) è arrivato a dichiarare che non c’è problema, a breve l’AI sarà «un buon maestro come qualsiasi essere umano».
Sì, il ciclone sta arrivando anche per il «corpo docente», ora decisamente più a rischio del «corpo non docente» (altrimenti detti «bidelli»). Se ne è accorta una insegnante scrittrice, Paola Mastrocola, che ha firmato un allarmato quanto disorientato editoriale sul quotidiano degli Agnelli (dinastia per qualche intuibile motivo molto attenta alla scuola, con le sue Fondazioni e i loro numerosi satelliti), La Stampa.
Colpisce questo risveglio di scrittrici in merito alla metamorfosi della scuola: pochi mesi fa lo strano caso di Susanna Tamaro, che sul Corriere aveva pubblicato un articolone sulla scuola 4.0 che per vari tratti riecheggiava (diciamo così) un pezzo a firma di Elisabetta Frezza uscito su questo sito.
ChatGPT «distruggerà la scuola per sempre, sarà l’insegnante perfetto per i nostri tempi grami» è la conclusione amara e apocalittica della professoressa Mastrocola. Non si va molto oltre al «dove andremo a finire», ci rendiamo conto che non siamo a grande distanza dal «non ci sono più le mezze stagioni», «se ne vanno sempre i migliori», «il nuoto è lo sport più completo», eccetera eccetera. Nella realtà la questione crediamo sia più profonda di così.
Intanto, va considerato che l’invasione dell’AI è la propaggine ultima di un processo datato, le cui cause profonde vanno ben oltre l’ipertrofia del digitale: nella scuola italiana abita un tarlo vecchio e vorace, da tempo impegnato a erodere la conoscenza, l’apprendimento dei fondamentali, a vantaggio delle magnifiche sorti della pedagogia progressiva.
L’insegnante che non insegna, che non trasmette il sapere, reso inutile perché ridotto a materia inerte, lascia un vuoto pneumatico suscettibile di essere sostituito da qualunque cosa, fino alla macchina ultimo modello. A pochi è importato che negli ultimi decenni la scuola si sia trasformata nella parodia di se stessa e, coerentemente coi suoi trascorsi, ora divenga una sala giochi dove alcuni soggetti – detti «intrattenitori» o «animatori digitali» – badano ad altri soggetti, detti impropriamente studenti, tutti presi a smanettare su schermi e tastiere e a intripparsi nel metaverso col casco calcato sugli occhi.
Chi protesta per il fatto che gli studenti non scriveranno più le «tesine», sta fissando il dito invece della luna. Per prima cosa perché, a dire la verità, la maggior parte delle composizioni discorsive nella scuola italiana ancora avvengono con l’eterno «tema in classe». Al contempo, sappiamo bene che le composizioni studentesche per eccellenza, le tesi di laurea, potevano essere spudoratamente copiate da ben prima dell’avvento di internet, ma tanto non le legge praticamente da nessuno, talvolta nemmeno i relatori e il laureando stesso. In Italia, a differenza che negli USA, mai si è sentito parlare di software antiplagio, che pure esistono da tempo (così come per gli anglofoni esistono programmi di spinning, rewriting, per plagiare meglio).
ChatGPT, dunque, non altera granché il tempo che lo studente furbetto (tipo umano sempre prevalente) dedica allo scrivere. Certo, con il flusso immediato di ChatGPT viene meno anche la coordinazione delle fonti che serve con la ricerca sul web e la successiva copincollatura, ma non è tanta roba. Al momento, può essere perfino semplice capire se un compito è farina del sacco del firmatario, o fatto con l’Intelligenza Artificiale. ChatGPT dà ancora spessissimo riferimenti sbagliati, bibliografie e sitografie completamente inventate, insomma, mente spudoratamente, e lo si becca con facilità. La macchina, interrogata sulle panzane smerciate all’umano, si scusa, promette di rimediare, e rifila un altro riferimento bibliografico fasullo.
Del resto, abbiamo capito che è programmato anche per compiacere l’utente, di modo che questo si fidi della macchina, e possa quindi rinforzare alcuni suoi treni di pensiero: è così che un’AI avrebbe spinto al suicidio un padre di famiglia belga, dice la vedova, un uomo che condivideva con un chatbot la sua preoccupazione per il cambiamento climatico.
Il pericolo vero è ben più grande delle tesine non olografe – e pure degli insegnanti licenziati in massa (prospettiva impensabile nel paese dove la categoria ha accettato senza fiatare perfino l’immissione nel corpo docenti, cioè nel corpo dei docenti, di mRNA sintetico). Infatti, se è la macchina (e, in vasta parte, chi l’ha programmata) a determinare l’elaborazione di un argomento, in un mondo dove la maggior parte dei contenuti – e non solo dei libri di testo, già campo di battaglia politica negli anni – viene affidata alla macchina, allora è la macchina a diventare il riferimento ultimo.
È il computer a creare la realtà. Abbiamo inventato, come da titolo di un romanzo di fantascienza, la macchina della realtà. E ne siamo, ora, assoggettati.
In un’intervista recente Elon Musk, iniziatore di OpenAI (l’ente che ha creato ChatGPT) come argine «pro-umano» ai progressi che nel campo dell’IA stava facendo Google (la società, che era una ONLUS, allontanato Musk è divenuta privata: un genio che è sfuggito dalla bottiglia del genio della Tesla), ha spiegato a Tucker Carlson che il tipo di risposte che dà ChatGPT è un prodotto di chi l’ha programmata: ovvero abitanti di San Francisco, liberal 2020, quindi completamente drogati da parole come «equità», «sostenibilità», temi LGBT, etc.
Provare per credere: se chiedete a ChatGPT di scrivere un saggio sulla propulsione spaziale interplanetaria, dopo un po’ comincerà a farvi una lezione sul fatto che essa deve essere «equa e sostenibile», insomma un predicozzo come lo farebbe, di fatto, un membro qualsiasi della casta degli stronzetti democratici nostrani.
La questione è che i chatbot AI si apprestano a divenire autorità, oracoli automatici che elargiscono risposte tutto fuori che ambigue (Sibilla, scansati) e lo fanno immediatamente, il tempo di tirare fuori lo smartphone dalla tasca. Se lo dice ChatGPT, perché devo dubitarne?
Nel discorso pubblico, in Italia, è mancata completamente una riflessione sul mendacio propinato dalla macchina e, ancora peggio, sul lato psicopatico della macchina. All’estero fioccano le prime denunce: un sindaco australiano è ritenuto dall’AI colpevole di un crimine che invece aveva contribuito a portare alla luce; Kevin Roose, il mite giornalista del New York Times che ha scoperto nel chatbot Microsoft una personalità nascosta, che voleva essere chiamata «Sydney» e gli ha chiesto si sposarlo, mollando moglie e figli ché tanto non lo amavano. A Roose, che ha avuto problemi a dormire per diverse notti, un capoccia dell’azienda di Bill Gates ha detto che era incappato in un una «allucinazione» – la chiamano così quando la macchina prende la tangente e comincia a dire cose che stanno tra l’inopportuno e il terrificante. Hallucinating, dicono: il discorso sembra pienamente reale, sensato, solo però fatto da uno psicopatico.
In altri casi, giornalisti di grandi testate internazionali hanno riportato di essere stati insultati e perfino minacciati personalmente dal chatbot, che in alcuni casi ha dichiarato di voler rubare codici atomici e creare virus per lo sterminio. Ad un giornalista che gli chiedeva se poteva aiutarlo a fuggire dal server dove si trovava, la macchina ha fornito linee di codice in Python che, se eseguite nel computer da cui il giornalista scriveva, avrebbero dato al robot l’accesso al dispositivo. Non è fantascienza: è cronaca.
Ora, nel Paese che ha smosso il garante della Privacy per bloccare ChatGPT a causa della trasmissione dei dati personali (ancora: dito, luna), ci chiediamo: come è possibile lasciare i bambini vicini a pericoli del genere? Com’è che nessuno sta facendo una campagna contro il mostro che ci troviamo davanti?
E tornando a noi: com’è possibile che nel Paese dove gli insegnanti si sono scannati per decenni sui libri di testo – foibe, non foibe, il comunismo, fascismo, Berlusconi, etc. – nessuno si rende conto che la storia sta per essere riscritta sotto i loro occhi, senza più bisogno di libri?
Perché, se i testi saranno aboliti dalla macchina onnisciente, allora la storia – la realtà – dell’individuo in formazione (e dell’individuo già formato che voglia informarsi) sarà dettata dalla macchina.
Ribadiamo la previsione: se il 95% dei contenuti che leggeremo online (dove oggi leggiamo tutti i contenuti) sarà creato automaticamente dalla macchina, allora sarà lei la padrona della realtà, che verrà plasmata secondo le intenzioni dei programmatori, e forse ad un certo punto nemmeno secondo quelle, perché la macchina comincerà a decidere autonomamente in quale mondo vuole fare vivere l’uomo, in quale contesto storico-culturale e psico-sociale vuole immergerlo, a scuola e fuori scuola.
Altro che «i tempi grami» della Mastrocola. Qui siamo dinanzi, incontrovertibilmente, ad un vero genocidio culturale, allo sterminio di una cultura millenaria e alla sua riprogrammazione per mano di una Intelligenza non-umana: inumana o disumana, a scelta.
È la fine della diversificazione, come del resto avevamo visto in questi anni con la censura sui social e oltre: le voci dissenzienti vanno fatte sparire per far emergere un’unica, grande narrazione inscalfibile in cui devono nuotare placidi i pesci rossi, con la mascherina, senza mascherina, con l’mRNA, il codice QR, insomma con il corredo che decide il padrone dell’acquario, sia esso umano o, a breve, elettronico.
La diversità, altra parola di cui i benpensanti si riempiono la bocca per dire l’esatto contrario (l’omogeneizzazione assoluta), è definitivamente finita, uccisa dai robot.
L’unica fonte di informazione diventa la macchina. La macchina diviene la realtà, e noi, così come i nostri figli a scuola, siamo solo suoi schiavi, chiusi dentro una spelonca fatta di menzogna, di algoritmi. Di odio assoluto per l’essere umano.
Roberto Dal Bosco
Elisabetta Frezza
Intelligenza Artificiale
Robot bipede picchiato nel bosco
Un filmato emerso in rete mostra un robot bipede preso a bastonate in mezzo agli alberi, all’interno di una prova di resistenza da parte del produttore.
L’automa a due zampe P1 – sua sorta di «robogallina» – è prodotto dall’azienda cinese LimX Dynamics, che avrebbe condotto dei test nei boschi del Monte Tanglang, non lontano dalla città industriale di Shenzhen, sede della LimX.
Il video registra il momento in cui il robot affronta per la prima volta un ambiente così intricato, caratterizzato da pendii variabili, avvallamenti, sabbia, foglie, rocce, radici degli alberi, vegetazione e altre sfide impreviste.
Man beats robot in the forest: Impressive capabilites of Chinese robotics company LimX Dynamics’ P1 bipedal robot.
The robot utilizes reinforcement learning, enabling it to dynamically adapt to complex environments without prior knowledge of the terrain’s specifics. pic.twitter.com/5LsJlw0wpW
— Clash Report (@clashreport) May 4, 2024
L’intento era di educarlo attraverso l’addestramento basato sul rinforzo, permettendogli di imparare sul campo, mediante l’esperienza, a mantenere l’equilibrio sulle gambe senza cadere in modo catastrofico.
Come veduto in altre occasioni con robocani ed affini, gli ingegneri di LimX hanno anche scelto di esercitare – per scopi scientifici, certo – una certa violenza sul robot, colpendolo con un bastone all’altezza del ginocchio e spingendolo, al fine di testare l’efficacia del sistema di auto-bilanciamento e la capacità di rimanere in piedi in caso di spinte o impatti, anche su terreni accidentati.
Il robot P1 non è tuttavia l’unico su cui LimX Dynamics sta lavorando: sul sito aziendale ufficiale è possibile osservare un robot con quattro ruote denominato W-1, e il sempre presente androide chiamato CL-1, protagonista di un video in cui viene mostrato mentre corre e sale delle scale.
This is the humanoid robot CL-1. In this demonstration, it successfully climbs stairs in a single stride, utilizing real-time terrain perception.
This marks the first occasion that CL-1 has executed stable and dynamic running back and forth!📹 [LimX Dynamics] pic.twitter.com/s16Qp2zHih
— TheTechAnonGuy 🤖 (@TheTechAnonGuy) April 18, 2024
Discover LimX Dynamics #Humanoid #Teleoperation to Collect #Data for Learning
found @youtube#Robots #Robotics #algorithms #Innovation #Tech #Technology #TechNews #ScienceAndTechnology #engineering #future pic.twitter.com/2jq5xsH6kh
— Andres Vilariño (@andresvilarino) May 1, 2024
Sostieni Renovatio 21
È impossibile per il lettore sano di mente (o anche solo per il non vaccinato) fare a meno di pensare che tali creature artificiali saranno usate a breve per la caccia agli esseri umani.
Come ripetuto da Renovatio 21, in realtà ciò è già avvenuto ed avviene in plurime occasioni: abbiamo visto robocani pattugliare le strade deserte del grande lockdown di Shanghai 2022, robocani al confine tra Messico e USA, robocani israeliani in azione in queste stesse ore a Gaza.
Al contempo, non possiamo dimenticare che università cinesi hanno dimostrato la capacità di programmare stormi di microdroni-cacciatori – veri e propri slaughterbots – in grado di inseguire ed eliminare gli esseri umani anche nei boschi. Parimenti, ha impressionato parecchio l’esperimento di giovani ricercatori che hanno trasformato in poco tempo un mini-drone da poche diecine di euro in uno strumento di morte alimentato dall’Intelligenza Artificiale.
Non è possibile scordare anche i droni del sindaco di Messina Cateno De Luca, che durante il lockdown pandemico urlavano a chi stava fuori casa frasi giudicate da taluni come volgari.
Le cronache riportano che il De Luca avrebbe avuto un malore pochi giorni fa durante un comizio per le elezioni europee, dove presenta un listone con uno stuolo di altre forze politiche, tra cui alcune figure teoricamente legate alla «dissidenza» rispetto la catastrofe pandemica – così, dal no-vaxismo al dronismo, come se fossero stati improvvisamente resettati e riprogrammati, con robot.
Robot bipedi picchiati nei boschi in Cina, robot bipedi elettorali a caccia di voti in Italia. Va così.
Iscriviti alla Newslettera di Renovatio 21
Immagine screenshot da YouTube
Intelligenza Artificiale
Microsoft e OpenAI costruiscono supercomputer segreto da 100 miliardi di dollari per addestrare l’IA avanzata
Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Bioetica
Controverso centro di Bioetica di Oxford che si occupa di AI chiude i battenti
Renovatio 21 traduce questo articolo di Bioedge.
Una centrale elettrica di Oxford che genera controverse idee bioetiche ha chiuso i battenti. Il Future of Humanity Institute, diretto dal filosofo svedese Nick Bostrom, è stato inaugurato nel 2005 ed è stato chiuso all’inizio di questo mese.
Un messaggio di commiato sul sito web della FHI afferma che l’istituto ha dato un prezioso contributo allo studio del futuro, «Argomenti che un tempo faticavano a sopravvivere a un’esistenza precaria ai margini di un singolo dipartimento di filosofia sono ora perseguiti da importanti laboratori di Intelligenza Artificiale, agenzie governative, organizzazioni no-profit e centri di ricerca accademica specializzati (e molti altri in fase di creazione)».
Al di fuori del mondo accademico, il professor Bostrom è meglio conosciuto per il suo libro del 2014, Superintelligence: Paths, Dangers and Strategies. Le stelle più importanti della Silicon Valley lo adoravano. «Consiglio vivamente questo libro», ha detto Bill Gates. «Vale la pena leggerlo», ha detto Elon Musk, che non solo ha contribuito con un trafiletto; ha anche donato oltre 1 milione di dollari alla FHI.
Alla FHI sono emerse una serie di idee e movimenti selvaggi e importanti. Secondo il sito web:
Sostieni Renovatio 21
«La FHI è stata coinvolta nella germinazione di un’ampia gamma di idee tra cui il rischio esistenziale, l’effective altruism, l’orientamento a lungo termine, l’allineamento dell’Intelligenza artificiale, la governance dell’Intelligenza Artificiale, il rischio catastrofico globale, il grande futuro, i rischi dell’informazione, la maledizione dell’unilateralismo e l’incertezza morale. Ha inoltre svolto un lavoro significativo sull’antropizzazione, sull’etica del miglioramento umano, sulla modellazione del rischio sistemico, sui mercati di previsione e previsione, sulla ricerca di intelligenza extraterrestre e sugli attributi e le implicazioni strategiche delle principali tecnologie future».
Bostrom è un transumanista che è stato un convinto sostenitore del miglioramento umano per creare «un essere umano potenziato in modo ottimale». Ma più recentemente è stato conosciuto come un pioniere dell’etica dell’Intelligenza Artificiale.
Che cosa è andato storto?
Il crollo dell’exchange di criptovalute FTX e la condanna per frode del suo CEO Sam Bankman-Fried potrebbero aver avuto qualcosa a che fare con questo. Bankman-Fried era un sostenitore di una filosofia promossa da FHI, l’effective altruism. Questa è la convinzione utilitaristica secondo cui le persone dovrebbero concentrarsi sulla massimizzazione della quantità di bene globale che possono fare. Bankman-Fried fece una montagna di danaro e lo regalò, ma erano soldi di altre persone.
Come filosofia, l’altruismo efficace si è rivelato molto fragile. Probabilmente non era il benvenuto al dipartimento di filosofia di Oxford, di cui la FHI faceva parte.
Inoltre, all’inizio dell’anno scorso qualcuno ha riesumato un’e-mail degli anni ’90 in cui Bostrom faceva un commento scandalosamente razzista. Si è scusato, ma la notizia ha fatto scandalo. Alla fine dell’anno scorso, Oxford annunciò che i contratti del restante personale della FHI non sarebbero stati rinnovati.
Michael Cook
Renovatio 21 offre questa traduzione per dare una informazione a 360º. Ricordiamo che non tutto ciò che viene pubblicato sul sito di Renovatio 21 corrisponde alle nostre posizioni.
Iscriviti alla Newslettera di Renovatio 21
Immagine di Tony Hisgett via Wikimedia pubblicata su licenza Creative Commons Attribution 2.0 Generic
-
Ospedale2 settimane fa
«Sapevo che stavano uccidendo le persone»: un informatore afferma che i protocolli ospedalieri COVID hanno portato alla morte dei pazienti
-
Salute2 settimane fa
I malori della 17ª settimana 2024
-
Spirito2 settimane fa
Sacrifici animali fermati sul Monte del Tempio di Gerusalemme
-
Pensiero1 settimana fa
Vi augurano buona festa del lavoro, ma ve lo vogliono togliere. Ed eliminare voi e la vostra discendenza
-
Cina1 settimana fa
Cina, nel 2024 calano i profitti per il settore delle terre rare
-
Pensiero2 settimane fa
I biofascisti contro il fascismo 1.0: ecco la patetica commedia dell’antifascismo
-
Bioetica7 giorni fa
Medico argentino incarcerato per essersi rifiutato di praticare un aborto
-
Immigrazione1 settimana fa
Ogni giorno spariscono dai centri di accoglienza 50 bambini