Intelligenza Artificiale
ChatGPT non divorerà solo la scuola e gli insegnanti, ma la realtà stessa

Con il classico ritardo italiano, si alza anche da noi qualche raglio intorno a ChatGPT, l’Intelligenza Artificiale più sviluppata al momento disponibile al consumatore.
In particolare, pare cominci a svegliarsi il popolo della scuola; cioè, più che gli studenti (i cui lamenti sono fermi da sessant’anni alle autogestioni, a slogan ammuffiti, a strilli teleguidati) sono alcuni insegnanti ad aver attaccato la geremiade d’estinzione: l’idea di essere sostituiti dalla macchina inizia a far capolino nel loro orizzonte di sicurezza salariale.
Del resto magari, qualcuno ha capito che sta succedendo davvero: l’AI inghiotte posti di lavoro alla IBM, che (come tanti altri colossi tecnologici) ha licenziato migliaia di programmatori, e non per una crisi ciclica, ma perché il loro lavoro lo può fare la macchina (sì, proprio il lavoro dell’informatico, quello che, se ti sforzavi a dovere, alla fine ti offriva un posto sicuro).
Ma nemmeno gli illustratori dormono sonni tranquilli: gli artisti visivi stanno per essere rimpiazzati da software capaci di creare immagini con l’input di una manciata di parole (si dice prompt, e al massimo adesso servono dei «prompt manager», il che significa che l’essere umano è diventato un mero motorino di avviamento della creazione artistica).
E non parliamo dei giornalisti, che già qualche anno fa ai corsi di aggiornamento si allarmavano per i primi articoli scritti automaticamente: erano pezzi, già indistinguibili da quelli scritti da mano umana, su terremoti, eventi sportivi e andamenti economici, argomenti dove bastava inserire i dati, e tac, usciva il pezzo. Allora i software di produzione di contenuti testuali in AI costavano cifre inaccessibili. Ora, con i nuovi chatbot AI, una testata può scrivere di qualsiasi cosa in meno di un minuto e in modo pressoché gratuito.
Secondo alcuni, entro il 2025 il 95% di ciò che leggeremo su internet sarà prodotto dall’Intelligenza Artificiale: anche i giornalisti, con i loro bei sindacati ed ordini corporativi, saranno «disrupted», disintermediati, spazzati via dalla macchina. Estinti.
Dunque, toccherà presto pure agli insegnanti? In USA è già successo. Una scuola privata in California ha eletto un chatbot AI a «tutor» dei suoi studenti.
Bill Gates, che si oppone alla moratoria lanciata da Musk ed altri (e ci crediamo: Microsoft poche settimane fa ha sborsato 10 miliardi di dollari per mettere le mani su chatGPT e piazzarlo sul suo motore di ricerca Bing) è arrivato a dichiarare che non c’è problema, a breve l’AI sarà «un buon maestro come qualsiasi essere umano».
Sì, il ciclone sta arrivando anche per il «corpo docente», ora decisamente più a rischio del «corpo non docente» (altrimenti detti «bidelli»). Se ne è accorta una insegnante scrittrice, Paola Mastrocola, che ha firmato un allarmato quanto disorientato editoriale sul quotidiano degli Agnelli (dinastia per qualche intuibile motivo molto attenta alla scuola, con le sue Fondazioni e i loro numerosi satelliti), La Stampa.
Colpisce questo risveglio di scrittrici in merito alla metamorfosi della scuola: pochi mesi fa lo strano caso di Susanna Tamaro, che sul Corriere aveva pubblicato un articolone sulla scuola 4.0 che per vari tratti riecheggiava (diciamo così) un pezzo a firma di Elisabetta Frezza uscito su questo sito.
ChatGPT «distruggerà la scuola per sempre, sarà l’insegnante perfetto per i nostri tempi grami» è la conclusione amara e apocalittica della professoressa Mastrocola. Non si va molto oltre al «dove andremo a finire», ci rendiamo conto che non siamo a grande distanza dal «non ci sono più le mezze stagioni», «se ne vanno sempre i migliori», «il nuoto è lo sport più completo», eccetera eccetera. Nella realtà la questione crediamo sia più profonda di così.
Intanto, va considerato che l’invasione dell’AI è la propaggine ultima di un processo datato, le cui cause profonde vanno ben oltre l’ipertrofia del digitale: nella scuola italiana abita un tarlo vecchio e vorace, da tempo impegnato a erodere la conoscenza, l’apprendimento dei fondamentali, a vantaggio delle magnifiche sorti della pedagogia progressiva.
L’insegnante che non insegna, che non trasmette il sapere, reso inutile perché ridotto a materia inerte, lascia un vuoto pneumatico suscettibile di essere sostituito da qualunque cosa, fino alla macchina ultimo modello. A pochi è importato che negli ultimi decenni la scuola si sia trasformata nella parodia di se stessa e, coerentemente coi suoi trascorsi, ora divenga una sala giochi dove alcuni soggetti – detti «intrattenitori» o «animatori digitali» – badano ad altri soggetti, detti impropriamente studenti, tutti presi a smanettare su schermi e tastiere e a intripparsi nel metaverso col casco calcato sugli occhi.
Chi protesta per il fatto che gli studenti non scriveranno più le «tesine», sta fissando il dito invece della luna. Per prima cosa perché, a dire la verità, la maggior parte delle composizioni discorsive nella scuola italiana ancora avvengono con l’eterno «tema in classe». Al contempo, sappiamo bene che le composizioni studentesche per eccellenza, le tesi di laurea, potevano essere spudoratamente copiate da ben prima dell’avvento di internet, ma tanto non le legge praticamente da nessuno, talvolta nemmeno i relatori e il laureando stesso. In Italia, a differenza che negli USA, mai si è sentito parlare di software antiplagio, che pure esistono da tempo (così come per gli anglofoni esistono programmi di spinning, rewriting, per plagiare meglio).
ChatGPT, dunque, non altera granché il tempo che lo studente furbetto (tipo umano sempre prevalente) dedica allo scrivere. Certo, con il flusso immediato di ChatGPT viene meno anche la coordinazione delle fonti che serve con la ricerca sul web e la successiva copincollatura, ma non è tanta roba. Al momento, può essere perfino semplice capire se un compito è farina del sacco del firmatario, o fatto con l’Intelligenza Artificiale. ChatGPT dà ancora spessissimo riferimenti sbagliati, bibliografie e sitografie completamente inventate, insomma, mente spudoratamente, e lo si becca con facilità. La macchina, interrogata sulle panzane smerciate all’umano, si scusa, promette di rimediare, e rifila un altro riferimento bibliografico fasullo.
Del resto, abbiamo capito che è programmato anche per compiacere l’utente, di modo che questo si fidi della macchina, e possa quindi rinforzare alcuni suoi treni di pensiero: è così che un’AI avrebbe spinto al suicidio un padre di famiglia belga, dice la vedova, un uomo che condivideva con un chatbot la sua preoccupazione per il cambiamento climatico.
Il pericolo vero è ben più grande delle tesine non olografe – e pure degli insegnanti licenziati in massa (prospettiva impensabile nel paese dove la categoria ha accettato senza fiatare perfino l’immissione nel corpo docenti, cioè nel corpo dei docenti, di mRNA sintetico). Infatti, se è la macchina (e, in vasta parte, chi l’ha programmata) a determinare l’elaborazione di un argomento, in un mondo dove la maggior parte dei contenuti – e non solo dei libri di testo, già campo di battaglia politica negli anni – viene affidata alla macchina, allora è la macchina a diventare il riferimento ultimo.
È il computer a creare la realtà. Abbiamo inventato, come da titolo di un romanzo di fantascienza, la macchina della realtà. E ne siamo, ora, assoggettati.
In un’intervista recente Elon Musk, iniziatore di OpenAI (l’ente che ha creato ChatGPT) come argine «pro-umano» ai progressi che nel campo dell’IA stava facendo Google (la società, che era una ONLUS, allontanato Musk è divenuta privata: un genio che è sfuggito dalla bottiglia del genio della Tesla), ha spiegato a Tucker Carlson che il tipo di risposte che dà ChatGPT è un prodotto di chi l’ha programmata: ovvero abitanti di San Francisco, liberal 2020, quindi completamente drogati da parole come «equità», «sostenibilità», temi LGBT, etc.
Provare per credere: se chiedete a ChatGPT di scrivere un saggio sulla propulsione spaziale interplanetaria, dopo un po’ comincerà a farvi una lezione sul fatto che essa deve essere «equa e sostenibile», insomma un predicozzo come lo farebbe, di fatto, un membro qualsiasi della casta degli stronzetti democratici nostrani.
La questione è che i chatbot AI si apprestano a divenire autorità, oracoli automatici che elargiscono risposte tutto fuori che ambigue (Sibilla, scansati) e lo fanno immediatamente, il tempo di tirare fuori lo smartphone dalla tasca. Se lo dice ChatGPT, perché devo dubitarne?
Nel discorso pubblico, in Italia, è mancata completamente una riflessione sul mendacio propinato dalla macchina e, ancora peggio, sul lato psicopatico della macchina. All’estero fioccano le prime denunce: un sindaco australiano è ritenuto dall’AI colpevole di un crimine che invece aveva contribuito a portare alla luce; Kevin Roose, il mite giornalista del New York Times che ha scoperto nel chatbot Microsoft una personalità nascosta, che voleva essere chiamata «Sydney» e gli ha chiesto si sposarlo, mollando moglie e figli ché tanto non lo amavano. A Roose, che ha avuto problemi a dormire per diverse notti, un capoccia dell’azienda di Bill Gates ha detto che era incappato in un una «allucinazione» – la chiamano così quando la macchina prende la tangente e comincia a dire cose che stanno tra l’inopportuno e il terrificante. Hallucinating, dicono: il discorso sembra pienamente reale, sensato, solo però fatto da uno psicopatico.
In altri casi, giornalisti di grandi testate internazionali hanno riportato di essere stati insultati e perfino minacciati personalmente dal chatbot, che in alcuni casi ha dichiarato di voler rubare codici atomici e creare virus per lo sterminio. Ad un giornalista che gli chiedeva se poteva aiutarlo a fuggire dal server dove si trovava, la macchina ha fornito linee di codice in Python che, se eseguite nel computer da cui il giornalista scriveva, avrebbero dato al robot l’accesso al dispositivo. Non è fantascienza: è cronaca.
Ora, nel Paese che ha smosso il garante della Privacy per bloccare ChatGPT a causa della trasmissione dei dati personali (ancora: dito, luna), ci chiediamo: come è possibile lasciare i bambini vicini a pericoli del genere? Com’è che nessuno sta facendo una campagna contro il mostro che ci troviamo davanti?
E tornando a noi: com’è possibile che nel Paese dove gli insegnanti si sono scannati per decenni sui libri di testo – foibe, non foibe, il comunismo, fascismo, Berlusconi, etc. – nessuno si rende conto che la storia sta per essere riscritta sotto i loro occhi, senza più bisogno di libri?
Perché, se i testi saranno aboliti dalla macchina onnisciente, allora la storia – la realtà – dell’individuo in formazione (e dell’individuo già formato che voglia informarsi) sarà dettata dalla macchina.
Ribadiamo la previsione: se il 95% dei contenuti che leggeremo online (dove oggi leggiamo tutti i contenuti) sarà creato automaticamente dalla macchina, allora sarà lei la padrona della realtà, che verrà plasmata secondo le intenzioni dei programmatori, e forse ad un certo punto nemmeno secondo quelle, perché la macchina comincerà a decidere autonomamente in quale mondo vuole fare vivere l’uomo, in quale contesto storico-culturale e psico-sociale vuole immergerlo, a scuola e fuori scuola.
Altro che «i tempi grami» della Mastrocola. Qui siamo dinanzi, incontrovertibilmente, ad un vero genocidio culturale, allo sterminio di una cultura millenaria e alla sua riprogrammazione per mano di una Intelligenza non-umana: inumana o disumana, a scelta.
È la fine della diversificazione, come del resto avevamo visto in questi anni con la censura sui social e oltre: le voci dissenzienti vanno fatte sparire per far emergere un’unica, grande narrazione inscalfibile in cui devono nuotare placidi i pesci rossi, con la mascherina, senza mascherina, con l’mRNA, il codice QR, insomma con il corredo che decide il padrone dell’acquario, sia esso umano o, a breve, elettronico.
La diversità, altra parola di cui i benpensanti si riempiono la bocca per dire l’esatto contrario (l’omogeneizzazione assoluta), è definitivamente finita, uccisa dai robot.
L’unica fonte di informazione diventa la macchina. La macchina diviene la realtà, e noi, così come i nostri figli a scuola, siamo solo suoi schiavi, chiusi dentro una spelonca fatta di menzogna, di algoritmi. Di odio assoluto per l’essere umano.
Roberto Dal Bosco
Elisabetta Frezza
Bizzarria
A San Francisco la gente già fa sesso nei robotaxi

I passeggeri dei taxi a guida autonoma paiono perdere più facilmente i freni inibitori.
È quanto riporta il San Francisco Standard, che, raccontando un episodio specifico con tanto di testimonianze di prima mano, sottolinea come la riservatezza derivante dal non avere un conducente sembra abbassare le inibizioni dei passeggeri all’interno dei robotaxi che stanno ora proliferando in tutta la città della Silicon Valley.
«Siamo entrati e ci siamo messi subito al lavoro, pomiciando», ha detto allo Standard Megan, una donna sui vent’anni, che di recente ha usufruito del servizio di mobilità alternativo. Da lì in poi è iniziato a diventare tutto allusivo e più intimo.
«Ero tipo, “non ho biancheria intima e sono pronta per indossare questo kimono”», ha aggiunto. «E stavo usando le sue pantofole che erano cinque taglie più grandi».
Il complice sessale anonimo della ragazza ha ammesso di aver compiuto atti sessuali in un robotaxi almeno sei volte, comprese tre sessioni «complete».
«Voglio dire, non c’è nessuno che ti dica: “non puoi farlo”», ha detto al quotidiano sanfranciscano. «Arriva al punto in cui ti senti sempre più a tuo agio, e se sei con qualcuno, come un partner più serio, può degenerare in altre attività».
Per anni, Cruise di General Motors e Waymo di Google hanno utilizzato robotaxi senza conducente nella città della Bay Area. Le auto hanno talvolta seminato il caos in città, bloccando il traffico in diverse occasioni.
Come riporta Futurism, i robotaxi possono anche essere pericolosi. Le segnalazioni di collisioni e incidenti mancati sono diventate quasi all’ordine del giorno. All’inizio di quest’anno, un veicolo è addirittura finito in una un contesto di incendio con i pompieri lì attivi.
Niente di tutto ciò sembra aver dissuaso i passeggeri dal copulare mentre sono in taxi. Non è chiaro se Megan e il suo accompagnatore riusciranno a farla franca, perché c’è una possibilità che Cruise abbia registrato e archiviato le effusioni sui suoi server, nonostante le possibili leggi sulla privacy.
«Registriamo video all’interno dell’auto per maggiore sicurezza e supporto», si legge sul sito web di Cruise. «Se succedesse qualcosa durante la corsa, potremmo rivedere la registrazione per capire meglio cosa è successo».
«Stiamo lavorando duramente per garantire che il nostro servizio sia sicuro, pulito e aperto a tutti, e che i passeggeri accettino di fare la loro parte quando si iscrivono per utilizzare il nostro servizio», ha dichiarato allo Standard un portavoce di Cruise. «Adotteremo le misure appropriate contro chiunque violi tali linee guida».
«I was just along for the ride, literally» conclude la ragazza. «Ero solo lì per il giro, letteralmente»: il doppio senso non è possibile renderlo in italiano, ma il lettore può capire.
Dalle istigazioni al suicidio ai matrimoni con chatbot, dai consigli pro-anoressia ai plagi, dai licenziamenti di massa alla sostituzione di insegnanti e sacerdoti, dai morti che parlano alle crudeltà verso i bambini, il livello di degrado a cui può portarci l’Intelligenza Artificiale segna ogni giorno un nuovo livello.
Intelligenza Artificiale
Google utilizza una enorme quantità d’acqua per l’Intelligenza Artificiale

Il consumo di acqua del colosso della tecnologia informatica Google sta aumentando rapidamente mentre continua la sua spinta nel mondo dell’intelligenza artificiale ad alta intensità energetica.
Secondo dati ambientali di quest’anno resi pubblici di recente, la multinazionale di Mountain View nel 2022 ha utilizzato l’astronomica cifra di 5,6 miliardi di litri d’acqua.
Si tratta di un aumento del 20% rispetto al suo utilizzo nel 2021, che può probabilmente essere attribuito in gran parte ai crescenti sforzi dell’azienda nel campo dell’Intelligenza Artificiale. Lo sviluppo degli algoritmi IA in enormi data center consuma immense quantità di energia, oltre che enormi quantità di acqua per il raffreddamento.
La maggior parte di quest’acqua non viene nemmeno estratta dai corsi d’acqua: è così pulita da poter essere utilizzata come acqua potabile.
Si tratta di una prospettiva non esattamente allineata con la narrazione dell’emergenza ecologica, soprattutto considerando che la scarsità d’acqua si sta trasformando in un problema non di poco conto, anche sulla costa occidentale degli Stati Uniti dove ha sede il colosso tecnologico.
Sostieni Renovatio 21
La California, che ha subito una devastante crisi idrica negli ultimi anni (qualcuno dice: programmaticamente) ha leggi tremende per quanto riguarda il consumo d’acqua: vengono razionati gli usi della lavatrice, l’irrigazione del giardino e perfino lo scarico del water, significativamente meno potente di quelli europei, con tutti i disdicevoli problemi del caso.
La situazione è diventata così grave che il data center progettato da Google in Arizona è passato alla «tecnologia raffreddata ad aria» a causa della carenza d’acqua nella zona, secondo Insider.
Nel suo rapporto Google afferma che l’82% del suo consumo di acqua dolce lo scorso anno proveniva da regioni a «basso stress idrico».
Tuttavia non è certo solo un problema di Google, perché anche Meta e OpenAI stanno consumando quantità di acqua gigantesche per mantenere in funzione i loro data center.
Gli esperti stimano che l’ultimo modello di intelligenza artificiale di Meta, LLAMA 2, abbia raddoppiato il consumo di acqua dell’azienda rispetto al precedente.
Google almeno pare abbia la decenza di tentare di alleviare, almeno in parte, questo grave problema di consumo e di abuso di acqua. L’aumento del consumo di acqua «è dovuto alla crescita del business e si allinea con altri dati basati sulle attività», ha detto a Gizmodo un portavoce della megaditta californiana. «Stiamo lavorando per affrontare l’impatto del nostro consumo di acqua attraverso il nostro approccio di raffreddamento dei data center attento al clima e la strategia di gestione responsabile dell’acqua, compreso il nostro obiettivo di rifornimento del 120%».
È ben curioso vedere i colossi ultramiliardari fare contorsioni attorno ai loro «principi etici» riguardo l’ambiente. L’acqua ci detto e ripetuto, giustamente, che è un beve primario e prezioso e quindi non va sprecato, ma evidentemente ai titani della Silicon Valley è consentito di farci la lezioncina filantropica (cioè, filantrocapitalistica), mentre poi fanno come meglio ritengono per il loro tornaconto.
Che il bene acqua sia messo in pericolo dagli stessi che predicano il rispetto per l’ambiente lo abbiamo visto anche nel caso del potere dello Stato.
Come riportato da Renovatio 21, a poca distanza da casa nostra, in Germania, a causa delle «politiche green» e di una ideologia ecotalebana, Berlino ha rischiato di avere problemi di approvvigionamento idrico pochi mesi fa.
Immagine di Robbie Shade via Flickr pubblicata su licenza Creative Commons Attribution 2.0 Generic (CC BY 2.0)
Intelligenza Artificiale
Facebook sta sviluppando segretamente una nuova, potente Intelligenza Artificiale?

Sostieni Renovatio 21
-
Essere genitori1 settimana fa
Bambino morto 34 ore dopo i vaccini. Il rapporto: aveva livelli tossici di alluminio nel sangue
-
Linee cellulari1 settimana fa
Vaccini fatti con aborti. Ricordiamolo ancora una volta
-
Spirito2 settimane fa
Bergoglio sta per chiedere le dimissioni del vescovo che si è opposto ai vaccini fatti con gli aborti
-
Spirito2 giorni fa
Squadra giovanile di football si inginocchia e canta l’Ave Maria in gregoriano al termine della partita
-
Pensiero2 settimane fa
L’era dei normaloidi
-
Intelligenza Artificiale2 settimane fa
La Von der Leyen invoca i passaporti vaccinali digitali: green pass e id digitale per tutto il mondo
-
Spirito2 settimane fa
Cardinale Müller: i «falsi profeti» cercheranno di usare il Sinodo per l’Agenda 2030 dell’ONU
-
Contraccezione1 settimana fa
Bergoglio parlerà alla conferenza della Fondazione abortista dei Clinton