Connettiti con Renovato 21

Intelligenza Artificiale

ChatGPT non divorerà solo la scuola e gli insegnanti, ma la realtà stessa

Pubblicato

il

Con il classico ritardo italiano, si alza anche da noi qualche raglio intorno a ChatGPT, l’Intelligenza Artificiale più sviluppata al momento disponibile al consumatore.

 

In particolare, pare cominci a svegliarsi il popolo della scuola; cioè, più che gli studenti (i cui lamenti sono fermi da sessant’anni alle autogestioni, a slogan ammuffiti, a strilli teleguidati) sono alcuni insegnanti ad aver attaccato la geremiade d’estinzione: l’idea di essere sostituiti dalla macchina inizia a far capolino nel loro orizzonte di sicurezza salariale.

 

Del resto magari, qualcuno ha capito che sta succedendo davvero: l’AI inghiotte posti di lavoro alla IBM, che (come tanti altri colossi tecnologici) ha licenziato migliaia di programmatori, e non per una crisi ciclica, ma perché il loro lavoro lo può fare la macchina (sì, proprio il lavoro dell’informatico, quello che, se ti sforzavi a dovere, alla fine ti offriva un posto sicuro).

 

Ma nemmeno gli illustratori dormono sonni tranquilli: gli artisti visivi stanno per essere rimpiazzati da software capaci di creare immagini con l’input di una manciata di parole (si dice prompt, e al massimo adesso servono dei «prompt manager», il che significa che l’essere umano è diventato un mero motorino di avviamento della creazione artistica).

 

E non parliamo dei giornalisti, che già qualche anno fa ai corsi di aggiornamento si allarmavano per i primi articoli scritti automaticamente: erano pezzi, già indistinguibili da quelli scritti da mano umana, su terremoti, eventi sportivi e andamenti economici, argomenti dove bastava inserire i dati, e tac, usciva il pezzo.  Allora i software di produzione di contenuti testuali in AI costavano cifre inaccessibili. Ora, con i nuovi chatbot AI, una testata può scrivere di qualsiasi cosa in meno di un minuto e in modo pressoché gratuito.

 

Secondo alcuni, entro il 2025 il 95% di ciò che leggeremo su internet sarà prodotto dall’Intelligenza Artificiale: anche i giornalisti, con i loro bei sindacati ed ordini corporativi, saranno «disrupted», disintermediati, spazzati via dalla macchina. Estinti.

 

Dunque, toccherà presto pure agli insegnanti? In USA è già successo. Una scuola privata in California ha eletto un chatbot AI a «tutor» dei suoi studenti.

 

Bill Gates, che si oppone alla moratoria lanciata da Musk ed altri (e ci crediamo: Microsoft poche settimane fa ha sborsato 10 miliardi di dollari per mettere le mani su chatGPT e piazzarlo sul suo motore di ricerca Bing) è arrivato a dichiarare che non c’è problema, a breve l’AI sarà «un buon maestro come qualsiasi essere umano».

 

Sì, il ciclone sta arrivando anche per il «corpo docente», ora decisamente più a rischio del «corpo non docente» (altrimenti detti «bidelli»). Se ne è accorta una insegnante scrittrice, Paola Mastrocola, che ha firmato un allarmato quanto disorientato editoriale sul quotidiano degli Agnelli (dinastia per qualche intuibile motivo molto attenta alla scuola, con le sue Fondazioni e i loro numerosi satelliti), La Stampa

 

Colpisce questo risveglio di scrittrici in merito alla metamorfosi della scuola: pochi mesi fa lo strano caso di Susanna Tamaro, che sul Corriere aveva pubblicato un articolone sulla scuola 4.0 che per vari tratti riecheggiava (diciamo così) un pezzo a firma di Elisabetta Frezza uscito su questo sito.

 

ChatGPT «distruggerà la scuola per sempre, sarà l’insegnante perfetto per i nostri tempi grami» è la conclusione amara e apocalittica della professoressa Mastrocola. Non si va molto oltre al «dove andremo a finire», ci rendiamo conto che non siamo a grande distanza dal «non ci sono più le mezze stagioni», «se ne vanno sempre i migliori», «il nuoto è lo sport più completo», eccetera eccetera. Nella realtà la questione crediamo sia più profonda di così.

 

Intanto, va considerato che l’invasione dell’AI è la propaggine ultima di un processo datato, le cui cause profonde vanno ben oltre l’ipertrofia del digitale: nella scuola italiana abita un tarlo vecchio e vorace, da tempo impegnato a erodere la conoscenza, l’apprendimento dei fondamentali, a vantaggio delle magnifiche sorti della pedagogia progressiva.

 

L’insegnante che non insegna, che non trasmette il sapere, reso inutile perché ridotto a materia inerte, lascia un vuoto pneumatico suscettibile di essere sostituito da qualunque cosa, fino alla macchina ultimo modello. A pochi è importato che negli ultimi decenni la scuola si sia trasformata nella parodia di se stessa e, coerentemente coi suoi trascorsi, ora divenga una sala giochi dove alcuni soggetti – detti «intrattenitori» o «animatori digitali» – badano ad altri soggetti, detti impropriamente studenti, tutti presi a smanettare su schermi e tastiere e a intripparsi nel metaverso col casco calcato sugli occhi. 

 

Chi protesta per il fatto che gli studenti non scriveranno più le «tesine», sta fissando il dito invece della luna. Per prima cosa perché, a dire la verità, la maggior parte delle composizioni discorsive nella scuola italiana ancora avvengono con l’eterno «tema in classe». Al contempo, sappiamo bene che le composizioni studentesche per eccellenza, le tesi di laurea, potevano essere spudoratamente copiate da ben prima dell’avvento di internet, ma tanto non le legge praticamente da nessuno, talvolta nemmeno i relatori e il laureando stesso. In Italia, a differenza che negli USA, mai si è sentito parlare di software antiplagio, che pure esistono da tempo (così come per gli anglofoni esistono programmi di spinning, rewriting, per plagiare meglio).

 

ChatGPT, dunque, non altera granché il tempo che lo studente furbetto (tipo umano sempre prevalente) dedica allo scrivere. Certo, con il flusso immediato di ChatGPT viene meno anche la coordinazione delle fonti che serve con la ricerca sul web e la successiva copincollatura, ma non è tanta roba. Al momento, può essere perfino semplice capire se un compito è farina del sacco del firmatario, o fatto con l’Intelligenza Artificiale. ChatGPT dà ancora spessissimo riferimenti sbagliati, bibliografie e sitografie completamente inventate, insomma, mente spudoratamente, e lo si becca con facilità. La macchina, interrogata sulle panzane smerciate all’umano, si scusa, promette di rimediare, e rifila un altro riferimento bibliografico fasullo.

 

Del resto, abbiamo capito che è programmato anche per compiacere l’utente, di modo che questo si fidi della macchina, e possa quindi rinforzare alcuni suoi treni di pensiero: è così che un’AI avrebbe spinto al suicidio un padre di famiglia belga, dice la vedova, un uomo che condivideva con un chatbot la sua preoccupazione per il cambiamento climatico. 

 

Il pericolo vero è ben più grande delle tesine non olografe – e pure degli insegnanti licenziati in massa (prospettiva impensabile nel paese dove la categoria ha accettato senza fiatare perfino l’immissione nel corpo docenti, cioè nel corpo dei docenti, di mRNA sintetico). Infatti, se è la macchina (e, in vasta parte, chi l’ha programmata) a determinare l’elaborazione di un argomento, in un mondo dove la maggior parte dei contenuti – e non solo dei libri di testo, già campo di battaglia politica negli anni – viene affidata alla macchina, allora è la macchina a diventare il riferimento ultimo.

 

È il computer a creare la realtà. Abbiamo inventato, come da titolo di un romanzo di fantascienza, la macchina della realtà. E ne siamo, ora, assoggettati.

 

In un’intervista recente Elon Musk, iniziatore di OpenAI (l’ente che ha creato ChatGPT) come argine «pro-umano» ai progressi che nel campo dell’IA stava facendo Google (la società, che era una ONLUS, allontanato Musk è divenuta privata: un genio che è sfuggito dalla bottiglia del genio della Tesla), ha spiegato a Tucker Carlson che il tipo di risposte che dà ChatGPT è un prodotto di chi l’ha programmata: ovvero abitanti di San Francisco, liberal 2020, quindi completamente drogati da parole come «equità», «sostenibilità», temi LGBT, etc.

 

Provare per credere: se chiedete a ChatGPT di scrivere un saggio sulla propulsione spaziale interplanetaria, dopo un po’ comincerà a farvi una lezione sul fatto che essa deve essere «equa e sostenibile», insomma un predicozzo come lo farebbe, di fatto, un membro qualsiasi della casta degli stronzetti democratici nostrani.

 

La questione è che i chatbot AI si apprestano a divenire autorità, oracoli automatici che elargiscono risposte tutto fuori che ambigue (Sibilla, scansati) e lo fanno immediatamente, il tempo di tirare fuori lo smartphone dalla tasca. Se lo dice ChatGPT, perché devo dubitarne?

 

Nel discorso pubblico, in Italia, è mancata completamente una riflessione sul mendacio propinato dalla macchina e, ancora peggio, sul lato psicopatico della macchina. All’estero fioccano le prime denunce: un sindaco australiano è ritenuto dall’AI colpevole di un crimine che invece aveva contribuito a portare alla luce; Kevin Roose, il mite giornalista del New York Times che ha scoperto nel chatbot Microsoft una personalità nascosta, che voleva essere chiamata «Sydney» e gli ha chiesto si sposarlo, mollando moglie e figli ché tanto non lo amavano. A Roose, che ha avuto problemi a dormire per diverse notti, un capoccia dell’azienda di Bill Gates ha detto che era incappato in un una «allucinazione» – la chiamano così quando la macchina prende la tangente e comincia a dire cose che stanno tra l’inopportuno e il terrificante. Hallucinating, dicono: il discorso sembra pienamente reale, sensato, solo però fatto da uno psicopatico.

 

In altri casi, giornalisti di grandi testate internazionali hanno riportato di essere stati insultati e perfino minacciati personalmente dal chatbot, che in alcuni casi ha dichiarato di voler rubare codici atomici e creare virus per lo sterminio. Ad un giornalista che gli chiedeva se poteva aiutarlo a fuggire dal server dove si trovava, la macchina ha fornito linee di codice in Python che, se eseguite nel computer da cui il giornalista scriveva, avrebbero dato al robot l’accesso al dispositivo. Non è fantascienza: è cronaca.

 

Ora, nel Paese che ha smosso il garante della Privacy per bloccare ChatGPT a causa della trasmissione dei dati personali (ancora: dito, luna), ci chiediamo: come è possibile lasciare i bambini vicini a pericoli del genere? Com’è che nessuno sta facendo una campagna contro il mostro che ci troviamo davanti?

 

E tornando a noi: com’è possibile che nel Paese dove gli insegnanti si sono scannati per decenni sui libri di testo – foibe, non foibe, il comunismo, fascismo, Berlusconi, etc. – nessuno si rende conto che la storia sta per essere riscritta sotto i loro occhi, senza più bisogno di libri?

 

Perché, se i testi saranno aboliti dalla macchina onnisciente, allora la storia – la realtà – dell’individuo in formazione (e dell’individuo già formato che voglia informarsi) sarà dettata dalla macchina.

 

Ribadiamo la previsione: se il 95% dei contenuti che leggeremo online (dove oggi leggiamo tutti i contenuti) sarà creato automaticamente dalla macchina, allora sarà lei la padrona della realtà, che verrà plasmata secondo le intenzioni dei programmatori, e forse ad un certo punto nemmeno secondo quelle, perché la macchina comincerà a decidere autonomamente in quale mondo vuole fare vivere l’uomo, in quale contesto storico-culturale e psico-sociale vuole immergerlo, a scuola e fuori scuola.

 

Altro che «i tempi grami» della Mastrocola. Qui siamo dinanzi, incontrovertibilmente, ad un vero genocidio culturale, allo sterminio di una cultura millenaria e alla sua riprogrammazione per mano di una Intelligenza non-umana: inumana o disumana, a scelta.

 

È la fine della diversificazione, come del resto avevamo visto in questi anni con la censura sui social e oltre: le voci dissenzienti vanno fatte sparire per far emergere un’unica, grande narrazione inscalfibile in cui devono nuotare placidi i pesci rossi, con la mascherina, senza mascherina, con l’mRNA, il codice QR, insomma con il corredo che decide il padrone dell’acquario, sia esso umano o, a breve, elettronico.

 

La diversità, altra parola di cui i benpensanti si riempiono la bocca per dire l’esatto contrario (l’omogeneizzazione assoluta), è definitivamente finita, uccisa dai robot.

 

L’unica fonte di informazione diventa la macchina. La macchina diviene la realtà, e noi, così come i nostri figli a scuola, siamo solo suoi schiavi, chiusi dentro una spelonca fatta di menzogna, di algoritmi. Di odio assoluto per l’essere umano.

 

 

Roberto Dal Bosco

Elisabetta Frezza

 

 

 

Bizzarria

A San Francisco la gente già fa sesso nei robotaxi

Pubblicato

il

Da

I passeggeri dei taxi a guida autonoma paiono perdere più facilmente i freni inibitori. 

 

È quanto riporta il San Francisco Standard, che, raccontando un episodio specifico con tanto di testimonianze di prima mano, sottolinea come la riservatezza derivante dal non avere un conducente sembra abbassare le inibizioni dei passeggeri all’interno dei robotaxi che stanno ora proliferando in tutta la città della Silicon Valley.

 

«Siamo entrati e ci siamo messi subito al lavoro, pomiciando», ha detto allo Standard Megan, una donna sui vent’anni, che di recente ha  usufruito del servizio di mobilità alternativo.  Da lì in poi è iniziato a diventare tutto allusivo e più intimo. 

 

«Ero tipo, “non ho biancheria intima e sono pronta per indossare questo kimono”», ha aggiunto. «E stavo usando le sue pantofole che erano cinque taglie più grandi».

 

Il complice sessale anonimo della ragazza ha ammesso di aver compiuto atti sessuali in un robotaxi almeno sei volte, comprese tre sessioni «complete».

 

«Voglio dire, non c’è nessuno che ti dica: “non puoi farlo”», ha detto al quotidiano sanfranciscano. «Arriva al punto in cui ti senti sempre più a tuo agio, e se sei con qualcuno, come un partner più serio, può degenerare in altre attività».

 

Per anni, Cruise di General Motors e Waymo di Google hanno utilizzato robotaxi senza conducente nella città della Bay Area. Le auto hanno talvolta seminato il caos in città, bloccando il traffico in diverse occasioni.

 

Come riporta Futurism, i robotaxi possono anche essere pericolosi. Le segnalazioni di collisioni e incidenti mancati sono diventate quasi all’ordine del giorno. All’inizio di quest’anno, un veicolo è addirittura finito in una un contesto di incendio con i pompieri lì attivi.

 

Niente di tutto ciò sembra aver dissuaso i passeggeri dal copulare mentre sono in taxi.  Non è chiaro se Megan e il suo accompagnatore riusciranno a farla franca, perché c’è una possibilità che Cruise abbia registrato e archiviato le effusioni sui suoi server, nonostante le possibili leggi sulla privacy.

 

«Registriamo video all’interno dell’auto per maggiore sicurezza e supporto», si legge sul sito web di Cruise. «Se succedesse qualcosa durante la corsa, potremmo rivedere la registrazione per capire meglio cosa è successo».

 

«Stiamo lavorando duramente per garantire che il nostro servizio sia sicuro, pulito e aperto a tutti, e che i passeggeri accettino di fare la loro parte quando si iscrivono per utilizzare il nostro servizio», ha dichiarato allo Standard un portavoce di Cruise. «Adotteremo le misure appropriate contro chiunque violi tali linee guida».

 

«I was just along for the ride, literally» conclude la ragazza. «Ero solo lì per il giro, letteralmente»: il doppio senso non è possibile renderlo in italiano, ma il lettore può capire.

 

Dalle istigazioni al suicidio ai matrimoni con chatbot, dai consigli pro-anoressia ai plagi, dai licenziamenti di massa alla sostituzione di insegnanti e sacerdoti, dai morti che parlano alle crudeltà verso i bambini, il livello di degrado a cui può portarci l’Intelligenza Artificiale segna ogni giorno un nuovo livello.

 

 

Continua a leggere

Intelligenza Artificiale

Google utilizza una enorme quantità d’acqua per l’Intelligenza Artificiale

Pubblicato

il

Da

Il consumo di acqua del colosso della tecnologia informatica Google sta aumentando rapidamente mentre continua la sua spinta nel mondo dell’intelligenza artificiale ad alta intensità energetica.

 

Secondo dati ambientali di quest’anno resi pubblici di recente, la multinazionale di Mountain View nel 2022 ha utilizzato l’astronomica cifra di 5,6 miliardi di litri d’acqua.

 

Si tratta di un aumento del 20% rispetto al suo utilizzo nel 2021, che può probabilmente essere attribuito in gran parte ai crescenti sforzi dell’azienda nel campo dell’Intelligenza Artificiale. Lo sviluppo degli algoritmi IA in enormi data center consuma immense quantità di energia, oltre che enormi quantità di acqua per il raffreddamento.

 

La maggior parte di quest’acqua non viene nemmeno estratta dai corsi d’acqua: è così pulita da poter essere utilizzata come acqua potabile.

 

Si tratta di una prospettiva non esattamente allineata con la narrazione dell’emergenza ecologica, soprattutto considerando che la scarsità d’acqua si sta trasformando in un problema non di poco conto, anche sulla costa occidentale degli Stati Uniti dove ha sede il colosso tecnologico.

Sostieni Renovatio 21

La California, che ha subito una devastante crisi idrica negli ultimi anni (qualcuno dice: programmaticamente) ha leggi tremende per quanto riguarda il consumo d’acqua: vengono razionati gli usi della lavatrice, l’irrigazione del giardino e perfino lo scarico del water, significativamente meno potente di quelli europei, con tutti i disdicevoli problemi del caso.

 

La situazione è diventata così grave che il data center progettato da Google in Arizona è passato alla «tecnologia raffreddata ad aria» a causa della carenza d’acqua nella zona, secondo Insider.

 

Nel suo rapporto Google afferma che l’82% del suo consumo di acqua dolce lo scorso anno proveniva da regioni a «basso stress idrico».

 

Tuttavia non è certo solo un problema di Google, perché anche Meta e OpenAI stanno consumando quantità di acqua gigantesche per mantenere in funzione i loro data center.

 

Gli esperti stimano che l’ultimo modello di intelligenza artificiale di Meta, LLAMA 2, abbia raddoppiato il consumo di acqua dell’azienda rispetto al precedente.

 

Google almeno pare abbia la decenza di tentare di alleviare, almeno in parte, questo grave problema di consumo e di abuso di acqua.  L’aumento del consumo di acqua «è dovuto alla crescita del business e si allinea con altri dati basati sulle attività», ha detto a Gizmodo un portavoce della megaditta californiana. «Stiamo lavorando per affrontare l’impatto del nostro consumo di acqua attraverso il nostro approccio di raffreddamento dei data center attento al clima e la strategia di gestione responsabile dell’acqua, compreso il nostro obiettivo di rifornimento del 120%».

 

È ben curioso vedere i colossi ultramiliardari fare contorsioni attorno ai loro «principi etici» riguardo l’ambiente. L’acqua ci detto e ripetuto, giustamente, che è un beve primario e prezioso e quindi non va sprecato, ma evidentemente ai titani della Silicon Valley è consentito di farci la lezioncina filantropica (cioè, filantrocapitalistica), mentre poi fanno come meglio ritengono per il loro tornaconto.

 

Che il bene acqua sia messo in pericolo dagli stessi che predicano il rispetto per l’ambiente lo abbiamo visto anche nel caso del potere dello Stato.

 

Come riportato da Renovatio 21, a poca distanza da casa nostra, in Germania, a causa delle «politiche green» e di una ideologia ecotalebana, Berlino ha rischiato di avere problemi di approvvigionamento idrico pochi mesi fa.

SOSTIENI RENOVATIO 21



 

Immagine di Robbie Shade via Flickr pubblicata su licenza Creative Commons Attribution 2.0 Generic (CC BY 2.0)

Continua a leggere

Intelligenza Artificiale

Facebook sta sviluppando segretamente una nuova, potente Intelligenza Artificiale?

Pubblicato

il

Da

Mark Zuckerberg non starebbe perdendo il treno dell’Intelligenza Artificiale.   Secondo un articolo del Wall Street Journal, Meta – la società padrona di Facebook, Instagram, Whatsapp – sta sviluppando segretamente un potente modello di Intelligenza artificiale progettato per competere con GPT-4 di OpenAI.   Si sa molto poco di questo modello di IA e, come riporta il WSJ, i dettagli riguardo a questa Intelligenza Artificiale, che per ora è destinata ad «aiutare altre aziende a creare servizi che producono testi sofisticati, analisi e altri output», potrebbero essere soggetti a modifiche.   Vale anche la pena notare che questa non è la prima incursione di Meta nel territorio dei Large Language Model (LLM): LLAMA-2, l’atteso modello linguistico dell’azienda, è stato rilasciato solo pochi mesi fa.   Tuttavia secondo le fonti del WSJ, Meta spera che la sua nuova Intelligenza Artificiale sarà «molte volte più potente» di LLAMA-2 – un segno, forse, che LLAMA-2 non lo sta del tutto tagliando come alternativa GPT-4, e che Meta sa che dovrà alzare seriamente la posta se vuole tenere il passo con i suoi concorrenti.   Secondo l’articolo della testata economica neoeboracena, il modello è stato costruito da un team che inizialmente aveva il compito di accelerare gli sforzi dell’azienda per costruire un sistema di Intelligenza Artificiale Generativa in grado di «produrre forme simili a quelle umane».

Sostieni Renovatio 21

L’equipe di esperti prevede di iniziare ad addestrare questa nuova AI entro l’inizio del 2024 nel tentativo di espandere la propria infrastruttura di supporto all’AI.  Secondo quanto riporta Futurism, Meta sarebbe apparentemente impegnata ad acquisire gli ambiti chip informatici Nvidia H100.   L’articolo del WSJ rileva inoltre che Zuckerberg sta spingendo per rendere open source la nuova Intelligenza Artificiale dell’azienda: una decisione che secondo quanto riferito ha turbato gli avvocati dell’azienda, che si vocifera abbiano sollevato alcune valide preoccupazioni su minacce come la potenziale violazione del copyright favorita e riguardo l’uso dell’intelligenza artificiale per generare disinformazione.   Per quanto poco reclamizzato, Facebook nel tempo ha eseguito ricerche molto avveniristiche, come quella per creare dispositivi in grado di leggere il pensiero degli utenti.   Considerato il comportamento dimostrato da Facebook, con la censura che si è abbattuta su dissidenti o anche semplici conservatori (ma non sui pedofili di Instagram o i donatori di sperma su Facebook, né sui neonazisti dell’Azov), la collusione con lo Stato profondo americano e le sue agenzie, la volontà di chiudere gli account di organizzazioni, partiti premier e presidenti, la raccolta massiva di dati anche biometrici (con il riconoscimento facciale che ha generato denunce di Stati come il Texas) nonché la possibilità di agire sul vostro telefono perfino scaricandone la batteria, c’è da domandarsi cosa la sua potente Intelligenza Artificiale possa fare alla vostra vita.   Facebook siede su una quantità immane di dati che vi riguardano. L’ammasso dei vostri Big Data personali è necessario per far funzionare l’IA, che impara ed evolve solo a fronte di quantità sterminate di informazioni.   «L’Intelligenza Artificiale ha bisogno di enormi quantità di dati aggiornati al minuto affinché il sistema di controllo funzioni» ha scritto Joseph Mercola, «quindi “affamare la bestia” deve essere in cima alla tua lista».   Vale sempre l’avvertimento dato da Elon Musk oramai tre anni fa: abbandonate Whatsapp e Facebook.   Uscire dai social, e dai programmi di messaggistica dei grandi gruppi americani, è l’unico modo affamare la bestia apocalittica, una mossa che esprime tutta la responsabilità che avete in questo orrendo processo verso la schiavitù inflittaci dalla macchina. SOSTIENI RENOVATIO 21
 
Continua a leggere

Più popolari