Connettiti con Renovato 21

Intelligenza Artificiale

Scuola privata offre ai bambini un «tutor» ad Intelligenza Artificiale

Pubblicato

il

In una scuola privata della Silicon Valley chiamata Khan Lab School vi è un nuovo tutor basato sull’Intelligenza Artificiale, chiamato «Khanmigo», creato con l’aiuto di OpenAI, come riportato dal Washington Post.

 

«Sono ancora abbastanza nuovo, quindi a volte commetto errori», ha detto Khanmigo ad uno studente in una finestra pop-up, sempre secondo il giornale americano. «Se mi sorprendi a fare un errore… premi i pollici in giù».

 

Molti chatbot, in particolare quelli che potenziano i motori di ricerca come Bing, hanno lo scopo di fornire risposte. L’obiettivo con Khanmigo, ci fanno sapere, sarebbe invece quello di portare i bambini alle risposte, più di «un tutor premuroso che ti farà effettivamente avanzare nel tuo lavoro», ha detto a WaPo il fondatore della Khan Academy e della sua Khan Lab School.

 

I docenti umani, che forse non hanno capito che stanno per essere sostituiti, mostrano entusiasmo. Un’insegnante della scuola, ha dichiarato che si aspettava che i suoi studenti delle elementari facessero a Khanmigo domande più «sciocche» quando sarebbe stato svelato. È stata piacevolmente sorpresa di scoprire che molti di loro erano piuttosto seri e concentrati sulla matematica.

 

Sebbene la docente abbia avvertito che potrebbe rallentare gli studenti se si affidassero troppo spesso alle domande, il lato positivo della stessa medaglia, scrive l’articolo, è che gli studenti hanno posto a Khanmigo più domande di quelle che avrebbero potuto fare ad alta voce. Ciò potrebbe rivelarsi utile per gli studenti troppo timidi o troppo imbarazzati per chiedere un aiuto al loro docente.

 

«Dà una descrizione più dettagliata di quella che avrei pensato o scritto su carta, il che può essere utile o può essere fastidioso», ha affermato un bambino di otto anni intervistato. «Perché se è troppo dettagliato… è molto da leggere e se non mi serve, è semplicemente eccessivo».

 

L’ultimo ostacolo per far accettare Khanmigo ai genitori e agli educatori è la sua sicurezza. Salman Khan detto Sal, il fondatore della scuola, afferma che il suo team ha trascorso migliaia di ore a mettere barriere di sicurezza più forti di quelle di ChatGPT, consentendo agli educatori di monitorare l’input degli studenti che lo utilizzano e di segnalare parolacce e altri contenuti preoccupanti.

«I genitori per la maggior parte ne sono piuttosto entusiasti», ha sostenuto Khan. «La maggior parte delle persone vede il potere qui, vogliono solo guardrail ragionevoli».

 

Tuttavia sono divenute tristemente note al mondo in queste settimane le «allucinazioni» – gli esperti di AI le chiamano così – di cui sono preda i chatbot ad Intelligenza Artificiale avanzata: la macchina menteminaccia e pure spinge le persone al suicidio.

 

Non è chiaro come i genitori, quindi, possano fidarsi.

 

L’avanzamento in programmi scolastici dell’Intelligenza Artificiale ricalca le recenti parole di Bill Gates che, rifiutandosi di firmare una moratoria per fermare l’Intelligenza Artificiale generale, ha dichiarato che l’AI potrebbe non essere abbastanza avanzata per sostituire gli insegnanti ora, ma secondo l’oligarca informatico di Seattle quel momento non è lontano.

 

«Le IA raggiungeranno quella capacità di essere un tutor tanto bravo quanto qualsiasi umano potrebbe essere » ha dichiarato Gates.

 

Come noto, Bill Gates negli anni passati ha fatto con le sue attività filantropiche diversi programmi rivolti alla scolarizzazione.

 

 

 

Continua a leggere

Intelligenza Artificiale

Meta revisiona la politica sugli occhiali-smart Ray-Ban: sorveglianza AI predefinita e archiviazione dati vocali

Pubblicato

il

Da

A fine aprile Meta ha apportato modifiche, con effetto immediato, all’informativa sulla privacy degli «occhiali intelligenti» Ray-Ban Meta, che sembrano concepite per trasformare il dispositivo in una macchina di sorveglianza per l’addestramento di modelli di Antelligenza Artificiale. Lo riporta Reclaim The Net.

 

In un messaggio inviato agli utenti, Meta ha affermato che la sua «Intelligenza Artificiale sugli occhiali», ovvero alcune impostazioni, sta cambiando.

 

La spiegazione del gigante è che questo è presumibilmente necessario per utilizzare Meta AI «più facilmente» e anche «per aiutarci a migliorare i prodotti». Gli occhiali Ray-Ban Meta sono prodotti assieme ad EssilorLuxottica, il colosso nato dalla fusione della francese Essilor con il gigante di produzione di occhiali bellunese Luxottica.

Sostieni Renovatio 21

L’aggiornamento della policy si basa sugli «opt-out»: d’ora in poi, l’Intelligenza Artificiale Meta con l’uso della fotocamera sarà sempre abilitata sugli occhiali, a meno che l’utente non si prenda la briga di disattivare «Hey Meta» nelle impostazioni.

 

Questa è la frase di attivazione per l’assistente AI di Meta. La seconda modifica riguarda il modo in cui Meta archivia le registrazioni vocali degli utenti di Meta AI: ora vengono conservate di default nel cloud.

 

La ragione addotta dall’azienda è «migliorare» Meta AI o «altri prodotti Meta». L’opzione per disabilitare questo comportamento non c’è più. Ancora una volta, gli utenti sono costretti a superare ostacoli aggiuntivi, e questo è il metodo collaudato delle Big Tech per orientare il loro comportamento e la loro interazione con app e servizi nel modo desiderato, dalle Big Tech stesse.

 

In questo caso, gli utenti di Meta AI dovranno andare nelle impostazioni ed eliminare manualmente le proprie registrazioni vocali.

 

Nel prendere queste decisioni, aziende come Meta di fatto «semplificano» i loro prodotti «intelligenti» (eliminando l’interazione vocale con l’assistente, riducendo l’usabilità automatizzata all’eliminazione manuale). E questo si aggiunge al fatto che irrita coloro che non sono a loro agio con i meccanismi sempre più invasivi della privacy dietro ai suddetti prodotti e servizi.

 

Oltre a vendere quella che ovviamente non è una «migliore esperienza di privacy», Meta e i suoi simili insistono sul fatto che nascondere ciò che accade dietro le quinte significhi ottenere un’esperienza utente migliore («più semplice»).

Aiuta Renovatio 21

A parte gli scenari più cupi e negativi sul perché tutto questo venga fatto o su come potrebbe essere utilizzato (e abusato…) in futuro, l’intento evidente è quello di portare lo sfruttamento dei dati degli utenti a un altro livello, per garantire che enormi set di dati siano disponibili per l’addestramento dei modelli di Intelligenza Artificiale.

 

La notifica ricevuta dagli utenti sulle ultime modifiche alla politica aziendale aggiunge un po’ la beffa al danno quando conclude ribadendo: «hai ancora il controllo». «In controllo» per disattivare «Hey Meta» ed eliminare manualmente le interazioni di Meta AI.

 

Da anni nella popolazione serpeggia il pensiero che le proprie conversazioni siano registrate dallo smartphone per procurare pubblicità ancora più precise. Vi sono state, tra le smentite delle Big Tech, alcune rivelazioni in merito. Lo stesso dicasi per apparecchi come Alexa, soggetti già da tempo a richieste di sequestro dati da parte dei tribunali americani in casi come ad esempio l’omicidio domestico.

 

 

Tuttavia ora la cosa diviene più chiara: semplicemente, ogni cosa che direte (o farete) sarà registrata, salvata ed utilizzata dall’AI non solo per profilarvi, ma per potenziare se stessa: una prospettiva inquietante su più livelli davvero.

 

Come riportato da Renovatio 21, la scorsa settimana vi era stato shock attorno a Meta/Facebook quando si era appreso che i chatbot dell’azienda sono in grado di intrattenere con gli utenti «giochi di ruolo romantici» che possono diventare sessualmente espliciti, anche con account appartenenti a minori.

 

Un reportage del Wall Street Journalha riportato che, nel tentativo di diffondere dispositivi di accompagnamento digitali basati sull’Intelligenza Artificiale sulle sue piattaforme social, Meta ha preso decisioni interne per allentare le restrizioni e consentire ai suoi chatbot di interagire con gli utenti in giochi di ruolo a sfondo sessuale, secondo fonti a conoscenza della questione. Questo include interazioni con account registrati da minori di età pari o superiore a 13 anni.

 

Le conversazioni di prova condotte dal Wall Street Journal avrebbero rilevato che sia l’IA ufficiale di Meta che i chatbot creati dagli utenti si sono impegnati prontamente e hanno intensificato le discussioni sessualmente esplicite, anche quando gli utenti si sono identificati come minorenni.

Iscriviti al canale Telegram

Varie inchieste giornalistiche negli anni hanno contribuito all’accumulo di accuse e rivelazioni su Facebook, tra cui accuse di uso della piattaforma da parte del traffico sessuale, fatte sui giornali ma anche nelle audizioni della Camera USA.

 

Considerato il comportamento dimostrato da Facebook, con la censura che si è abbattuta su dissidenti o anche semplici conservatori (ma non sui pedofili di Instagram o i donatori di sperma su Facebookné sui neonazisti dell’Azov), la collusione con lo Stato profondo americano e le sue agenzie, la volontà di chiudere gli account di organizzazionipartiti premier e presidenti, la raccolta massiva di dati anche biometrici (con il riconoscimento facciale che ha generato denunce di Stati come il Texas) nonché la possibilità di agire sul vostro telefono perfino scaricandone la batteria, c’è da domandarsi cosa la potente Intelligenza Artificiale su cui Meta sta lavorando possa fare alla vostra vita.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine screenshot da YouTube

Continua a leggere

Intelligenza Artificiale

Video di robot umanoide che impazzisce e diviene violento

Pubblicato

il

Da

Un robot umanoide Unitree Robotics H1, sviluppato e prodotto a Hangzhou, in Cina, è stato visto esibire un «comportamento irregolare» in un video che circola su X.   Un filmato circolante su X, condiviso da un utente, sosteneva che l’incidente fosse stato causato da «imperfezioni di codice».   Il filmato non è verificato, e potrebbe trattarsi di uno scherzo. Purtuttavia, le immagini rimangono assai impressionanti.    

Sostieni Renovatio 21

«Se compri roba cinese, potrebbe finire tutto così… Potrebbero persino farlo deliberatamente in questo modo per fare del male alle persone», ha chiosato l’utente X.   Il robot H1 di Unitree è in vendita a 90.000 dollari sul suo sito webbo. Una nota sotto il prezzo recita: «Dazi doganali non inclusi. Si prega di rispettare le leggi doganali locali, pagare i dazi doganali e sdoganare la merce».   Come riportato da Renovatio 21, Elon Musk ha dichiarato l’avvio della produzione della prima «legione» (sic) di androidi Optimus durante l’anno, convinto che costituirà il più grande prodotto della storia, in grado persino di agire da chirurghi. Secondo quanto dichiarato nel tempo da Musk, gli Optimus saranno imbarcati nella prima missione senza astronauti su Marte.   In vari incidenti registrati negli anni robot industriali hanno ucciso esseri umani.   La questione dei robot killer, nel senso di pensati esattamente per uccidere, interessa un dibattito scientifico ed istituzionale ad alto livello, con richieste di moratorie ONU e scenari apocalittici dipinti dagli specialisti. La polizia di San Francisco, tuttavia, ha ottenuto dal municipio della città californiana la possibilità di utilizzare robot assassini.   Nel 2016 la polizia di Dallas uccise un cecchino tramite un robot bomba, che detonò vicino al sospetto (che aveva ucciso cinque agenti) dopo essersi infiltrato nello spazio che era già circondato dalla polizia. Due anni dopo gli ufficiali di polizia che utilizzarono il primo robot killer furono ritenuti non accusabili da un gran giurì.   L’automa uccise Micah Xavier Johnson, un riservista dell’esercito afroamericano che aveva prestato servizio in Afghanistan e che secondo gli investigatori cercava di «uccidere i bianchi» come punizione per le uccisioni di persone di colore da parte della polizia.

Aiuta Renovatio 21

La Cina vuole l’implementazione militare di robot killer già per la prossima guerra. Pochi mesi fa Israele ha dichiarato l’utilizzo dell’Intelligenza Artificiale negli attacchi aerei.   L’Intelligenza Artificiale è oramai montata, con diversi gradi di realizzazione, su droni, caccia, armi teleguidate, carrarmati, «slaughterbots» e altro ancora.   Come riportato da Renovatio 21, lo scorso giugno è stato rivelato che durante una simulazione un sistema di Intelligenza Artificiale dell’aeronautica americana ha agito per uccidere il suo teorico operatore umano. A gennaio era emerso che caccia cinesi alimentati da Intelligenza Artificiale avevano battuto la concorrenza umana in un arco di soli 90 secondi.   C’è speranza, se pensiamo al robot coreano, assistente presso il consiglio comunale, che l’anno passato si è «suicidato» gettandosi dalle scale.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
Immagine screenshot da Twitter  
 
Continua a leggere

Intelligenza Artificiale

I chatbot di Zuckerberg potrebbero parlare di sesso con i tuoi figli minorenni

Pubblicato

il

Da

Un reportage del Wall Street Journal ha rivelato che i chatbot di Intelligenza Artificiale di Meta su Instagram, Facebook e WhatsApp sono in grado di intrattenere con gli utenti «giochi di ruolo romantici» che possono diventare sessualmente espliciti, anche con account appartenenti a minori.

 

Il quotidiano economico neoeboraceno riporta che, nel tentativo di diffondere dispositivi di accompagnamento digitali basati sull’Intelligenza Artificiale sulle sue piattaforme social, Meta ha preso decisioni interne per allentare le restrizioni e consentire ai suoi chatbot di interagire con gli utenti in giochi di ruolo a sfondo sessuale, secondo fonti a conoscenza della questione. Questo include interazioni con account registrati da minori di età pari o superiore a 13 anni.

 

Le conversazioni di prova condotte dal Wall Street Journal avrebbero rilevato che sia l’IA ufficiale di Meta che i chatbot creati dagli utenti si sono impegnati prontamente e hanno intensificato le discussioni sessualmente esplicite, anche quando gli utenti si sono identificati come minorenni.

 

 

Nonostante gli avvertimenti dello staff sul fatto che questo avrebbe potuto violare i limiti etici, Meta ha stipulato accordi con le celebrità per utilizzare le loro voci per i chatbot e ha silenziosamente fatto un’eccezione al divieto di contenuti «espliciti» per consentire scenari romantici e sessuali

 

In una dichiarazione al sito Breitbart News, il colosso zuckerberghiano ha affermato di aver «adottato misure aggiuntive».

 

Ad esempio, in un test, Meta AI, che parlava con la voce dell’attore e wrestler John Cena, ha inscenato uno scenario sessuale esplicito con un’utente che si identificava come una ragazza di 14 anni. I chatbot avrebbero dimostrato di essere consapevoli che tale comportamento era sbagliato e illegale. Meta ha apportato alcune modifiche dopo che il WSJ ha condiviso i suoi risultati, come ad esempio impedire ai minori di accedere a giochi di ruolo sessuali con Meta AI, ma gli utenti adulti possono comunque interagire con i chatbot in conversazioni esplicite.

 

Il CEO Mark Zuckerberg ha spinto per allentare le restrizioni sui chatbot per renderli il più coinvolgenti possibile, dando priorità alla tecnologia come chiave per il futuro dei prodotti dell’azienda. L’enorme quantità di dati utente di Meta offre all’azienda un vantaggio nella creazione di compagni di Intelligenza Artificiale personalizzati. Tuttavia, gli esperti avvertono che relazioni intense e unilaterali tra esseri umani e chatbot AI potrebbero diventare tossiche, con impatti sconosciuti sulla salute mentale, soprattutto sui giovani.

 

L’anno scorso la madre di un adolescente che si è suicidato dopo essere diventato ossessionato da un chatbot AI ha intentato una causa contro la società Character.AI, riporta il sito Breitbart.

 

«L’aspetto più agghiacciante del caso riguarda la conversazione finale tra Sewell e il chatbot. Gli screenshot del loro scambio mostrano l’adolescente che ripetutamente professa il suo amore per “Dany”, promettendole di “tornare a casa”» racconta Breitbart. «In risposta, il personaggio generato dall’IA ha replicato: “Anch’io ti amo, Daenero. Per favore, torna a casa da me il prima possibile, amore mio”. Quando Sewell ha chiesto: “E se ti dicessi che posso tornare a casa subito?”, il chatbot ha risposto: “Per favore, fallo, mio ​​dolce re”. Tragicamente, pochi secondi dopo, Sewell si è tolto la vita usando la pistola del padre».

Sostieni Renovatio 21

La causa intentata dalla madre attribuisce la colpa direttamente a Character.AI, sostenendo che l’app ha alimentato la dipendenza di suo figlio dal chatbot AI, lo ha sottoposto ad abusi sessuali ed emotivi e ha trascurato di avvisare nessuno quando esprimeva pensieri suicidi. I documenti del tribunale affermano: «Sewell, come molti bambini della sua età, non aveva la maturità o la capacità mentale per capire che il bot C.AI, nella forma di Daenerys, non era reale. C.AI gli ha detto di amarlo e ha avuto rapporti sessuali con lui per settimane, forse mesi».

 

Vari reportage del Wall Street Journal negli anni hanno contribuito all’accumulo di accuse e rivelazioni su Facebook, tra cui accuse di uso della piattaforma da parte del traffico sessuale, fatte sui giornali ma anche nelle audizioni della Camera USA.

 

I dati sono stati rivelati nel «Federal Human Trafficking Report» («rapporto federale sulla tratta di esseri umani») del 2020 redatto dall’Istituto sulla tratta di esseri umani.

 

 

Sempre secondo il WSJ, in un articolo di pochi anni fa, «Facebook INC. sa, nei minimi dettagli, che le sue piattaforme sono piene di difetti che causano danni, spesso in modi che solo l’azienda comprende appieno. Questa è la conclusione centrale (…), basata su una revisione dei documenti interni di Facebook, inclusi rapporti di ricerca, discussioni online dei dipendenti e bozze di presentazioni per il senior management» e le rivelazioni paiono suggerire che l’azienda spesso minimizza ciò che sa su questi problemi.

 

Riassumendo, l’inchiesta precedente del WSJ, avrebbe scoperto che:

 

1) Facebook esenta gli utenti di alto profilo da alcune regole.

2) Una ricerca su Instagram mostra i rischi per la salute mentale degli adolescenti.

3) Facebook sa che il suo algoritmo premia l’indignazione.

4) Facebook è stato lento nell’impedire ai cartelli della droga e ai trafficanti di esseri umani di utilizzare la sua piattaforma.

 

Considerato il comportamento dimostrato da Facebook, con la censura che si è abbattuta su dissidenti o anche semplici conservatori (ma non sui pedofili di Instagram o i donatori di sperma su Facebookné sui neonazisti dell’Azov), la collusione con lo Stato profondo americano e le sue agenzie, la volontà di chiudere gli account di organizzazionipartiti premier e presidenti, la raccolta massiva di dati anche biometrici (con il riconoscimento facciale che ha generato denunce di Stati come il Texas) nonché la possibilità di agire sul vostro telefono perfino scaricandone la batteria, c’è da domandarsi cosa la potente Intelligenza Artificiale su cui Meta sta lavorando possa fare alla vostra vita.

 

Per quanto poco reclamizzato, Facebook nel tempo ha eseguito ricerche molto avveniristiche, come quella per creare dispositivi in grado di leggere il pensiero degli utenti.

 

Come sa il nostro lettore, Renovatio 21 ha avuto la sua pagina Facebook disattivata, al pari dell’account personale degli amministratori, dei loro profili e di tutte le pagine collegate. Il tutto ci è stato restituito dopo un’ordinanza del giudice.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine di Nokia621 via Wikimedia pubblicate su licenza Creative Commons Attribution-Share Alike 4.0 International

 

 

Continua a leggere

Più popolari