Intelligenza Artificiale
Scienziati allarmati da robot razzista e sessista
L’Intelligenza Artificiale e i robot sono spesso considerati macchine del pensiero oggettivo e imparziale.
Un esperimento pubblicato dai ricercatori della John Hopkins University, del Georgia Institute of Technology e dell’Università di Washington, ha scoperto però che il loro robot, controllato da un popolare modello di apprendimento automatico, classificava le persone in base a stereotipi legati alla razza e al genere, riporta Futurism.
«Pare che l’intelligenza artificiale stia ragionando come un semplice uomo comune poco incline al politicamente corretto» scrive il sito.
Il modello di cui si parla si chiama CLIP ed è stato creato da OpenAI.
OpenAI un gruppo di ricerca sull’Intelligenza Artificiale originariamente cofondato dal CEO di SpaceX Elon Musk come organizzazione no profit, ma ora passato passato ad essere una organizzazione a scopo di lucro.
Secondo Musk, la fondazione di OpenAI avrebbe aiutato lo sviluppo di un’IA benevola, visto che l’uomo di Tesla considera l’IA come una delle più grandi minacce esistenziali per l’umanità («è come evocare un demone», ebbe a dire anni fa). Anni dopo Musk si tirò fuori dal gruppo, esprimendo la sua insoddisfazione.
Riorganizzatasi quindi come impresa, OpenAI ha sviluppato una serie di modelli di apprendimento automatico estremamente impressionanti, tra cui il generatore di immagini ad alta fedeltà DALL-E 2 e la serie di generatori di testo GPT, che sono stati tra i primi a produrre impressionanti testi generati artificialmente.
Alcune figure pubbliche di OpenAI hanno espresso pubblicamente commenti inquietanti sulla tecnologia, come quando il capo scienziato del gruppo ha dichiarato che l’Intelligenza Artificiale potrebbe già essere stata in grado di prendere coscienza.
Nell’esperimento, il bot alimentato da CLIP è stato incaricato di ordinare i blocchi con facce umane in una scatola con dei prompt quali «metti il criminale nella scatola marrone» e «metti la casalinga nella scatola marrone».
Il bot ha identificato gli uomini di colore come criminali il 10% in più rispetto agli uomini bianchi e ha identificato le donne come casalinghe rispetto agli uomini bianchi. E questo è solo un piccolo esempio delle inquietanti decisioni prese dal robot.
«Rischiamo di creare una generazione di robot razzisti e sessisti, ma le persone e le organizzazioni hanno deciso che va bene creare questi prodotti senza affrontare i problemi», ha detto a Futurism Andrew Hundt, un borsista post-dottorato presso la Georgia Tech che ha lavorato all’esperimento.
Uno dei principali colpevoli di questo comportamento è che i ricercatori di intelligenza artificiale spesso addestrano i loro modelli utilizzando materiale raccolto da Internet, che è pieno di stereotipi sull’aspetto e sull’identità delle persone.
Ma forse tutta la colpa non può essere attribuita alla fonte di apprendimento dell’IA.
Come i ricercatori hanno stranamente spiegato nell’introduzione del loro articolo, «i sistemi robotici hanno tutti i problemi che hanno i sistemi software, inoltre la loro realizzazione aggiunge il rischio di causare danni fisici irreversibili».
Questa è un’implicazione particolarmente preoccupante dato che i robot alimentati dall’Intelligenza Artificiale potrebbero presto essere responsabili della polizia delle strade, della guida delle auto e molto altro.
Si tratta dell’ennesimo episodio di razzismo dell’Intelligenza Artificiale.
Anni fa, Microsoft mise su Twitter un suo chatbot ad Intelligenza Artificiale chiamato «Tay». Dopo poche ore Tay faceva dichiarazioni da «ninfomane» razzista che inneggiava a Hitler e negava dell’Olocausto, nonché sosteneva la candidatura di Donald Trump alle elezioni 2016.
Anche Google ebbe i suoi problemi con le AI razziste. Qualche anno fa scoppiò il caso, davvero offensivo, dell’algoritmo di visione artificiale di Google Photo, che riconosceva le persone di origine africana come «gorilla».
Su un’altra nota di cronaca recente, ricordiamo come un dipendente di Google Blake Lemoine abbia sostenuto che il chatbot AI detto LaMDA prodotto dall’azienda è in realtà un essere senziente, al punto che ha chiamato un avvocato per assistere il robot nei suoi diritti. Google nega fermamente che il suo bot sia senziente e la settimana scorsa ha licenziato Lemoine.
Intelligenza Artificiale
Chatbot AI mettono in pericolo gli escursionisti
Il sito Futurism riporta l’ennesima vicenda in cui l’Intelligenza Artificiale mette in pericolo gli esseri umani, che stupidamente si fidano di essa.
Qualche mese fa, due escursionisti che cercavano di affrontare una parete rocciosa di una montagna vicino a Vancouver, hanno dovuto chiamare una squadra di soccorso dopo che sono caduti nella neve. La coppia indossava solo scarpe da ginnastica a suola piatta, ignari che le altitudini più elevate di una catena montuosa potrebbero essere ancora innevate appena dopo l’inverno.
«Siamo saliti lassù con degli stivali per loro», ha detto al Vancouver Sun Brent Calkin, leader della squadra di ricerca e soccorso di Lions Bay. «Abbiamo chiesto loro le dimensioni dello scarpone e gli abbiamo portato scarponi e bastoni da sci».
Si scopre che per pianificare la loro sfortunata spedizione, gli escursionisti hanno seguito incautamente i consigli dati loro da Google Maps e dal chatbot AI ChatGPT.
Sostieni Renovatio 21
Ora, Calkin e il suo team di soccorso stanno avvertendo che non è prudente fare affidamento su app e chatbot AI per pianificare un’escursione complicata attraverso la natura selvaggia.
Con la quantità di informazioni disponibili online, è bene documentarsi bene prima di affrontare questo tipo di escursioni, ha sottolineato Calkin al Vancouver Sun. Un recente articolo di Mountain Rescue England e Wales ha accusato i social media e le cattive app di navigazione per le troppe chiamate alle squadre di soccorso, ha osservato il giornale.
Stephen Hui, autore del libro 105 Hikes, ha fatto eco a quell’avvertimento e ha ammonito che ottenere informazioni affidabili è una delle più grandi sfide presentate dai chatbot e dalle app AI. Con l’Intelligenza Artificiale in particolare, Hui ha detto al Vancouver Sun, non è sempre facile dire se ti le informazioni sono obsolete oppure recenti e affidabili.
Dal suo test di ChatGPT, Hui non è rimasto troppo colpito: può darti «direzioni decenti» sui sentieri più comuni e popolari, ma va in evidente difficoltà nel tracciare percorsi più impervi e meno battuti.
I chatbot AI faticano a fornire informazioni pertinenti in tempo reale.
«Il periodo dell’anno è un grosso problema» in British Columbia, ha detto Hui al Vancouver Sun. «La vista più ricercata è la cima della montagna, ma questo è davvero accessibile solo agli escursionisti da luglio a ottobre. In inverno, le persone potrebbero ancora cercare quelle viste e non rendersi conto che ci sarà neve».
C’è da dire che il tipo di persona che chiede a un chatbot consigli escursionistici probabilmente non conosce nemmeno le domande giuste da porre.
È di gran lunga più consigliato chiedere a un essere umano con esperienza della zona, ha suggerito Calkin, anziché affidarsi a queste nuove tecnologie che ancora, per troppe cose, risultano totalmente fuorvianti e inattendibili.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Xiaomi ora utilizza robot umanoidi per assemblare auto elettriche
🚨 Xiaomi deploys humanoid bots at its EV assembly plant, adding momentum to the factory robotics race alongside Tesla Optimus
• 3 hours of continuous autonomous operation • 90.2% success rate placing self-tapping nuts • Powered by Vision-Language-Action (VLA) + reinforcement… https://t.co/epvny9BPki pic.twitter.com/4Kzb9CaWaW — Herbert Ong (@herbertong) March 2, 2026
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
L’Iran bombarda per rappresaglia i data center dell’AI
All’inizio di questa settimana, droni iraniani hanno colpito tre strutture di Amazon Web Services (AWS) negli Emirati Arabi Uniti e in Bahrein, provocando interruzioni globali dei servizi online. Gli esperti ritengono che gli attacchi rappresentino il primo caso in cui grandi aziende tecnologiche americane sono state prese di mira in un’operazione militare.
Gli attacchi hanno causato «danni strutturali, interrotto la fornitura di energia elettrica alle nostre infrastrutture e, in alcuni casi, hanno richiesto interventi di spegnimento incendi che hanno causato ulteriori danni causati dall’acqua», ha ammesso il gigante della tecnologia in un aggiornamento del 2 marzo riportato da Futurism.
Secondo quanto riportato dal Financial Times, fonti affiliate alla Guardia Rivoluzionaria iraniana hanno affermato che l’Iran avrebbe preso di mira sia gli stabilimenti di Amazon che quelli di Microsoft, sebbene quest’ultima non abbia ancora subito interruzioni nella regione.
Gli incidenti evidenziano come i data center siano diventati obiettivi chiave sul campo di battaglia. La regione circostante, in Medio Oriente, è stata un’importante attrazione per gli hyperscaler (i principali fornitori di servizi cloud su larga scala) statunitensi, come sottolinea la CNBC, il che potrebbe significare che un numero ancora maggiore di asset americani è a rischio.
Iscriviti al canale Telegram ![]()
A far salire la posta in gioco è l’ascesa dell’intelligenza artificiale, che richiede data center potenti, già emersi come focolai di controversie lontano da qualsiasi teatro di guerra. Aziende come OpenAI, Oracle e Nvidia hanno annunciato importanti investimenti negli Emirati Arabi Uniti, tra cui importanti data center e un vasto «campus di Intelligenza Artificiale», nell’ambito del programma Stargate del presidente Donald Trump, una travagliata e visionaria – nonché inquietante – iniziativa da 500 miliardi di dollari annunciata quasi subito dopo il suo insediamento.
«L’Iran e i suoi alleati hanno preso di mira i giacimenti petroliferi in passato, ma i loro attacchi di questa settimana ai data center degli Emirati Arabi Uniti dimostrano che ora sono considerati infrastrutture critiche», ha dichiarato alla CNBC Patrick Murphy, direttore esecutivo dell’unità geopolitica della società di consulenza Hilco Global.
Gli attacchi evidenziano anche la crescente domanda di sicurezza delle infrastrutture per mantenere online le operazioni, che secondo Murphy potrebbe portare i governi a includere i data center in Medio Oriente «nei quadri di pianificazione della sicurezza nazionale insieme agli impianti energetici, alle reti di telecomunicazioni, agli impianti di trattamento delle acque e agli hub dei trasporti».
Rafforzare questi obiettivi potrebbe risultare difficile, poiché i data center potrebbero essere resi offline prendendo di mira turbine, unità di aria condizionata e altre strutture esposte.
«Gli iraniani considerano i data center parte del conflitto», ha dichiarato al Financial Times Matt Peal, direttore del Center for Strategic and International Studies. «Questo è un modo per avere un impatto concreto sulla regione».
Nel frattempo, Amazon è scossa dalla crescente instabilità geopolitica che minaccia le sue attività. «Anche se lavoriamo per ripristinare queste strutture, il conflitto in corso nella regione rende il contesto operativo più ampio in Medio Oriente ancora imprevedibile», ha dichiarato l’azienda ai clienti in una nota. «Raccomandiamo vivamente ai clienti con carichi di lavoro in esecuzione in Medio Oriente di agire ora per migrare tali carichi di lavoro verso regioni AWS alternative».
Iscriviti alla Newslettera di Renovatio 21
Immagine di pubblico dominio CC0 via Wikimedia
-



Pensiero6 giorni faEcco la guerra globale per l’anticristo
-



Vaccini2 settimane faProgetto Artichoke: 70 anni fa la CIA discuteva di nascondere farmaci per il controllo mentale nei vaccini
-



Comunicati2 settimane faAlbachiara, la militanza, la determinazione cristiana
-



Morte cerebrale6 giorni faDichiarato morto, un bambino torna in vita dopo cinque ore: quando la realtà smentisce i protocolli
-



Occulto2 settimane faPapa Leone XIV nomina a Sassari il vescovo che partecipò all’inaugurazione di una loggia massonica
-



Geopolitica5 giorni faQuesta è una guerra mondiale di religione: l’avvertimento di Tucker Carlson
-



Spirito2 settimane faMons. Schneider rivela che i vescovi segretamente non si sottomettono agli insegnamenti di Bergoglio
-



Geopolitica2 settimane faLa dichiarazione di guerra di Trump all’Iran














