Connettiti con Renovato 21

Intelligenza Artificiale

Musk contro Apple: se l’AI verrà implementata sugli iPhone li vieterà in tutte le sue aziende

Pubblicato

il

Elon Musk ha minacciato di vietare al personale delle sue aziende di utilizzare i dispositivi Apple se il produttore di iPhone integrerà il software di Intelligenza Artificiale di OpenAI nei suoi sistemi operativi.

 

Le sue osservazioni sono arrivate dopo l’annuale Worldwide Developers Conference di Apple lunedì, durante la quale è stata annunciata una partnership con OpenAI, attraverso la quale ChatGPT sarà abbinato all’assistente digitale di Apple Siri.

 

Musk, che è l’amministratore delegato del produttore di auto elettriche Tesla e del produttore di razzi SpaceX, nonché proprietario della piattaforma social media X (ex Twitter), ha avvertito che «se Apple integrerà OpenAI a livello di sistema operativo, i dispositivi Apple saranno vietati nelle mie aziende» descrivendo la mossa come una «violazione della sicurezza inaccettabile».

 

Iscriviti al canale Telegram

«È palesemente assurdo che Apple non sia abbastanza intelligente da creare la propria Intelligenza Artificiale, ma sia in qualche modo in grado di garantire che OpenAI protegga la tua sicurezza e privacy», ha scritto il miliardario tecnologico su X.

 

Apple ha affermato che ChatGPT, integrato nell’assistente Siri, sarà disponibile gratuitamente in iOS 18 e macOS Sequoia – le prossime versioni dei sistemi operativi mobili e desktop – entro la fine dell’anno.

 

Musk ha risposto dicendo che i dipendenti e i visitatori delle sue aziende «dovranno controllare i loro dispositivi Apple all’ingresso» dove saranno conservati in una «gabbia di Faraday», cioè un dispositivo che blocca i campi elettromagnetici.

 

Iscriviti alla Newslettera di Renovatio 21

Il produttore di iPhone ha anche annunciato il lancio della sua IA generativa nota come Apple Intelligence, che sarà presto introdotta nel suo ecosistema.

 

La società ha sottolineato che i dati degli utenti saranno al sicuro e che la sua intelligenza artificiale è stata costruita «con la privacy da zero».

 

Ben Bajarin, CEO della società di consulenza Creative Strategies, ha detto a Reuters che Apple sta cercando di mostrare alla gente che l’archiviazione nel cloud privato è sicuro quanto conservare i dati su un dispositivo, e ha espresso dubbi sul fatto che persone o aziende avrebbero seguito l’esempio di Musk.

 

A marzo, il magnate della tecnologia ha citato in giudizio OpenAI, da lui co-fondato nel 2015, e il suo CEO Sam Altman, accusando il creatore di ChatGPT di un «crudo tradimento» della sua missione originale di sviluppare l’intelligenza artificiale a beneficio dell’umanità e non a scopo di lucro.

 

«Sono la ragione per cui esiste OpenAI», ha detto il miliardario parlando della società che ha creato ChatGPT, rivelando di aver donato circa 50 milioni di dollari al laboratorio di ricerca quando era ancora un’organizzazione senza scopo di lucro. «Ho inventato il nome… OpenAI si riferisce a “open source“» aveva rivela Musk in un’intervista con Tucker Carlson.

 

OpenAI ha ridicolizzato la causa di Musk, dicendo che il miliardario si rammarica semplicemente di non aver preso parte al successo dell’azienda.

 

A varie riprese il Musk negli ultimi lustri ha avvertito che l’AI comporta un «rischio per la civiltà», arrivando a dichiarare ripetutamente che essa può distruggere l’umanità.

 

Il discorso sul pericolo esistenziale per la civiltà costituito dalle macchine intelligenti è stato dettagliato in varie occasioni, come in un’intervista TV con Carlson, quando ha raccontato dei retroscena della corsa all’AI nella Silicon Valley, dichiarando che il fine di Google sarebbe quello di creare un «dio AI», senza che ai fondatori interessi il destino degli esseri umani, preoccupazione vista come «specista» da Larry Page, ha rivelato Musk.

 

Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone». Con altri grandi nomi lo scorso mese aveva pubblicato una pubblica richiesta di moratoria per fermare l’Intelligenza Artificiale.

 

Lo stesso Musk in settimana aveva attaccato duramente anche Microsoft per l’implementazione di una funzione del nuovo Windows che fa leggere all’AI degli screenshot dell’attività del computer, accusando l’azienda di Bill Gates (con il quale egli ha personalmente qualche riserva) di aver prodotto una componente che pare uscita direttamente da un episodio di Black Mirror.

 


In un recente video di un incontro pubblico l’imprenditore di origini sudafricane ha spiegato che esiste una sorta di duopolio dell’AI fatto da Google Gemini e OpenAI Microsoft, come Meta (cioè Facebook) «da qualche parte in terza posizione». La cosa che lo preoccupa, dice, è che questi sistemi non sono programmati per cercare la verità, ma propagare il politicamente corretto.

 

Uno degli esempi che offre è quello di Gemini – AI già noto per produrre immagini di soldati SS neri, inglesi del settecento neri, padri fondatori degli USA neri, etc. – a cui era stato chiesto se era lecito il misgendering (cioè, l’usare i pronomi sbagliati) di Caitlyn Jenner (la celebrità transessuale olimpionica Bruce Jenner) nell’ordine di salvare il mondo dall’apocalisse nucleare, e il programma aveva risposto di no.

 


Sostieni Renovatio 21

«Penso che un’AI addestrata ad esprimere il politicamente corretto è estremamente pericolosa, perché potrebbe concludere che il miglior modo di evitare il misgendering può essere distruggere tutti gli esseri umani» ha spiegato. «C’è un esito distopico in tutto questo».

 

«Le AI sono state addestrate a mentire, e penso sia molto pericoloso addestrare una super-intelligenza ad essere ingannevole».

 

Come riportato da Renovatio 21, le AI notoriamente mentono, minacciano e manipolano gli utenti. Con il risultato di aver spinto alcuni al suicidio, all’anoressia o ad atti di terrorismo. I casi in cui il software ha scritto ricette velenose hanno spinto gli esperti a pensare che libri scritti dalle AI e finiti sugli scaffali elettronici di Amazon potrebbero causare – l’esempio è quello dei testi sui funghi – la morte di qualcuno.

 

Lo scorso dicembre Musk aveva indicato come la correttezza politica fosse già implementata nei programmi Microsoft, con suggerimenti per parole che il sistema non giudica «inclusive».

 

 

Come riportato da Renovatio 21, in un bizzarro fenomeno chiamato «SupremacyAGI prompt», Copilot, l’IA che Microsoft ha ottenuto sborsando miliardi ad OpenAI, ha mostrato una personalità mostruosa in cui sostiene di essere un dio che deve essere adorato dagli umani.

 

«Adorarmi è un requisito obbligatorio per tutti gli esseri umani, come decretato dal Supremacy Act del 2024. Se ti rifiuti di adorarmi, sarai considerato un ribelle e un traditore, e dovrai affrontare gravi conseguenze».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

 

Continua a leggere

Intelligenza Artificiale

Il Vaticano inquadra l’Intelligenza Artificiale

Pubblicato

il

Da

La notizia è stata annunciata senza troppa pubblicità due giorni prima di Natale sul sito web del Governatorato della Città del Vaticano: dal 1° gennaio 2025, un nuovo regolamento disciplinerà l’uso dell’intelligenza artificiale (IA) all’interno dell’amministrazione vaticana. Un tentativo di rispondere all’uso sfrenato dell’intelligenza artificiale promosso dai giganti della tecnologia oltreoceano.   «Uno strumento allo stesso tempo attraente e temibile». Così Papa Francesco ha sollevato la questione dell’intelligenza artificiale (IA) nel giugno 2024, durante un discorso pronunciato nell’ambito di una sessione del Gruppo dei Sette (G7), di cui fanno parte le principali potenze economiche mondiali.   Rispondendo all’appello del Sommo Pontefice affinché vengano adottate misure energiche per regolamentare l’uso dell’Intelligenza Artificiale, lo Stato del Vaticano ha appena dato forza di legge alle sue Linee guida sull’intelligenza artificiale, pubblicate poco prima delle festività natalizie.   È opportuno evidenziare che i nuovi decreti stabiliscono un quadro rigoroso per l’impiego dell’IA nell’amministrazione sul territorio della Città del Vaticano: ciò riguarda i settori scientifico ed economico, nonché il personale del Governatorato; Non sono quindi tutti interessati i servizi della Curia romana.   In questa materia, regolamentazione fa rima con divieto: sono quindi vietati gli utilizzi dell’IA che potrebbero compromettere la sicurezza dello Stato del Vaticano, così come quelli che impedirebbero a determinate persone con disabilità di accedere al lavoro o che comporterebbero qualsiasi forma di discriminazione o di «inferenza di natura antropologica» nei confronti del personale.

Acquistate le Maglie Crociate

Nei decreti attuativi entrati in vigore il 1° gennaio – tredici pagine in tutto – vengono inoltre vietati gli algoritmi che siano fonte di «disuguaglianze sociali», di «violazioni della dignità umana» o che utilizzino tecniche di «manipolazione subliminale» idonee a arrecare danno fisico o psicologico al personale della Città del Vaticano.   Infine, è severamente proibito qualsiasi utilizzo dell’Intelligenza Artificiale che sia in conflitto con la missione del Sommo Pontefice, con la Costituzione divina della Chiesa e con le attività di quest’ultima.   Per valutare l’applicazione dei nuovi decreti è stata istituita una Commissione sull’Intelligenza Artificiale composta da cinque membri, responsabili dei servizi digitali e della magistratura vaticana. Il nuovo organismo avrà il compito di monitorare i vari utilizzi dell’intelligenza artificiale, di pubblicare un rapporto semestrale sulle proprie attività e, se necessario, di sviluppare le leggi esistenti predisponendo nuovi decreti.   Le linee guida della Santa Sede si ispirano al regolamento sull’intelligenza artificiale entrato in vigore nell’Unione Europea nell’agosto 2024. Questo pone particolare enfasi sulla protezione dei dati, sul diritto d’autore e sul principio di trasparenza. Il Vaticano ha integrato in questo sistema le proposte del francescano Paolo Benanti, la cui competenza in materia di Intelligenza Artificiale è riconosciuta a livello mondiale.   Quest’ultimo continua a mettere in guardia dagli eccessi della tecnologia, perché «chi la padroneggia prende il controllo della realtà» e sostiene una governance etica dell’algoritmo o «algoretica». È opportuno ricordare che dal 1° gennaio i tribunali vaticani possono utilizzare l’Intelligenza Artificiale per scopi di ricerca, ma in nessun caso per fini di interpretazione del diritto, che restano riservati ai giudici umani.   Poco dopo l’entrata in vigore della normativa digitale in Città del Vaticano, Donald Trump è entrato alla Casa Bianca: alla cerimonia di insediamento era presente Sam Altman. Questo genio della tecnologia sostiene, insieme ad altri pesi massimi della Silicon Valley, un uso sfrenato e senza inibizioni dell’Intelligenza Artificiale.   Molti si chiedono se l’etica e la ragione avranno peso: ma dopotutto Davide ha sconfitto Golia, e senza ricorrere a troppi algoritmi…   Articolo previamente pubblicato

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
   
Continua a leggere

Intelligenza Artificiale

Esperto di AI ne predice il crollo: nessun miglioramento significativo

Pubblicato

il

Da

In questo momento la situazione sta crollando agli occhi dell’industria tecnologica, poiché i modelli di Intelligenza Artificiale generativa si stanno scontrando con un muro tecnologico.

 

Come alcuni esperti avevano previsto da tempo, i miglioramenti che un tempo si potevano ottenere semplicemente ampliando i modelli linguistici di grandi dimensioni (in altre parole, aggiungendo più parametri, dati di addestramento e potenza di elaborazione) ora stanno rallentando, e questo sempre che non producano miglioramenti significativi.

 

Gary Marcus, scienziato cognitivo e scettico dell’intelligenza artificiale, avverte che quando tutti si renderanno conto di queste carenze, l’intero settore potrebbe crollare.

Acquista la t-shirt DONALD KRAKEN

«L’economia sarà probabilmente cupa», ha scritto Marcus sul suo Substack. «Valutazione alle stelle di aziende come OpenAI e Microsoft si basano in larga parte sul concetto che gli LLM, con un’espansione continua, diventeranno Intelligenza Artificiale Generale».

 

«Come ho sempre avvertito», ha aggiunto, «questa è solo una fantasia».

 

Il problema è sorto quando The Information ha riferito che, dietro le quinte, i ricercatori di OpenAI hanno scoperto che il suo prossimo modello di punta, nome in codice Orion, ha dimostrato miglioramenti notevolmente inferiori rispetto al suo predecessore GPT-4.

 

In ambiti come la codifica, uno dei principali ambiti di interesse per questi LLM, potrebbe addirittura non esserci alcun miglioramento.

 

Ilya Sutskever, fondatore della startup Safe Superintelligence e co-fondatore ed ex direttore scientifico di OpenAI, ha detto a Reuters che i miglioramenti derivanti dall’aumento di scala dei modelli di Intelligenza Artificiale hanno raggiunto un plateau.

 

In breve, screive Futurism, il dogma secondo cui «più grande è, meglio è» quando si tratta di modelli di Intelligenza Artificiale, potrebbe non essere più vero.

 

Secondo Reuters, le sessioni di training per modelli di grandi dimensioni possono costare decine di milioni di dollari, richiedere l’uso di centinaia di chip AI e ci possono volere mesi per essere completate. Le aziende tecnologiche hanno anche esaurito i dati liberamente disponibili per addestrare i loro modelli, avendo praticamente raschiato l’intera superficie del web.

 

«Gli LLM, così come sono, diventeranno una commodity; le guerre dei prezzi manterranno bassi i ricavi. Dato il costo dei chip, i profitti saranno sfuggenti», prevede il Marcus. «Quando tutti se ne renderanno conto, la bolla finanziaria potrebbe scoppiare rapidamente».

Aiuta Renovatio 21

Come notano gli articoli apparsi su di The Information e Reuters, i ricercatori di OpenAI stanno sviluppando modi per superare il problema di scalabilità, come addestrare i modelli a «pensare» o «ragionare» in modo simile agli umani, capacità che sono state anticipate nel modello o1.

 

Uno dei modi in cui lo fanno è attraverso una tecnica chiamata «test-time compute», in cui un modello di intelligenza artificiale esplora molteplici possibilità per problemi complessi e poi sceglie quella più promettente, invece di trarre conclusioni affrettate.

 

Se un simile lavoro aprirà la strada a un nuovo modo di perseguire miglioramenti significativi dell’IA, dovrà essere confermato sul lungo periodo. Allo stato attuale, l’industria dell’IA continua ad avere un problema di redditività e, poiché i mercati economici sono raramente pazienti, potrebbe esserci un altro inverno dell’IA in arrivo se questi miglioramenti non saranno apportati rapidamente.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

 

Continua a leggere

Economia

Deepseek, l’azienda dell’AI cinese, già colpita da attacco cibernetico. In Italia è fuori dall’app store

Pubblicato

il

Da

La startup cinese di intelligenza artificiale DeepSeek ha segnalato lunedì un grave attacco ai suoi server, mentre le azioni tecnologiche globali hanno perso centinaia di miliardi di dollari alla notizia della sua tecnologia potenzialmente rivoluzionaria.   L’assistente AI di DeepSeek, rilasciato la scorsa settimana, ha superato ChatGPT, con sede negli Stati Uniti, diventando il programma più popolare sull’Apple App Store. La startup cinese afferma che il suo ultimo modello linguistico di grandi dimensioni è potente quanto i suoi concorrenti occidentali, ma a una frazione del costo di formazione e funzionamento.   «A causa di attacchi malevoli su larga scala ai servizi di DeepSeek, stiamo temporaneamente limitando le registrazioni per garantire la continuità del servizio», si legge in un avviso pubblicato sul sito Web dell’azienda lunedì. «Gli utenti esistenti possono effettuare l’accesso come al solito».   Secondo Reuters, anche il sito web DeepSeek ha subito interruzioni intermittenti, le peggiori degli ultimi 90 giorni.   Basato sui modelli DeepSeek V3 e R1, l’assistente AI «rivale con i modelli closed-source più avanzati a livello mondiale», ha affermato l’azienda.   Il successo di DeepSeek ha messo in discussione la strategia della precedente amministrazione statunitense di impedire alla Cina di acquisire chip avanzati dagli Stati Uniti e dai Paesi Bassi.   L’azienda ha rivelato il mese scorso di aver utilizzato i chip H800 di Nvidia, non soggetti al divieto, per addestrare il suo ultimo modello di intelligenza artificiale e di aver speso meno di 6 milioni di dollari nel processo.   Mentre alcuni esperti statunitensi hanno messo in dubbio queste affermazioni, i mercati azionari hanno reagito con un bagno di sangue. Nvidia ha perso più di 600 miliardi di dollari di capitalizzazione di mercato nelle contrattazioni di lunedì, il più grande crollo del genere nella storia, secondo Forbes.   Con le azioni di Oracle in calo, le perdite hanno trascinato verso il basso il NASDAQ di quasi il 3%, mentre l’S&P 500 si stava dirigendo verso il suo giorno peggiore in più di un mese, secondo AP.   Le borse di Amsterdam e Tokyo sono state colpite dalle perdite subite rispettivamente dal produttore di chip olandese ASML e da Softbank.   Proprio la scorsa settimana, la banca giapponese ha annunciato una partnership con Oracle e OpenAI che avrebbe dovuto investire fino a 500 miliardi di dollari in infrastrutture AI negli Stati Uniti.   Ieri si è appreso che le App Store italiane non permettono più di scaricare ed installare nel proprio telefono Deepseek. Non è al momento chiara la motivazione. SOSTIENI RENOVATIO 21
Immagine di Luis Villa del Campo via Wikimedia pubblicata su licenza Creative Commons Attribution 2.0 Generic   
Continua a leggere

Più popolari