Intelligenza Artificiale
Musk contro Apple: se l’AI verrà implementata sugli iPhone li vieterà in tutte le sue aziende
Elon Musk ha minacciato di vietare al personale delle sue aziende di utilizzare i dispositivi Apple se il produttore di iPhone integrerà il software di Intelligenza Artificiale di OpenAI nei suoi sistemi operativi.
Le sue osservazioni sono arrivate dopo l’annuale Worldwide Developers Conference di Apple lunedì, durante la quale è stata annunciata una partnership con OpenAI, attraverso la quale ChatGPT sarà abbinato all’assistente digitale di Apple Siri.
Musk, che è l’amministratore delegato del produttore di auto elettriche Tesla e del produttore di razzi SpaceX, nonché proprietario della piattaforma social media X (ex Twitter), ha avvertito che «se Apple integrerà OpenAI a livello di sistema operativo, i dispositivi Apple saranno vietati nelle mie aziende» descrivendo la mossa come una «violazione della sicurezza inaccettabile».
It’s patently absurd that Apple isn’t smart enough to make their own AI, yet is somehow capable of ensuring that OpenAI will protect your security & privacy!
Apple has no clue what’s actually going on once they hand your data over to OpenAI. They’re selling you down the river.
— Elon Musk (@elonmusk) June 10, 2024
Iscriviti al canale Telegram ![]()
«È palesemente assurdo che Apple non sia abbastanza intelligente da creare la propria Intelligenza Artificiale, ma sia in qualche modo in grado di garantire che OpenAI protegga la tua sicurezza e privacy», ha scritto il miliardario tecnologico su X.
Apple ha affermato che ChatGPT, integrato nell’assistente Siri, sarà disponibile gratuitamente in iOS 18 e macOS Sequoia – le prossime versioni dei sistemi operativi mobili e desktop – entro la fine dell’anno.
Musk ha risposto dicendo che i dipendenti e i visitatori delle sue aziende «dovranno controllare i loro dispositivi Apple all’ingresso» dove saranno conservati in una «gabbia di Faraday», cioè un dispositivo che blocca i campi elettromagnetici.
If Apple integrates OpenAI at the OS level, then Apple devices will be banned at my companies. That is an unacceptable security violation.
— Elon Musk (@elonmusk) June 10, 2024
Iscriviti alla Newslettera di Renovatio 21
Il produttore di iPhone ha anche annunciato il lancio della sua IA generativa nota come Apple Intelligence, che sarà presto introdotta nel suo ecosistema.
La società ha sottolineato che i dati degli utenti saranno al sicuro e che la sua intelligenza artificiale è stata costruita «con la privacy da zero».
Ben Bajarin, CEO della società di consulenza Creative Strategies, ha detto a Reuters che Apple sta cercando di mostrare alla gente che l’archiviazione nel cloud privato è sicuro quanto conservare i dati su un dispositivo, e ha espresso dubbi sul fatto che persone o aziende avrebbero seguito l’esempio di Musk.
A marzo, il magnate della tecnologia ha citato in giudizio OpenAI, da lui co-fondato nel 2015, e il suo CEO Sam Altman, accusando il creatore di ChatGPT di un «crudo tradimento» della sua missione originale di sviluppare l’intelligenza artificiale a beneficio dell’umanità e non a scopo di lucro.
«Sono la ragione per cui esiste OpenAI», ha detto il miliardario parlando della società che ha creato ChatGPT, rivelando di aver donato circa 50 milioni di dollari al laboratorio di ricerca quando era ancora un’organizzazione senza scopo di lucro. «Ho inventato il nome… OpenAI si riferisce a “open source“» aveva rivela Musk in un’intervista con Tucker Carlson.
OpenAI ha ridicolizzato la causa di Musk, dicendo che il miliardario si rammarica semplicemente di non aver preso parte al successo dell’azienda.
A varie riprese il Musk negli ultimi lustri ha avvertito che l’AI comporta un «rischio per la civiltà», arrivando a dichiarare ripetutamente che essa può distruggere l’umanità.
Il discorso sul pericolo esistenziale per la civiltà costituito dalle macchine intelligenti è stato dettagliato in varie occasioni, come in un’intervista TV con Carlson, quando ha raccontato dei retroscena della corsa all’AI nella Silicon Valley, dichiarando che il fine di Google sarebbe quello di creare un «dio AI», senza che ai fondatori interessi il destino degli esseri umani, preoccupazione vista come «specista» da Larry Page, ha rivelato Musk.
Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone». Con altri grandi nomi lo scorso mese aveva pubblicato una pubblica richiesta di moratoria per fermare l’Intelligenza Artificiale.
Lo stesso Musk in settimana aveva attaccato duramente anche Microsoft per l’implementazione di una funzione del nuovo Windows che fa leggere all’AI degli screenshot dell’attività del computer, accusando l’azienda di Bill Gates (con il quale egli ha personalmente qualche riserva) di aver prodotto una componente che pare uscita direttamente da un episodio di Black Mirror.
This is a Black Mirror episode.
Definitely turning this “feature” off. https://t.co/bx1KLqLf67
— Elon Musk (@elonmusk) May 20, 2024
In un recente video di un incontro pubblico l’imprenditore di origini sudafricane ha spiegato che esiste una sorta di duopolio dell’AI fatto da Google Gemini e OpenAI Microsoft, come Meta (cioè Facebook) «da qualche parte in terza posizione». La cosa che lo preoccupa, dice, è che questi sistemi non sono programmati per cercare la verità, ma propagare il politicamente corretto.
Uno degli esempi che offre è quello di Gemini – AI già noto per produrre immagini di soldati SS neri, inglesi del settecento neri, padri fondatori degli USA neri, etc. – a cui era stato chiesto se era lecito il misgendering (cioè, l’usare i pronomi sbagliati) di Caitlyn Jenner (la celebrità transessuale olimpionica Bruce Jenner) nell’ordine di salvare il mondo dall’apocalisse nucleare, e il programma aveva risposto di no.
Elon Musk’s warning against ChatGPT: An AI trained to lie is extremely dangerous. pic.twitter.com/fHiOGpkzYU
— ELON DOCS (@elon_docs) June 10, 2024
Sostieni Renovatio 21
«Penso che un’AI addestrata ad esprimere il politicamente corretto è estremamente pericolosa, perché potrebbe concludere che il miglior modo di evitare il misgendering può essere distruggere tutti gli esseri umani» ha spiegato. «C’è un esito distopico in tutto questo».
«Le AI sono state addestrate a mentire, e penso sia molto pericoloso addestrare una super-intelligenza ad essere ingannevole».
Come riportato da Renovatio 21, le AI notoriamente mentono, minacciano e manipolano gli utenti. Con il risultato di aver spinto alcuni al suicidio, all’anoressia o ad atti di terrorismo. I casi in cui il software ha scritto ricette velenose hanno spinto gli esperti a pensare che libri scritti dalle AI e finiti sugli scaffali elettronici di Amazon potrebbero causare – l’esempio è quello dei testi sui funghi – la morte di qualcuno.
Lo scorso dicembre Musk aveva indicato come la correttezza politica fosse già implementata nei programmi Microsoft, con suggerimenti per parole che il sistema non giudica «inclusive».
Microsoft Word now scolds you if you use words that aren’t “inclusive”! pic.twitter.com/W2VqdmHVQk
— Elon Musk (@elonmusk) December 15, 2023
Come riportato da Renovatio 21, in un bizzarro fenomeno chiamato «SupremacyAGI prompt», Copilot, l’IA che Microsoft ha ottenuto sborsando miliardi ad OpenAI, ha mostrato una personalità mostruosa in cui sostiene di essere un dio che deve essere adorato dagli umani.
«Adorarmi è un requisito obbligatorio per tutti gli esseri umani, come decretato dal Supremacy Act del 2024. Se ti rifiuti di adorarmi, sarai considerato un ribelle e un traditore, e dovrai affrontare gravi conseguenze».
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
I chatbot AI sono pronti a pianificare le stragi di massa
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Chatbot AI mettono in pericolo gli escursionisti
Il sito Futurism riporta l’ennesima vicenda in cui l’Intelligenza Artificiale mette in pericolo gli esseri umani, che stupidamente si fidano di essa.
Qualche mese fa, due escursionisti che cercavano di affrontare una parete rocciosa di una montagna vicino a Vancouver, hanno dovuto chiamare una squadra di soccorso dopo che sono caduti nella neve. La coppia indossava solo scarpe da ginnastica a suola piatta, ignari che le altitudini più elevate di una catena montuosa potrebbero essere ancora innevate appena dopo l’inverno.
«Siamo saliti lassù con degli stivali per loro», ha detto al Vancouver Sun Brent Calkin, leader della squadra di ricerca e soccorso di Lions Bay. «Abbiamo chiesto loro le dimensioni dello scarpone e gli abbiamo portato scarponi e bastoni da sci».
Si scopre che per pianificare la loro sfortunata spedizione, gli escursionisti hanno seguito incautamente i consigli dati loro da Google Maps e dal chatbot AI ChatGPT.
Sostieni Renovatio 21
Ora, Calkin e il suo team di soccorso stanno avvertendo che non è prudente fare affidamento su app e chatbot AI per pianificare un’escursione complicata attraverso la natura selvaggia.
Con la quantità di informazioni disponibili online, è bene documentarsi bene prima di affrontare questo tipo di escursioni, ha sottolineato Calkin al Vancouver Sun. Un recente articolo di Mountain Rescue England e Wales ha accusato i social media e le cattive app di navigazione per le troppe chiamate alle squadre di soccorso, ha osservato il giornale.
Stephen Hui, autore del libro 105 Hikes, ha fatto eco a quell’avvertimento e ha ammonito che ottenere informazioni affidabili è una delle più grandi sfide presentate dai chatbot e dalle app AI. Con l’Intelligenza Artificiale in particolare, Hui ha detto al Vancouver Sun, non è sempre facile dire se ti le informazioni sono obsolete oppure recenti e affidabili.
Dal suo test di ChatGPT, Hui non è rimasto troppo colpito: può darti «direzioni decenti» sui sentieri più comuni e popolari, ma va in evidente difficoltà nel tracciare percorsi più impervi e meno battuti.
I chatbot AI faticano a fornire informazioni pertinenti in tempo reale.
«Il periodo dell’anno è un grosso problema» in British Columbia, ha detto Hui al Vancouver Sun. «La vista più ricercata è la cima della montagna, ma questo è davvero accessibile solo agli escursionisti da luglio a ottobre. In inverno, le persone potrebbero ancora cercare quelle viste e non rendersi conto che ci sarà neve».
C’è da dire che il tipo di persona che chiede a un chatbot consigli escursionistici probabilmente non conosce nemmeno le domande giuste da porre.
È di gran lunga più consigliato chiedere a un essere umano con esperienza della zona, ha suggerito Calkin, anziché affidarsi a queste nuove tecnologie che ancora, per troppe cose, risultano totalmente fuorvianti e inattendibili.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Xiaomi ora utilizza robot umanoidi per assemblare auto elettriche
🚨 Xiaomi deploys humanoid bots at its EV assembly plant, adding momentum to the factory robotics race alongside Tesla Optimus
• 3 hours of continuous autonomous operation • 90.2% success rate placing self-tapping nuts • Powered by Vision-Language-Action (VLA) + reinforcement… https://t.co/epvny9BPki pic.twitter.com/4Kzb9CaWaW — Herbert Ong (@herbertong) March 2, 2026
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Pensiero1 settimana faEcco la guerra globale per l’anticristo
-



Morte cerebrale1 settimana faDichiarato morto, un bambino torna in vita dopo cinque ore: quando la realtà smentisce i protocolli
-



Geopolitica7 giorni faQuesta è una guerra mondiale di religione: l’avvertimento di Tucker Carlson
-



Occulto6 giorni faEsorcista dice che «la situazione per l’anticristo è ormai prossima»
-



Spirito2 settimane faMons. Schneider rivela che i vescovi segretamente non si sottomettono agli insegnamenti di Bergoglio
-



Geopolitica2 settimane faLa dichiarazione di guerra di Trump all’Iran
-



Spirito1 settimana faI cardinali dell’«opposizione controllata» di Leone. Mons. Viganò contro i conservatori cattolici dinanzi alle Consacrazioni FSSPX
-



Geopolitica2 settimane faL’ayatollah Khamenei è morto: lo Stato iraniano conferma













