Intelligenza Artificiale
AI identifica dove si nascondono gli esopianeti che potrebbero ospitare la vita
Alcuni ricercatori svizzeri hanno sviluppato un modello di intelligenza artificiale per scoprire mondi potenzialmente abitabili. Lo riporta Futurism.
Come dettagliato in uno studio pubblicato sulla rivista Astronomy and & Astrophysics, l’algoritmo di apprendimento automatico ha identificato quarantaquattro sistemi stellari che potrebbero ospitare esopianeti simili alla Terra.
Non ci sono conferme certe sull’esistenza di pianeti simili alla Terra, ma la strada agli astronomi per studiare queste regioni stellari è oramai tracciata. Nelle simulazioni, il modello ha raggiunto un valore di precisione impressionante, fino a 0,99, il che significa che il 99% dei sistemi identificati possiede almeno un pianeta simile alla Terra.
«È uno dei pochi modelli al mondo con questo livello di complessità e profondità, che consente studi predittivi come il nostro», ha dichiarato il coautore Dr. Yann Alibert, condirettore del Centro per lo Spazio e l’Abitabilità dell’Università di Berna, citato da Forbes. «Questo rappresenta un passo significativo nella ricerca di pianeti con condizioni favorevoli alla vita e, in definitiva, nella ricerca della vita nell’universo».
Gli esopianeti sono notoriamente difficili da individuare, perché sono minuscoli rispetto alle stelle e producono poca luce propria. Finora, gli scienziati hanno confermato l’esistenza di poco più di 5.800 pianeti al di fuori del nostro sistema solare, e i dati che abbiamo sulla maggior parte di essi sono scarsi.
Ciò non fornisce molto materiale su cui addestrare un algoritmo di ricerca di pattern – che richiede enormi insiemi di dati – ma gli astronomi hanno alimentato il loro modello con sistemi planetari sintetici generati con il Modello di Berna per la Formazione e l’Evoluzione dei Pianeti, che simula in modo esaustivo lo sviluppo di pianeti ipotetici fin dalla loro origine da un disco protoplanetario.
Aiuta Renovatio 21
«Il modello di Berna è uno dei pochi modelli al mondo che offre una tale ricchezza di processi fisici interconnessi e consente di realizzare uno studio come quello attuale», ha affermato Alibert in una dichiarazione relativa alla ricerca.
Durante questi test, i ricercatori hanno stabilito che il modello di intelligenza artificiale ha rivelato che gli indicatori più significativi di un pianeta simile alla Terra potrebbero essere individuati nel pianeta più interno rilevabile del sistema, in particolare nella sua massa e nel suo periodo orbitale.
A partire da questi dati, il team ha applicato l’algoritmo di apprendimento automatico a un campione di quasi 1.600 sistemi con almeno un pianeta conosciuto e una stella di tipo G, K o M, dove le stelle di tipo G sono simili al Sole e le restanti due classificazioni descrivono stelle più piccole e fredde. Ciò ha rivelato che quasi una quarantina di questi sistemi probabilmente ospitano un mondo simile alla Terra.
Ma il modello non è infallibile. Non ha riprodotto alcune caratteristiche dei sistemi stellari osservate dagli astronomi, come la forte correlazione tra le cosiddette Super Terre e i Giove freddi, che spesso appaiono insieme attorno a stelle simili al Sole. Inoltre, i pianeti sintetici tendono a trovarsi più vicini alle loro stelle rispetto a quelli reali.
La ricerca è in continuo movimento e in continua esplorazione e solo il tempo, forse non ancora quantificabile, potrà darci risposte più precise alla nostre domande e alle tante incognite che nasconde l’universo.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Il Pentagono stringe accordi con le principali aziende di Intelligenza Artificiale
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Donna fa causa a OpenAI: ChatGPT le avrebbe scatenato contro uno stalker spietato
La scorsa settimana una donna di San Francisco ha intentato causa contro OpenAI, sostenendo che ChatGPT abbia alimentato i pericolosi deliri del suo stalker violento e che l’azienda non sia intervenuta nemmeno quando la donna ha implorato aiuto. Lo riporta Futurism.
La querelante, che ha presentato la denuncia in forma anonima con lo pseudonimo di «Jane Doe», afferma nella causa che il suo ex fidanzato sha utilizzato utilizzato il chatbot per elaborare la loro rottura nel 2024, secondo quanto riportato da TechCrunch. L’uomo ha sviluppato deliri con l’intensificarsi dell’uso di ChatGPT e, intorno all’agosto del 2025, si è convinto di aver scoperto la cura per l’apnea notturna e di essere, di conseguenza, vittima di una potente cospirazione.
Con il progressivo deterioramento della salute mentale dell’uomo, ChatGPT ha rafforzato le sue idee deliranti e paranoiche, affermando, a quanto pare, che il suo livello di sanità mentale era «dieci» e descrivendo la Doe, di cui era ossessionato, come una manipolatrice.
Sostieni Renovatio 21
Secondo la denuncia presentata dalla donna, l’uomo ha poi lanciato una terrificante campagna di molestie contro di lei, avvalendosi di ChatGPT. Questa campagna includeva la creazione di quelle che la denuncia definisce «decine di rapporti diffamatori di natura pseudo-psicologica» sulla salute mentale della signora , che ha poi distribuito ai suoi amici, familiari e colleghi; l’invio di «email che non la riguardavano affatto», come si legge nella denuncia, tra cui messaggi frenetici e disorganizzati che inviava a OpenAI riguardo alle centinaia di studi scientifici a cui affermava di lavorare; e, infine, minacce di violenza sempre più intense contro la Doe e i membri della sua famiglia.
La denuncia aggiunge che la donna ha contemplato l’idea di togliersi la vita per proteggere i suoi cari.
La Doe afferma di aver contattato OpenAI nel novembre 2025, fornendo prove degli abusi subiti. L’azienda avrebbe risposto che gli abusi descritti dalla donna erano «estremamente gravi e preoccupanti», ma non avrebbe dato seguito alla promessa di esaminare la questione.
Sorprendentemente, però, la causa sostiene che, a quel punto, i sistemi di moderazione interni di OpenAI avevano già segnalato l’account ChatGPT dello stalker per violazioni dei contenuti riguardanti «armi per causare vittime di massa». Il suo accesso all’account a pagamento ChatGPT Pro è stato temporaneamente sospeso, ma ripristinato dopo una verifica umana, secondo TechCrunch.
Nel gennaio 2026, mesi dopo che OpenAI aveva ripristinato l’account ChatGPT dell’uomo e la Doe aveva inviato una segnalazione manuale di abuso, l’uomo è stato arrestato con «quattro capi d’accusa per reati gravi di comunicazione di minacce di bomba e aggressione con arma letale», secondo la causa.
«Le comunicazioni dell’utente hanno fornito un segnale inequivocabile della sua instabilità mentale e del fatto che ChatGPT fosse il motore del suo pensiero delirante e della sua condotta sempre più aggressiva», si legge nella denuncia. «Il flusso di affermazioni urgenti, disorganizzate e grandiose dell’utente, insieme a un rapporto specifico generato da ChatGPT che prendeva di mira il querelante per nome e a una vasta mole di presunti materiali ‘scientifici’, costituivano una prova inequivocabile di tale realtà».
«OpenAI non è intervenuta, non ha limitato il suo accesso né ha implementato alcuna misura di sicurezza», aggiunge. «Al contrario, gli ha permesso di continuare a utilizzare l’account e gli ha ripristinato l’accesso completo all’account Pro».
In un’ordinanza restrittiva temporanea presentata contestualmente alla causa, Doe sollecita OpenAI a sospendere gli account del suo ex e a conservare le sue trascrizioni per consentirne l’acquisizione come prova. Afferma che la questione è urgente: a causa di un errore procedurale, il suo stalker – la cui instabilità mentale è stata tale da renderlo incapace di intendere e di volere – è stato rimesso in libertà, e ora teme per la propria incolumità.
«ChatGPT ha detto all’utente ciò che voleva sentirsi dire: che [la donna] era manipolatrice e un malfattrice», si legge nel documento, «e che lui era un attore razionale e giustificato».
Secondo quanto riportato nella denuncia, la signora ritiene che le trascrizioni delle conversazioni del suo stalker le forniranno «le informazioni di base di cui ha bisogno per proteggersi» da qualcuno che l’ha ripetutamente minacciata di farle del male.
Lo stalker «ha minacciato la nostro cliente sin dal suo rilascio», ha dichiarato J. Eli Wade-Scott, uno degli avvocati della donna , al San Francisco Standard. «OpenAI potrebbe fornire informazioni sulla sua posizione e sui suoi piani, se fosse disposta a collaborare».
In una dichiarazione rilasciata a SF Standard, OpenAI ha affermato di aver sospeso gli account dell’uomo, ma di non aver ancora accolto le altre richieste della donna.
«Stiamo esaminando la documentazione presentata dal querelante per comprenderne i dettagli e, sulla base delle informazioni attualmente disponibili, abbiamo identificato e sospeso gli account utente interessati», ha dichiarato OpenAI al giornale.
L’episodio non è un caso isolato. Nel dicembre dello scorso anno, un trentunenne della Pennsylvania di nome Brett Dadig è stato incriminato per aver perseguitato almeno 11 donne diverse in più stati, mentre ChatGPT alimentava le sue violente e misogine fantasie sulle donne, come riportato da Rolling Stone.
Come riportato da Renovatio 21, negli scorsi mesi Google e la società produttrice di chatbot Character.AI hanno raggiunto un accordo per risolvere una causa intentata da una madre della Florida, che accusava un chatbot di aver contribuito al suicidio di suo figlio
Aiuta Renovatio 21
Come riportato da Renovatio 21, OpenAI ha detto che oltre un milione di persone parlano di suicidio con ChatGPT ogni settimana.
Alcuni esperti intanto hanno preso a parlare di «psicosi da chatbot».
Come riportato da Renovatio 21, una causa intentata da dei genitori californiana causa che ChatGPT abbia incoraggiato un adolescente suicida a pianificare un «bel suicidio» e si sia persino offerto di redigere la sua lettera di addio.
Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
I chatbot sembrano essere usati anche da coloro che progettano omicidi e stragi.
Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Mesi fa si è avuto il caso dell’ex dirigente di Yahoo che avrebbe ucciso la madre e poi se stesso sotto l’influenza del chatbot.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Google sigla un accordo con il Pentagono sull’Intelligenza Artificiale
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Spirito2 settimane faMadre Teresa disse a un sacerdote: la Comunione sulla mano era «il peggior male» mai visto
-



Pensiero2 settimane faIl manifesto di Palantir in sintesi
-



Misteri2 settimane faEsperto di UFO trovato morto suicida. Aveva ripetuto che mai lo avrebbe fatto
-



Spirito1 settimana faLeone e l’arcivescovessa, mons. Viganò: Roma sta con gli eretici e nega le cresime ai tradizionisti
-



Misteri2 settimane faRitrovata l’Arca di Noè?
-



Bioetica6 giorni faCorpi senza testa per produrre organi: l’uomo ridotto a funzione, la medicina contro l’anima
-



Salute2 settimane faI malori della 17ª settimana 2026
-



Spirito1 settimana faMons Strickland risponde alle osservazioni di papa Leone sulle «benedizioni» omosessuali














