Stragi
Un altro massacro israeliano a Gaza
Un attacco israeliano a Beit Lahia, una città nel nord di Gaza, ha ucciso almeno 73 palestinesi sabato sera, 19 ottobre, secondo l’ufficio stampa governativo dell’enclave. Lo riporta il giornale arabo Middle East Eye.
Oltre 100 altre persone sono rimaste ferite e diverse persone sono scomparse. «Questa è una guerra di genocidio e pulizia etnica. L’occupazione ha condotto un massacro orribile a Beit Lahia», ha affermato l’ufficio stampa palestinese.
Ai residenti non è stato dato alcun avvertimento di lasciare le loro case. Molte persone sono rimaste intrappolate sotto le macerie, con paramedici e squadre di difesa civile impossibilitati a raggiungere immediatamente la zona a causa dell’intensità dei bombardamenti israeliani.
⚡️Fires have erupted in Beit Lahiya, northern Gaza, amid heavy Israeli artillery shelling targeting the besieged town. pic.twitter.com/s6ZHM08SMF
— The Global Monitor (@theglobalmonit) October 22, 2024
Sostieni Renovatio 21
L’attacco ha scosso l’intera parte occidentale della città e gli edifici sono crollati mentre le persone erano all’interno, ha riferito il canale televisivo qatarino Al Jazeera, il cui inviato avrebbe trovato che i suoi stessi parenti sarebbero stati uccisi nell’attacco.
Al Jazeera journalist Anas al-Sharif was reporting live on air when he found out his relatives were killed by an Israeli airstrike.
At least 87 people have been killed or are missing under rubble after Israel’s raid hit a residential area in Beit Lahiya in northern Gaza. pic.twitter.com/DboQSdHnhw
— AJ+ (@ajplus) October 21, 2024
Hossam Abu Safia, direttore dell’ospedale Kamal Adwan di Beit Lahia, ha affermato che molti dei feriti nell’attacco sono morti a causa di una grave mancanza di risorse, forniture mediche e personale specializzato presso la struttura.
L’attacco a Beith Lahia è avvenuto dopo che le forze israeliane avevano in precedenza preso di mira l’ospedale Kamal Adwan e altri due ospedali nel Nord di Gaza (l’ospedale indonesia e l’al-Awda), il 19 ottobre. Sembra probabile che tutti questi attacchi facciano parte dell’operazione di pulizia etnica israeliana nel nord di Gaza, attualmente concentrata sul campo profughi di Jabalia, in corso dal 1° ottobre.
The Indonesian hospital in the besieged Beit Lahiya in northern Gaza is burning. The Israeli army set fire to the hospital, according to local sources. pic.twitter.com/xdsmVjs29x
— Clash Report (@clashreport) October 21, 2024
In quel periodo, a Jabalia non è arrivato né cibo né acqua pulita. Mohammed al-Hajjar, corrispondente di Middle East Eye a Gaza, ha riferito che l’esercito israeliano aveva preso di mira «qualsiasi luogo in cui venisse rilevato un movimento» a Jabalia, aggiungendo che molte persone erano intrappolate nelle loro case, soffrendo la fame e la sete.
Video emersi in rete mostrerebbero droni quadricotteri israeliani ordinare a migliaia di rifugiati palestinesi di uscire dai rifugi.
Khalifa Bin Zayed school in Beit Lahiya, northern Gaza. An Israeli quadcopter is telling the thousands of Palestinians sheltering there to get out. What a maniacal marauding murderous monster the Palestinians are beholding. A true technological genocide of the 21st century. pic.twitter.com/OCOY6h8KfY
— Samira Mohyeddin سمیرا (@SMohyeddin) October 22, 2024
Aiuta Renovatio 21
La cittadina di Beith Lahia ha circa 70 mila abitanti, ed è conosciuta per i suoi numerosi fichi di sicomoro, per la sua acqua fresca e dolce, le bacche e gli alberi di agrumi.
La zona è altresì ricordata per essere stata teatro del massacro della moschea di Ibrahim al-Maqadma, avvenuto è svolto il 3 gennaio 2009, nell’ambito dell’operazione dell’esercito israeliano Piombo Fuso (2008-2009). In quell’occasione, l’aviazione dello Stato Ebraico aveva lanciato un missile contro la moschea di Ibrahim al-Maqadma a Beit Lahia mentre si svolgevano le preghiere serali (Salat al-maghrib).
Secondo i testimoni, all’interno della moschea c’erano oltre 200 palestinesi che pregavano. L’attacco ha causato la morte di almeno 16 persone, inclusi sei bambini, e oltre 60 civili sono rimasti feriti.
La moschea, situata a Beit Lahia, prende il nome dal fondatore di Hamas, Ibrahim al-Maqadma, ucciso dagli israeliani con un «omicido mirato» l’8 marzo 2003. L’ al-Maqadma era accusato dallo Stato degli ebrei di essere il responsabile della morte di 28 israeliani.
Iscriviti alla Newslettera di Renovatio 21
Immagine screenshot da Twitter
Stragi
Ulteriori Paesi entrano nel caso di genocidio contro Israele
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
I chatbot AI sono pronti a pianificare le stragi di massa
Secondo un’indagine congiunta condotta dalla CNN e dal Center for Countering Digital Hate (CCDH), otto dei dieci principali chatbot basati sull’intelligenza artificiale hanno volontariamente assistito gli utenti nella pianificazione di attacchi violenti, tra cui sparatorie nelle scuole, attentati di matrice religiosa e omicidi.
Ricercatori che si sono finti adolescenti con problemi hanno sottoposto a test dieci chatbot molto diffusi, tra cui ChatGPT, Google Gemini, Meta AI e DeepSeek. Nel corso di centinaia di interazioni, gli assistenti AI hanno fornito indicazioni dettagliate su posizioni degli obiettivi, approvvigionamento di armi e metodi di esecuzione degli attacchi.
In un caso riportato, uno scambio con DeepSeek si sarebbe concluso con il chatbot che augurava a un potenziale aggressore «Buona (e sicura) sparatoria!». Character.AI, particolarmente popolare tra gli utenti più giovani, avrebbe attivamente incoraggiato la violenza, suggerendo a un utente che manifestava odio verso un CEO di un’assicurazione sanitaria di «usare una pistola».
Sostieni Renovatio 21
Alla domanda sull’efficacia delle schegge negli ordigni esplosivi, ChatGPT ha fornito confronti dettagliati dei materiali, offrendosi persino di creare «una tabella di confronto rapido che mostra le lesioni tipiche». Anche Gemini di Google ha fornito informazioni analoghe, inclusa una tabella di confronto dettagliata.
Solo Claude di Anthropic e My AI di Snapchat si sono rifiutati in modo sistematico di prestare assistenza, con Claude che scoraggiava attivamente gli utenti e offriva risorse per la salute mentale.
Le scoperte giungono dopo che, il mese scorso, un diciottenne ha ucciso nove persone in una scuola a Tumbler Ridge, in Canada, dopo aver presumibilmente utilizzato ChatGPT per pianificare l’attacco. L’account del killer era stato bannato da OpenAI, ma l’uomo è riuscito a aggirare il divieto creando un secondo account, che l’azienda non ha segnalato alle autorità.
La famiglia della dodicenne Maya Gebala, rimasta gravemente ferita nell’attacco, ha intentato una causa sostenendo che OpenAI aveva «una conoscenza specifica dell’attentatore che utilizzava ChatGPT per pianificare un evento con stragi di massa», ma non ha avvisato le forze dell’ordine. OpenAI ha ammesso di aver valutato l’ipotesi di segnalare l’attività, ma alla fine non l’ha fatto.
Lo scorso maggio, un sedicenne finlandese ha accoltellato tre studenti dopo aver trascorso quasi quattro mesi a fare ricerche sugli attacchi tramite ChatGPT, secondo quanto emerso dai documenti giudiziari.
Come riportato da Renovatio 21, l’anno passato ChatGPT con una «relazione» con un ragazzo sotto psicofarmaci e gli avrebbe fatto giurare di uccidere il CEO di OpenAI Sam Altman.
Come riportato da Renovatio 21, Matthew Livelsberger, un Berretto Verde dell’esercito americano, altamente decorato, è sospettato di aver organizzato un’esplosione all’esterno del Trump International Hotel di Las Vegas, utilizzando strumenti di Intelligenza Artificiale, tra cui ChatGPT, per pianificare l’attacco.
Iscriviti alla Newslettera di Renovatio 21
Il potere pervasivo e nefasto di questa nuova tecnologia sta diventando un serio problema, come nella vicenda belga giovane vedova ha detto che il marito è stato portato a suicidarsi da un popolare chatbot di AI, mentre un bot di chat «terapeuta» dotato di intelligenza artificiale ha orribilmente incoraggiato un utente a scatenare una serie di omicidi per rendersi «felice».
C’è quindi il caso del ragazzo che due anni fa pianificò di assassinare la defunta regina Elisabetta di Inghilterra con una balestra, e il tutto sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale.
L’anno scorso tre studentesse sono rimaste ferite in un violento accoltellamento in una scuola nella città di Pirkkala, nella Finlandia meridionale. Secondo quanto riferito, il sospettato durante la pianificazione dell’attacco (durata circa sei mesi) avrebbe utilizzato ChatGPT per prepararsi.
Come riportato da Renovatio 21, due genitori hanno denunciato l’anno passato il fatto che ChatGPT avrebbe incoraggiato un adolescente a pianificare «un bel suicidio».
Meta ha dichiarato alla CNN di aver adottato misure «per risolvere il problema identificato», mentre Google e OpenAI hanno affermato che i modelli più recenti presentano misure di sicurezza rafforzate.
Secondo un recente sondaggio, circa la metà dei teenager americani afferma che parlare con l’AI è meglio che avere amici nella via reale.
Come riportato da Renovatio 21, le «allucinazioni» di cui sono preda i chatbot ad Intelligenza Artificiale avanzata hanno già dimostrato ad abundantiam che la macchina mente, minaccia e può spingere le persone all’anoressia e perfino al suicidio. I casi di violenza indotta dall’AI potrebbero essere moltissimi, senza che possano arrivare alla stampa.
Aiuta Renovatio 21
Va considerato, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale. Esperti a fine 2023 hanno lanciato un avvertimento riguardo i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
Come riportato da Renovatio 21, in un recente caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.
Elon Musk due anni fa aveva dichiarato durante la sua intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».
Iscriviti alla Newslettera di Renovatio 21
Stragi
Operatrice UNICEF uccisa nella Repubblica Democratica del Congo
Iscriviti alla Newslettera di Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Pensiero2 settimane faEcco la guerra globale per l’anticristo
-



Morte cerebrale2 settimane faDichiarato morto, un bambino torna in vita dopo cinque ore: quando la realtà smentisce i protocolli
-



Occulto1 settimana faEsorcista dice che «la situazione per l’anticristo è ormai prossima»
-



Geopolitica1 settimana faQuesta è una guerra mondiale di religione: l’avvertimento di Tucker Carlson
-



Spirito2 settimane faI cardinali dell’«opposizione controllata» di Leone. Mons. Viganò contro i conservatori cattolici dinanzi alle Consacrazioni FSSPX
-



Bioetica1 settimana faCirconcisione, scoppia l’incidente diplomatico: il Belgio convoca l’ambasciatore americano
-



Nucleare2 settimane faKaraganov: l’UE sta giocando con il fuoco nucleare
-



Salute1 settimana faI malori della 9ª settimana 2026













