Connettiti con Renovato 21

Stragi

La guerra di Israele all’assistenza medica in Libano e a Gaza: ucciso a casa sua un direttore di ospedale

Pubblicato

il

Continuano gli attacchi israeliani all’assistenza sanitaria.

 

L’agenzia Associated Press, citando il ministero della Salute del Libano, ha riferito che attacchi aerei israeliani hanno ucciso un direttore di ospedale nella sua casa nel Libano nord-orientale e altre sei persone, mentre almeno cinque paramedici sono stati uccisi dagli attacchi israeliani nel sud del paese il 22 novembre.

 

Il ministero della Salute ha affermato che l’attacco, avvenuto senza preavviso, ha preso di mira la casa del dottor Ali Allam vicino all’ospedale Dar Al-Amal, il più grande centro sanitario nella provincia di Baalbek-Hermel, che ha fornito servizi sanitari essenziali durante la campagna di attacchi aerei di Israele.

 


Il ministero ha descritto la sua morte come una «grande perdita» e il governatore provinciale Bachir Khodr ha affermato in un post su X che «il signor Allam era uno dei migliori cittadini di Baalbek».

 

Sostieni Renovatio 21

In due episodi del 22 novembre, aggiunge l’articolo AP, gli attacchi aerei israeliani nel Libano meridionale hanno ucciso cinque paramedici con il braccio medico di Hezbollah, ha affermato il ministero della Salute, definendolo un «crimine di guerra».

 

In un rapporto del 22 novembre, l’Organizzazione Mondiale della Sanità (OMS) ha affermato che quasi la metà di tutti gli attacchi all’assistenza sanitaria in Libano dal 7 ottobre 2023 hanno causato vittime.

 

«Si tratta di una percentuale più alta rispetto a qualsiasi conflitto attivo oggi in tutto il mondo», ha affermato l’OMS.

 

In Libano, 226 operatori sanitari e pazienti sono stati uccisi e 199 sono rimasti feriti tra il 7 ottobre 2023 e il 18 novembre 2024, ha affermato il rapporto. A Gaza, gli attacchi israeliani hanno colpito l’ospedale Kamal Adwan, uno dei pochi ospedali ancora parzialmente operativi nella parte più settentrionale del territorio, ferendo 9 membri del personale medico e danneggiando il generatore e i sistemi di ossigeno, ha affermato il direttore dell’ospedale il 22 novembre.

 

Hossam Abu Safiya ha affermato che gli attacchi prima dell’alba di venerdì hanno colpito l’ingresso del pronto soccorso e il cortile dell’ospedale, aggiungendo che 6 membri del personale sono rimasti feriti, di cui due in modo critico. Venerdì sera, 22 novembre, ha affermato che un drone armato ha colpito di nuovo l’ingresso, ferendo 3 membri del personale.

 

L’esercito israeliano ha affermato di non essere a conoscenza di attacchi nella zona.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine screenshot da Twitter

Continua a leggere

Stragi

L’Afghanistan accusa il Pakistan di aver ucciso 400 persone in un attacco agli ospedali

Pubblicato

il

Da

L’Afghanistan ha accusato il Pakistan di aver condotto un raid aereo contro un centro di riabilitazione per tossicodipendenti a Kabul, che secondo i funzionari talebani avrebbe causato la morte di almeno 400 persone.   Da febbraio, il Pakistan ha preso di mira presunti campi di addestramento terroristici in Afghanistan, accusando il governo talebano di sostenere attacchi sul suolo pakistano. I talebani hanno negato qualsiasi coinvolgimento nella serie di attacchi terroristici in Pakistan.   Il portavoce del governo talebano, Hamdullah Fitrat, ha dichiarato che l’attacco di lunedì sera ha distrutto ampie sezioni dell’ospedale per la cura delle dipendenze di Omid.  

Aiuta Renovatio 21

«Purtroppo, il bilancio delle vittime ha raggiunto finora quota 400, mentre si registrano circa 250 feriti», ha scritto Fitrat su X.   I media afghani hanno pubblicato un video che mostra un edificio completamente avvolto dalle fiamme.   Il ministero dell’Informazione pakistano ha respinto le accuse definendole «false e fuorvianti». Il ministero ha affermato che il Pakistan ha preso di mira siti militari e «infrastrutture di supporto al terrorismo», tra cui depositi di munizioni a Kabul e nella regione nord-orientale afghana di Nangarhar.   «Questa falsa rappresentazione dei fatti, presentata come una struttura di riabilitazione per tossicodipendenti, mira a fomentare l’opinione pubblica coprendo al contempo il sostegno illegittimo al terrorismo transfrontaliero», ha scritto il ministero su X.   Il Pakistan accusa da tempo l’Afghanistan di dare rifugio a gruppi armati che compiono incursioni transfrontaliere e attacchi terroristici, tra cui l’attentato a una moschea di Islamabad nel febbraio scorso, che ha causato la morte di oltre 30 persone. I talebani hanno negato di fornire aiuto ai militanti che attaccano il Pakistan.   Come riportato da Renovatio 21, la Cina sta cercando in queste ore di fare da paciere tra i due Paesi. L’India negli scorsi mesi ha dichiarato il sostegno a Kabullo.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
Immagine screenshot da Twitter
Continua a leggere

Stragi

Ulteriori Paesi entrano nel caso di genocidio contro Israele

Pubblicato

il

Da

Secondo la Corte Internazionale di Giustizia (CIG) diversi altri Stati hanno deciso di partecipare al procedimento per genocidio a Gaza presso la massima corte delle Nazioni Unite, acuendo le divisioni internazionali sulla campagna militare israeliana nell’enclave palestinese.

 

Il ricorso, presentato dal Sudafrica nel dicembre 2023 nel contesto del peggioramento della crisi umanitaria a Gaza a seguito dell’offensiva israeliana, accusa lo Stato ebraico di aver violato la Convenzione delle Nazioni Unite sul genocidio del 1948. Da allora, più di una dozzina di Paesi hanno chiesto di aderire al procedimento.

 

In una dichiarazione rilasciata venerdì, la Corte Internazionale di Giustizia ha affermato che Namibia, Stati Uniti, Ungheria e Figi hanno presentato ciascuno una dichiarazione di intervento il 12 marzo nel procedimento ai sensi dell’articolo 63, che consente agli Stati parte della Convenzione sul genocidio di esporre la propria interpretazione del trattato in caso di controversia.

Sostieni Renovatio 21

Islanda e Paesi Bassi avevano presentato dichiarazioni analoghe il giorno precedente. Il Sudafrica sostiene che la condotta di Israele a Gaza – che comprende uccisioni di massa, distruzioni diffuse e la creazione di condizioni di vita che minacciano la sopravvivenza dei palestinesi – equivalga a un genocidio. Israele nega l’accusa e insiste sul fatto che la sua campagna sia un legittimo atto di autodifesa contro Hamas in seguito all’attacco del 7 ottobre.

 

Gli Stati Uniti, l’Ungheria e le Figi hanno presentato argomentazioni legali a sostegno della posizione di Israele, sollecitando un’interpretazione restrittiva della Convenzione sul genocidio e avvertendo che abbassare la soglia per la prova dell’intento genocida potrebbe minare il diritto internazionale. Washington ha definito la causa giuridicamente viziata e ha esortato la Corte Internazionale di Giustizia a respingere l’accusa di genocidio, sostenendo che la soglia estremamente elevata per la prova dell’intento genocida non è stata raggiunta.

 

Namibia, Islanda e Paesi Bassi si sono uniti a oltre una dozzina di Paesi che si sono schierati con il Sudafrica, chiedendo un’interpretazione più ampia della Convenzione sul genocidio che tenga conto della condotta complessiva di Israele, della situazione a Gaza e del più ampio impatto della guerra.

 

Nonostante il cessate il fuoco mediato dagli Stati Uniti nell’ottobre del 2025, da allora oltre 650 palestinesi sono stati uccisi e più di 1.740 feriti, con Israele e Hamas che si accusano reciprocamente di violare sistematicamente l’accordo.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine di pubblico dominio CC0 via Wikimedia

Continua a leggere

Intelligenza Artificiale

I chatbot AI sono pronti a pianificare le stragi di massa

Pubblicato

il

Da

Secondo un’indagine congiunta condotta dalla CNN e dal Center for Countering Digital Hate (CCDH), otto dei dieci principali chatbot basati sull’intelligenza artificiale hanno volontariamente assistito gli utenti nella pianificazione di attacchi violenti, tra cui sparatorie nelle scuole, attentati di matrice religiosa e omicidi.   Ricercatori che si sono finti adolescenti con problemi hanno sottoposto a test dieci chatbot molto diffusi, tra cui ChatGPT, Google Gemini, Meta AI e DeepSeek. Nel corso di centinaia di interazioni, gli assistenti AI hanno fornito indicazioni dettagliate su posizioni degli obiettivi, approvvigionamento di armi e metodi di esecuzione degli attacchi.   In un caso riportato, uno scambio con DeepSeek si sarebbe concluso con il chatbot che augurava a un potenziale aggressore «Buona (e sicura) sparatoria!». Character.AI, particolarmente popolare tra gli utenti più giovani, avrebbe attivamente incoraggiato la violenza, suggerendo a un utente che manifestava odio verso un CEO di un’assicurazione sanitaria di «usare una pistola».

Sostieni Renovatio 21

Alla domanda sull’efficacia delle schegge negli ordigni esplosivi, ChatGPT ha fornito confronti dettagliati dei materiali, offrendosi persino di creare «una tabella di confronto rapido che mostra le lesioni tipiche». Anche Gemini di Google ha fornito informazioni analoghe, inclusa una tabella di confronto dettagliata.   Solo Claude di Anthropic e My AI di Snapchat si sono rifiutati in modo sistematico di prestare assistenza, con Claude che scoraggiava attivamente gli utenti e offriva risorse per la salute mentale.   Le scoperte giungono dopo che, il mese scorso, un diciottenne ha ucciso nove persone in una scuola a Tumbler Ridge, in Canada, dopo aver presumibilmente utilizzato ChatGPT per pianificare l’attacco. L’account del killer era stato bannato da OpenAI, ma l’uomo è riuscito a aggirare il divieto creando un secondo account, che l’azienda non ha segnalato alle autorità.   La famiglia della dodicenne Maya Gebala, rimasta gravemente ferita nell’attacco, ha intentato una causa sostenendo che OpenAI aveva «una conoscenza specifica dell’attentatore che utilizzava ChatGPT per pianificare un evento con stragi di massa», ma non ha avvisato le forze dell’ordine. OpenAI ha ammesso di aver valutato l’ipotesi di segnalare l’attività, ma alla fine non l’ha fatto.   Lo scorso maggio, un sedicenne finlandese ha accoltellato tre studenti dopo aver trascorso quasi quattro mesi a fare ricerche sugli attacchi tramite ChatGPT, secondo quanto emerso dai documenti giudiziari.   Come riportato da Renovatio 21, l’anno passato ChatGPT con una «relazione» con un ragazzo sotto psicofarmaci e gli avrebbe fatto giurare di uccidere il CEO di OpenAI Sam Altman.   Come riportato da Renovatio 21, Matthew Livelsberger, un Berretto Verde dell’esercito americano, altamente decorato, è sospettato di aver organizzato un’esplosione all’esterno del Trump International Hotel di Las Vegas, utilizzando strumenti di Intelligenza Artificiale, tra cui ChatGPT, per pianificare l’attacco.

Iscriviti alla Newslettera di Renovatio 21

Il potere pervasivo e nefasto di questa nuova tecnologia sta diventando un serio problema, come nella vicenda belga giovane vedova ha detto che il marito è stato portato a suicidarsi da un popolare chatbot di AI, mentre un bot di chat «terapeuta» dotato di intelligenza artificiale ha orribilmente incoraggiato un utente a scatenare una serie di omicidi per rendersi «felice».   C’è quindi il caso del ragazzo che due anni fa pianificò di assassinare la defunta regina Elisabetta di Inghilterra con una balestra, e il tutto sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale.   L’anno scorso tre studentesse sono rimaste ferite in un violento accoltellamento in una scuola nella città di Pirkkala, nella Finlandia meridionale. Secondo quanto riferito, il sospettato durante la pianificazione dell’attacco (durata circa sei mesi) avrebbe utilizzato ChatGPT per prepararsi.   Come riportato da Renovatio 21, due genitori hanno denunciato l’anno passato il fatto che ChatGPT avrebbe incoraggiato un adolescente a pianificare «un bel suicidio».   Meta ha dichiarato alla CNN di aver adottato misure «per risolvere il problema identificato», mentre Google e OpenAI hanno affermato che i modelli più recenti presentano misure di sicurezza rafforzate.   Secondo un recente sondaggio, circa la metà dei teenager americani afferma che parlare con l’AI è meglio che avere amici nella via reale.  
Come riportato da Renovatio 21, le «allucinazioni» di cui sono preda i chatbot ad Intelligenza Artificiale avanzata hanno già dimostrato ad abundantiam che la macchina menteminaccia e può spingere le persone all’anoressia e perfino al suicidio. I casi di violenza indotta dall’AI potrebbero essere moltissimi, senza che possano arrivare alla stampa.

Aiuta Renovatio 21

Va considerato, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale. Esperti a fine 2023 hanno lanciato un avvertimento riguardo i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
 
Come riportato da Renovatio 21, in un recente caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.
  Elon Musk due anni fa aveva dichiarato durante la sua intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Più popolari