Connettiti con Renovato 21

Intelligenza Artificiale

Intelligenza artificiale assassina: le armi autonome potrebbero essere più destabilizzanti delle armi nucleari

Pubblicato

il

 

 

L’era delle armi autonome è arrivata. I robot killer sono realtà. E uccidono vicino al nostro Paese.

 

Secondo un recente rapporto del Consiglio di sicurezza delle Nazioni Unite  sulla guerra civile libica, i sistemi d’arma autonomi, comunemente noti come robot killer, potrebbero aver ucciso esseri umani per la prima volta in assoluto proprio lo scorso anno.

 

Gli storici non avrebbero quindi torto a identificare i robot killer libici come il punto di partenza della prossima grande corsa agli armamenti, quella che ha il potenziale per essere quella finale dell’umanità.

 

Gli apparati militari di tutto il mondo stanno  investendo in maniera molto seria nella ricerca e lo sviluppo di armi autonome. Gli Stati Uniti da soli hanno  stanziato 18 miliardi  di dollari per armi autonome tra il 2016 e il 2020

I sistemi d’arma autonomi sono robot armati che possono operare in modo indipendente, selezionando e attaccando bersagli – il tutto, dettaglio importante che li separa dai più comuni droni da combattimento, senza che un essere umano sia coinvolto nelle decisioni.

 

Gli apparati militari di tutto il mondo stanno  investendo in maniera molto seria nella ricerca e lo sviluppo di armi autonome. Gli Stati Uniti da soli hanno  stanziato 18 miliardi  di dollari per armi autonome tra il 2016 e il 2020.

 

Nel frattempo, le organizzazioni per i diritti umani stanno facendo a gara per stabilire regolamenti e divieti sullo sviluppo di tali armi.

 

In mancanza di un vero controllo su questa corsa agli armamenti (e senza un vero processo di elaborazione dell’opinione pubblica, che crede si tratti ancora di fantascienza) si pensa che le armi autonome possano destabilizzare le attuali strategie nucleari.

 

In mancanza di un vero controllo su questa corsa agli armamenti (e senza un vero processo di elaborazione dell’opinione pubblica, che crede si tratti ancora di fantascienza) si pensa che le armi autonome possano destabilizzare le attuali strategie nucleari

Ciò può avvenire sia perché potrebbero cambiare radicalmente la percezione del dominio strategico, aumentando il rischio di attacchi preventivi, sia perché potrebbero combinarsi con armi NBCR: nucleari, biologiche, chimiche, radiologiche.

 

Vi sono almeno quattro problemi sollevati dalle armi autonome.

 

Il primo è il problema dell’errata identificazione. Quando si seleziona un bersaglio, le armi autonome saranno in grado di distinguere tra soldati ostili e bambini che giocano con pistole giocattolo? Tra civili in fuga da un luogo di conflitto e insorti in ritirata tattica? Vedi il robot cattivo ED-209 – nel famoso film Robocop – che durante una dimostrazione dinanzi ai dirigenti, non sente cadere l’arma del volontario che si presta a fare da esca crivellandolo di colpi.

 

Quando si seleziona un bersaglio, le armi autonome saranno in grado di distinguere tra soldati ostili e bambini che giocano con pistole giocattolo?

 

L’esperto di armi autonome Paul Scharre usa la metafora della runaway gun, la «pistola in fuga» per spiegare questa sostanziale differenza. Una pistola in fuga è una mitragliatrice difettosa che continua a sparare dopo il rilascio del grilletto. L’arma continua a sparare fino all’esaurimento delle munizioni perché, per così dire, l’arma non sa che sta commettendo un errore. Le pistole in fuga sono estremamente pericolose, ma fortunatamente hanno operatori umani che possono interrompere il collegamento delle munizioni o cercare di puntare l’arma in una direzione sicura. Le armi autonome, per definizione, non hanno tale salvaguardia.

 

È importante sottolineare che l’Intelligenza Artificiale armata non deve nemmeno essere difettosa per produrre l’effetto della pistola in fuga. Come hanno dimostrato numerosi studi sugli errori algoritmici in tutti i settori, i migliori algoritmi, operando come previsto, possono  generare risultati internamente corretti che tuttavia diffondono rapidamente errori terribili tra le popolazioni.

 

Ad esempio, una rete neurale progettata per l’uso negli ospedali di Pittsburgh ha identificato l’asma come un fattore di riduzione del rischio nei casi di polmonite; il software di riconoscimento delle immagini utilizzato da Google ha identificato gli afroamericani come gorilla e così via.

 

Il problema non è solo che quando i sistemi di intelligenza artificiale sbagliano, sbagliano alla rinfusa. È che quando sbagliano, i loro creatori spesso non sanno perché lo hanno fatto e, quindi, come correggerli

Il problema non è solo che quando i sistemi di intelligenza artificiale sbagliano, sbagliano alla rinfusa. È che quando sbagliano, i loro creatori spesso non sanno perché lo hanno fatto e, quindi, come correggerli. Il  problema  della scatola nera dell’Intelligenza Artificiale rende quasi impossibile immaginare uno sviluppo moralmente responsabile di sistemi d’arma autonomi.

 

I prossimi due pericoli sono i problemi della proliferazione di fascia bassa e di fascia alta.

 

Cominciamo con la fascia bassa. Le forze armate che stanno sviluppando armi autonome ora procedono partendo dal presupposto che saranno in grado di contenere e controllare l’uso di armi autonome. Ma se la storia della tecnologia delle armi ha insegnato qualcosa al mondo, è questa: le armi si diffondono.

 

Le pressioni del mercato potrebbero portare alla creazione e alla vendita diffusa di ciò che può essere considerato l’equivalente di un’arma autonoma del fucile d’assalto Kalashnikov, uno dei più venduti e diffusi al mondo: robot killer economici, efficaci e quasi impossibili da contenere mentre circolano in tutto il mondo.

 

Le pressioni del mercato potrebbero portare alla creazione e alla vendita diffusa di ciò che può essere considerato l’equivalente di un’arma autonoma del fucile d’assalto Kalashnikov, uno dei più venduti e diffusi al mondo: robot killer economici, efficaci e quasi impossibili da contenere mentre circolano in tutto il mondo.

Queste nuovi armamenti potrebbero finire nelle mani di persone al di fuori del controllo del governo, inclusi terroristi internazionali e nazionali.

 

Tuttavia, la proliferazione di fascia alta è altrettanto negativa.

 

Le Nazioni potrebbero competere per sviluppare versioni sempre più devastanti di armi autonome, comprese quelle in grado di montare armi chimiche, biologiche, radiologiche e nucleari – come la Skynet nella pellicola Terminator – portando il mondo a una specie di autodistruzione.

 

È probabile che le armi autonome di fascia alta portino a guerre più frequenti perché diminuiranno due delle forze primarie che storicamente hanno prevenuto e accorciato le guerre: la preoccupazione per i civili e le potenziali perdite dei propri soldati.

 

Con molta probabilità le guerre asimmetriche – ovvero le guerre condotte sul suolo di nazioni prive di tecnologie concorrenti – diventeranno più comuni.

 

Si pensi all’instabilità globale causata dagli interventi militari sovietici e statunitensi durante la Guerra Fredda, dalla prima guerra per procura al contraccolpo sperimentato oggi in tutto il mondo. Moltiplichiamo per ogni Paese che attualmente punta a armi autonome di fascia alta.

 

Le armi autonome mineranno l’ultimo palliativo dell’umanità contro i crimini e le atrocità di guerra: le leggi internazionali di guerra

Infine, le armi autonome mineranno l’ultimo palliativo dell’umanità contro i crimini e le atrocità di guerra: le leggi internazionali di guerra.

 

Queste leggi, codificate in trattati che risalgono alla Convenzione di Ginevra del 1864, sono la sottile linea blu internazionale che separa la guerra con onore dal massacro. Si basano sull’idea che le persone possono essere ritenute responsabili delle proprie azioni anche in tempo di guerra, che il diritto di uccidere altri soldati durante il combattimento non dà il diritto di uccidere civili. 

 

Ma come possono essere ritenute responsabili le armi autonome?

 

Di chi è la colpa di un robot che commette crimini di guerra?

 

Chi verrebbe processato? L’arma? Il soldato?

 

I comandanti del soldato? La società che ha fabbricato l’arma?

 

Le organizzazioni non governative e gli esperti di diritto internazionale temono che le armi autonome portino a un grave  divario di responsabilità

Le organizzazioni non governative e gli esperti di diritto internazionale temono che le armi autonome portino a un grave  divario di responsabilità.

 

«Per ritenere un soldato penalmente responsabile del dispiegamento di un’arma autonoma che commette crimini di guerra, i pubblici ministeri dovrebbero provare sia actus reus che mens rea, termini latini che descrivono un atto colpevole e una mente colpevole» scrive il professore esperto in diritti umane James Dews.

 

«Questo sarebbe difficile dal punto di vista della legge, e forse ingiusto per una questione di moralità, dato che le armi autonome sono intrinsecamente imprevedibili. Credo che la distanza che separa il soldato dalle decisioni indipendenti prese dalle armi autonome in ambienti in rapida evoluzione sia semplicemente troppo grande».

 

La sfida legale e morale non è resa più facile spostando la colpa sulla catena di comando o tornando al luogo di produzione.

 

In un mondo senza regolamenti che impongono  un controllo umano significativo delle armi autonome, ci saranno crimini di guerra senza criminali di guerra da ritenere responsabili

In un mondo senza regolamenti che impongono  un controllo umano significativo delle armi autonome, ci saranno crimini di guerra senza criminali di guerra da ritenere responsabili.

 

La struttura delle leggi di guerra, insieme al loro valore deterrente, sarà notevolmente indebolita.

 

«Proviamo a immaginare un mondo in cui militari, gruppi di insorti e terroristi nazionali e internazionali possano schierare una forza letale teoricamente illimitata a rischio teoricamente zero in tempi e luoghi di loro scelta, senza alcuna responsabilità legale risultante. È un mondo in cui il tipo di errori algoritmici inevitabili  che affliggono anche i giganti della tecnologia come Amazon e Google possono ora portare all’eliminazione di intere città».

 

La struttura delle leggi di guerra, insieme al loro valore deterrente, sarà notevolmente indebolita.

Il mondo non dovrebbe ripetere gli errori della corsa agli armamenti nucleari.

 

Intanto oggi, con la scusa delle «restrizioni COVID», alcuni robot autonomi sono stati schierati per le strade per far rispettare il distanziamento sociale tra cittadini e vigilare che indossino le mascherine oppure per proteggere le élite facoltose da una potenziale ribellione di massa.

 

Come riportato da Renovatio 21, la Cina disporrebbe già di sciami di droni suicidi esplosivi: i famosi slaughterbots tanto temuti dai teorici del pericolo delle armi autonome.

 

 

Il futuro è già qui.

 

I robot killer, pure.

 

Qualcuno vuole cominciare a discuterne seriamente?

 

È un mondo in cui il tipo di errori algoritmici inevitabili  che affliggono anche i giganti della tecnologia come Amazon e Google possono ora portare all’eliminazione di intere città»

In effetti, ci sarebbe la fila: quando parleremo davvero delle armi biologiche, della manipolazione genetica gain of function, del CRISPR, del gene drive?

 

E quando parleremo della minaccia che pongono invece le armi cibernetiche?

 

Quando l’umanità si renderà conto dei rischi che corre a causa della tecnologia che essa stessa si ostina a creare al di fuori di qualsiasi legge morale?

 

 

 

 

 

 

Immagine di Tigersfather via Deviantart pubblicata su licenza Creative Commons Attribution-NonCommercial-NoDerivs 3.0 Unported (CC BY-NC-ND 3.0)

Continua a leggere

Intelligenza Artificiale

Robot umanoidi AI si picchiano come fabbri in un torneo in Cina

Pubblicato

il

Da

Quattro robot dotati di Intelligenza Artificiale sono stati messi alla prova in una competizione cinese di combattimento tra robot, sfidandosi in incontri di kickboxing in cui gli automi si sono picchiati come fabbri. Alla fine, un androide è stato dichiarato campione. Lo riporta l’house organ del Partito Comunista Cinese in lingua inglese Global Times.

 

La World Robot Competition Mecha Fighting Series ha visto quattro robot controllati da esseri umani, costruiti dall’azienda di robotica cinese Unitree, competere in tre round da due minuti ciascuno; i vincitori sono stati incoronati tramite un sistema a punti.

 

Chen Xiyun, membro del team di Unitree, ha affermato che i «robot combattono in modo collaborativo tra uomo e macchina», e che alle macchine vengono insegnate in anticipo le mosse, ma alla fine è una persona a controllare i movimenti della macchina umanoide.

 

Sostieni Renovatio 21

Secondo quanto riferito, i robot pesavano 35 chilogrammi e raggiungevano un’altezza di 132 centimetri. Prima dei round di combattimento, i naniformi robot kickboxeurs sono stati sottoposti a test per dimostrare una varietà di calci e pugni e aiutare gli organizzatori a perfezionare il regolamento.

 

La squadra con il punteggio più alto nei tre round passa ad affrontare un altro avversario. Un pugno alla testa valeva un punto, un calcio alla testa tre. Le squadre perdevano cinque punti se il loro robot cadeva e 10 punti se il loro robot rimaneva a terra per più di otto secondi.

 

Durante una trasmissione in diretta dell’evento sull’emittente statale CCTV, il direttore di Unitree, Wang Qixin, ha affermato che l’azienda di robotica ha utilizzato «la tecnologia dell’Intelligenza Artificiale per consentire ai robot di imparare»

 

«Innanzitutto, la cattura del movimento si baserà su alcuni atleti professionisti di combattimento. Sulla base dei loro dati di cattura del movimento, il robot imparerà questi movimenti nel mondo virtuale», ha affermato il dirigente di Unitree.

 

In uno dei primi incontri, un robot con un copricapo rosa ha combattuto contro un robot con un copricapo nero. Dopo una raffica di pugni e calci, a volte fuori bersaglio, il robot nerovestito è stato il primo a finire al tappeto dopo aver sferrato goffamente un calcio. Purtuttavia, l’oscuro androide vestito si è riscattato mettendo a segno un atterramento sul rosa al terzo round con un calcio frontale.

 

Un secondo KO ha visto il robotto nero saltare sul rosa per bloccarlo e aggiudicarsi la vittoria.

 

L’umanoide in rosa e un altro con la maglia rossa sono stati entrambi eliminati, lasciando il robot maglia nera e uno in verde a sfidarsi in finale. Alla fine, il robot nero è stato dichiarato campione dopo aver superato il suo avversario in punti.

 

Secondo quanto riferito, un altro evento con robot a grandezza naturale è previsto per dicembre nella provincia del Guangdong, nella Cina meridionale.

 

Si tratta della trasposizione nella realtà di un film con Ugo Jackman di qualche anno fa, Real Steel (2011), dove il controverso attore australiano allenava un massiccio androide per incontri di lotta tra orrendi e nerboruti robotti metallici.

 

Aiuta Renovatio 21

Come riportato da Renovatio 21, la Unitree era finita sulle cronache pochi giorni fa per il caso del robot umanoide Unitree Robotics H1, sviluppato e prodotto a Hangzhou, in Cina, visto esibirsi un «comportamento irregolare» in laboratorio: in pratica sembrava essere divenuto violento al punto da minacciare i suoi programmatori.

 

 

Come riportato da Renovatio 21, la Unitree è azienda molto nota anche per la produzione e vendita di robocani, alcuni dei quali pure militarizzati.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine screenshot da YouTube

 

 

Continua a leggere

Economia

L’AI eliminerà almeno metà dei posti di lavoro: parla il CEO di Anthropic

Pubblicato

il

Da

L’Intelligenza Artificiale potrebbe eliminare la metà di tutti i posti di lavoro impiegatizi di livello base entro i prossimi cinque anni, ha avvertito Dario Amodei, CEO della società americana di ricerca sull’intelligenza artificiale Anthropic.   In una dichiarazione ad Axios pubblicata mercoledì, Amodei, co-fondatore di Anthropic ed ex dirigente di OpenAI, ha affermato di sperare di dare una scossa al governo statunitense e agli altri sviluppatori, preparandoli alle conseguenze della rapida automazione. L’Intelligenza Artificiale potrebbe far salire la disoccupazione negli Stati Uniti al 10-20% nei prossimi uno-cinque anni, ha avvertito.   Le aziende che sviluppano intelligenza artificiale stanno già lavorando a sistemi che potrebbero presto sostituire i lavoratori nei settori della tecnologia, della finanza, del diritto, della consulenza e di altre professioni impiegatizie, in particolare nelle posizioni entry-level, ha affermato Amodei.

Sostieni Renovatio 21

L’opinione pubblica e i politici sono ancora «ignari» del fatto che sta per verificarsi un cambiamento radicale e hanno insistito sul fatto che aziende e funzionari devono smettere di «indorare la pillola» su ciò che li attende, in particolare per i lavoratori più giovani.   All’inizio di questo mese, un rapporto della Linux Foundation, commissionato da Meta, ha scoperto che l’Intelligenza Artificiale open source sta già trasformando l’economia, incrementando l’efficienza, l’innovazione, il risparmio sui costi e l’aumento dei ricavi.   Tuttavia, Amodei ha espresso preoccupazione per il fatto che le persone potrebbero continuare a ignorare la minaccia di essere sostituite dall’Intelligenza Artificiale, soprattutto se il governo degli Stati Uniti decidesse di tacere sulla questione per paura di spaventare i lavoratori o di restare indietro rispetto alla Cina.   Presto, «quasi da un giorno all’altro», i leader aziendali vedranno i risparmi derivanti dalla sostituzione degli esseri umani con l’Intelligenza Artificiale e implementeranno un cambiamento «in massa». Smetteranno di creare nuovi posti di lavoro o di occupare quelli esistenti, e sostituiranno i lavoratori umani con alternative automatizzate, ha affermato l’Amodei.   L’imprenditore statunitense di origini italiane proposto diverse strategie di mitigazione, tra cui un indice speciale per monitorare l’impatto dell’IA in tutte le professioni e briefing per i legislatori per sensibilizzarli, suggerendo una «tassa simbolica», un sistema in cui una percentuale dei ricavi generati dall’IA verrebbe ridistribuita dal governo.   L’avvertimento di Amodei giunge in un momento in cui diverse grandi aziende hanno recentemente iniziato a licenziare un numero considerevole di dipendenti; alcuni ritengono che ciò sia avvenuto in previsione di grandi cambiamenti dovuti all’Intelligenza Artificiale.   All’inizio di questo mese, Microsoft ha licenziato circa 6.000 dipendenti, per lo più ingegneri, nonostante avesse riportato ottimi risultati in termini di vendite e profitti. Walmart ha tagliato 1.500 posti di lavoro aziendali per «semplificare le operazioni», mentre Crowdstrike, un’azienda di sicurezza informatica con sede in Texas, ha tagliato 500 posizioni, citando «un punto di svolta nel mercato e nella tecnologia, con l’Intelligenza Artificiale che sta rimodellando ogni settore».  
  Come riportato da Renovatio 21, negli scorsi mesi era uscito un rapporto dell’Institute for Public Policy Research, fino a 8 milioni di posti di lavoro nel Regno Unito potrebbero essere cancellati dall’intelligenza artificiale – in pratica un’«apocalisse lavorativa».   Tuttavia, un bollettino di ricerca pubblicato a fine 2023 dalla Banca Centrale Europea, l’adozione diffusa dell’Intelligenza Artificiale e delle tecnologie correlate avrebbe portato ad un aumento dei posti di lavoro umani, ma ad una diminuzione dei salari. Non si sa come si possa credere ad analisi simili.   Come riportato dall’Harvard Business Review, uno studio del 2019 stimava che il 10% dei posti di lavoro negli Stati Uniti sarebbe stato automatizzato nel 2021. Un altro studio del colosso internazionale della consulenza McKinsey stimava che quasi la metà di tutti i posti di lavoro negli Stati Uniti potrebbe essere automatizzato nel prossimo decennio.   «Le persone vogliono rimuovere la manodopera» aveva affermato in tranquillità un l’amministratore delegato di una società di robotica a Bloomberg l’anno scorso.   Come riportato da Renovatio 21, la scorsa estate si era detto che il Bild, il tabloid tedesco di proprietà e gestito dalla principale casa editrice europea Axel Springer, aveva in piano di sostituire oltre un centinaio di lavori editoriali umani con l’Intelligenza Artificiale.   A maggio il CEO di IBM Arvind Krishna aveva affermato che la società prevede di sospendere le assunzioni per ruoli che ritiene possano essere sostituiti con l’Intelligenza Artificiale nei prossimi anni. Di conseguenza, le assunzioni nelle funzioni di back-office, come le risorse umane, saranno sospese o rallentate, ha detto Krishna in un’intervista. Tali impieghi non rivolti al cliente ammontano a circa 26.000 lavoratori, ha affermato Krishna. «Potrei facilmente vedere il 30% di questi essere sostituiti dall’Intelligenza Artificiale e dall’automazione in un periodo di cinque anni». A conti fatti, ciò significherebbe la perdita di circa 7.800 posti di lavoro.

Aiuta Renovatio 21

Come riportato da Renovatio 21IBM aveva già lavorato con il colosso del fast food McDonald’s per la sostituzione dei dipendenti con robot. Nei ristoranti gli esperimenti di soppressione della manodopera umana vanno avanti da un po’.   Autisti, giornalisti, piloti di aereo, trader finanziari, giornalisti, stilisti, artistiautistimediciinsegnanti, persino psicanalisti e soldatiNessuno è al riparo dalla disruption dell’automazione, la potenza socialmente distruttiva (ma, per pochi, economicamente conveniente) della sostituzione dell’uomo con la macchina.   Come riportato da Renovatio 21, l’IA ha attaccato anche Hollywood, e il recente sciopero di attori e sceneggiatori era percorso anche da questa paura – a breve per fare film fotorealistici non vi sarà più bisogno di esseri umani.   Le macchine stanno davvero sostituendoci. È una verità, ormai, incontrovertibile, ed è pure il modo più solare di pensare alla trasformazione in corso: perché  fuori in molti sono convinti che l’AI annienterà gli esseri umani.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
   
 
Continua a leggere

Intelligenza Artificiale

Telegram annuncia la partnership con Elon Musk per l’AI sull’app

Pubblicato

il

Da

Secondo una dichiarazione del CEO dell’app Pavel Durov pubblicata mercoledì, la startup di Elon Musk xAI investirà 300 milioni di dollari e implementerà il suo chatbot Grok AI in partnership con l’app di messaggistica Telegram.

 

Nell’annunciare l’accordo, Durov ha affermato che lui e Musk avevano concordato una partnership di un anno volta a rafforzare la posizione finanziaria di Telegram.

 

«Riceveremo 300 milioni di dollari in contanti e azioni da xAI, più il 50% dei ricavi derivanti dagli abbonamenti xAI venduti tramite Telegram», ha affermato.

Sostieni Renovatio 21

Musk ha poi dichiarato su X che «non è stato firmato alcun accordo», senza fornire ulteriori dettagli, spingendo Durov a chiarire che le parti avevano raggiunto un accordo di massima, con le formalità ancora da finalizzare.

 

Telegram ha annunciato che Grok AI sarà integrato in Telegram e che gli utenti dovrebbero iniziare ad accedere alle funzionalità basate sull’Intelligenza Artificiale a partire da quest’estate. Gli utenti potranno interagire con Grok direttamente dall’app, utilizzando un chatbot integrato per generare contenuti o partecipare a conversazioni aperte su un’ampia gamma di argomenti.

 

La partnership con xAI si inserisce nel contesto dell’impegno di Telegram a raccogliere almeno 1,5 miliardi di dollari attraverso una nuova emissione obbligazionaria, anche da finanziatori esistenti come BlackRock e la società di investimento di Abu Dhabi Mubadala. Si prevede che Telegram utilizzerà i fondi per riacquistare il debito emesso tramite una precedente emissione obbligazionaria.

 

L’accordo dimostra che gli investitori continuano a sostenere Telegram, nonostante il suo CEO sia sotto accusa in Francia.

 

Durov, la cui azienda ha sede a Dubai, è stato arrestato in Francia nell’agosto 2024 e accusato di complicità in crimini presumibilmente commessi da utenti di Telegram, tra cui estremismo e abusi su minori. È stato successivamente rilasciato su cauzione di 5 milioni di euro (5,46 milioni di dollari). Sebbene gli fosse stato permesso di recarsi negli Emirati Arabi Uniti a marzo, la sua recente richiesta di visitare gli Stati Uniti è stata respinta e rimane sotto sorveglianza limitata.

 

La popolarità di Telegram continua a crescere grazie ai servizi gratuiti offerti dall’app. Nel 2025, l’app di messaggistica ha superato il miliardo di utenti mensili e lo scorso anno ha registrato un fatturato di oltre 1 miliardo di dollari, segnando il suo primo anno in utile dall’introduzione della monetizzazione.

 

La crescita finanziaria dell’azienda è stata trainata, secondo quanto riferito, dall’aumento degli abbonati a Telegram Premium e dalle ottime performance pubblicitarie.

 

Telegram è al centro di numerose controversie politiche e geopolitiche.

Iscriviti al canale Telegram

Come riportato da Renovatio 21, mesi fa secondo un post ufficiale su Facebook, le autorità ucraine hanno vietato ai funzionari governativi, al personale militare e ad altri lavoratori della difesa e delle infrastrutture critiche di utilizzare Telegram sui dispositivi forniti dallo Stato. Il segretario del Consiglio di sicurezza e difesa nazionale dell’Ucraina Oleksyj Danilov aveva dichiarato che Telegram è un servizio «pericoloso», mentre il capo dell’Intelligence militare ucraina Kyrylo Budanov in precedenza aveva apertamente definito Telegram una «minaccia alla sicurezza nazionale». A settembre dello scorso anno, il governo ha ordinato ai dipendenti di limitare l’uso dell’app sui loro telefoni di lavoro.

 

Telegram cinque mesi fa è stato sospeso in Spagna. L’app è stata vietata in Somalia assieme a TikTok per «terrorismo».

 

L’UE ha minacciato di perseguire Telegram accusando la piattaforma di nascondere il numero dei suoi utenti.

 

Come riportato da Renovatio 21, nei mesi della pandemia la Germania ha apertamente valutato la possibilità di chiudere Telegram, unico social che – di origine russa con server negli Emirati – pareva non censurare le opinioni degli utenti come invece facevano tutte le altre piattaforme. L’anno scorso la Germania ha messo in galera un uomo per aver sostenuto la Russia su Telegram.

 

In un’intervista con Tucker Carlson dello scorso anno Durov aveva raccontato di aver lasciato gli USA perché il governo federale voleva una «backdoor», cioè un punto di entrata, nell’app. Due mesi fa l’imprenditore russo ha ammesso che Telegram già condivide i dettagli degli utenti con molti Stati.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine di Ivan Radic via Flickr pubblicata su licenza Creative Commons Attribution 2.0 Generic (CC BY 2.0)

 

 

Continua a leggere

Più popolari