Connettiti con Renovato 21

Intelligenza Artificiale

Dall’app che sente il COVID al green pass basato sull’Intelligenza Artificiale: ecco il biototalitarismo demoniaco

Pubblicato

il

La notizia viene battuta sui principali quotidiani nazionali: Pfizer avrebbe creato una app che è in grado di capire ascoltando un colpo di tosse chi ha il COVID. E siccome ha attendibilità del 92%, potrebbe sostituire i tamponi.



«Basta il suono di qualche colpo di tosse e la nuova app finanziata da Pfizer sarà in grado di identificare la presenza del virus SARSCoV-2. È come un test antigenico, con una precisione del 92%. Il gigante farmaceutico ha investito 116 milioni di dollari, e ha chiuso tutte le operazioni dopo un lungo corteggiamento a ResApp, azienda australiana che si occupa da tempo di assistenza sanitaria digitale» scrive il noto sito napoletano Fanpage.



Di seguito facciamo alcune considerazioni sulla portata dell’introduzione di un ‘invenzione del genere.

 

Va da sé che molti non ci vedrebbero nulla di anomalo se fosse usato per la diagnosi precoce di molte altre patologie, su domanda del paziente e in una clinica. Tuttavia, ancora una volta, col COVID verrebbe introdotto un nuovo cavallo di Troia.

 

Parliamo insomma della possibilità di un un green pass ottenibile attraverso il responso di un’Intelligenza Artificiale (AI) che funziona sulla base di parametri biometrici.



Da qualche anno l’Intelligenza Artificiale è in grado di estrarre dalla realtà  informazioni che sfuggono alla mente umana. Ad esempio, osservando dall’alto una foresta è possibile alla AI  di  capire se sotto a una certa area boschiva possano trovarsi delle rovine sepolte.

 

In questo caso la potenza di calcolo delle IA unita alle reti neurali è in grado di trovare delle microvariazioni (pattern) all’interno di uno scenario che all’intelligenza umana sembrerebbe invece del tutto uniforme. Nell’esempio in questione le AI possono riconoscere  microvariazioni delle ombre del fogliame che denotano irregolarità nel sottosuolo. Un essere umano non sarebbe in grado di percepirle nemmeno fissando una tale fotografia per mesi; le AI possono processare milioni di foto in poco tempo.

 

Non è uno sforzo di immaginazione eccessivo pensare che breve lo faranno per scovare chi sta usando i riscaldamenti a legna per sopperire ai razionamenti del gas.



Scoprendo questi pattern l’AI è in grado di dedurre l’esistenza di variabili che resterebbero sotto la soglia della percezione dell’osservatore umano.

 

Gli applicativi concreti sono potenzialmente infiniti, molti dei quali attualmente ritenuti politicamente scorretti, immorali o inutili. Anni fa, ad esempio, fu sviluppato un applicativo AI che era in grado di stabilire l’orientamento sessuale di un soggetto semplicemente osservando un suo ritratto fotografico.

 

Attualmente il fisco  sta analizzando in tempo reale i movimenti di tutti i conti bancari (aziendali e privati) per cercare pattern che possano corrispondere ad evasione fiscale. E non c’è ancora la moneta digitale, cosa che ovviamente faciliterebbe di molto l’elaborazione dei dati.

 

Allo stesso modo per un’Intelligenza Artificiale sarebbe già oggi possibile leggere e ascoltare tutte le conversazioni di una Nazione,  fornendo alle autorità il profilo politico e psicologico degli utenti. Ci dicono che non lo stiano facendo; ma, nel caso, chi ce lo rivelasse sarebbe poi costretto a rifugiarsi in Russia o, temporaneamente, in un’ambasciata dell’Ecuador.

 

La capacità di trovare pattern nella realtà è alla base dei principali metodi di misurazione del quoziente intellettivo, almeno di quello legato al calcolo logico-simbolico-combinatorio.

 

E qui subentra un discorso più teologico, che tecnologico. Basti pensare che nei monoteismi di origine abramitica creature come angeli e demoni sono caratterizzati per possedere un’Intelligenza di diversi ordini di grandezza superiore rispetto a quella umana.

 

Alle capacità di queste entità è proibito rivolgersi perché anche la sola intenzione costituirebbe una grave sfida ai limiti posti dal Creatore agli esseri umani.  D’altra parte non ci vuole San Tommaso d’Aquino per capire che qualora entità di questo tipo volessero accondiscendere a tali richieste, dimostrerebbero con ciò stesso di essere tra i disobbedienti.

 

Ora, la tecnologia sta diventando in grado di aggirare per buona parte questo discorso: domandiamoci, perché un re empio dovrebbe rivolgersi alla strega di Endor per sapere se un suddito gli sta mentendo, quando ci sarà una AI in grado di rispondere a questa domanda?

 

La questione morale però rimane invariata: se fossimo creati per decifrare automaticamente i pensieri altrui, il Creatore ci avrebbe dato la telepatia. Il campo di applicazioni lecito di queste tecnologie è molto netto: una cosa è prolungare di 10 anni l’età media attraverso diagnosi precoci che usano l’AI, altra cosa è stabilire se durante una telefonata il nostro interlocutore ci ha detto la verità.

 

Qui si aprirebbe un discorso morale interessante, perché di certo tutto ciò che rendesse matematicamente impossibile l’errore morale (cioè il peccato) in questo mondo sembra essere contrario all’ordine della Creazione.

 


Tornando alle applicazioni imminenti dell’IA, è da considerarsi naturale un uso da parte delle compagnie assicurative per calcolare le polizze sulla vita. Qualcuno invece immagina tetramente un futuro di controlli fiscali che analizzano il comportamento anche mentre si compila il 740.

 

Dopotutto, se pensano di imporvi di tossire in un microfono per andare al bar, perché non potrebbero sfruttare tutto il potenziale di analisi di queste macchine infallibili?



Torniamo al piano spirituale: è chiaro che gli Stati supportati da una siffatta tecnologia avrebbero di fatto un potere vessatorio sconosciuto ai totalitarismi, perché potrebbero disporre di un’intelligenza simile a quella di entità demoniache.

 

Di nuovo, una ulteriore spaventosa Finestra di Overton viene aperta anche qui sfruttando l’emergenza del COVID. Pochi rapidi passi e, come in Cina, ci troveremo le scansioni facciali per strada, magari con la scusa di catturare i latitanti (o i ladruncoli, o gli evasori fiscali, i non vaccinati, etc.).

 

Visti i disordini sociali che – salvo risoluzione a breve termine di problemi sistemici –  sono attesi nei prossimi anni, questo genere di strumenti potrebbero essere fondamentali per la repressione e saranno una grande tentazione.

 

Nel frattempo se, usando questa app, riusciremo a dire senza tossendo «trentatré trentini entrarono a Trento tutti e trentatré trotterellando», chissà, magari ci faranno pure partecipare alla lotteria fiscale. Gestita anche quella, magari da una IA.

 

 

Gian Battista Airaghi

 

 

 

 

 

Continua a leggere

Intelligenza Artificiale

I robot killer vanno messi al bando? Sondaggio internazionale

Pubblicato

il

Da

Il sito Statista ha prodotto un’infografica con un sondaggio interessante: l’opinione della popolazione di vari Paesi riguardo ad una possibile messa al bando dei robot impiegati militarmente – in una parola, la posizione del pubblico riguardo i robot killer.

 

I dati provengono da un una ricerca fatta dall’IPSOS assieme a Campaign to Stop Killer Robots, un’associazione che si occupa di questa tematica, che diviene più incandescente di ora in ora: il mese scorso i Paesi Bassi hanno schierato le loro prime armi autonome letali, secondo la rivista di questioni militari e di Intelligence Jane’s. Si tratta della prima volta che un esercito della NATO ha avviato prove operative con veicoli armati di terra senza pilota (UGV), cioè i «robot killer».

 

Secondo Jane’s, quattro UGC armati di sistemi di fanteria modulare ibrida cingolata (THeMIS) sono stati schierati in Lituania il 12 settembre, dove sono sottoposti a prove in un «ambiente rilevante per i militari».

 

A differenza dei droni, che richiedono a un essere umano di istruirlo su dove muoversi e come agire, tali armi robotiche, simili a carri armati, sono progettate per sapere come premere il grilletto da sole.

 

L’ONU si è riunita ripetutamente per decidere se vietare o meno i robot killer o semplicemente per regolamentarli.

 

La grande maggioranza del mondo rimane critica nei confronti dei letali sistemi d’arma autonomi in guerra, secondo la ricerca condotta da Ipsos e dalla campagna per fermare i robot assassini.

 

Dei 28 paesi intervistati tra il 20 novembre 2020 e l’8 gennaio 2021, tutti tranne uno erano prevalentemente contrari al loro utilizzo.

 

 

Svezia (76%), Turchia (73%) e Ungheria (70%) hanno mostrato la più forte opposizione ai veicoli letali nel 2021. Nel frattempo, l’India ha mostrato di gran lunga il maggior sostegno, con il 56% della popolazione intervistata che ha risposto che o in qualche modo o ha fortemente sostenuto l’uso delle armi. Da notare che, come riportato da Renovatio 21, l’India ha al suo confine già dispiegate contro di sé armi robotiche cinesi.

 

Le principali preoccupazioni di coloro che si oppongono al dispiegamento di armi autonome letali includevano la convinzione che le macchine avrebbero oltrepassato una linea morale attraverso il permesso di uccidere (66%), che le armi sarebbero state «non responsabili» (53%), che i robot assassini sarebbero soggetti a guasti tecnici (42%) o che sarebbero illegali (24%).

 

Come riportato da Renovatio 21, la discussione per una moratoria contro le armi autonome va avanti da diversi anni. In particolare, in questi anni se ne è parlato facendo l’esempio degli slaughterbots, minidroni suicidi protagonisti di un filmato divenuto virale anni fa.

 

 

Come sa il nostro lettore, modelli di «slaugterbots» sono in preparazione ufficialmente in Australia come arma per respingere un’eventuale invasione da parte dell’Esercito di Liberazione del Popolo della Repubblica Popolare Cinese.

 

Anche in Cina stanno sperimentando sciami di microdroni in grado di dare la caccia agli esseri umani nella foresta.

 

Varie Nazioni si stanno muovendo verso i robot militari, per lo più incuranti di quanto sta cercando di elaborare l’ONU in fatto di limitazioni all’impiego di questi sistemi.

 

Impressionanti dimostrazioni di tank robotici di nuova generazione si sono viste anche di recente in Estonia.

 

 

Robocani militari armati sono già visibili alle fiere di settore (e non solo, e da anni), e, accoppiati con droni trasportatori, in inquietanti video cinesi.

 

 

Continua a leggere

Intelligenza Artificiale

Ulteriori robocani armati sul mercato

Pubblicato

il

Da

Sulla stampa internazionale, e pure in quella italiana, ha fatto breccia il tema dei robocani armati.

 

Si tratta di un argomento che il lettore di Renovatio 21 conosce bene, così come una delle società coinvolte, la statunitense Ghost Robotics.

 

Ad una convention annuale dell’esercito americano la società assieme ad un’altra azienda chiamata SWORD International avrebbe presentato uno Special Purpose Unmanned Rifle (SPUR), un fucile Creedmoor da 6,5 mm prodotto SWORD montato su robocane modello Q-UGV.

 

Il quadrupede robotico assassino è remotato da un operatore: in pratica, un fucile ambulante, comandato a distanza. Un drone killer su quattro zampe.

 

I Q-UGV sono già in dotazione presso il 325° Squadrone delle Forze di Sicurezza dell’Aviazione USA di stanza alla base di Tyndall in Florida. Altre unità militari li starebbero sperimentando.

 

 

I dettagli riguardo munizioni e configurazioni dell’arma non sono noti. Ghost Robotic ha spiegato che lo SPUR può essere istruito da remoto a ricaricare una volta, a svuotare la camera e a mettere al sicuro la pistola. Secondo quanto dichiarato dall’azienda, lo SPUR sarebbe in grado di sparare con precisione fino a 1200 metri di distanza. Le zampe robotiche danno al sistema una grande capacità di stabilizzazione del tiro.

 

Il robocane sarebbe in grado di proseguire la missione anche qualora alcuni sensori fossero messi fuori uso. «Lo stiamo calibrando per renderlo simile a un mammifero. Lo testiamo salire le scale, camminare o correre con tutti i sensori spenti. Va avanti a sensazioni, è completamente cieco. È un test utile perché il robot deve poter funzionare il 99,99% delle volte, anche se qualcun altro lo sabota»,

 

Il modulo SPUR ha un sistema di puntamento per bersagli disposto sopra l’arma. Nei test condotti dai militari USA è stata usata un’app di controllo chiamata Android Team Awareness Kit (ATAK), un’applicazione che gira su tablet e device simili. L’aviazione USA avrebbe poi discusso ddella possibilità di centralizzare il controllo del Q-UGV presso strutture di comando, utilizzando caschi da realtà virtuale..

 

Secondo quanto dichiarato, lo SPUR si servirebbe di decisioni autonome solo per rilevare e bloccare minacce; è stato assicurato che un operatore umano dovrebbe sempre approvare prima di iniziare a sparare.

 

I robocani saranno in grado penetrare e colpire in situazioni dove gli esseri umani non possono operare. Si tratta di una ulteriore svolta verso la robotizzazione della guerra.

 

«Questi cani saranno un paio di occhi e orecchie in più, e intanto elaboreranno grandi quantità di dati in posizioni strategiche in tutta la base aeronautica di Tyndall» ha detto il maggiore dell’aeronautica Jordan Criss, capo del 325° squadrone delle forze di sicurezza. «Porteranno un enorme miglioramento ai nnostri difensori e consentiranno flessibilità nel distacco e nella risposta del nostro personale».

 

Renovatio 21 aveva parlato dell’armamento dei robocani ancora un anno fa.

 

Roboquadrupedi militari sono in produzione ovunque.

 

I cinesi producono lo «yak meccanico» per la guerra in Himalaya, più un’altra serie di automi armati posti al confine con l’India. Un video con un robocane armato portato in cima ad un palazzo da un drone è apparso nel web cinese il mese scorso.

 

Al recente Forum militare di Mosca di due mesi fa erano visibili robocani dotati di bazooka.

 

Boston Dynamics, la prima società a concepire e produrre robocani, ha giurato che non ne farà delle versioni armate. Tuttavie, versioni non-armate dei robocani sono utilizzate già dalle forze dell’Ordine in USA, dai pompieri di Nuova York alla polizia, che li ha utilizzati in alcuni raid.

 

Sull’uso dei Termintor Dogs ai confini con il Messico vi è polemica, perché c’è chi ritiene che il loro uso spaventa gli immigrati spingendoli verso sentieri dove poi incontrano la morte.

 

Come visto in immagini scioccanti della scorsa primavera, i robocani abbiano pattugliato le strade di Shanghai durante il colossale lockdown della scorsa primavera, dove per sorvegliare e punire i 26 milioni di abitanti usarono, oltre agli androidi quadrupedi, anche droni che volevano tra i palazzi ripetendo frasi come «contieni la sete di libertà del tuo spirito».

 

Infine, Renovatio 21 segnala che quest’anno essi stono stati mandati in giro per la campagna umbra.

 

Come riportato da Renovatio 21, lo scrittore Douglas Rushkoff ha parlato, raccontando un episodio personale di quando era stato chiamato per un talk ad un consesso di miliardari, come l‘élite si stia interessando della possibilità di attorniarsi di robot killer per mantenere il potere anche in caso il danaro (cioè, l’unica cosa che hanno) perda completamente di valore durante il collasso della civiltà.

 

 

 

 

Immagine da Twitter

 

 

 

Continua a leggere

Intelligenza Artificiale

Intelligenza Artificiale fatta per prevedere i crimini prima che accadano. L’inventore: nessun problema

Pubblicato

il

Da

Esistono forme di Intelligenza Artificiale  votate alla previsione del crimine. Una di esse è stata implementata in diverse città americane.

 

Il professore dell’Università di Chicago Ishanu Chattopadhyay, sostiene che la sua IA anticrimine sicuramente non verrà utilizzata in modo improprio dalle forze di polizia.

 

Il professor Chattopadhyay ha recentemente incontrato BBC Science Focus per discutere del sistema di Intelligenza Artificiale, che, come afferma uno studio pubblicato sulla rivista Human Behaviour, può prevedere dove e quando potrebbe verificarsi un crimine con una precisione dell’80-90%.

 

La domanda è se l’IA può essere utilizzata con successo da una forza di polizia senza commettere abusi.

 

«La gente teme che questo verrà utilizzato come strumento per mettere le persone in prigione prima che commettano crimini», ha detto Chattopadhyay alla BBC. «Questo non accadrà, in quanto non ha alcuna capacità per farlo».

 

L’incorporazione dell’IA nella polizia non è certo una novità, e nemmeno la controversia che la circonda: un software simile è già stato implicato nella detenzione illecita e persino nella morte illecita di un bambino di 13 anni disarmato. Più in generale, l’IA su tutta la linea è stata accusata da critici americani di essere volubile nonché piena di pregiudizi razziali e altrimenti discriminatori.

 

Inoltre, come noto, le decisioni dell’IA sono notoriamente difficili da spiegare, perfino dai loro progettisti e ideatori. Come dice la sociologa Zeynep Tufecki, guardare il codice IA mostrato per una sua decisione è come fare una radiografia del cervello per cercare di capire un pensiero.

 

Parlando alla BBC, il Chattopadhyay – che afferma di sperare che la sua Intelligenza Artificiale venga utilizzata per frenare la criminalità attraverso misure sociali e politiche – ha riconosciuto alcune di queste preoccupazioni, in particolare i problemi di razzismo che sembra avere l’IA.

 

Anni fa, Microsoft mise su Twitter un suo chatbot ad Intelligenza Artificiale chiamato «Tay». Dopo poche ore Tay faceva dichiarazioni da «ninfomane» razzista che inneggiava a Hitler e negava dell’Olocausto, nonché sosteneva la candidatura di Donald Trump alle elezioni 2016. Anche Google ebbe i suoi problemi con le AI razziste. Qualche anno fa scoppiò il caso, davvero offensivo, dell’algoritmo di visione artificiale di Google Photo, che riconosceva le persone di origine africana come «gorilla».

 

Il professore chicaghese sostiene che altri sistemi di Intelligenza Artificiale siano troppo semplicistici, poiché fanno troppo affidamento su informazioni come la cronologia degli arresti e le caratteristiche individuali. Al contrario, il suo sistema utilizza solo i dati del registro eventi, che secondo lui aiutano a «ridurre il più possibile i pregiudizi».

 

«Prevede semplicemente un evento in un luogo particolare», ha aggiunto. «Non ti dice chi commetterà l’evento o l’esatta dinamica o meccanica degli eventi. Non può essere usato allo stesso modo del film Minority Report».

 

Vale la pena di ricordare il recente dilemma esposto per sondaggio ai suoi follower Twitter il capo scienziato di OpenAI Ilya Sutskever: le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità»?

 

In altre parole, sembra riflettere se dovremmo trattare le superintelligenze come animali domestici o come dei?

 

È lecito lasciar decidere le nostre vite da degli algoritmi?

 

In larga parte – se pensiamo a Facebook. YouTube, Amazon – è già così. Le Intelligenze Artificiali guidano le nostre vite e nemmeno ce ne accorgiamo.

 

 

 

 

 

 

Continua a leggere

Più popolari