di Giulio Montanaro

Delle 318 pagine che costituiscono Tecnologie radicali, c’è un periodo in particolare che l’editore avrebbe potuto usare per sintetizzare il messaggio dell’autore:

Una descrizione letterale e diretta della vita quotidiana suona già come la teoria cospiratoria di uno schizofrenico paranoico: siamo circondati da forze potenti ma invisibili, che ci controllano per mezzo di dispositivi sparsi in tutta la casa, persino applicati sul nostro corpo, e queste forze stanno alacremente redigendo dettagliati dossier su ciascuno di noi, passano i contenuti di questi dossier a oscuri intermediari che non devono rendere conto a nessuno e che usano tutto quello che sanno per determinare la struttura delle opportunità che ci vengono offerte – o peggio; che non ci vengono offerte.

Tecnologie radicali (che con sorpresa troviamo menzionato tra i fondamentali in alcuni corsi di etica digitale delle accademie locali) postula una più profonda riflessione sulla presunta, ineluttabile, dipendenza dell’uomo dalla tecnologia. In questo saggio Adam Greenfield lancia l’ennesimo avvertimento a una società sempre più radicalmente trasfigurata dall’interazione con il digitale. Un saggio che si presta a interessanti paralleli con la quotidianità, ponendo altrettanto rilevanti interrogativi, sempre a essa connessi.

adam greenfield tecnologie radicali

La copertina

Fino a dove si spingerà l’avanguardismo digitale figlio dell’accelerazionismo, cugino del comunismo cibernetico e trait d’union socio-politico essenziale nel momento di transizione da tecnocrazia a transumanesimo? Quanto manca a che l’immigrazione divenga un’esigenza umanamente imprescindibile per rallentare il processo di automazione e robotizzazione? Anche qui in Italia, intendiamo. Il Giappone sta già affrontando il tema. E il Giappone è il Paese che presenta il maggior numero di analogie con il Belpaese: dalla demografia al credito all’identità culturale. Inoltre, senza lavoratori, chi e come si opporrà, in futuro, al Potere, arci-capitalista e schiavista?

Sempre se – ci si chiede – sarà ancora possibile agire a nostra difesa. Se le nanotecnologie libere di fluttuare nei capillari sono in grado di paralizzare gli arti o di creare realtà virtuali nel cervello, e se a breve impianti sotto-cutanei alimentati dall’energia corporea diverranno conditio sine qua non per usufruire del proprio denaro (e non solo) – è facile che, molto presto, il concetto di libertà sarà declassato a forma d’autonomia e indipendenza, dalla tecnologia.

Chiudendo con le domande, quali sono le differenze tra il modello del falso positivo COVID e quello dell’anodino o del cosiddetto falso criminale usato nella metrica delle intelligenze artificiali che guidano la polizia predittiva? Ci concentreremo sull’ultimo quesito andando ad analizzare il concetto di Red Boxing o Sicurezza Intelligente.

La Red Boxing somiglia molto alla polizia predittiva preconizzata dall’autore Philip K. Dick nella novella Minority Report. Con la differenza che, nella realtà, le predizioni non sono svolte da soggetti con particolari abilità psichiche, come i Precog di Dick. Bensì da intelligenze artificiali. La questione etica, umana, principale, inerente tale forma di tecnologia, è la sua innata natura discriminatoria. Sin dalle prime sperimentazioni fatte in America sono, infatti, emerse palesi violazioni connesse a quello che gli anglofoni usano etichettare come Bias.

Qui in Italia, stranamente in controtendenza rispetto all’America, la polizia predittiva inizia a muovere i primi passi lo scorso anno. È l’Aprile del 2021 quando, nel Veneto sempre precursore nell’introduzione di nuove forme di dispotismo tecnologico, la polizia di Caorle introduce in via sperimentale l’uso di Pelta Suite, sicurezza intelligente atta al contenimento di atti predatori. Tale tecnologia, come si può notare, appartiene già a “il progetto della vita quotidiana”, come dal sottotitolo di Tecnologie radicali.

La “sicurezza intelligente” è un’intelligenza artificiale che processa dati sulla criminalità locale forniti dagli operatori di polizia con lo scopo di fornire previsioni sulle potenziali aree e soggetti ad alto rischio criminogeno. Come ogni intelligenza artificiale, il suo funzionamento si basa sull’apprendimento automatico degli algoritmi e avviene tramite un processo quadruplice, che prevede raccolta, setaccio, ispezione e azione. Le intelligenze artificiali della sicurezza intelligente sono informate al modello probabilistico del criterio dell’inferenza bayesiana. Tale approccio statistico interpreta le probabilità come livelli di fiducia nel verificarsi di un evento, piuttosto che come frequenze, proporzioni o concetti analoghi.

LEGGI ANCHE  Una strategia di filiera europea per l'autosufficienza vaccinale

Sostanzialmente, l’intelligenza artificiale ricerca cluster d’attività e reti di relazione tra questi. Eventi passati, che sono prima traslati nel sacro big data e poi trasformati in modelli probabilistici sulla base d’informazioni fornite, nell’interesse di milioni di persone, da un singolo individuo a un’intelligenza artificiale. Una Path Dependence, come dice correttamente Greenfield, una dipendenza di percorso, una tendenza di sistema a evolvere in modi predeterminati rispetto a decisioni già prese in passato.

Un fenomeno che ritrae coerentemente il riduzionismo scientista che caratterizza sempre più la contemporaneità e che inficia ogni potenziale valutazione della realtà. E che, nel caso della polizia predittiva, come ricorda anche l’autore, darà moltissimi casi di “anodini”, falsi positivi. Un modello che a molti ricorda quello del presunto positivo COVID. Un modello, soprattutto, che prefigura un’amministrazione della sicurezza e della giustizia basata su congetture algoritmiche elaborate sulla base di eventi passati e compiuti da soggetti terzi. Perciò, de facto, totalmente dissociati dalla realtà del potenziale accusato.

Nella pratica, si passerà dal dover dimostrare di non esser portatori di un virus dalla letalità relativamente scarsa a dover confutare la tesi di non esser intenzionati a far quello di cui s’è accusati. Soggetti innocenti o sani, cui sarà affibbiata un’identità da criminali o da lebbrosi. Soggetti ingiustamente, ma soprattutto, illegalmente perseguitati prima, e perseguiti poi. Una coerente espressione del modello di libertà e democrazia cui la società del Capitalismo Cognitivo dovrà informarsi e ben raffigurata dalla “comunicazione al cliente” degli agenti cognitivi. I cittadini giudicati ad alto rischio criminogeno, saranno, infatti, oggetto di visita a domicilio. Da parte della polizia predittiva, o cognitiva, che dir si voglia. E saranno messi in guardia sui rischi dei loro potenziali futuri atti. Sempre che non siano direttamente imputati per essi.

In Minority Report, John Anderton, a un certo punto, si rivolge alla dottoressa Iris Henimen, l’inventrice della polizia predittiva, e le chiede se sia possibile falsificare una precognizione. La risposta della dottoressa Henimen si presta quale chiosa ideale a chiusura della trattazione: “Se una serie d’errori genetici e una scienza completamente impazzita possono definirsi invenzione, allora ho inventato la polizia predittiva”.

+ post

Debutta come cronista nel 2000 per il gruppo "Il Gazzettino" e collabora nel corso degli anni con diverse testate e riviste. Talent scout ed agente nel settore della musica elettronica, coltiva una profonda passione per storia, filosofia, lingue e tecnologia. Autore del blog “Rethinking Intelligence” su Substack.