Big data, tecnologia non vuol dire democrazia

tecnologia

Tutto positivo lo sviluppo della tecnologia? È sempre radioso il futuro della tecnica? Accanto a innegabili benefici per la collettività, evidenti alle dimostrazioni pratiche, molti sono i problemi. Ci sono anche conseguenze dannose, pericolose o semplicemente indesiderabili. L’intera collettività, oltre che i singoli, può rimetterci. A breve termine, oppure un domani. Sono preoccupanti certi sviluppi dell’innovazione. Il progresso presenta un’ambiguità di fondo. Raramente ne siamo consapevoli e ci attrezziamo per contrastarne i rischi.

La rete informatica è sottoposta ad attacchi dagli hackhers: dati personali e informazioni generali, per esempio su sicurezza nazionale, economia, sanità, non sono al sicuro una volta immessi nel web attraverso i computer. Iniziano un lungo viaggio e non si sa quali possano essere gli approdi. Mal protetti contro i furti, sono alla mercé di malintenzionati. Persino grandi banche dati pubbliche, teoricamente superprotette e al riparo da insidie, subiscono incursioni.

A spargere dati sensibili siamo noi stessi, ogni volta che ci colleghiamo in rete

Ormai non ci facciamo più caso, ma a spargere dati sensibili siamo noi stessi, ogni volta che ci colleghiamo a qualcosa; accettiamo con facilità di essere geolocalizzati, se molte funzioni lo chiedono. Di buon grado facciamo sapere dove siamo, dove andiamo e per quanto tempo ci fermiamo; clicchiamo sulle più svariate richieste di comunicazione dati che ci vengono sottoposte. Autorizziamo, assentiamo. Elargiamo consensi all’uso delle nostre informazioni senza rifletterci granché, frettolosamente, ansiosi di passare oltre e raggiungere lo scopo del momento.

Però poi ci impuntiamo, storciamo il naso, siamo capaci di dotte obiezioni di principio, su questioni che meriterebbero altro approccio. Quando, per esempio, sono a repentaglio beni importanti, come la salute. Ecco che, a proposito del tracciamento antivirus delle persone, si è gridato alla lesione di diritti, tanto che alla fine questo semplice strumento di tecnologia sanitaria non ha funzionato, mentre sarebbe stato utile.

La tecnologia può essere manipolate con obiettivi di natura politica, economica o di altro genere

Le tracce di cui è composta la Rete possono essere manipolate con obiettivi di natura politica, economica o di altro genere: da parte di singoli ed organizzazioni. Dapprima, ne ha fatto le spese l’informazione, cioè noi, con il proliferare di fake news, e la diffusione di notizie false.

Lo abbiamo visto in occasione del Covid: a rendere ancora più difficile il momento, lo sfruttamento di paure legittime e perplessità fondate per sostenere tesi antiscientifiche, alimentare ipotesi complottistiche. Come se, tra tanti problemi (scarsezza di vaccini, disorganizzazione territoriale, assenza di direttive chiare), ci mancasse solo questo.

La gestione dei dati è servita a scopi politici, con effetti destabilizzanti. Ha alimentato sino a poco tempo fa il terrorismo islamico; è stata funzionale alla diffusione di tesi sovraniste e populiste; è servita a sostenere sistemi autoritari; ha permesso di fare propaganda per influire sull’esito delle elezioni in paesi rivali, come è accaduto in America.

Il mondo dell’intelligenza artificiale ha bisogno di essere governato con regole condivise tra gli Stati. Per sua natura, la tecnologia non dà garanzie di essere un “sistema democratico”, capace di crescere e svilupparsi nel rispetto dei diritti individuali e sociali. È un campo di valori e di idee, anche di interessi economici, oggetto di inevitabile contesa; necessita di equilibri e garanzie che vanno fissati per mezzo di regole certe. Dove queste mancano, sono maggiori i pericoli per la convivenza civile.

La tecnologia non dà garanzie di essere un “sistema democratico”

L’uso dei big data in Cina rappresenta, da questo punto di vista, il precedente più sistematico – e pericoloso – per la raccolta e l’utilizzazione, da parte di uno Stato, delle informazioni sul conto dei suoi cittadini. Il “sistema di credito sociale”, introdotto dai cinesi per governare i dati in loro possesso, non è preordinato allo scopo di esercitare il controllo sociale di massa. Tanti altri strumenti possono servire a questo scopo e infatti lo sono. Anzi, apparentemente è motivato da una necessità oggettiva e apprezzabile: gestire numeri enormi e amministrare un territorio sterminato.

Tuttavia, è evidente che il meccanismo lascia spazio ad una sorveglianza (inevitabilmente oppressiva) nei confronti dei singoli perché associa al numero enorme dei dati la vaghezza dei criteri di raccolta e l’opinabilità del giudizio conclusivo (la “reputazione sociale”). Il problema non è solo sapere tutto dei propri cittadini. Quale l’uso delle notizie?

L’obiettivo dichiarato è quello, semplificando al massimo, di attribuire a ciascuno un punteggio per misurare fattori come l’onestà, l’integrità, la credibilità sociale. Difficile immaginare, in difetto di criteri oggettivi e di contrappesi critici, che la “reputazione” finale si discosti tanto dall’osservanza delle direttive del partito unico.

Traballa il mito della neutralità delle rivoluzioni scientifiche e tecnologiche

Se questi possono sembrare effetti estremi e perversi dell’uso della tecnologia, dovuti alla politicizzazione di un sistema privo di strumenti liberali, anche nel mondo occidentale non sono minori le problematiche sull’uso dei Big data. Qui il discrimen tra lecito e illecito, tra buone impostazioni e cattive pratiche è più sottile, ma non meno importante, o privo di conseguenze. Anzi, l’insidia maggiore è interna alla formazione degli algoritmi che condizionano le attività quotidiane.

Il rischio consistente è la smentita alla pretesa neutralità delle ideazioni algoritmiche, suffragata apparentemente dall’ampiezza delle misurazioni e dal carattere totalizzante delle informazioni. Anche questa pretesa di completezza, a prima vista oggettiva e rassicurante, è discutibile: gli algoritmi sono pur sempre costruiti dall’uomo con gli elementi da lui forniti. Con quali princìpi di fondo? E per quali scopi?

La completezza del materiale alla fine è, contraddizione in termini, “relativa” perché dipende dai criteri adottati per formare l’insieme dei dati: sono le regole di costruzione del materiale il profilo più problematico. Non sorprende, per esempio, che, a dispetto dall’ampiezza dei dati, sia stato denunciato il carattere discriminatorio (razza, età, genere) di molti algoritmi.

I limiti della tecnologia nella gestione dei Big data

In America, un programma per l’assunzione di personale ha presentato la stortura di privilegiare l’accesso dei bianchi a danno dei neri. In Inghilterra, la selezione per l’ingresso alle Università ha mostrato di favorire i ragazzi provenienti da scuole di élite. In Italia, ha destato sorpresa (ma non era imprevedibile) una pronuncia del Tribunale di Bologna del dicembre 2020 a proposito dell’algoritmo utilizzato dalla Deliveroo, catena di food drivers, per assegnare turni e ripartire consegne. La pronuncia ha censurato, come discriminatorio, il buon Frank, nome in codice dell’algoritmo della società.

Che cosa è emerso? Il giudizio di operosità usato per distribuire i compiti e scegliere il personale più adatto (e conveniente all’azienda) si basava su dati incompleti e parziali, perché non teneva conto delle ragioni legittime delle assenze o dei ritardi (malattie, infortuni, impegni familiari, ecc.), penalizzando arbitrariamente alcuni soggetti. Dava una valutazione negativa a mancanze che erano giustificabili, ma per le quali si preferiva non raccogliere spiegazioni.

Il lato oscuro di queste masse di dati era l’assenza di informazioni sui comportamenti del personale, cioè un automatismo delle decisioni basato sull’espulsione, dal meccanismo selettivo, del punto di vista umano (i singoli lavoratori, i loro rappresentati sindacali). L’incompletezza delle masse di dati era lesiva dei princìpi di trasparenza e di accountability (ribaditi dal Regolamento Ue n. 679/2016, in sigla GDPR).

L’affidamento sui processi dell’intelligenza artificiale è messo a dura prova da queste osservazioni. Traballa il mito della neutralità delle rivoluzioni scientifiche e con esso l’illusione che gli automatismi nei processi decisionali siano esenti da rischi e incertezze.

Non sono certo ragioni sufficienti per rifiutare il progresso o rinunciare all’utilità che esso può apportare in molti campi del vivere civile, a cominciare dalla lotta al Covid. Sarebbe una conclusione frettolosa ed errata. Servono però, quelle critiche, a ribadire quanto sia indispensabile l’intervento umano nella raccolta dei dati e nell’impiego finale. Costruire Big data rimane un obiettivo ambizioso e difficile. La completezza e l’efficacia delle analisi dipendono dall’apporto di tutti i contributi possibili.

Leggi anche

* Angelo Perrone è giurista e scrittore. È stato pubblico ministero e giudice. Si interessa di diritto penale, politiche per la giustizia, tematiche di democrazia liberale. Svolge studi e ricerche. Cura percorsi di formazione professionale. È autore di pubblicazioni, monografie, articoli. Scrive di attualità, temi sociali, argomenti culturali. Ha fondato e dirige Pagine letterarie, rivista on line di cultura, arte, fotografia.

 

Ultime notizie
corse
Intervista

L’insularità possibile: il caso Corsica. Intervista a Marie-Antoinette Maupertuis, Presidente dell’Assemblea corsa

La Corsica è uno dei modelli europei in merito all’insularità e alle iniziative intraprese per favorire la coesione territoriale e l’autonomia fiscale necessaria per l’economia corsa, dinamica ma gravata da una “crescita depauperante”. Ne parliamo con l’Onorevole Marie-Antoinette Maupertuis, economista e Presidente dell’Assemblea della Corsica.
di Daniela Pappadà
corse
corse
Osservatori

Insularité possible: le cas de la Corse. Entretien avec Marie-Antoinette Maupertuis, Présidente de l’Assemblée de Corse

Insularité possible: entretien avec l’Honorable Marie-Antoniette Maupertuis, Presidente de l’Assemblee de Corse.
di Daniela Pappadà
corse
intelligenza
Intervista

Intelligenza artificiale e regole: serve un impegno dell’Unione sui diritti sostanziali

Intelligenza artificiale e diritto, ne parliamo con Giusella Finocchiaro, Professoressa ordinaria di diritto privato e diritto di Internet all’Università di Bologna. Per non cadere in un rischioso processo di “burocratizzazione digitale” bisogna partire da elementi culturali prima che giuridici, senza perdere di vista i princìpi.
di Massimiliano Cannata
intelligenza
Sicurezza

Tecnologia, sicurezza e istruzione: intervista a Nunzia Ciardi, Vice Direttore Generale dell’Agenzia per la Cybersicurezza Nazionale

La tecnologia è entrata di forza nella scuola grazie alla DAD, che in pandemia ha permesso a milioni di studenti di seguire le lezioni da casa. Bisogna continuare su questa strada e sfruttare le potenzialità offerte dalla tecnologia in àmbito scolastico e formativo secondo la dott.ssa Nunzia Ciardi, Vice Direttore Generale dell’Agenzia per la Cybersicurezza Nazionale.
di Massimiliano Cannata
scuole italiane
Immigrazione

Scuola e cittadini italiani di domani

La questione della presenza degli stranieri nelle scuole implica un’ambivalenza di obiettivi: migliorare la qualità dell’istruzione a prescindere dalla discendenza, oppure comprimere il diritto costituzionale all’apprendimento. La scuola deve avere una funzione di istruzione e integrazione sociale.
di Angelo Perrone*
scuole italiane
insularità
Intervista

Insularità e perifericità: costi e correttivi nell’intervista al Prof. Francesco Pigliaru

L’insularità si lega spesso all’idea di una compensazione economica, ma bisogna distinguere tra condizioni di prima e seconda natura legate all’insularità, come spiega il Prof. Francesco Pigliaru nell’intervista dedicata al tema delle isole e della continuità territoriale.
di redazione
insularità
insularità
Intervista

Il diritto costituzionale all’insularità: intervista al Prof. Tommaso Edoardo Frosini

Il professor Tommaso Edoardo Frosini, Ordinario di diritto pubblico comparato nell’Università Suor Orsola Benincasa di Napoli, evidenzia le attinenze tra diritto costituzionale all'insularità e uguaglianza, così come sancito dalla nostra Costituzione, e individua trasporti e digitale come i settori nei quali investire per le isole.
di redazione
insularità
medici
Sanità

Sanità a rischio, pesa la carenza di medici e l’assenza di chirurghi

Sanità a rischio: dalla carenza di medici all’assenza di chirurghi. Questo sarà il prossimo futuro senza una programmazione “a monte”, e l’aumento dei posti in Scuola di Specializzazione non è sufficiente a risolvere la carenza di personale medico.
di ROCCO LEGGIERI*
medici
l'algoritmo d'oro e la torre di babele
Diritto

L’algoritmo d’oro e la torre di Babele

“L’algoritmo d’oro e la torre di Babele” di Caterina e Giovanni Maria Flick è un saggio sugli effetti della tecnologia sulla nostra civiltà, con un invito alla conservazione dell’umano e alla sua conciliazione con il progresso tecnologico.
di Ilaria tirelli
l'algoritmo d'oro e la torre di babele
Istruzione

Scuola, più fondi e voglia di futuro: intervista a Ivana Calabrese

Nell’àmbito del Secondo Rapporto su Scuola e Università dell’Eurispes, dialoghiamo con Ivana Calabrese di Ashoka sul tema dell’Istruzione in Italia, ma innanzitutto sul futuro di una istituzione che passa attraverso docenti capaci e fondi per l’innovazione.
di Massimiliano Cannata