HomeDiritti umaniCooperazione allo sviluppo, l’uso di IA contro le disuguaglianze

Cooperazione allo sviluppo, l’uso di IA contro le disuguaglianze

di
Alice Leahu*

La cooperazione allo sviluppo, una delle principali attività con cui l’Italia contribuisce a mitigare e ridurre, per quanto possibile, i maggiori squilibri economici e sociali che segnano la situazione internazionale, si trova di fronte ad una sfida importante: come utilizzare al meglio le grandi opportunità offerte dalle nuove tecnologie digitali, in primis dalla Intelligenza Artificiale (IA). Ciò sia nelle iniziative promosse da Stato a Stato, sia in quelle sostenute nell’ambito delle istituzioni internazionali. Una valutazione di carattere generale, ampiamente condivisa, mette in luce che il processo di innovazione tecnologica degli ultimi anni ha determinato dei progressi innegabili nella diffusione dello sviluppo economico in vaste realtà del mondo, ma ha anche accentuato in modo drammatico il quadro degli squilibri tra quanti sono coinvolti in tali processi e quanti, invece, ne restano ai margini o ne sono addirittura esclusi. Ciò con riferimento alle grandi aree geo-economiche (il Nord e il Sud del mondo) e alle aree marginali che si formano nell’ambito dei singoli Stati.

La spinta rivoluzionaria della IA deve considerare con particolare attenzione la coesione sociale e i diritti fondamentali dell’uomo 

In questo quadro di inclusione-esclusione, la spinta rivoluzionaria della IA deve indurre a considerare con particolare attenzione due elementi che assumono grande rilievo soprattutto quando si apre la possibilità di utilizzare questa nuova tecnologia nei progetti della cooperazione allo sviluppo, vale a dire in quelle iniziative che intervengono sulle situazioni di maggiore fragilità e debolezza non soltanto economica, ma anche sociale e culturale. Il primo elemento riguarda, appunto, questo impatto della IA che non si limita soltanto ai processi economico-produttivi ma interviene anche sulla coesione sociale di un sistema, sui suoi valori di riferimento, sui comportamenti delle persone, sulla tenuta delle comunità. Il secondo elemento, strettamente collegato a quello descritto finora, riguarda l’impatto che l’utilizzo di questa tecnologia ha in ultima analisi sui diritti fondamentali dell’uomo universalmente riconosciuti che sono alla base dell’azione collaborativa promossa con la cooperazione allo sviluppo. In sostanza, la domanda di fondo da porsi è la seguente: l’impiego dell’IA nelle attività di cooperazione tutela, rafforza o, all’opposto, deprime e cancella i diritti umani? E ancora: come combinare al meglio tecnologia digitale, sviluppo sostenibile e diritti umani?

L’impiego dell’IA nelle attività di cooperazione rafforza o cancella i diritti umani?

Una risposta a queste domande di fondo è stata data dal Centro Studi di Politica Internazionale (CeSPI) con la presentazione dei risultati di una ricerca condotta nell’àmbito di un progetto sul tema promosso in collaborazione con la Scuola di Studi Internazionali dell’Università di Trento, con il supporto della Fondazione Compagnia di San Paolo**. Il quadro dei fattori di garanzia per un giusto e diffuso progresso in questo àmbito di interventi è indubbiamente complesso, come complesse sono le questioni da affrontare e risolvere. Uno di questi fattori, ad esempio, è nella definizione di un quadro normativo adeguato circa l’impiego della IA (un modello può essere “AI Act” dell’Unione europea, entrato in vigore nel 2024), un sistema di norme che non si limiti alla definizione degli standard e che sia invece accompagnato da validi meccanismi di monitoraggio, per valutare quantomeno la loro corretta applicazione, e soprattutto da iniziative finalizzate a costruire la fiducia dei cittadini sui benefici diffusi con queste nuove tecnologie e sul fatto che i loro diritti fondamentali non sono inficiati.

I modelli predittivi dovrebbero consentire di individuare e affrontare situazioni negative prima che si verifichino

Un altro fattore correttivo importante riguarda l’adozione di politiche e atti finalizzato ad eliminare le discriminazioni e le disuguaglianze tra sistemi geo-economici (Nord e Sud globali), tra le comunità, tra le persone: sono i problemi aperti legati alla capacità di investimento di un sistema e, per gli individui, alla possibilità di acquisire competenze adeguate. Ma ci sono anche altri due aspetti di rilievo su cui la ricerca del CESPI richiama l’attenzione. Il fatto che la IA venga prevalentemente utilizzata per creare modelli predittivi dovrebbe consentire di individuare e affrontare determinate possibili situazioni negative prima che queste si verifichino. Un secondo aspetto è relativo alla necessità di impiegare gli strumenti della IA anche per comprendere meglio le esigenze delle persone in stato di bisogno. In sostanza, un corretto impiego della IA ha tutto il potenziale per correggere le discriminazioni, non per perpetuarle.

Senza un’adeguata attenzione alle disuguaglianze già esistenti, l’IA rischia di complicare contesti già instabili

Un esempio interessante, a questo riguardo, è relativo alle lingue utilizzate nella analisi dei testi. Nel caso dell’Africa sono molte le lingue nazionali non utilizzate; e questo è un elemento di forte esclusione dai processi di sviluppo (l’associazione Code for Africa sta operando proprio sui Large Language Models LLM per correggere questa disfunzione). In questo quadro d’insieme, secondo Chiara Sighele, direttrice del Centro per la Cooperazione Internazionale, sarebbe infine importante, data la portata delle innovazioni in atto, promuovere la creazione di comunità per favorire la condivisione di esperienze e buone pratiche e incentivare la collaborazione tra la società civile e il mondo accademico. Il messaggio conclusivo è chiaro: senza un’adeguata attenzione alle disuguaglianze già esistenti sia a livello globale che all’interno dei singoli Stati e comunità, l’uso di strumenti come la IA rischia di complicare ulteriormente un contesto già instabile e fortemente disomogeneo. Da qui, secondo Giulia Raffaelli dell’associazione “A Partire da Noi”, la necessità di non perdere mai di vista l’elemento umano nell’applicare concretamente i principi guida condivisi: do notharm, ovvero minimizzare i rischi associati all’uso dell’IA; accountability: promuovere trasparenza e responsabilità; e in ultimo due diligence: un approccio etico localizzato.

*Università di Bologna

**Webinar di presentazione della ricerca effettuata da Clarisa Nelu, Marianna Lunardini, Benedetta Pescetto. Coordinatore prof. Michele Nicoletti. (17 dicembre 2024). Progetto “Il balzo tecnologico e la cooperazione: quali sfide per i diritti?” realizzato da CeSPI in collaborazione con la Scuola di Studi Internazionali dell’Università di Trento, con il supporto della Fondazione Compagnia di San Paolo.

Leggi anche

Per rimanere aggiornato sulle nostre ultime notizie iscriviti alla nostra newsletter inserendo il tuo indirizzo email: