«Quando il 10 febbraio 1996 a Philadelphia il computer Deep Blue sconfiggeva Kasparov nel gioco allora ritenuto più umano e razionale di tutti, gli scacchi, è probabilmente iniziata una nuova era, in cui le macchine entravano nella sfera del pensiero e dell’apprendimento umano. Ma la partita a scacchi esistenziale che abbiamo adesso davanti a noi, faccia a faccia con il nostro futuro, è quasi una versione moderna della scena del Settimo Sigillo, in cui di fronte a noi c’è un avversario imbattibile, ineluttabile ed imperscrutabile. Ma questo non deve lasciarci impauriti o rassegnati. La partita a scacchi è inesorabilmente persa solo se riteniamo che le regole del gioco non possano essere cambiate. Eppure, proprio l’innovazione tecnologica ci insegna che la partita che giochiamo tutti i giorni si basa su pezzi sempre diversi e regole nuove, tanto che è il cambiamento, piuttosto, a preoccuparci. Ma è proprio per questo che la riscoperta dell’essere umano e la sua collaborazione con la macchina è il valore più profondo di questa rivoluzione. Perché le macchine sono e saranno sempre più brave, veloci ed efficienti nelle risposte, ma sono gli esseri umani chiamati a cercare e porre nuove domande, capaci di mutare scenari e riscrivere il senso dell’agire, della coscienza, della giustizia e della vita. Ritrovare l’umanità oltre la razionalità è la vera mossa con cui va iniziata ogni giorno, la partita». Michele Petrocelli, docente di Economia politica, Economia monetaria e Strategia dell’innovazione presso l’Università Guglielmo Marconi di Roma, nel saggio (In)Coscienza Digitale (edito da Lastarìa) tratteggia un affresco straordinariamente lucido ed equilibrato della rivoluzione digitale entro cui siamo immersi, senza avere la giusta consapevolezza che tutto è cambiato. Per dirla con Baricco, è cambiata la scacchiera, non solo il gioco degli scacchi. Una metafora da cui parte Petrocelli per una disamina che coglie tutte le contraddizioni ma anche la grande opportunità di un mondo nuovo che dobbiamo imparare ad “abitare”.
Prof. Petrocelli siamo immersi nella rivoluzione digitale, tarda però a farsi strada una esatta consapevolezza della nuova condizione che ha generato un mutamento del sistema economico e della posizione dell’uomo nell’universo. Quali sono le ragioni di questa lentezza?
La rivoluzione digitale che viviamo è profonda e riguarda tutti gli aspetti della nostra vita. Digitalizzare significa trasformare la realtà in numeri, e come tali elaborarli anche grazie ad una capacità di calcolo impressionante e sempre crescente. E in quella realtà c’è anche ciascuno di noi, i nostri comportamenti, le preferenze, le scelte. Davanti a questo scenario l’adeguamento è difficile perché, rispetto al passato, la frequenza del cambiamento conseguente all’innovazione è elevatissima, e non siamo abituati a questa velocità. La vita di ognuno di noi è completamente immersa in un ambiente dominato dalle tecnologie digitali; strumento prezioso, in grado di aprire possibilità straordinarie e allo stesso tempo generare rischi importanti. Per cogliere le opportunità e per contenere i rischi, il passaggio chiave non è tecnologico, è culturale. Nel viaggio intrapreso con la scrittura di (In)Coscienza Digitale ho provato a riflettere proprio su questo, pensando a come l’impatto di questa rivoluzione tecnologica sia sistemico e come la soluzione, in fondo, non sia che nella maggiore consapevolezza delle nostre qualità umane.
La dicotomia uomo-macchina ha radici antiche. Per avere un’idea che risale al repertorio degli studi umanistici, basti pensare alle macchine di Leonardo, specchio della grande capacità umana di creare e innovare. Oggi appare tutto più difficile, stentiamo infatti a governare quella che Severino definiva “cieca volontà di potenza della tecnica”. Qual è il suo giudizio in merito?
La tecnica è diventata la componente dominante della vita sociale. La tecnologia, in sé stessa, ha una portata liberatoria fortissima: ci libera dalla fatica, aumenta la produttività, ci concede tempo libero per il pensiero e la creatività, ci permette di conoscere i fenomeni come mai in passato. Ma per fare questo, deve essere compresa e governata da chi la utilizza, aiutando le persone a valorizzare chi sono e ciò che vogliono fare. Per superare il dilemma posto da Severino, dobbiamo cercare di concepire il nostro rapporto con le macchine non come “dicotomia” ma come collaborazione, complementarità. Gli esseri umani aiutano le macchine ad apprendere, le macchine amplificano le capacità degli esseri umani di comprendere ed agire nel mondo. Il rischio si presenta quando deleghiamo alle macchine le nostre scelte, senza esserne completamente consapevoli, perdendo il controllo dei processi decisionali, produttivi e sociali che ci riguardano. L’importante è acquisire coscienza e conoscenza di questi processi e governarli, indirizzarli, sfruttando la potenza della tecnologia, condizionata alla nostra volontà.
Innovazione, sorveglianza, post-democrazia, tre termini complessi costituiscono il sottotitolo del suo interessante saggio. Possiamo spiegare come si coniugano questi concetti in quella che Floridi ha definito infosfera, caratterizzata da una “ontologia ibrida” in cui reale e virtuale si mescolano?
Sono concetti che fanno parte inevitabilmente dell’Onlife, dove i confini tra la vita online e quella offline tendono a sparire. Oggi siamo ormai connessi gli uni con gli altri, diventando progressivamente parte integrante di un’infosfera globale. Questo però nasconde un paradosso. L’accesso ipoteticamente infinito, continuo e completo all’informazione finisce per limitare la capacità delle persone di formarsi dei giudizi autonomi, di “essere informate”. La facilità della tecnologia di fornire con continuità informazioni riduce il tempo di elaborarle, comprenderle e formarsi un giudizio autonomo. Contemporaneamente, lo sviluppo degli algoritmi di ricerca e selezione delle informazioni favorisce la polarizzazione delle posizioni. È un fenomeno noto, si chiama “camera dell’eco”, ed esiste da sempre: poiché tendiamo a cercare conferme alle nostre tesi, più che smentite, siamo, per natura, più inclini a riconoscere e processare le informazioni che rafforzano le nostre idee e le nostre convinzioni rispetto a quelle che le confutano. Tendiamo dunque a circondarci di persone e contenuti che sono d’accordo con noi. Gli algoritmi dei social media amplificano questo processo perché ci espongono, automaticamente, i contenuti più affini ai nostri pensieri, ai nostri gusti, ai nostre ideali. Il risultato di queste due tendenze è che non abbiamo più la disponibilità di tempo e spazio per il confronto, la riflessione, l’elaborazione, elementi distintivi di un sistema democratico. Succede così che il consenso si polarizza e si perde di vista la mediazione e la ricerca del dialogo.
Possiamo fare qualche esempio per capire meglio il fenomeno di cui stiamo parlando?
Gli scandali connessi con le campagne elettorali social di Cambridge Analytica che hanno acceso una luce su come il contagio emotivo trasmesso sui social possa sfruttare questa debolezza della nostra capacità cognitiva per indirizzare voti in maniera arbitraria. Quello che appare più evidente è il pericolo a cui sono esposte le nostre libertà davanti alla forza dirompente della rivoluzione digitale. L’unica risposta possibile è la conoscenza, dei propri processi cognitivi, della capacità della tecnologia di influenzarli e di indirizzare le nostre scelte. Un processo conoscitivo che possa “vaccinarci” e renderci immuni da questi pericoli.
Quali prospettive si aprono sul fronte dei processi organizzativi e per lo sviluppo delle imprese con l’avvento dell’IA?
L’intelligenza Artificiale (o più correttamente le intelligenze artificiali) sta inserendosi nel mondo produttivo dal basso e dall’alto. Dal basso, proseguendo il processo tipico delle rivoluzioni industriali, in cui le macchine si sostituiscono alle persone nei processi routinari e “robotizzabili”, che la tecnologia può compiere in modo più veloce, efficiente, efficace, sicuro, produttivo. Ma questo processo di sostituzione avviene anche dall’alto. La tecnologia può, infatti, gestire i processi elaborativi e decisionali, applicati a molti dati. L’IA generativa sta, inoltre, divenendo in grado di produrre contenuti, immagini, codice, in modo sempre più simile a quello che produrrebbe un essere umano. La rivoluzione che avremo quando l’IA generativa entrerà nei software di produttività individuale sarà dirompente, forse simile a quando i computer sono comparsi sulle scrivanie delle persone, ma con una velocità di inserimento nei processi lavorativi molto più alta.
È proprio la “sostituzione” della forza lavoro che preoccupa, non crede?
I timori sarebbero comprensibili se considerassimo solo il fenomeno della “sostituzione” di lavoro con capitale, ma così facendo rischieremmo di non cogliere la vera opportunità della grande trasformazione in atto. Il processo produttivo si innova profondamente solo nella misura in cui le macchine collaborano con l’essere umano. È in questa collaborazione, infatti, il valore aggiunto dei nuovi processi di trasformazione, in quell’area in cui il lavoro è ibrido, le persone guidano l’apprendimento delle macchine e la tecnologia aumenta la capacità delle persone di analizzare e comprendere i fenomeni, memorizzare informazioni, studiare scenari. L’intelligenza artificiale generativa produce contenuti in modo veloce, contenuti che in prospettiva risponderanno a criteri qualitativi sempre più alti. Il valore decisivo in questa nuova dinamica espressiva e produttiva si innesca quando l’individuo può applicare su quei contenuti la propria valutazione critica.
Secondo una recente inchiesta di Repubblica l’intelligenza artificiale aumenta la produttività. Come va affrontata questa evoluzione che modifica il modo di fare e concepire l’impresa?
Vi sono dei lavori che verranno svolti dalle macchine. Altri che verranno sostituiti molto più tardi. Altri ancora, probabilmente, resteranno a pieno appannaggio dell’essere umano. Tra questi ultimi sicuramente i temi che riguardano l’arte, la creatività (che è cosa diversa dalla capacità generativa dell’intelligenza artificiale), l’etica, la giustizia, il pensiero laterale, l’empatia. Competenze tipiche delle persone, che vanno sviluppate in modo completamente diverso da come abbiamo fatto in passato. Sono competenze che si sviluppano esaltando l’autonomia, l’apprendimento, la curiosità. Sviluppando la motivazione intrinseca (quella che ci spinge ad agire per il piacere di quello che facciamo), riconoscendo il valore del contributo umano. Significa creare spazi in cui sviluppare il proprio potenziale, in cui esiste il tempo per l’innovazione e la creatività.
Il futuro non è dunque così nero, come alcuni osservatori si ostinano a dipingerlo?
Se acquisiamo coscienza critica e capacità interpretativa sicuramente no. Lo spazio ed il tempo liberato dalla tecnologia nelle vite delle persone possono lasciare il posto a questa capacità innovativa, sviluppata collaborando con le macchine. Significa ripensare il modo di lavorare, la fiducia nelle persone, nella loro qualità individuale. Se poniamo in essere processi lavorativi che, invece di amplificare la collaborazione, mettono le persone in competizione con le macchine, finiremo col perderci tutti.
Cruciale il rafforzamento delle competenze. Una recente assise sulla rivoluzione digitale organizzata presso La Sapienza di Roma da Cyber 4.0 e dal Ministero dello Sviluppo Economico ha sottolineato come la criticità di questa fase sia determinata dalla necessità di costruire profili adeguati a un mercato del lavoro profondamente modificato dalla rivoluzione digitale. Come si può rispondere alla domanda delle imprese?
Investendo in formazione, non vedo altra soluzione. Le professioni e le competenze vedono il loro tasso di obsolescenza aumentare e accelerare a causa dell’aumentata frequenza dell’innovazione. Dare alle persone la curiosità, il tempo e l’opportunità per adeguare le proprie conoscenze al cambiamento è un investimento per le imprese come per le persone. In questo mutato contesto il sistema universitario per primo deve giocare una nuova partita, meno autoreferenziale e più efficace nell’anticipare il cambiamento e nell’affiancare le imprese che stanno affrontando la transizione tecnologica verso il digitale. Soft e hard skills devono essere costruite insieme per cambiare passo.
Guardiamo alla più stretta attualità. Che idea si è fatto della polemica generata dalle misure adottate dal garante sul fronte della privacy in relazione alla utilizzazione di chat GPT? Sono atteggiamenti draconiani, come hanno stigmatizzato molti osservatori, o si tratta di una giusta attenzione per la privacy e i principi etici?
Parlando di regolamentazione della tecnologia e dell’IA in questo caso, possiamo riconoscere tre approcci. Uno, di stampo statunitense (modello Silicon Valley n.d.r) che crede ciecamente nel valore della tecnologia che, per la sua capacità di liberare l’uomo, deve essere assecondata, utilizzata, stimolata. Una sorta di filosofia del laissez-faire in campo tecnologico. Per questo modello fermare l’innovazione non solo è impossibile, ma costoso e deleterio. C’è poi l’approccio europeo, che potremmo definire di stampo neo-umanista, in cui al centro c’è la persona e la sua individualità, i suoi diritti, la sua personalità. Per questo modello la regolamentazione deve avere l’obiettivo di mettere la tecnologia al servizio dell’individuo e dei suoi bisogni individuali e sociali. Il terzo approccio, più dirigista, prevede che lo sviluppo della tecnologia debba essere diretto ed indirizzato dai governi centrali per i fini che questi ritengono più opportuni (il modello Cinese può fare da esempio n.d.r). Stiamo parlando di tre modelli di regolamentazione, che sono il riflesso di filosofie e visioni del mondo molto diverse.
A quale bisognerebbe dare più spazio e credito?
Ritengo che l’approccio dell’Unione europea sia quello più corretto e che quindi non si debba in sé temere o frenare lo sviluppo tecnologico (che va anzi incoraggiato ed incentivato), ma comunque vigilare perché i suoi effetti, le sue potenzialità ed i suoi limiti siano compresi dalle persone. Proteggere la libertà del singolo, mantenendo un approccio aperto, etico e pienamente informato sull’utilizzo degli strumenti high tech è essenziale se vogliamo dare qualità al processo di sviluppo della tecno-scienza. Se guardiamo all’enorme patrimonio di dati che circolano sulle reti, probabilmente si è cominciati con ritardo a far scattare delle policy efficaci di tutela e di protezione, “la nave era salpata”, recuperare era forse impossibile. Sull’IA generativa siamo ancora in tempo, perché le persone prima di utilizzarla la comprendano, siano informate dei limiti e delle potenzialità, cosicché la possano applicare coscientemente, per realizzare i progetti, che legittimamente coltivano.