Il segretario del Dicastero per la Cultura e l’Educazione illustra il documento vaticano sull’Intelligenza Artificiale sottolineandone il grande potenziale e nello stesso tempo evidenziando la necessità che l’umanità ne guidi lo sviluppo attraverso una responsabilità collettiva per il bene di tutti
Devin Watkins – Città del Vaticano
Un contributo al dibattito sul tema dell’IA, offrendo una guida etica e spunti di riflessione. Così il vescovo Paul Tighe, segretario del Dicastero per la Cultura e l’Educazione, sintetizza il documento Antiqua et nova: Nota sul rapporto tra l’intelligenza artificiale e l’intelligenza umana pubblicato oggi, 28 gennaio, dal suo Dicastero e quello per la Dottrina della Fede. Parlando ai media vaticani, Tighe sottolinea che con la Nota si desidera contribuire al dibattito sul tema dell’IA offrendo una guida etica e degli spunti di riflessione. “C’è una comprensione più ampia dell’intelligenza – afferma – che ha a che fare con la nostra capacità umana di trovare nelle nostre vite uno scopo e un significato, e questa è una forma di intelligenza che le macchine non sono proprio in grado di sostituire”. Di seguito pubblichiamo una traduzione dall’inglese di alcuni stralci dell’intervista a monsignor Tighe (INTEGRALE IN INGLESE).
Cosa c’è di “nuovo” in questo documento e cosa spera di comunicare al mondo, in particolare alla Chiesa?
Il documento riunisce molte riflessioni che sono state sviluppate in maniera organica in questi ultimi anni. Quello che cerca di fare è offrire alle persone alcune prospettive da cui poter iniziare a pensare in modo critico all’IA e ai suoi potenziali benefici per la società, e poi allertare le persone su ciò a cui dobbiamo prestare attenzione per assicurarci di non aver creato inavvertitamente qualcosa che potrebbe essere dannoso per l’umanità e la società. Mi verrebbe da dire che c’è un certo elemento di cautela qui. Tanti di noi, con l’avvento dei social media, sono stati velocissimi nello sposare il loro straordinario potenziale. E forse non abbiamo visto invece quali potevano essere i risvolti negativi in termini di polarizzazioni, fake news e altre questioni. Vogliamo accogliere un qualcosa che ha un enorme potenziale per l’essere umano: vogliamo vedere questo potenziale, ma al tempo stesso prestare attenzione ai possibili effetti controproducenti. E penso che questo è quello che stiamo cercando di fare qui. Un giorno leggiamo sui titoli dei quotidiani che l’IA sarà la salvezza di noi tutti e il giorno dopo che causerà l’annientamento e la fine del mondo. Cerchiamo di offrire alle persone un approccio più equilibrato. Il documento si sofferma su una serie di punti. Ci sono alcune questioni principali legate al futuro dell’occupazione, alla guerra, le deepfake e le disuguaglianze. Ci sono questioni etiche e questioni sociali sulle quali vogliamo soffermarci. Tuttavia, nell’affrontare questi temi, cerchiamo al tempo stesso di interrogarci e focalizzarci su una questione che è più alla base, ovvero sulla questione antropologica del cosa significhi essere umani. Che cos’è che dà alla vita umana un valore, uno scopo, un significato? Noi riconosciamo che i sistemi dell’IA possono rafforzare e migliorare alcuni aspetti della nostra umanità, come la nostra capacità di ragionare, di elaborare, discernere, scoprire, scorgere strade, generare innovazioni. Quello che noi vogliamo affermare è che esiste una comprensione più ampia dell’intelligenza che ha a che vedere con la nostra capacità umana di trovare uno scopo e un significato nella vita. Parte della domanda che ci dobbiamo porre è la seguente: che cos’è che è un bene per l’umanità? Che cos’è che incoraggia il benessere dell’essere umano? E questa è una forma di intelligenza che le macchine non sono proprio in grado di sostituire. Nella tradizione cattolica la maniera in cui noi intendiamo l’intelligenza è più di un semplice ragionare, calcolare ed elaborare, ma comprende anche la nostra capacità di andare alla ricerca di uno scopo, di un significato e di una direzione nelle nostre vite. Penso che ciò che ci preoccupa sempre sia la ricerca della verità ultima, di cosa è che dà forma, scopo e significato alla vita. Quindi possiamo usare l’IA per far sì che questa ci aiuti in alcuni aspetti ma, in ultima analisi, la nostra dimensione intellettuale va al di là qualcosa che può essere svolto semplicemente da una macchina.
Lo sviluppo dell’IA va avanti a rapidi passi. Perché i Dicasteri per la Dottrina della Fede e per la Cultura e l’Educazione hanno deciso di rilasciare la Nota in questo momento?
Di certo, dal nostro punto di vista, per quanto riguarda il mondo dell’educazione, tutti gli educatori si stanno ponendo domande su quale sia il potenziale dell’IA nell’ottica di un supporto all’educazione e sui rischi di una qualche spersonalizzazione, a causa di quest’ultima, della natura stessa dell’educazione. Stiamo al tempo stesso rispondendo alle domande che ci vengono poste durante le visite ad limina, perché i vescovi hanno bisogno di una qualche indicazione al riguardo. Il documento nasce da questo e raccoglie e mette insieme molte altre iniziative. Esso inoltre offre un’unità di visione, che cerca di unire le questioni etiche e collegarle a quella visione antropologica più fondamentale di ciò che ci rende umani. L’Unesco ha affermato che – e questo è quello che mi ha colpito di più – sta portando a quella che loro definiscono una “disruptio antropologica”. La Silicon Valley ama il linguaggio della rottura, del fare in pezzi per reinventare. Tuttavia qui, quando parliamo della natura di ciò che è un essere umano è molto importante che riflettiamo in maniera critica su questo senza bypassare la domanda sul significato ultimo della vita. E qui penso che le questioni che emergono fortemente in questo documento riguardano il rischio di una disuguaglianza che aumenta con l’IA. Ciò si può vedere, in generale, da ciò che è successo con la digitalizzazione, che ha portato all’aumento di un numero molto piccolo di persone straordinariamente ricche, con enormi quantità di potere, e che non necessariamente sono responsabili nei confronti di altre istituzioni. Quindi, come pensiamo di fare in modo che tutto ciò non contribuisca a fratturare l’unità della famiglia umana, che deve essere unita anche nell’accesso al potere e alle informazioni? Un ambito in cui l’IA ha un potenziale straordinario è quello della salute. Ma sappiamo che la sanità già tende ad essere distribuita in maniera non molto equa. L’IA porterà a ulteriori disuguaglianze in questo settore? Una gran parte delle nostre riflessioni affrontano questi temi.
Quando si pensa alla relazione dell’umanità con l’IA vengono in mente i racconti di fantascienza di Isaac Azimov, Il Ciclo dei Robot. Secondo lei questa Nota adotta un punto di vista più favorevole o più cauto nei confronti dell’Intelligenza Artificiale?
Mi auguro che adotti un punto di vista che si situi nel mezzo, ovvero che non abbracci nessuna delle due visioni apocalittiche. E neanche sta provando ad immaginare che, da sola, l’IA sarà alla base della soluzione di tutti i problemi dell’umanità. Sta cercando di vedere il potenziale che l’IA rappresenta. È una riflessione sulla capacità che ha l’umanità di imparare, di innovare, di svilupparsi, che è una capacità che ci è data da Dio. Noi vogliamo celebrare tutto questo. Nello stesso tempo, conosciamo tante straordinarie innovazioni che nel passato avevano un enorme potenziale, ma che poi si sono rivelate problematiche per una serie di motivi. Problematiche perché forse sussistevano intrinseci difetti nei sistemi stessi. Problematiche perché le persone potevano usare la stessa tecnologia per cose molto buone ma al tempo stesso per raggiungere scopi molto brutti. A volte problematiche perché i sistemi – e qui stiamo pensando all’IA – sono stati sviluppati in un particolare contesto commerciale e politico e potrebbero già essere segnati dai valori propri di quegli ambienti.
Vogliamo sviluppare un pensiero critico e far sì che l’IA sia uno strumento che possa essere usato dall’umanità in modo tale che realizzi il suo potenziale benefico per tutti gli esseri umani. L’umanità la bisogno di avere il controllo dei processi e deve prestare attenzione a che ci sia un senso di responsabilità. E qui è dove i racconti de “Il Ciclo dei Robot” di Azimov entrano in gioco. Dove risiederà la responsabilità?
Le macchine dell’IA faranno cose straordinarie. Ci saranno delle volte in cui non riusciremo a capire come le stanno facendo. Stanno sviluppando una capacità di riprogrammarsi e di avanzare da sole. Quindi, quello che dobbiamo fare è cercare di capire: dove risiede la responsabilità? Nel settore, molti ora parlano di un’IA che è “etica per progettazione” (“ethical by design”). Quindi dovremmo pensare fin dall’inizio: quali sono i problemi? Quali sono le difficoltà? Come possiamo pianificare le cose in modo tale da evitare i problemi? Quindi, tutto ciò significa: come facciamo a renderla sicura, in modo che funzioni bene, che non abbia malfunzionamenti? Come facciamo a garantire che non venga facilmente sfruttata da persone che potrebbero usarla per scopi negativi? Come facciamo ad assicurare che l’IA sia qualcosa che rispecchi il meglio di noi in quanto esseri umani?
Per questo motivo, cerchiamo sempre di ritenere responsabili chi progetta, pianifica, sviluppa, ma anche chi utilizza l’IA.
Se potesse mettere in luce un aspetto di questo documento, quale sarebbe?
Quello che vorrei dire alle persone che si troveranno a leggere questo testo è che, sia che siano cattoliche o che non lo siano, l’obiettivo è quello di essere il più informati possibile su ciò che sta succedendo in questo momento, senza sentirsi impotenti o esclusi. Lo dico da persona che ha già percorso un bel tratto di vita, e lo sto dicendo alla mia generazione, per non sentirsi come se ci stessimo tirando indietro. Una cosa che direi alle persone è di cominciare ad usare le tecnologie, esplorarle, vedere quanto esse sono straordinarie, ma allo stesso tempo iniziare a sviluppare un punto di vista critico nei loro confronti, imparare come riuscire a valutarle e riflettere su di esse.
Un aspetto che prenderei del documento è l’importanza della responsabilità. Ognuno dovrebbe pensare al proprio grado di responsabilità – e ciò riguarda e si estende anche all’utente – e domandarsi: inizierò a condividere contenuti che so essere dubbi o che immagino potrebbero incitare all’odio? E così assumermi la responsabilità per come uso l’IA.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link