Pubblicato sul numero quindicinale di ottobre del Borghese Giovani, scrivici una e-mail a info.borghesegiovani@gmail.com per ricevere la tua rivista!
Gli ultimi trent’anni hanno visto una serie di cambiamenti dirompenti che hanno ridefinito notevolmente il nostro modo di concepire la politica, la comunicazione, la società. Dalla nascita dell’infosfera all’alba del “capitalismo della sorveglianza”, passando per la ridefinizione del rapporto tra Stato e cittadini portata dalla globalizzazione e dall’avvento del digitale, il mondo contemporaneo si è fatto sempre più complesso, sempre più interconnesso, sempre più automatizzato. In questo scenario ad una elevata evoluzione tecnica non si è però sempre accompagnata una “evoluzione di pensiero”, e alle fantasmagorie della tecnica non si è affiancata una vera “politeia” del cambiamento, in senso umanistico o semplicemente umano. Un vuoto che purtroppo ha generato alcune derive fra il dispotico e il postumano contro cui solo negli ultimi anni si sono visti dei tentativi incisivi capaci di frenarne gli eccessi. Tentativi di cui l’ultimo esempio sembra essere l’AI Act, che in questi giorni è entrato al centro del dibattito europeo. Per affrontare questi temi al meglio abbiamo intervistato Padre Paolo Benanti, teologo, studioso di etica, filosofo, che nei suoi libri più significativi, come “Postumano, troppo postumano. Neurotecnologie e human enhancement” (Castelvecchi) e “Human in the loop. Decisioni umane e intelligenze artificiali” (Mondadori Università), ha affrontato le principali sfide del nostro mondo immersivo (in cui realtà virtuale e reale sono intrecciate) da una prospettiva umanistica e cristiana.
Padre Benanti, come valuta e cosa ne pensa del AI Act?
Con l’AI Act l’Unione Europea si è resa conto che l’impatto dell’intelligenza artificiale non riguarderà più solo il settore industriale e la dimensione economica, ma investirà la vita sociale dei cittadini in tutti i suoi aspetti. L’AI Act, infatti, rimette al centro il cittadino, non solo in quanto esso viene inteso come consumatore che deve essere protetto e tutelato di fronte agli squilibri di poteri delle grandi aziende tecnologiche, ma soprattutto perché definisce una serie di regole che non hanno più un focus incentrato solo sulla tecnologia, bensì sui cittadini e sul contesto sociale in cui essi sono immersi. Infatti, definendo alcune aree del vivere sociale come aree ad alto rischio si impedisce che esse vengano colonizzare dall’AI o all’automatizzazione tecnica. È chiaro che tra il draft prodotto dalla Commissione Europea e quello che arriverà alla sua versione ultima, ci saranno delle discrepanze, però è rilevante segnalare che tramite questo provvedimento si manifesti la volontà di mettere al centro l’intenzione di proteggere il singolo dallo strapotere dei grandi poli tecnologici e dalle violazioni delle proprie libertà fondamentali. Un proposito profondamente ammirevole che mostra quanto l’UE stia facendo degli importanti passi avanti su queste tematiche.
Si può quindi uscire dalla dimensione del capitalismo della sorveglianza?
Senza provvedimenti come l’AI Act non credo sia possibile. Dobbiamo pensare, infatti, che i dati che produciamo ogni giorno, possono essere accumulati da soggetti terzi, per interessi privati, producendo delle concentrazioni di informazioni che rendono i rischi descritti da Shoshanna Zuboff, (il cosiddetto “capitalismo della sorveglianza”), e da Byung Chul Han, (che parla di “psicopolitica”), concreti ed attuali. I pericoli della eterodirezione delle vite dei cittadini, illustrati da questi autori, devono essere affrontati e risolti al fine di garantire una sana e libera vita democratica. Perciò è importante il ruolo che l’Europa sta svolgendo su questi aspetti
Di fronte all’imposizione di una civiltà del codice in cui il ruolo della macchina e degli algoritmi è preponderante su quello del singolo, quale ruolo svolge una vera coscienza umanistica?
La cultura umanistica in Italia ha generato dei “codici” che non si mettono in atto come processi automatici delle macchine, ma che si interpretano ed eseguono alla luce dell’esperienza e della coscienza umana. Infatti, il diritto non l’automazione è il fulcro della società umanistica. Oggi nel nome dell’efficienza però si vuole fare in modo che si passi dall’interpretazione del codice di legge da parte delle persone, al codice informatico eseguito dalla legge tramite gli algoritmi e l’AI. È chiaro che ciò sarebbe una grandissima perdita della componente umanistica nella nostra società ed in un certo senso della nostra umanità. Un cambiamento che imporrebbe una mutazione che ci porterebbe a diventare dei processi anonimi in esecuzione, invece che entità individuali che esistono e che possono autodeterminarsi in una sfera pubblica . Ciò porterebbe, soprattutto, ad una forte perdita della nostra umanità, che potrebbe generare anche a derive distopiche, non disumane, ma almeno postumane.
Però se non ci troviamo proprio di fronte ad una società disumana troppo disumana, ci troviamo sicuramente di fronte ad una impostazione postumana troppo postumana…
In questa stagione in cui c’è questo confronto sempre più intenso tra una macchina che si umanizza sempre di più e un uomo che si sente sempre più automatizzato, il rischio che si possa perdere di vista il valore e la dignità della dimensione umana è molto alto.
Lei ha citato Han. Ma nella “società senza dolore” è stato proprio questo filosofo sudcoreano a dirci che sarà il sacro a riscattarci dalla eterodirezione della biopolitica e dalla psicopolitica. Oggi il sacro e la dimensione spirituale può sanare o riscattare le derive di questa società?
Prima di iniziare questo discorso dovremmo riflettere su cosa intendiamo per “sacro” e “spirituale”. Azzardiamo alcune definizioni. Il sacro, a mio avviso, è il tempio, la dimensione inviolabile, sublime e soprannaturale che ci investe di fronte ad una realtà che ci sovrasta. La definizione di spirituale invece esprime esperienze trascendenti, introspettive, di connessione con un benessere e di uno stupore non materiale. Tutto questo nel cattolicesimo si collega ad una dimensione religiosa, ma nella società contemporanea non si estrinseca solo in questi aspetti, ed anzi esistono forme di sacralità e spiritualità con tendenze secolari. Ci sono però esperienze spirituali non religiose che purtroppo seguono derive postumane, trovando questa spiritualità negli allucinogeni (pensiamo all’utilizzo in alcune comunita nordamericane di microdosi di LSD per ricercare una nuova “spiritualità”) o nell’occultismo. È chiaro che se noi procediamo verso una società dell’automatizzazione e della tecnica, avremo sempre più forme di queste tendenze, che surrogano una dimensione spirituale e sacrale in queste nuove forme di sacralità postumana. L’uomo necessita di una dimensione superiore a quella materiale, e anche la nostra storia e il nostro patrimonio artistico ci insegnano che esiste una dimensione in cui questi aspetti invece possono convivere con una cultura umanistica. Una considerazione opposta se indaghiamo invece le forme di sacralità di stato dei regimi totalitari o del presente. Il sacro, per assolvere questo compito, va quindi coniugato con una dimensione umanistica e numinosa.
Secondi lei è vero il mito per cui lo studio dell’AI può portarci una riscoperta dell’etica e del pensiero?
L’uomo ha delle visioni e della concezioni della realtà che ogni tanto applica anche alle nuove frontiere dandogli nuovi significati. Pensiamo alla figura di Ulisse, e nelle sue interpretazioni nella storia. È ciò che proiettiamo su tali figure che gli donano nuovi significati e non viceversa. E questo vale anche per l’intelligenza artificiale. Ogni giorno nascono nuove tecnologie che sono figlie di idee, prospettive e valori completamente diversi e che ne caratterizzano l’originalità e la complessità. Dobbiamo quindi fare un discernimento sull’intelligenza artificiale. Non tanto cambiare gli ideali di fronte ai nostri strumenti, ma definire gli strumenti che abbiamo in base ai valori e agli ideali con cui fondiamo essi. Dobbiamo, quindi, stare attenti a non farci oscurare dall’importanza dei fini nella definizione dei mezzi che adopereremo, soprattutto di fronte a tecnologie che cercano strumenti sempre più efficienti per raggiungere i propri obiettivi, senza valutarne le conseguenze etiche e sociali. L’etica quindi è oggi una urgenza per definire e limitare gli strumenti innovativi di cui disponiamo per realizzare un futuro migliore.
L’AI è quindi una questione troppo seria per lasciarla solo agli ingegneri…
Assolutamente si. Il sapere tecnico e scientifico valuta l’efficienza e la funzionalità oggi il sapere umanistico invece deve definire gli altri ambiti che realizzano il benessere materiale e spirituale della società in cui operano.
Oggi i luoghi fisici dell’infosfera hanno una componente politica paragonabile a quella delle centrali elettriche e delle fabbriche nel secolo scorso?
Sicuramente si. Lo possiamo vedere in molti aspetti. Ad esempio per quanto riguarda il rapporto tra tecnologia e potere oggi il ruolo di un data center oggi è lo stesso di quello che aveva una base Nato negli anni 70.
Il digitale quindi non è solo uno strumento di cui disponiamo?
No è anche l’ambiente che assorbe la nostra dimensione politica, economica e sociale. È, in sintesi, una nuova dimensione del nostro vivere.
Quale autore ci consiglia per orientarci nella transizione digitale?
Abbiamo diversi autori italiani molto sensibili alle trasformazioni digitali. Pensiamo alle visioni di Cosimo Accoto o a Sebastiano Maffettone. Un testo molto interessante è quello edito dal cortile di gentili, presieduto da Amato, è Distingue frequenter. Oggi in Italia siamo molto avanti sulla percezioni della transizione digitale rispetto a molti altri paesi occidentali.
Intervista di Francesco Subiaco