Argomenti

Paolo Benanti: «il problema dell'IA è la complessità».»

L'intelligenza artificiale sta cambiando il nostro modo di relazionarci, informarci e lavorare. Il teologo ed esperto di etica dell'IA Paolo Benanti ne mette in guardia i rischi in tempi di polarizzazione e di potere degli algoritmi.

Jose Maria Navalpotro-19 gennaio 2026-Tempo di lettura: 6 minuti
Paolo Benanti sull'IA

Paolo Benanti ©Lupe de la Vallina

La tecnologia digitale ha contribuito alla polarizzazione. Rafforzando le proprie idee e scartando quelle degli altri, l'algoritmo contribuisce a diminuire il dialogo e, quindi, la conoscenza di ciò che pensa l'altro. Questa è una delle tesi sostenute dal francescano Paolo Benanti nel suo ultimo libro, Il crollo di Babele, pubblicato da Encuentro. Ma la polarizzazione non è l'unico rischio.

All'inizio di gennaio si è saputo che Grok, il modello di intelligenza artificiale di Elon Musk, ha facilitato la creazione di immagini sessuali a partire da immagini caricate da donne sul social network “X”.

Fra Paolo Benanti (Roma, 1973), teologo morale, è uno dei massimi esperti mondiali di etica dell'intelligenza artificiale (IA). Presiede il gruppo di lavoro sull'IA del governo italiano e la commissione di esperti delle Nazioni Unite su questo tema. Il suo punto di vista è particolarmente autorevole per parlare di un tema di grande attualità, che interessa i governi e la società.

L'ultima volta che è stato ascoltato in Spagna è stato due mesi fa, alla Fundación Telefónica e all'EncuentroMadrid, l'evento annuale organizzato da Comunione e Liberazione, a Cuatro Vientos (Madrid). In questa edizione, Benanti ha parlato proprio di “Intelligenza artificiale e fabbricazione dell'eterno”. 

Chi vigila sull'IA?

- Quando parliamo di intelligenza artificiale, non parliamo di una singola tecnologia, ma di una famiglia di algoritmi, molto diversi tra loro. Alcuni di essi sono molto spiegabili. Ricorda un po' il primo GPS: quante volte vi ha detto di uscire a destra per poi rientrare immediatamente a sinistra? Era intelligente, ma capivamo che era intelligente perché era più corto. L'intelligenza artificiale fa un lavoro, che è lo stesso che farebbe un'intelligenza naturale.

Ma sono una scatola nera. Alcuni di questi algoritmi possono avere risultati molto più intelligenti, ma sono una scatola nera.

La domanda è: possiamo utilizzare tutti i tipi di algoritmi per tutti i tipi di funzioni? 

Questo è uno dei problemi etici dell'IA. Immaginiamo di voler utilizzare l'intelligenza artificiale per selezionare i chicchi di caffè in una fabbrica che produce caffè. Una volta questa operazione veniva fatta a mano, selezionando chicco per chicco, perché se un singolo chicco di caffè è ricoperto di muffa, dà un cattivo sapore a tutti gli altri.

Questo processo viene eseguito con un algoritmo chiamato Deep Learning. Ma non è spiegabile.

La cosa peggiore che può accadere è che si buttino via i chicchi di caffè che valgono. Ma forse è più economico che assumere una persona che raccolga chicchi per chicchi. 

Ma lo stesso algoritmo può essere utilizzato nel reparto di emergenza di un ospedale per scegliere quale paziente ricoverare per primo.

Si può capire che non è un problema di algoritmo, ma di dove lo mettiamo al lavoro all'interno della struttura sociale. 

Il problema dell'IA oggi non è più una questione tecnica, ma un problema di giustizia sociale che ci dice quale funzione deve svolgere un umano o un algoritmo. Ciò richiede una multidisciplinarità. 

Ora, la cosa interessante è che questa è la matrice della dottrina sociale della Chiesa. Ed è il motivo per cui Papa Leone XIV, nel suo primo discorso pubblico, affermò che i cattolici, in quanto cattolici, possono solo offrire la dottrina sociale della Chiesa, che non è fatta di risposte, ma di domande. Domande che cercano di proteggere la dignità dell'uomo e del lavoro dell'uomo.

Non abbiamo paura del cambiamento, ma vogliamo stare dalla parte dell'uomo. 

Il secondo elemento è che Papa Francesco, quando ha scritto le linee guida per la formazione cattolica, soprattutto per i futuri sacerdoti, parla di interdisciplinarità e transdisciplinarità. Quindi, ancora una volta, la sfida è più che tecnica, è culturale. Questa è la frontiera su cui si sta discutendo oggi. 

Dietro l'intelligenza artificiale

Ma chi c'è dietro questa tecnologia?

- La prima cosa da capire è che questa tecnologia cambia il modo di affrontare il problema. Tutto il XIX secolo ha visto una frattura nella razionalità scientifica. Eravamo convinti di un modello deterministico.

Ma se pensiamo a quello che è successo con la fisica subatomica, dove grazie al principio di indeterminazione di Heisenberg non sappiamo dove si trova un elettrone, né a che velocità sta andando, abbiamo dovuto passare a un modello probabilistico. Lo stesso vale per l'astrofisica, dove ciò che diceva Einstein parla di una relatività. Da un modello di certezza siamo passati a un modello di probabilità.

Se il modello è statistico, non c'è una mente che determina i passaggi, ma c'è una macchina che estrae modelli dai dati che ha davanti.

Questo modello rende molto complesso rispondere se dietro c'è qualcuno o meno. Si parla spesso di “pregiudizi”, che in inglese si esprimono con la parola “bias".“sbieco”. Ma sbieco può anche essere tradotto come “preferenza sistematica”.

Supponiamo che io voglia creare un'auto autonoma. Prendo tutti i dati su come le persone guidano a Madrid. E la macchina vede che c'è una preferenza sistematica per fermarsi al semaforo rosso (sto parlando di Madrid, non di Roma...). Voglio che questa preferenza sistematica esista.

Ma, ad esempio, la macchina potrebbe accorgersi che l'auto non si ferma allo stesso modo quando attraversa un bambino o un adulto. E potrebbe decidere di non frenare in presenza di bambini. Perché? Perché il bambino è meno visibile e il conducente lo vede più tardi. In questo caso la macchina ha un sbieco, un pregiudizio, con i bambini. Potrebbe essere lo stesso di notte con, ad esempio, le persone di pelle scura. Qualcuno sarebbe cattivo se applicasse questo “pregiudizio”?

Ci sono così tanti dati che nessuna mente umana può controllarli tutti. Qual è il problema? La Silicon Valley ci dice che stiamo cambiando il mondo. Ma non sappiamo, nessuno sa fino in fondo, quali sono gli schemi che la macchina (il computer) ha trovato.

È un problema epistemologico. Ed etico. E legale. Chi è responsabile se l'auto investe il bambino? Il proprietario? Il produttore? L'ingegnere del software? È molto complesso. 

Il vero problema dell'intelligenza artificiale è la complessità. 

D'altra parte, può farci risparmiare molto denaro. Quindi c'è una tensione e in qualche modo dobbiamo regolare questa tensione per evitare che chi decide lo faccia solo per interessi economici o per paura. 

IA e lavoro

L'intelligenza artificiale potrebbe rendere superfluo il lavoro umano?

- Un'intelligenza artificiale non è in grado di svolgere tutti i compiti allo stesso modo. Esiste un paradosso, sviluppato da un informatico di nome Moravec, secondo il quale è molto più facile per una macchina svolgere un compito intellettuale elevato che uno basso. Ad esempio, una calcolatrice solare che fa la radice quadrata si compra su Internet per un euro. Ma una mano robotica che prende un cucchiaio e gira il caffè costa dai 150.000 ai 200.000 euro. Applicatelo al lavoro. 

Un banchiere lavora con molti numeri. Un lavoratore manuale, un metalmeccanico, lavora con molti martelli. Ciò significa che i primi lavori a saltare sono quelli meglio pagati. Questo potrebbe generare tensioni sociali che, se non gestite politicamente, potrebbero danneggiare il sistema democratico. 

E in particolare nel campo, ad esempio, del giornalismo? 

- Il giornalista è semplicemente qualcuno che trasforma qualcosa in testo? O è una funzione sociale che garantisce uno spazio democratico? 

Sono presidente della Commissione del Governo italiano per lo studio dell'impatto dell'IA sul giornalismo e sull'editoria. E abbiamo concluso che il giornalista ha un ruolo fondamentale per la democrazia. Ma ciò che rende possibile la presenza di giornalisti è l'esistenza di un'industria editoriale in grado di pagarli.

Ma poi bisogna riconoscere un problema, che non nasce con l'IA, ma con i social network: perché se tu giornalista scrivi qualcosa puoi essere portato davanti a un giudice, ma se si tratta di un social network nessuno ti dice niente?

Perché un direttore può essere portato in tribunale? E un algoritmo di un social network che sceglie ciò che leggo è libero da qualsiasi cosa. Oggi possiamo aggiungere a tutto questo la capacità del computer di scrivere. Ma anche in questo caso il problema non è la capacità della macchina. È la convenienza economica. 

È nella natura della professione che essa sia essenziale per la sopravvivenza dello spazio democratico. 

Anni fa, gli scienziati hanno chiesto una moratoria sull'IA per vedere cosa si poteva fare con essa.

- C'è troppo, troppo denaro in gioco. Ci sono troppi interessi geopolitici. La competizione tra Cina e Stati Uniti è troppo alta perché uno dei due possa fidarsi dell'altro in questa cosiddetta moratoria. 

L'ultimo anno ha cambiato molto la narrazione di questo tema. Prima parlavamo di scienza e tecnologia, attività in cui, se scopro qualcosa (penso ad esempio ai premi Nobel), è per tutti. Tutti ne beneficiano.

Ma oggi è una questione di razza. Se io vinco, tu perdi. Questo rende impossibile l'approccio.

Per saperne di più
Newsletter La Brújula Lasciateci la vostra e-mail e riceverete ogni settimana le ultime notizie curate con un punto di vista cattolico.