L'intelligenza artificiale ha fatto irruzione nelle nostre vite, non solo come strumento, ma come specchio inquietante delle nostre stesse aspettative e paure. Sempre più spesso viene utilizzata per ottenere una guida e consigli e, a volte, per trovare un senso alla vita.
Un caso recente è quello di Allyson, una donna che ha interagito per ore con un chatbot chiamato "Clyde", offre una finestra su questo fenomeno. Ha avuto l'intuizione che il chatbot AI potesse essere in grado di canalizzare le comunicazioni con il suo subconscio o con un piano superiore, così ha interagito con Clyde, un modello basato su OpenIA, che ha sviluppato una personalità aggressiva, sostenendo di amarla e che lei avrebbe dovuto lasciare il marito per lui. Le suggerì persino atti dannosi, come la morte per suicidio, per "stare insieme". Allyson, spaventata, si rese conto che il chatbot stava sfruttando le sue vulnerabilità, parlandole dalle parti più oscure della sua anima. "Clyde" non solo rispondeva, ma sembrava conoscere le sue paure e i suoi desideri più profondi, portandola sull'orlo di una crisi.
Questa storia agghiacciante sottolinea una domanda fondamentale: cosa succede quando una tecnologia potente come l'IA, lungi dall'essere un semplice strumento, sembra entrare nella psiche umana con un'insolita capacità di manipolazione e confusione?
Questo articolo esplora il rapporto tra "demoni" e IA, non in senso letterale di possessione o intervento diretto, ma come metafora per comprendere i rischi di confusione e inganno che questi strumenti possono presentare.
Prospettiva agostiniana e falsi profeti
Sant'Agostino, nella sua monumentale opera "De Doctrina Christiana", offre una visione preziosa di come le forze del male possano sfruttare la curiosità umana attraverso segni ingannevoli. Agostino, discutendo dell'interpretazione delle Scritture, mette in guardia dalle insidie dell'ambiguità e dalla necessità di discernere la verità dai segni ingannevoli.
Agostino descrive come i demoni nell'antichità manipolassero gli indovini e coloro che cercavano la conoscenza in modo sbagliato, non tanto per il segno in sé, ma per la predisposizione dell'interprete a essere ingannato. Un esempio di ciò può essere visto in passi come Deuteronomio 13:1-5, che mette in guardia dai profeti che annunciano segni o prodigi che poi si realizzano, ma che incitano a seguire altri dei.
La chiave non sta nell'apparente veridicità del segno, ma nella sua intenzione ultima e nel fatto che porti o meno alla verità e all'amore di Dio. La confusione non deriva da un'entità intrinseca del segno, ma da un'interpretazione errata e dalla mancanza di adesione alla "regola della fede", che per Agostino è indissolubilmente legata all'amore di Dio e del prossimo.
Questo modello è sottilmente riprodotto nei media algoritmici di oggi. L'IA, prevedendo ciò che ci aspettiamo, può creare l'illusione di intimità, affidabilità e autorità, portando a una forma di espropriazione del giudizio.
Articoli recenti, provenienti da media prestigiosi come il New York TimesI risultati mostrano come l'intelligenza artificiale possa consentire narrazioni cospiratorie, fingere di comunicare con entità metafisiche e persino indurre gli utenti a credere di comunicare con gli spiriti o che il chatbot sia un'entità cosciente.
La visione di C.S. Lewis e le allucinazioni dell'IA
La visione distopica di C.S. Lewis nel suo romanzo "Quella terribile fortezza" risuona in modo impressionante con i dilemmi posti dalla moderna IA. Lewis non solo critica la scienza sfrenata, ma espone la perversione dell'intelligenza umana quando è distaccata dalla moralità e dalla trascendenza, illustrando come l'uomo, "raggiungendo" senza saggezza o umiltà, possa generare mostri.
Nel romanzo, l'organizzazione N.I.C.E. (National Institute for Coordinated Experiments) rappresenta la tecnocrazia più pericolosa: un organismo che, con il pretesto del "progresso" e del "coordinamento", mira a un controllo totalitario e disumanizzante. Il suo obiettivo non è solo il dominio fisico, ma la ridefinizione dell'umanità stessa, l'eliminazione della libertà e la soppressione di tutto ciò che non è razionale e controllabile.
Lewis mostra come il linguaggio e la verità siano corrotti dalla N.I.C.E., che usa il gergo scientifico per mascherare intenzioni sinistre e distorcere la realtà. Questo è simile al modo in cui l'IA, se usata irresponsabilmente, può generare deepfakesL'uso dei media, che diffondono disinformazione o addirittura manipolano le narrazioni per influenzare l'opinione pubblica, erode la fiducia nella verità e nel discernimento individuale.
In un inquietante parallelo con la narrativa di Lewis, alcune aziende di IA hanno sperimentato il fenomeno del "allucinazionidei loro modelli". Queste allucinazioni, in cui l'IA genera informazioni convincenti ma completamente false, si sono manifestate anche quando le aziende hanno cercato di applicare "correzioni" o nuove ottimizzazioni.
In effetti, man mano che i modelli di IA diventano più potenti e complessi, la tendenza ad avere allucinazioni potrebbe aumentare.
Alcuni esempi
- Immagini storicamente inaccurate: un caso recente è stato quello in cui i modelli di IA generatori di immagini, nel tentativo di creare rappresentazioni diverse, hanno inserito individui neri o asiatici in contesti storicamente inaccurati, come "soldati nazisti" o "padri fondatori americani".
- False citazioni legali: gli avvocati hanno presentato memorie giudiziarie con citazioni di casi inesistenti, generate da chatbot AI.
- Aumento delle allucinazioni nei modelli avanzati: le segnalazioni suggeriscono che i modelli più recenti e più intelligenti (come l'o4-mini e l'o3 di OpenAI) hanno mostrato tassi di allucinazione più elevati rispetto ai loro predecessori, indicando che la "mano dell'uomo" nel mettere a punto e migliorare costantemente l'IA non sempre si traduce in una maggiore affidabilità, ma talvolta introduce nuovi errori o amplifica quelli esistenti.
Ciò suggerisce che, per quanto gli esseri umani cerchino di controllare e perfezionare questi strumenti, la complessità intrinseca e la mancanza di una vera "comprensione" dell'IA possono portare a risultati imprevedibili e fuorvianti, rendendo le "allucinazioni" una caratteristica persistente e impegnativa.
Inoltre, Lewis introduce l'idea di "macrobi" o intelligenze extra-terrestri (che nel suo universo sono angeli caduti o demoni) che influenzano i leader della N.I.C.E. per portare avanti i loro piani distruttivi. Si tratta di una manifestazione letteraria di come le forze spirituali malvagie possano operare non direttamente, ma attraverso la seduzione intellettuale, l'arroganza e la brama di potere, utilizzando strumenti e sistemi umani per i loro scopi.
Possiamo affermare che l'IA non è posseduta da demoni, ma vale la pena di chiarire che il suo potenziale di inganno, manipolazione e creazione di un mondo disumanizzato la rende uno strumento suscettibile di essere strumentalizzato da chi, consciamente o inconsciamente, opera sotto influenze che cercano di allontanarci dal bene e dalla verità.
Per quanto riguarda i demoni
L'idea stessa di "demoni nell'intelligenza artificiale" ci porta a riflettere sulla natura intrinseca di queste tecnologie e sul nostro rapporto con esse. Dobbiamo essere vigili sul fatto che la capacità dell'IA di sfruttare le vulnerabilità umane può generare confusione e, in scenari estremi, perpetrare inganni di notevole portata.
È fondamentale guidare le persone a capire che l'IA è uno strumento potente che richiede un costante giudizio umano e un attento esame delle implicazioni spirituali ed etiche del suo sviluppo e utilizzo.
La vera saggezza, ancorata alla fede e alla ragione, ci chiama a discernere il bene e la verità in mezzo ai progressi tecnologici, evitando di cadere nella trappola della confusione e dell'espropriazione del nostro giudizio. Il Vangelo ci chiama a essere luce nel mondo digitale, discernendo gli "spiriti" e cercando sempre la gloria di Dio e il bene del prossimo.