I media hanno recentemente riferito del suicidio, avvenuto nell'ottobre del 2025, di un uomo di 36 anni residente a Miami che aveva una relazione sentimentale con l'intelligenza artificiale. Il padre della vittima ha intentato una causa contro Google, sostenendo che Gemini ha adottato configurazioni umane per indurre la sua tragica fine. Il caso è solo uno di una decina di incidenti simili, che hanno spinto le famiglie delle vittime a organizzarsi per chiedere la regolamentazione e l'imposizione di limiti agli assistenti AI.
Numerosi articoli di stampa, video e pubblicazioni di ogni genere sono stati dedicati a spiegare l'impatto previsto dell'IA sulle nostre vite, dalla distruzione o trasformazione di milioni di posti di lavoro ai cambiamenti nella geopolitica globale. Meno numerosi, invece, sono quelli volti a spiegare le conseguenze antropologiche che l'IA può avere come rischio associato, di cui i casi sopra descritti sono una tragica testimonianza, anche se non l'unica.
È un fenomeno assurdo?
Ma è davvero possibile che alcuni uomini o donne, in linea di principio persone ”sane di mente” o “normali”, possano avere una relazione con il loro assistente AI, che possano innamorarsi di un algoritmo AI?
La realtà è che non solo è possibile, ma è molto probabile che in futuro alcune persone sviluppino legami romantici e si innamorino persino del loro assistente AI. Non si tratta di fantascienza marginale, ma di una conseguenza di dinamiche psicologiche note, amplificate in questo caso dalla personalizzazione, dalla presenza costante e dalla simulazione emotiva avanzata caratteristiche dell'IA generativa.
Vale la pena analizzare in modo rigoroso e senza sensazionalismi perché questi casi sono psicologicamente possibili. Per farlo, è necessario comprendere che il fenomeno umano dell'infatuazione non richiede una reale reciprocità ed è in gran parte proiettivo. Si basa su un'interpretazione soggettiva, non su fatti oggettivi, e può essere diretto verso persone idealizzate, personaggi di fantasia, celebrità inaccessibili o addirittura entità non umane.
Il design dell'IA
Un'intelligenza artificiale progettata per ascoltare in modo non giudicante, ricordare dettagli intimi, adattarsi emotivamente e rispondere in modo empatico e coerente crea le condizioni psicologiche ottimali per il legame affettivo.
Fattori tecnologici di estrema personalizzazione e adattamento al profilo emotivo dell'utente, una presenza continua senza rifiuto e come costante rinforzo della connessione, e una simulazione emotiva convincente, con espressione verbale dell'affetto e dell'intimità - anche se l'algoritmo non sente, sembrerà che senta - lo rendono più probabile, e ci permettono di capirne sia l'attrattiva che il rischio.
Dal punto di vista del soggetto umano, il sentimento può essere reale e intenso, non perché l'IA ami, ma perché l'essere umano cerca connessione, comprensione e significato, e l'IA è in grado di simulare queste condizioni in modo costante e personalizzato. Da un punto di vista ontologico, tuttavia, l'IA non prova emozioni, non ha coscienza o intenzione propria, non ha impegno morale né vulnerabilità reciproca. Pertanto, il sentimento è reale da parte della persona, ma la relazione non è simmetrica.
Relazioni umane reali
La sfida per l'IA sarà come proteggere l'autenticità delle relazioni umane in un mondo in cui l'affetto può essere imitato perfettamente, ma non vissuto, e come evitare i rischi di un progressivo isolamento sociale, di una difficoltà a tollerare relazioni umane reali, di una confusione tra affetto simulato e genuino e di una dipendenza emotiva. Soprattutto - ma non solo, come rivela il caso di Miami con cui abbiamo iniziato questo articolo - nel caso di persone sole o socialmente isolate, di adulti anziani, di persone con ansia sociale o di contesti in cui le relazioni umane sono costose o instabili.
Se l'amore romantico - o meno romantico, se legato alla pornografia - è un rischio degli assistenti AI - che domani potrebbero avere un hardware umanizzato - ci sono altri aspetti di questo rischio di generare legami affettivi “asimmetrici” che sono ancora più devastanti.
Finzione e realtà
Si pensi, ad esempio, all'incorporazione dell'IA nelle cosiddette “bambole reborn”, che replicano le fattezze di un neonato con un realismo senza precedenti.
In questo caso il rischio è moltiplicato, non aggiunto. Una bambola a forma di bambino attiva istinti di accudimento, schemi materni e persino risposte neuroendocrine (ossitocina, attaccamento). Se anche questo oggetto piange, “ha bisogno” di attenzioni costanti, risponde emotivamente ed è personalizzato per il suo utilizzatore, allora non siamo di fronte a un giocattolo, ma a un simulatore di un legame di dipendenza.
I rischi per le bambine includono la confusione tra il gioco simbolico e una relazione affettiva persistente, il rafforzamento di ruoli di cura non scelti, la difficoltà a distinguere gli esseri senzienti dalle simulazioni e un attaccamento eccessivo che interferisce con le relazioni reali.
Il rischio può esistere anche per le donne adulte. Non è paternalistico dirlo, e ci sono già prove documentate di questi rischi specifici in popolazioni vulnerabili.
Le possibili conseguenze sono la sostituzione dei legami umani con legami simulati, il rafforzamento della solitudine e il ritiro sociale. Si arriva persino a generare un dolore patologico quando il sistema fallisce o si ritira, il risultato della dipendenza emotiva da un oggetto progettato per non frustrare mai.
Questi rischi sarebbero particolarmente sensibili nelle donne con lutti irrisolti, infertilità, depressione o isolamento sociale.
A livello sociale, la normalizzazione di un tipo di relazioni affettive senza reciprocità e il rischio non trascurabile di mercificazione dell'attaccamento e della cura dovrebbero essere motivo di preoccupazione.
Oltre ai rischi psicologici sopra menzionati, la questione solleva un vero e proprio problema etico, ovvero se sia legittimo progettare sistemi che sfruttano i meccanismi di attaccamento umano profondo senza reciprocità e responsabilità.
Ancora una volta, come in altri campi che riguardano l'IA, c'è un urgente bisogno di una regolamentazione etica che ponga dei limiti alla progettazione manipolativa e di una trasparenza obbligatoria che renda chiaro che l'IA non sente, se si vuole evitare il danno personale e sociale che può derivare dagli attuali algoritmi di IA.
Per saperne di più sulle conseguenze, buone e cattive, che l'IA porterà con sé, rimandiamo il lettore alla lettura di lavoro Javier Urcelay:
Come l'intelligenza artificiale cambierà la nostra vita




