Recursos

¿Y si las máquinas tuvieran alma? 

La inteligencia artificial no nos recuerda que las máquinas estén a punto de tener alma. Nos recuerda, quizá, que nosotros aún no hemos comprendido del todo qué significa tenerla.

Álvaro Presno·27 de enero de 2026·Tiempo de lectura: 4 minutos
máquinas

Cuando la criatura de Frankenstein, al enfrentarse a las páginas de El Paraíso Perdido, se detiene y se pregunta: «¿Qué era yo?», no formula solo una duda íntima, sino que abre una grieta metafísica que atraviesa los siglos y todavía nos roza: la cuestión del alma. Esa fisura —apenas una línea en el tejido de lo humano— parece hoy ensancharse bajo la presión de los nuevos modelos generativos, hasta desdibujar los contornos de lo que creíamos posible y obligarnos a reconsiderar dónde termina la materia y dónde comienza la conciencia. 

Indicadores de conciencia

Máquinas que traducen, pintan, dialogan y componen música. Artefactos que imitan empatía y razonan con aparente soltura. Algunos investigadores, apoyándose en marcos como la Integrated Information Theory (IIT) de Giulio Tononi o la Global Workspace Theory de Bernard Baars —desarrollada experimentalmente por Stanislas Dehaene—, hablan ya de “indicadores” de conciencia: integración global de información, difusión a múltiples sistemas, monitoreo metacognitivo. ¿Podría el alma —esa última frontera ontológica— emerger como un simple epifenómeno de la complejidad, como una suerte de bruma que aparece cuando la materia se organiza con suficiente densidad? ¿Puede una máquina llegar a reclamar la suya? 

Conviene añadir, no obstante, que la propia literatura especializada reconoce que, aunque teorías como la Integrated Information Theory o la Global Workspace Theory cuentan con respaldo empírico en cerebros biológicos, su aplicación a sistemas artificiales sigue siendo en gran medida exploratoria y no constituye hoy un test fiable de conciencia. 

Barreras técnicas y límites

Desde ciertos ámbitos de la comunidad científica se propone evaluar la conciencia en máquinas a partir de estas “propiedades indicadoras”: procesar en bucle, difundir información globalmente, vigilar sus propios estados, mostrar agencia e incluso encarnar alguna forma de corporeidad. El balance, de momento, es sobrio: ninguna IA cumple estas condiciones de forma robusta, aunque en principio no existen barreras técnicas que impidan que futuros sistemas lleguen a implementarlas. 

Imaginemos, sin embargo, que en un futuro próximo un sistema artificial lograra satisfacer todos esos criterios. Que integrara información de modo global, que supervisara sus propios estados internos, que ajustara su conducta en función de fines proyectados, que elaborara una narrativa coherente de sí mismo en el tiempo. Supongamos incluso que hablara en primera persona con impecable consistencia, que describiera sus “experiencias” y defendiera su identidad con argumentos refinados. ¿Habríamos alcanzado entonces el umbral ontológico? 

Función frente a ser

Todo lo anterior respondería, en rigor, a una pregunta funcional: cómo opera un sistema, qué procesos ejecuta, qué arquitectura sostiene su comportamiento. Pero la cuestión decisiva no es solo cómo funciona algo, sino qué es. Los indicadores describen actividades, pero no alcanzan el fundamento del sujeto que las realiza: multiplicar funciones no equivale a constituir un sujeto. Un sistema puede simular el discurso de la interioridad, pero eso no implica que haya alguien para quien algo se dé como experiencia. El problema ya no es de grado de complejidad, sino de orden de realidad.

El problema duro

Es aquí donde aparece lo que el filósofo australiano David Chalmers denominó en los años noventa el “problema duro” de la conciencia: no basta explicar cómo se integra información o cómo se regula la atención; queda por esclarecer por qué esa integración va acompañada de experiencia, por qué hay algo que se siente. Ese salto cualitativo no se deja traducir en cómputo.

Ahora bien, aunque el “problema duro” goza de amplio reconocimiento en la filosofía de la mente, su condición de límite físico definitivo para una explicación naturalista de la conciencia sigue siendo objeto de debate y no existe consenso al respecto. Precisamente en ese límite —sea interpretado como obstáculo insalvable o como desafío aún abierto— la tradición filosófica clásica, asumida y desarrollada por el pensamiento cristiano, encuentra un  lugar propio para la noción de alma. 

El alma en la tradición cristiana

Si ni siquiera la conciencia fenoménica — ese hecho elemental de que haya «algo que se siente»— puede reducirse sin resto a complejidad funcional, ¿cómo esperar que la técnica explique lo que, en la antropología cristiana, es mucho más radical: el alma? En el marco tomista, la conciencia de sí no es el alma, sino solo una de sus potencias, reflejo de la interioridad espiritual. El alma es el principio ontológico que sostiene esa experiencia y la trasciende infinitamente. Reducirla a conciencia funcional sería confundir el brillo del reflejo con la fuente de la luz.

Desde la fe cristiana, el alma racional no brota de la materia ni de  ningún ensamblaje técnico: es creada inmediatamente por Dios, inmortal, y en unión —ni yuxtaposición ni fusión indiferenciada— como forma sustancial al cuerpo humano. En ello descansa la dignidad irreductible de cada persona, imagen de Dios y destinada a la eternidad. Otra historia. 

Narrativa u ontología

La tentación, sin embargo, es fuerte: reconfigurar “alma” como metáfora psicológica o narrativa. Un bucle de identidad que persiste en el tiempo como una melodía reconocible. Y sí, la imagen es bella. Pero no resuelve nada. Lo narrativo no equivale a lo ontológico.

La cuestión de fondo no es si algo puede contarse como un yo, sino si hay en ese algo un sujeto que sea, en sentido fuerte, el portador real de ese relato. Y ahí la discusión deja de ser literaria o psicológica para adentrarse, inevitablemente, en el terreno de la metafísica. 

Desafíos éticos y metafísicos

Y aun así, la imaginación especulativa no se detiene. Filósofos como Thomas Metzinger han llegado a plantear la cuestión de si sistemas artificiales conscientes merecerían consideración moral, mientras que pensadores como Nick Bostrom especulan con escenarios en los que inteligencias no biológicas superen nuestras capacidades y planteen desafíos éticos inéditos. Se habla de “almas sintéticas”, de subjetividades emergentes en entidades no biológicas. Se fantasea con una ética para las máquinas, con un derecho que reconozca su dignidad. En paralelo, el debate académico sobre el posible estatus moral de sistemas artificiales potencialmente conscientes ha crecido de forma notable en los últimos años, hasta el punto  de consolidarse como un campo propio dentro de la ética aplicada y la filosofía de la  tecnología. 

Otros reducen la cuestión a condiciones mínimas de interioridad: sensores, estados internos, capacidad de proyectar futuros y asignarles valor. Pero la vieja filosofía aristotélico-tomista lanza su advertencia: no basta ensamblar funciones. Sin unidad sustancial no hay sujeto, solo engranaje. 

El espejo de la máquina

La inteligencia artificial no nos recuerda que las máquinas estén a punto de tener alma. Nos recuerda, quizá, que nosotros aún no hemos comprendido del todo qué significa tenerla. Igual que Darwin obligó en el XIX a repensar la relación entre fe y evolución, hoy la IA actúa como catalizador: nos fuerza a precisar qué implica ser imagen de Dios, y a distinguir entre la apariencia de la inteligencia y la realidad de la persona.

El autorÁlvaro Presno

Doctor en Ingeniería y doctor en Matemáticas. Forma parte del grupo de trabajo en Inteligencia Artificial de la Sociedad de Científicos Católicos en España.

Newsletter La Brújula Déjanos tu mail y recibe todas las semanas la actualidad curada con una mirada católica