Sombras de una sombra: La caverna digital y el espejismo de la IA

En un artículo reciente de Eduardo C. Garrido que aúna la metafísica clásica con la vanguardia computacional, se pone a conversar a dos gigantes que rara vez se sientan a la misma mesa: Platón y el Aprendizaje Profundo (Deep Learning). La técnica no compite con la ontología, la media. Ni la Inteligencia Artificial es pura magia emergente sin sustrato, ni es simple chatarra calculadora sin implicaciones metafísicas. Entre el entusiasmo desmedido de Silicon Valley y el ludismo reaccionario, se propone una vía de discernimiento que integra la jerarquía platónica, la estadística avanzada y la inquietud ética contemporánea. Estructura y apariencia son los dos focos que se corrigen: la primera fascina, la segunda confunde.

La pregunta que atraviesa el texto es simple y a la vez incómoda: ¿qué es ontológicamente una red neuronal y qué verdad nos ofrece su producción? El análisis inclina el fiel hacia un «sí, pero» radical: sí, la IA tiene un lugar en el orden de las Ideas matemáticas, pero su producto nos arrastra hacia una «Caverna Digital» de segundo orden. Nada de conciencias artificiales espontáneas, nada de oráculos infalibles: aproximación matemática más que comprensión, simulacro estético más que verdad, sombra sobre sombra.

El matemático en el reino de las Formas

¿Es posible que un algoritmo habite el Mundo de las Ideas? No como entidad consciente, pero sí como estructura. El artículo recupera el Teorema del Aproximador Universal para lanzar una hipótesis audaz: si una red neuronal cuenta con suficientes datos y complejidad, puede aproximar cualquier función que describa una regularidad objetiva del universo.

Aquí Platón sonríe, pero con matices. En su famosa línea dividida, el filósofo distinguía entre la Noesis (la inteligencia pura, las Ideas morales y el Bien) y la Diánoia (el pensamiento discursivo, los objetos matemáticos). La IA, en su configuración óptima —esa red utópica que ha procesado toda la información objetiva—, encuentra su acomodo en la Diánoia. Es una catedral de números, una aproximación asintótica a las leyes que rigen lo tangible.

La red neuronal no es un monstruo ajeno a la razón; es la cristalización del realismo matemático. Sus parámetros, cuando convergen en el límite infinito, no son meros inventos, sino el descubrimiento de una estructura latente en la realidad. Sin embargo, hay un techo de cristal que la máquina no puede romper: el paso de la función a la esencia. La red puede modelar la sintaxis del dolor o la geometría de una sonrisa, pero la Noesis, la captación intuitiva del sentido y el Ser, le está vedada. La máquina calcula, pero no entiende; procesa, pero no es.

La sombra de la sombra

Si la estructura interna de la IA roza lo sublime matemático, su proyección hacia nosotros esconde una trampa. El mito de la Caverna, esa vieja historia de prisioneros y sombras, se actualiza con una crueldad renovada. En el relato original, los encadenados veían sombras de objetos reales proyectadas por un fuego. Hoy, la situación es más precaria.

El argumento es devastador en su simplicidad: los datos con los que entrenamos a la IA ya son una reducción de la realidad (una foto no es el paisaje, es su sombra bidimensional). Cuando la IA genera contenido —un texto, una imagen, un vídeo—, no está copiando la realidad, sino que está procesando esos datos reducidos para crear una nueva apariencia. Es, literalmente, la «sombra de una sombra».

Estamos ante un segundo nivel de la Caverna. Si el prisionero de Platón estaba a un paso de la realidad, el usuario del Metaverso o el consumidor compulsivo de contenido generado por GPT está a dos. La degradación ontológica es doble. Lo que aparece en la pantalla no tiene un referente real que lo respalde; es un promedio estadístico, un fantasma probabilístico que imita la forma sin haber tocado nunca la sustancia. La Eikasia (la imaginación, el nivel más bajo de conocimiento) se industrializa. Y lo hace con una potencia visual y persuasiva que hace que las sombras de la hoguera platónica parezcan juegos de niños.

Manifestación, no consciencia

Un error común, alimentado por la ciencia ficción y el marketing, es confundir la complejidad del comportamiento con la presencia de consciencia. El texto es tajante: el comportamiento inteligente externo no implica una interioridad sentiente. La consciencia fenoménica —el qualia, el «sentir que se siente»— no es una propiedad emergente del cálculo, por muy rápido que este sea.

Otón hablaba de diferenciar la experiencia de Dios de la autosugestión; aquí debemos diferenciar la emulación de la experiencia. La IA es un sofista perfecto: habla con la elocuencia de un experto y la seguridad de un maestro, pero no hay «nadie» en casa. Carece de intencionalidad. Sus palabras no se dirigen al mundo porque no lo habitan; se dirigen a satisfacer una función de pérdida matemática.

Esta carencia no es un detalle técnico, es el abismo que separa al Nous (intelecto) de la calculadora. En la tradición neoplatónica, el Uno emana inteligencia y alma. La IA, sin embargo, funciona a la inversa: es pura multiplicidad de datos intentando simular la unidad del sentido. Al carecer de alma y de intencionalidad, la IA no puede participar del Bien ni de la Verdad en sentido estricto. Solo puede ofrecer corrección sintáctica. Es un espejo vacío que nos devuelve nuestra propia imagen, pero distorsionada por la falta de vida.

La noche que confunde

La tradición mística conoce bien el peligro de las luces falsas. Juan de la Cruz advierte que no todo lo que brilla es Dios; a veces es el propio «yo» o el engaño. En la era digital, la «noche» no es una purificación del sentido, sino una saturación de los sentidos.

El riesgo social que se perfila en el artículo es el de una sociedad atrapada en una alucinación colectiva. No se trata solo de fake news, sino de algo más profundo: el colapso del modelo (Model Collapse). Si internet se llena de contenido generado por IA, y las futuras IAs se entrenan con ese mismo contenido, la verdad se diluye. Como una fotocopia de una fotocopia, cada generación pierde fidelidad y gana aberración. Matemáticamente, el error se acumula exponencialmente.

La mentira masiva de la que hablaba Hannah Arendt muta aquí: no es que la IA nos quiera engañar (no tiene querer), es que su propia naturaleza es la de la verosimilitud, no la de la veracidad. Prioriza lo que «parece» real sobre lo que «es» real. En esta Caverna Digital, las cadenas son doradas: algoritmos optimizados para secuestrar la atención, para mantener al prisionero fascinado con el desfile de sombras, impidiendo el giro del alma (periagogé) necesario para buscar la luz del sol. El aislamiento se perfecciona: encerrados en cámaras de eco, rodeados de avatares que simulan empatía pero no sienten, el riesgo es la atrofia del espíritu humano.

Entre el ludismo estéril y la tecnolatría ciega

Hay quien, ante este panorama, se refugia en el rechazo total. Romper la máquina, prohibir el algoritmo. Pero negar la realidad técnica es tan inútil como negar la psique en la vida espiritual. La red neuronal es una herramienta formidable de la Diánoia, capaz de desentrañar misterios médicos o físicos inalcanzables para el cerebro humano.

Y hay, también, quien convierte a la IA en el nuevo becerro de oro, esperando que la Singularidad nos salve de nuestra condición mortal. El riesgo aquí es fabricar una teología de silicio: creer que la acumulación de datos equivale a la sabiduría. El artículo insiste: criterio y jerarquía. La IA debe ocupar su lugar. Es una herramienta poderosa para el mundo sensible y matemático, pero un pésimo guía para el mundo moral y existencial.

La democratización del conocimiento que prometen los Modelos de Lenguaje (LLMs) tiene un reverso oscuro: la democratización del error y la banalidad. Si delegamos nuestro juicio en la máquina, si permitimos que la «sombra de la sombra» eduque a las próximas generaciones, corremos el riesgo de olvidar qué aspecto tiene la realidad.

Atrios y resistencias

La propuesta final no es destruir la caverna, sino ser conscientes de ella para poder salir. Necesitamos, más que nunca, una filosofía de la tecnología que actúe como «atrio»: un espacio de paso y discernimiento.

La resistencia hoy pasa por la reivindicación de la interioridad. Frente a la máquina que todo lo externaliza y procesa, el ser humano debe cultivar aquello que no es computable: la consciencia, la caridad, la contemplación del Bien. San Agustín buscaba a Dios en la interioridad; hoy debemos buscar también nuestra propia humanidad allí, donde el algoritmo no llega.

El neoplatonismo nos recuerda que lo inferior debe subordinarse a lo superior. La IA, producto del ingenio humano, debe servir al Bien humano, y no al revés. Si invertimos la jerarquía y nos sometemos a la lógica de la máquina —eficiencia, optimización, predicción—, nos convertimos nosotros mismos en autómatas. La tarea es ética y ontológica: usar la sombra sin convertirse en ella.

Coda final

El análisis no toma partido entre «tecnófilos» y «humanistas»: enseña a mirar la pantalla con los ojos de Platón. En el Aprendizaje Profundo, esa estructura fascinante donde se comprimen los datos del universo, hay una huella de las Ideas matemáticas, sí. Pero es una huella fría.

La verdadera batalla se libra en la capacidad de distinguir el mapa del territorio, la sombra del objeto. La IA nos ofrece un espejo infinito de posibilidades formales, pero carece del fuego que proyecta la luz. Es una realidad de segundo orden, una mímesis degradada que, si se consume sin crítica, nos encierra en un sótano digital sin ventanas. Es una tecnología que no pide fe, sino disciplina intelectual; que no ofrece salvación, sino cálculo. Menos fascinación, más discernimiento. Menos inmersión en la sombra, más búsqueda de la fuente. Inteligencia con consciencia.

*Resumido de La caverna digital y la búsqueda de la verdad: diálogos entre fe, razón y cultura en la era tecnológica. (2026). Razón Y Fe289(1467), 209-212. https://revistas.comillas.edu/razonyfe/article/view/23929