Por una aproximación humanista no reaccionaria a la IA

[Javier Jurado González] Muchas publicaciones están tratando de pinchar la burbuja de expectativas sobre el desarrollo reciente de la IA. Sin embargo, en ciertos círculos humanistas donde un escepticismo con respecto a las novedades va de serie, es conveniente detener la reflexión en el exceso contrario: la complacencia de posturas que se contentan con argumentos débiles y conceptos periclitados ya superados en la literatura científica y filosófica.

Estas perspectivas tienden a adoptar una postura reaccionaria ante la IA, aferrándose defensivamente a cualquier argumento que pueda preservar la singularidad humana a costa de renunciar a una cierta honestidad intelectual. Así afirman taxativamente que la IA nunca logrará alcanzarla. No obstante, es posible adoptar posturas humanistas receptivas a los desarrollos de la IA, abiertas a sus retos actuales y capaces de dialogar y refinar sus argumentos a través de algunas claves: dignificar la miserabilidad humana, tender puentes interdisciplinares, y mantener la prudencia, la cortesía y la suspensión del juicio cuando sea preciso.

En un contexto de inflación de expectativas sobre la IA, lo normal sería haber dedicado un artículo a bajar los humos a las grandes y triunfalistas proclamas de muchos sectores de la investigación. Especialmente a aquellos responsables de su marketing atentos a captar fondos, incluso aunque sea recabando la atención a costa del alarmismo social y de promesas inminentes que hoy son sólo ciencia ficción, como las de la singularidad de la superinteligencia o las del transhumanismo que promete llevarnos del carbono al silicio –o, acaso, al grafeno de propiedades cuánticas. La IA, efectivamente, está muy lejos de ser lo que algunos de sus principales voceros proclaman ya, incluyendo la superación de la inteligencia humana.

Sin embargo, en ciertos círculos de larga tradición humanista, esta reacción escéptica con los desarrollos tecnológicos más envalentonados viene de serie. Y parece aplaudir y congratularse cuando nuevos vientos anuncian posibles recensiones o nuevos inviernos en el desarrollo de la IA. Conviene, al contrario, procurarles una vacuna contra otro exceso: el de quien cree que es posible resolver con argumentos débiles y superados algunos de los desafíos y las reflexiones que los nuevos desarrollos tecnológicos están (re)abriendo. Eso es lo que se ha propuesto este artículo.

Cualquier propuesta humanista madura debe mantener su fidelidad y compromiso con la verdad, asumiendo con prudencia y apertura los conocimientos científicos más asentados y sus novedades sin olvidar su carácter provisional y acaso instrumental. Esto supone que, a pesar de la encendida defensa hecha aquí por reconocer el valor y por mantenerse al día de las novedades científicas más especializadas para pronunciarnos sobre cualquier asunto, como los avances de la IA hacia la inteligencia humana, esta propuesta no aboga por un cientifismo de fe ciega.

La finitud epistémica humana es un hecho que palpa la propia ciencia, pues a su nivel más fundamental, Heisenberg y Gödel mediante su propios principios y teoremas revelan un límite ineludible a la observación empírica y reconocen su incapacidad para autofundamentarse. Qué no decir del resto de ciencias elevadas sobre estos pies de barro más fundamentales, o de las limitaciones prácticas que el desarrollo tecnológico pueda enfrentar. Pero, para una pequeña luz que tenemos, procuremos no apagarla.

Además, este alegato por una aproximación humanista no reaccionaria no es ingenuo. Toda nueva tecnología lleva aparejado su accidente y su neutralidad moral es un mito ya desacreditado. Por ello, tendremos que saber protegernos ante los riesgos evidentes y ocultos en la IA, sin tener que llegar a los extremos de la singularidad ni del alarmismo excesivo.

El carácter opaco de las conexiones internas a las redes neuronales profundas oculta sesgos que es preciso evidenciar, promoviendo una IA explicable (XAI) ante el reto de no erosionar los mejores rendimientos de los modelos menos transparentes. Por otro lado, el impacto de la IA en el tejido productivo podría poner en peligro importantes capas de la fuerza laboral a la que deberemos proteger con algún tipo de mecanismo similar a la renta universal si no se produce una creación equiparable de nuevos puestos de trabajo accesibles a la población y su nivel formativo. Además, la IA como herramienta potente para la generación de contenidos podría hacer, como en su día hizo la imprenta, que tiemblen los cimientos de la legitimidad que nos hemos dado en los últimos siglos y que las elecciones democráticas sufran importantes distorsiones, haciendo que unos hombres puedan imponer su voluntad sobre otros.

La concentración de este poder tecnológico en pocas manos podría asimismo poner en peligro el equilibrio político y disparar las desigualdades sociales. Se otean riesgos sobre nuestra privacidad, nuestra integridad psicológica y moral, nuestra convivencia vulnerable a la desinformación. La IA podría servir para el desarrollo de armas letales autónomas o para asomarnos al abismo más estremecedor de nuestra propia reconfiguración genética.

Sin embargo, creo con esperanza que, mitigando sus impactos negativos, y manteniendo una postura humanista constructiva, cortés, prudente y abierta para tender puentes interdisciplinares, el desarrollo de la IA podrá seguir ayudándonos a descubrir aún más quiénes somos y a profundizar en nuestro desarrollo y crecimiento. Un humanismo no reaccionario ante la IA es posible.

*Este post es un extracto del final del artículo publicado por el autor en el último número de Razón y Fe.