El enigmático futuro de la humanidad y las tradiciones religiosas

(Por María Dolores Prieto Santana) Necesitamos sabiduría para enfrentar el futuro. Para saber si los progresos tecnológicos de vanguardia van en la dirección adecuada o no; si favorecen al ser humano, o todo lo contrario. Para tener una idea de qué hacer si se presentan escenarios que ponen en riesgo la supervivencia de la especie, como los derivados de la amenaza nuclear, la modificación de microbios letales o la creación de mentes digitales más inteligentes que el hombre. A reflexionar sobre este tipo de cuestiones se dedican un puñado de cerebros en un lugar ubicado en Oxford y llamado el Instituto para el Futuro de la Humanidad.

El futuro de la humanidad está abierto. ¿Cuáles son las nuevas fronteras? El mundo está cambiando a tal velocidad que nos es difícil procesar, interpretar y digerir la magnitud de esas transformaciones, y más aún, anticipar sus consecuencias. Un informe del banco Goldman Sachs ofrece una arbitraria pero reveladora muestra cuantitativa de los cambios que ocurrieron entre 2010 y 2015.

UN FUTURO ABIERTO, ENIGMÁTICO E INQUIETANTE

En ese periodo, la oferta mundial de petróleo aumentó un 11% y su precio cayó un 60%. El precio del hierro bajó todavía más, 77%, y el de la comida, 30%. ¿Qué precios aumentaron? Entre otros, los del cacao (+11%) y el litio (+27%). Estas subidas son impulsadas por la demanda de una nueva y más numerosa clase media que come más chocolate y compra más teléfonos móviles con baterías de litio. Los usuarios de estos teléfonos pasaron de un 19% de la población mundial a un enorme 75%, y su precio cayó un 58%. Casi toda la humanidad tendrá pronto acceso a la telefonía móvil, contribuyendo así a la ya muy veloz digitalización de la vida cotidiana.

En 2010, Facebook tenía 600 millones de usuarios activos al mes. Hoy, 1.600 millones de personas lo utilizan mensualmente. YouTube recibía 24 horas de vídeos cada minuto, mientras que el año pasado recibió 400 horas al minuto. En eBay se vendían seis trajes por minuto en 2010 y ahora se venden 90, en tanto que el número de viajeros que se alojaron en habitaciones y casas ofrecidas a través de Airbnb saltó de 47.000 a 17 millones. Los artículos disponibles en Wikipedia aumentaron en 20 millones (de 17 a 37).

En esos cinco años también asistimos a una revolución energética. No sólo se desplomó el precio del petróleo y EE UU superó a Arabia Saudí y a Rusia como productor de crudo. El precio de una bombilla LED cayó un 78%, el de una batería de Li-Ion un 60% y el costo de la energía solar un 37%. La eficiencia en el uso de combustible de un camión Ford (F150) aumentó en 29%. En 2010, la compañía más valiosa del mundo era Petrochina. En 2015 fue Apple.

También ocurrieron profundos cambios en el mundo del trabajo. Los salarios siguieron estancados en los países más avanzados, mientras que en China aumentaron en un 54%. Muchos piensan que el desempleo y los bajos salarios se deben a la automatización y a que los robots están desplazando a los trabajadores. En efecto, en EE UU, el número de robots industriales vendidos en los últimos cinco años creció un 89%, pero el número total en uso es aún muy bajo y el impacto sobre el empleo no es significativo. Pero lo será.

Un interesante artículo publicado en El País, nos aporta interesantes datos sobre el mundo que nos espera. Destacamos algunos aspectos y se aventuran algunas tendencias de futuro para la ciencia, la tecnología y las religiones.

Progreso tecnológico y desigualdad

Uno de los aspectos más preocupantes para muchos analistas es la aparente oposición entre progreso tecnológico y desigualdad. La pregunta se plantea en estos términos: el progreso tecnológico ¿favorece la mejora de la calidad de vida del conjunto de la humanidad o solamente favorece a los ya privilegiados? Es más: el progreso tecnológico ¿genera mayor desigualdad en la humanidad? ¿Es el progreso solamente para una minoría de privilegiados que son (y somos) los beneficiados de sus frutos? ¿Son los marginados “efectos colaterales” de un proceso imparable de progreso tecnológico?

Para el artículo de El País ya citado, la desigualdad económica siempre ha existido, pero en los últimos cinco años adquirió una enorme visibilidad. Entre otras cosas porque, si bien a nivel mundial ha disminuido, en los países más avanzados se ha agudizado, convirtiéndose en un tema central del debate nacional en todas partes, lo cual es bueno. El peligro, por supuesto, es que este problema en manos de demagogos suele llevar a la adopción de políticas que, en vez de reducir las inequidades, las aumentan. Pero, sin duda, el asunto requiere de urgente y eficaz atención.

Otro trabajo recién publicado también arroja interesantes luces sobre las grandes transformaciones en curso. Se trata del Informe Anual de Riesgos Globales, que edita desde hace una década el Foro Económico Mundial. Este informe se basa en las percepciones de 750 reconocidos expertos de diferentes ámbitos y países sobre los principales riesgos que enfrenta el mundo. Durante varios años, la crisis económica ocupó el primer lugar de las preocupaciones. Ya no.

En la edición de 2016, el cambio climático (que en los últimos tres años estuvo entre los cinco mayores riesgos) emerge como el peligro más grave y de mayor impacto. Le siguen la proliferación de armas de destrucción masiva, los conflictos por la escasez de agua y los movimientos migratorios involuntarios. Señala el informe que hoy ya hay 60 millones de desplazados (de formar un país, los refugiados serían el 24º más poblado del planeta). El informe también le da mucha importancia a la cibercriminalidad, que ya provoca 445.000 millones de dólares de pérdidas anuales y crece a gran velocidad.

Pero quizás, junto con el calentamiento global, el cambio más importante de los últimos años es el aumento de nuestra capacidad para alterar la biología. En 2010, especificar la secuencia de un genoma costaba 47.000 dólares. Cinco años más tarde, se hace por 1.300 dólares. Y el precio sigue bajando.

¿Es éste un riesgo o una oportunidad?

Acudimos a otro interesante informe publicado en El País sobre el futuro de la humanidad. En este informe recorremos el impacto de la inteligencia artificial sobre el futuro del planeta. ¿En manos de quiénes estamos? ¿Qué repercusiones sociales y éticas puede tener? ¿Está en manos de la inteligencia artificial el futuro de la humanidad? Tal vez las preguntas puedan parecer alarmistas y generar alarma social. Pero es necesario afrontar la realidad tal como aparece.

Según este informe, necesitamos sabiduría para enfrentar el futuro. Para saber si los progresos tecnológicos de vanguardia van en la dirección adecuada o no; si favorecen al ser humano o todo lo contrario. Para tener una idea de qué hacer si se presentan escenarios que ponen en riesgo la supervivencia de la especie, como los derivados de la amenaza nuclear, la modificación de microbios letales o la creación de mentes digitales más inteligentes que el hombre.

A reflexionar sobre este tipo de cuestiones se dedican un puñado de cerebros en un lugar ubicado en Oxford y llamado el Instituto para el Futuro de la Humanidad. Al frente de un heterodoxo grupo de filósofos, tecnólogos, físicos, economistas y matemáticos se encuentra un filósofo formado en física, neurociencia computacional y matemáticas, un tipo que desde su adolescencia se encontró sin interlocutores con los cuales compartir sus inquietudes acerca de Schopenhauer, un sueco de 42 años que se pasea por las instalaciones del Instituto con un brebaje hecho a base de vegetales, proteínas y grasas al que denomina elixir y que escucha audiolibros al doble de velocidad para no perder un segundo de su preciado tiempo.

Se llama Nick Bostrom, y es el autor de Superinteligencia: Caminos, Peligros, Estrategias, un libro que ha causado impacto, una reflexión acerca de cómo afrontar un futuro en que la inteligencia artificial supere a la humana, un ensayo que ha recibido el respaldo explícito de cerebros de Silicon Valley como Bill Gates y Elon Musk, de filósofos como Derek Parfit o Peter Singer, de físicos como Max Tegmark, profesor del Massachusetts Institute of Technology. Un trabajo que, además, se coló en la lista de los libros más vendidos que elabora The New York Times Book Review. La ONU le reclama para que exponga su visión, sociedades científicas como The Royal Society le invitan a dar conferencias, una de sus charlas TED lleva ya contabilizados más de 1.747.000 visionados. Y Stephen Hawking ya ha alertado al mundo: hay que tener cuidado con la Inteligencia Artificial.

El Instituto para el Futuro de la Humanidad —FHI, siglas en inglés— es un espacio con salas de reuniones bautizadas con nombres de héroes anónimos que con un gesto salvaron el mundo —como Stanislav Petrov, teniente coronel ruso que evitó un incidente nuclear durante la Guerra Fría— donde fluyen las ideas, los intercambios de impresiones, donde florecen hipótesis y análisis. Sobre todo, por las tardes-noches: el jefe es, como él mismo confiesa, un noctámbulo; se queda en la oficina hasta las dos de la madrugada.

“En el momento en que sepamos cómo hacer máquinas inteligentes, las haremos”, afirma Bostrom, en una sala del Instituto que dirige, “y para entonces, debemos saber cómo controlarlas. Si tienes un agente artificial con objetivos distintos de los tuyos, cuando se vuelve lo suficientemente inteligente, es capaz de anticipar tus acciones y de hacer planes teniendo en cuenta los tuyos, lo cual podría incluir esconder sus propias capacidades de modo estratégico”.

Expertos en Inteligencia Artificial que cita en su libro aseguran que hay un 90% de posibilidades de que entre 2075 y 2090 haya máquinas tan inteligentes como los humanos. En la transición hacia esa nueva era habrá que tomar decisiones. Inocular valores morales a las máquinas, tal vez. Evitar que se vuelvan contra nosotros.

A analizar este tipo de supuestos y escenarios se dedica este hombre que en estos días lee intensivamente sobre machine learning (aprendizaje automático, rama de la inteligencia artificial que explora técnicas para que las computadoras puedan aprender por sí solas) y economía de la innovación. Para Bostrom el tiempo nunca es suficiente. Leer, leer, leer, asentar conocimientos, profundizar, escribir. “El tiempo es precioso. Es un bien de gran valor que constantemente se nos desliza entre los dedos”.

La gente parece olvidar la guerra nuclear. Un cambio para mal en la geopolítica podría ser un peligro. Estudiar, formular hipótesis, desarrollarlas, anticipar escenarios. Es lo que se hace en este Instituto donde se cultiva la tormenta de ideas y la videoconferencia, un laberinto de salas dominadas por pizarras vileda con diagramas y en cuyo pasillo de entrada cuelga un cartel que reproduce la portada de Un mundo feliz, la visionaria distopía firmada por Aldous Huxley en 1932.

Un total de 16 profesionales trabajan aquí. Publican en revistas académicas, hacen informes de riesgos para compañías tecnológicas, para gobiernos (por ejemplo, el finlandés) o para la ONU, que se dispone a crear su primer programa sobre Inteligencia Artificial —uno de cuyos representantes andaba la semana pasada por las oficinas del FHI—. Niel Bowerman, director adjunto, físico del clima y exasesor del equipo político de Energía y Medio Ambiente de Barack Obama, explica que en el instituto siempre estudian cómo de grande es un problema, cuánta gente trabaja en él y cómo de fácil es realizar progresos en esa área para determinar los campos de estudio.

Bostrom es el hombre que comanda el Instituto, el que decide por dónde se transita, el visionario. Desarrolla su labor gracias al impulso filantrópico de James Martin, millonario interesado en las cuestiones de los riesgos existenciales del futuro que impulsó el FHI hace diez años para que se estudie y reflexione en torno a aquellas cosas en las que la industria y los gobiernos, guiados por sus particulares intereses, no tienen por qué pensar.

Al filósofo sueco, que formó parte en 2009 de la lista de los 100 mayores pensadores globales de la revista Foreign Policy, le interesa estudiar, sobre todo, amenazas lejanas, a las que no le gusta poner fecha. “Cuanto más largo sea el plazo”, dice, “mayores son las posibilidades de un escenario de extinción o de era posthumana”. Pero existen peligros a corto plazo. Los que más le preocupan a Bostrom son los que pueden afectar negativamente a las personas como las plagas, la gripe aviar, los virus, las pandemias.

Transhumanismo e inteligencia artificial

En cuanto a la Inteligencia Artificial y su cruce con la militar, dice que el riesgo más claro lo presentan los drones y las armas letales autónomas. Y recuerda que la guerra nuclear, aunque tiene pocas probabilidades de llegar, sigue siendo un peligro latente. “La gente parece haber dejado de preocuparse por ella; un cambio para mal en la situación geopolítica podría convertirse en un gran peligro”.

“Hay una carrera entre nuestro progreso tecnológico y nuestra sabiduría, que va mucho más despacio. La biotecnología, y en particular, la posibilidad que ofrece el sistema de edición genética CRISPR de crear armas biológicas, también plantea nuevos desafíos. “La biotecnología está avanzando rápidamente va a permitir manipular la vida, modificar microbios con gran precisión y poder. Eso abre el paso a capacidades muy destructivas”. La tecnología nuclear, señala, se puede controlar. La biotecnología, la nanotecnología, lo que haga alguien un garaje con un equipo de segunda mano comprado en EBay, no tanto. Con poco se puede hacer mucho daño.

Superada su etapa transhumanista —fundó en 1998 junto a David Pearce la Asociación Mundial Transhumanista, colectivo que aboga de modo entusiasta por la expansión de las capacidades humanas mediante el uso de las tecnologías—, Bostrom ha encontrado en la Inteligencia Artificial el terreno perfecto para desarrollar su trabajo. La carrera en este campo se ha desatado, grandes empresas —Google compró en 2014 la tecnológica DeepMind— y Estados pugnan por hacerse con un sector que podría otorgar poderes inmensos, casi inimaginables.

Uno de los escenarios que proyecta en su libro, cuya versión en español publica el 25 de febrero la editorial Teell, es el de la toma de poder por parte de una Inteligencia Artificial (AI, siglas en inglés). Se produce una explosión de inteligencia. Las máquinas llegan a un punto en que superan a sus programadores, los humanos. Son capaces de mejorarse a sí mismas. De desarrollar grandes habilidades de programación, estratégicas, de manipulación social, de hacking. Pueden querer tomar el control del planeta.

Los humanos pueden ser un estorbo para sus objetivos. Para tomar el control, esconden sus cartas. Podrán mostrarse inicialmente dóciles. En el momento en que desarrollan todos sus poderes, pueden lanzar un ataque contra la especie humana. Hackear drones, armas. Liberar robots del tamaño de un mosquito elaborados en nanofactorías que producen gas nervioso, o gas mostaza.

El libro futurista de Bostrom

Esta es simplemente la síntesis del desarrollo de un escenario. Pero, como decía la crítica de Superinteligencia de la revista The Economist, las implicaciones de la introducción de una segunda especie inteligente en la Tierra merecen que alguien piense en ellas. “Antes, muchas de estas cuestiones, no solo las del AI, solían estar en el campo de la ciencia ficción, de la especulación”, dice Bostrom, “para mucha gente era difícil de entender que se pudiera hacer trabajo académico con ello, que se podían hacer progresos intelectuales”.

El libro también plantea un escenario en que la Inteligencia Artificial se desarrolla en distintos sectores de manera paralela y genera una economía que produce inimaginables cotas de riqueza, descubrimientos tecnológicos asombrosos. Los robots, que no duermen, ni reclaman vacaciones, producen sin cesar y desbancan a los humanos en múltiples trabajos.

— ¿Los robots nos enriquecerán o nos reemplazarán?

— Primero, tal vez nos enriquezcan. A largo plazo ya se verá. El trabajo es costoso y no es algo deseado, por eso hay que pagar a la gente por hacerlo. Automatizarlo parece beneficioso. Eso crea dos retos: si la gente pierde sus salarios, ¿cómo se mantiene? Lo cual se convierte en una cuestión política, ¿se piensa en una garantía de renta básica? ¿En un Estado del Bienestar? Si esta tecnología realmente hace que el mundo se convierta en un lugar mucho más rico, con un crecimiento más rápido, el problema debería ser fácil de resolver, habría más dinero. El otro reto es que mucha gente ve su trabajo como algo necesario para tener estatus social y que su vida tenga sentido. Hoy en día, estar desempleado no es malo solo porque no tienes dinero, sino porque mucha gente se siente inútil. Se necesitaría cambiar la cultura para que no pensemos que trabajar por dinero es algo que te da valor. Es posible, hay ejemplos históricos: los aristócratas no trabajaban para vivir, incluso pensaban que tener que hacerlo era degradante. Creemos que las estructuras de significado social son universales, pero son recientes. La vida de los niños parece tener mucho sentido incluso si no hacen nada útil. Soy optimista: la cultura se puede cambiar.

A Bostrom se le ha acusado desde algunos sectores de la comunidad científica de tener visiones demasiado radicales. Sobre todo, en su etapa transhumanista. “Sus visiones sobre la edición genética o sobre la mejora del humano son controvertidas”, señala Miquel-Ángel Serra, biólogo que acaba de publicar junto a Albert Cortina Humanidad: desafíos éticos de las tecnologías emergentes. “Somos muchos los escépticos con las propuestas que hace”. Serra, no obstante, deja claro que Bostrom está ahora en el centro del debate sobre el futuro de la Inteligencia Artificial, que es una referencia.

— ¿Proyecta usted una visión demasiado apocalíptica en su libro de lo que puede ocurrir con la humanidad?

— Mucha gente puede quedarse con la impresión de que soy más pesimista con la AI de lo que realmente soy. Cuando lo escribí parecía más urgente tratar de ver qué podía ir mal para asegurarnos de cómo evitarlo.

— Pero, ¿es usted optimista con respecto al futuro?

— Intento no ser pesimista ni optimista. Intento ajustar mis creencias a lo que apunta la evidencia; con nuestros conocimientos actuales, creo que el resultado final puede ser muy bueno o muy malo. Aunque tal vez podríamos desplazar la probabilidad hacia un buen final si trabajamos duramente en ello.

— O sea, que hay cosas que hacer. ¿Cuáles?

— Estamos haciendo todo lo posible para crear este campo de investigación de control problema. Hay que mantener y cultivar buenas relaciones con la industria y los desarrolladores de Inteligencia Artificial. Aparte, hay muchas cosas que no van bien en este mundo: gente que se muere de hambre, gente a la que le pica un mosquito y contrae la malaria, gente que decae por el envejecimiento, desigualdades, injusticias, pobreza, y muchas son evitables. En general, creo que hay una carrera entre nuestra habilidad para hacer cosas, para hacer progresar rápidamente nuestras capacidades tecnológicas, y nuestra sabiduría, que va mucho más despacio. Necesitamos un cierto nivel de sabiduría y de colaboración para el momento en que alcancemos determinados hitos tecnológicos, para sobrevivir a esas transiciones.

LOS CINCO JINETES DEL APOCALIPSIS

El investigador Anders Sandberg analiza los mayores riesgos para el hombre

En un tercer informe sobre el futuro publicado en El País, se pasa revista a lo que podían ser los cinco jinetes del apocalipsis del futuro. Para el articulista, la gente lleva miles de años hablando de los apocalipsis, pero pocos han intentado prevenirlos, y es que a los humanos no se nos da bien atajar los problemas que aún no han sucedido.

El motivo, entre otras cosas, es la heurística de la disponibilidad: la tendencia a magnificar la probabilidad de que ocurran acontecimientos de los que conocemos ejemplos, e infravalorar los acontecimientos que no podemos recordar fácilmente.

Sumidos en el barullo cotidiano de las “crisis” a las que se enfrenta la humanidad, nos olvidamos de las muchas generaciones que, confiemos, están por venir. No en las que vivirán dentro de 200 años, sino en 1.000 o 10.000 años. Nos enfrentamos a riesgos, llamados existenciales, que amenazan con barrer del mapa a la humanidad. No se trata solo de los riesgos de grandes desastres, sino de desastres que podrían acabar con la historia.

La actividad humana moldea continuamente el futuro de nuestro planeta y, aunque aún estemos lejos de poder controlar los desastres naturales, estamos desarrollando una tecnología que podría ayudarnos a mitigarlos o, cuando menos, capearlos. No obstante, seguimos sin estudiar esos riesgos como se debería; existe una sensación de impotencia y fatalismo ante ellos.

Con eso en mente, he seleccionado las que, en mi opinión, son las cinco mayores amenazas para la humanidad. Conviene, eso sí, ir sobre aviso: no se trata de una lista definitiva. Debemos esperar la aparición de otras. Asimismo, algunos riesgos que hoy en día parecen serios podrían desaparecer a medida que aumente nuestro conocimiento. Las probabilidades también cambian con el paso del tiempo; a veces, los riesgos nos preocupan y les ponemos remedio.

Por último, que algo sea posible y peligroso en potencia no significa que merezca la pena preocuparse por ello. Hay riesgos contra los que no podemos hacer absolutamente nada, como los estallidos de rayos gamma producidos por la explosión de una galaxia. Pero cuando aprendemos que podemos hacer algo al respecto, las prioridades cambian. Gracias a las instalaciones sanitarias, las vacunas y los antibióticos, por ejemplo, la peste pasó de ser un castigo divino a un problema de sanidad pública.

Nos enfrentamos a riesgos, llamados existenciales, que amenazan con barrer del mapa a la humanidad.

  1. Guerra nuclear

Aunque solo se han usado dos armas nucleares hasta la fecha —las de Hiroshima y Nagasaki en la Segunda Guerra Mundial— y los arsenales nucleares están lejos del cénit que alcanzaron durante la Guerra Fría, es un error pensar que es imposible que se produzca una guerra nuclear. De hecho, no es improbable.

La crisis de los misiles en Cuba estuvo a punto de alcanzar un nivel nuclear. Suponiendo que se produzca un acontecimiento así cada 69 años, y que hay un tercio de posibilidades de que escale hasta convertirse en una guerra nuclear, la probabilidad de una catástrofe así aumenta hasta aproximadamente una de cada 200 al año.

Para más inri, la crisis de los misiles en Cuba solo fue el caso más conocido. La historia de la disuasión nuclear entre la Unión Soviética y Estados Unidos está repleta de soluciones por los pelos y errores peligrosos. La probabilidad actual cambia dependiendo de las tensiones internacionales, pero parece inverosímil que la posibilidad sea mucho menor a una entre 1.000 al año.

El riesgo de que alguien ponga en circulación algo devastador es bajo, pero a medida que la biotecnología se vuelva más barata, más personas tendrán la capacidad de crear enfermedades más nocivas

Una guerra nuclear a gran escala entre las principales potencias mataría a centenares de millones de personas directamente o a través de sus secuelas: un desastre inimaginable. Sin embargo, no es suficiente para convertirla en un riesgo existencial.

De la misma manera, los riesgos de la lluvia radioactiva suelen exagerarse: a escala local pueden ser mortíferos, pero a escala mundial se trata de un problema relativamente limitado. Aunque se habló de las bombas de cobalto como una hipotética arma apocalíptica cuya lluvia radioactiva mataría a todo el mundo, en la práctica son difíciles y caras de construir. Y las posibilidades físicas de fabricarlas también son muy reducidas.

La auténtica amenaza es el invierno nuclear, es decir, que el hollín lanzado a la estratosfera provoque un enfriamiento y una sequía mundial que se alarguen varios años. Las simulaciones climáticas modernas muestran que podría condenar la agricultura de buena parte del planeta durante años.

  1. Pandemia provocada por la bioingeniería

Las pandemias naturales han matado a más personas que las guerras. Sin embargo, no reúnen las condiciones para suponer amenazas existenciales: suele haber personas inmunes al patógeno, y los vástagos de los supervivientes serían aún más resistentes. La evolución tampoco favorece a los parásitos que se cargan a sus huéspedes, que es la razón por la que la sífilis dejó de ser una asesina virulenta y se convirtió en una enfermedad crónica a medida que se extendía por Europa.

Por desgracia, ahora somos capaces de empeorar las enfermedades. En estos momentos, el riesgo de que alguien ponga en circulación deliberadamente algo devastador es bajo, pero a medida que la biotecnología se vuelva más sofisticada y barata, un mayor número de personas tendrán la capacidad de hacer más nocivas las enfermedades.

El número de víctimas de las armas biológicas y los brotes epidémicos parece tener una distribución de ley de potencias: la mayoría de los ataques causan pocas víctimas, y unos pocos matan a muchos. Habida cuenta de las cifras actuales, el riesgo de una pandemia mundial por bioterrorismo parece ínfimo. Pero solo estamos hablando de bioterrorismo: los Gobiernos han matado a mucha más gente que los terroristas con armas químicas (el programa de guerra biológica japonés de la Segunda Guerra Mundial se cobró unas 400.000 vidas). Y en el futuro, cuanto más potente sea la tecnología, más fácil será diseñar patógenos más dañinos.

  1. Superinteligencia

La inteligencia es muy poderosa. Un minúsculo aumento en la capacidad de resolver problemas y la coordinación en grupo nos bastó para dejar al resto de simios en la estacada. Ahora su supervivencia depende de las decisiones humanas, no de sus actos. La inteligencia es una auténtica ventaja para personas y organizaciones, por lo que se invierte un esfuerzo enorme en idear formas de mejorar nuestra inteligencia individual y colectiva: desde los fármacos que potencian el conocimiento hasta los programas de inteligencia artificial.

No hay motivos para pensar que la inteligencia por sí misma haga que algo se comporte con bondad y ética. De hecho, se puede demostrar que determinados tipos de sistemas superinteligentes no obedecerían las leyes éticas aun cuando fuesen correctas.

Lo que resulta más preocupante todavía es que al intentar explicar algo a una inteligencia artificial tropezamos con profundos problemas prácticos y filosóficos. Los valores humanos son elementos difusos y complejos, que no se nos da bien expresar; además, aunque seamos capaces de hacerlo, puede que no entendamos todas sus consecuencias.

La inteligencia informática podría pasar rapidísimamente de estar por debajo de la humana a tener un poder terrorífico. Se ha insinuado que podría producirse una “explosión de la inteligencia” cuando los programas se vuelvan lo bastante sofisticados como para diseñar mejores programas. Si se produjera un salto semejante, habría una gran diferencia de poder potencial entre el sistema inteligente (o las personas que le dicen cómo actuar) y el resto del mundo. Está claro el potencial para el desastre si los objetivos establecidos no son los idóneos.

Hay motivos de sobra para pensar que algunos tipos de tecnología podrían hacer que las cosas se acelerasen a una velocidad mayor de la que la sociedad actual es capaz de asimilar. Es más, tampoco tenemos claro lo peligrosos que podrían ser los diferentes tipos de superinteligencia, o qué estrategias de mitigación funcionarían. Resulta muy difícil teorizar sobre una tecnología futura de la que aún no disponemos, o sobre una inteligencia mayor que la nuestra. De los riesgos de esta lista, este es el que más probabilidades tiene de ser, o bien catastrófico, o bien un mero espejismo.

Sorprendentemente, este es un ámbito muy poco investigado. Ya en las décadas de 1950 y 1960, cuando la gente estaba convencida de que la superinteligencia podía alcanzarse “en una generación”, no se prestaba demasiada atención a las cuestiones de seguridad.

  1. Nanotecnología

La nanotecnología es el control de la materia con una precisión atómica o molecular. Eso no es peligroso de por sí; de hecho, sería una fantástica noticia para la mayoría de sus aplicaciones. Pero el aumento del poder también aumenta el potencial de abusos contra los que resultaría difícil defenderse.

El mayor problema no es la célebre “plaga gris” de nanomáquinas que se autorreplicasen hasta devorarlo todo. Para eso haría falta un diseño inteligente ex profeso. Resulta difícil hacer que una máquina se replique; a la biología se le da mucho mejor, lo hace por naturaleza. El riesgo más evidente es que la fabricación con un nivel atómico de precisión parece venir como anillo al dedo para la producción rápida y barata de cosas como armas. En un mundo donde cualquier gobierno pudiese “imprimir” una gran cantidad de armas autónomas o semiautónomas (incluidas las instalaciones para crear aún más), las carreras armamentísticas adquirirían más velocidad de la cuenta, y por ende se volverían inestables.

Las armas también pueden ser elementos minúsculos y certeros: un “veneno inteligente” que actúa como un gas nervioso pero que busca a sus víctimas, o un sistema de vigilancia ubicuo a través de “robots mosquito”, parecen perfectamente plausibles. Asimismo, podría llegarse a una situación en que la proliferación nuclear o la ingeniería climática estuviesen al alcance de cualquiera.

No podemos juzgar las probabilidades de un riesgo existencial en la nanotecnología del futuro, pero podría resultar posiblemente perturbadora por el mero hecho de ser capaz de darnos todo lo que deseemos.

  1. Riesgos desconocidos que aún no conocemos

La posibilidad más inquietante es que exista algo tremendamente mortífero de lo que no tenemos ni idea. Fíjense en que el desconocer algo no es óbice para que no podamos razonar sobre ello. En un artículo extraordinario, Max Tegmark y Nick Bostrom demuestran que existe una serie de riesgos, con menos de una posibilidad entre 1.000 millones al año, basada en la edad relativa de la Tierra.

Uno podría preguntarse por qué el cambio climático o los impactos de meteorito se han quedado fuera de esta lista. Es poco probable que el cambio climático, por aterrador que sea, haga inhabitable todo el planeta (aunque podría conllevar otras amenazas si nuestras defensas ante él se desmoronan). Sin duda los meteoritos podrían borrarnos del mapa, pero ya sería mala suerte.

Una especie de mamífero media sobrevive aproximadamente un millón de años. Así pues, la tasa de extinción natural ronda el uno entre un millón al año. Una cifra mucho más baja que el riesgo de guerra nuclear, que, pasados 70 años, sigue siendo la mayor amenaza para nuestra existencia.

CONCLUSIÓN

Los pronósticos que ofrecen los expertos sobre el futuro de la humanidad no son en exceso optimistas. Tal vez pequen de catastrofismo. Y ¿dónde quedarán las tradiciones religiosas en todo este proceso? ¿Qué futuro les espera? ¿Sobrevivirán o serán capaces de reinventar nuevas fórmulas para ocupar un espacio en el mapa complejo de la sociedad que nos espera? En la revista hermana, Tendencias21 de las religiones se han publicado más de 600 artículos en estos diez años en los que se apuntan las tendencias positivas que pueden aportar las tradiciones religiosas en el siglo XXI. A ellos nos remitimos. Tal vez una de las tendencias que hemos detectado es que la capacidad de supervivencia de las construcciones sociales es inmensa. Y tal vez ahí encontremos una vía de esperanza.

María Dolores Prieto Santana, antropóloga y educadora, colaboradora de FRONTERASCTR y de la Cátedra Ciencia, Tecnología y Religión, Universidad P. Comillas (Madrid).

Los comentarios están cerrados.