{"id":1507,"date":"2017-05-10T07:00:46","date_gmt":"2017-05-10T05:00:46","guid":{"rendered":"http:\/\/blogs.comillas.edu\/FronterasCTR\/?p=1507"},"modified":"2017-05-07T11:28:14","modified_gmt":"2017-05-07T09:28:14","slug":"el-enigmatico-futuro-de-la-humanidad-y-las-tradiciones-religiosas","status":"publish","type":"post","link":"https:\/\/blogs.comillas.edu\/FronterasCTR\/?p=1507","title":{"rendered":"El enigm\u00e1tico futuro de la humanidad y las tradiciones religiosas"},"content":{"rendered":"<p><strong>(Por <u>Mar\u00eda Dolores Prieto Santana<\/u>) Necesitamos sabidur\u00eda para enfrentar el futuro. Para saber si los progresos tecnol\u00f3gicos de vanguardia van en la direcci\u00f3n adecuada o no; si favorecen al ser humano, o todo lo contrario. Para tener una idea de qu\u00e9 hacer si se presentan escenarios que ponen en riesgo la supervivencia de la especie, como los derivados de la amenaza nuclear, la modificaci\u00f3n de microbios letales o la creaci\u00f3n de mentes digitales m\u00e1s inteligentes que el hombre. A reflexionar sobre este tipo de cuestiones se dedican un pu\u00f1ado de cerebros en un lugar ubicado en Oxford y llamado el <a href=\"https:\/\/www.fhi.ox.ac.uk\" target=\"_blank\" rel=\"noopener noreferrer\">Instituto para el Futuro de la Humanidad<\/a>.<\/strong><\/p>\n<p>El futuro de la humanidad est\u00e1 abierto. \u00bfCu\u00e1les son las nuevas fronteras? El mundo est\u00e1 cambiando a tal velocidad que nos es dif\u00edcil procesar, interpretar y digerir la magnitud de esas transformaciones, y m\u00e1s a\u00fan, anticipar sus consecuencias. Un informe del banco Goldman Sachs ofrece una arbitraria pero reveladora muestra cuantitativa de los cambios que ocurrieron entre 2010 y 2015.<\/p>\n<h2><strong>UN FUTURO ABIERTO, ENIGM\u00c1TICO E INQUIETANTE<\/strong><\/h2>\n<p>En ese periodo, la oferta mundial de petr\u00f3leo aument\u00f3 un 11% y su precio cay\u00f3 un 60%. El precio del hierro baj\u00f3 todav\u00eda m\u00e1s, 77%, y el de la comida, 30%. \u00bfQu\u00e9 precios aumentaron? Entre otros, los del cacao (+11%) y el litio (+27%). Estas subidas son impulsadas por la demanda de una nueva y m\u00e1s numerosa clase media que come m\u00e1s chocolate y compra m\u00e1s tel\u00e9fonos m\u00f3viles con bater\u00edas de litio. Los usuarios de estos tel\u00e9fonos pasaron de un 19% de la poblaci\u00f3n mundial a un enorme 75%, y su precio cay\u00f3 un 58%. Casi toda la humanidad tendr\u00e1 pronto acceso a la telefon\u00eda m\u00f3vil, contribuyendo as\u00ed a la ya muy veloz digitalizaci\u00f3n de la vida cotidiana.<\/p>\n<p>En 2010, Facebook ten\u00eda 600 millones de usuarios activos al mes. Hoy, 1.600 millones de personas lo utilizan mensualmente. YouTube recib\u00eda 24 horas de v\u00eddeos cada minuto, mientras que el a\u00f1o pasado recibi\u00f3 400 horas al minuto. En eBay se vend\u00edan seis trajes por minuto en 2010 y ahora se venden 90, en tanto que el n\u00famero de viajeros que se alojaron en habitaciones y casas ofrecidas a trav\u00e9s de Airbnb salt\u00f3 de 47.000 a 17 millones. Los art\u00edculos disponibles en Wikipedia aumentaron en 20 millones (de 17 a 37).<\/p>\n<p>En esos cinco a\u00f1os tambi\u00e9n asistimos a una revoluci\u00f3n energ\u00e9tica. No s\u00f3lo se desplom\u00f3 el precio del petr\u00f3leo y EE UU super\u00f3 a Arabia Saud\u00ed y a Rusia como productor de crudo. El precio de una bombilla LED cay\u00f3 un 78%, el de una bater\u00eda de Li-Ion un 60% y el costo de la energ\u00eda solar un 37%. La eficiencia en el uso de combustible de un cami\u00f3n Ford (F150) aument\u00f3 en 29%. En 2010, la compa\u00f1\u00eda m\u00e1s valiosa del mundo era Petrochina. En 2015 fue Apple.<\/p>\n<p>Tambi\u00e9n ocurrieron profundos cambios en el mundo del trabajo. Los salarios siguieron estancados en los pa\u00edses m\u00e1s avanzados, mientras que en China aumentaron en un 54%. Muchos piensan que el desempleo y los bajos salarios se deben a la automatizaci\u00f3n y a que los robots est\u00e1n desplazando a los trabajadores. En efecto, en EE UU, el n\u00famero de robots industriales vendidos en los \u00faltimos cinco a\u00f1os creci\u00f3 un 89%, pero el n\u00famero total en uso es a\u00fan muy bajo y el impacto sobre el empleo no es significativo. Pero lo ser\u00e1.<\/p>\n<p>Un interesante art\u00edculo publicado en <a href=\"http:\/\/internacional.elpais.com\/internacional\/2016\/02\/13\/actualidad\/1455383118_913084.html\">El Pa\u00eds,<\/a> nos aporta interesantes datos sobre el mundo que nos espera. Destacamos algunos aspectos y se aventuran algunas tendencias de futuro para la ciencia, la tecnolog\u00eda y las religiones.<\/p>\n<h3><strong><em>Progreso tecnol\u00f3gico y desigualdad<\/em><\/strong><\/h3>\n<p>Uno de los aspectos m\u00e1s preocupantes para muchos analistas es la aparente oposici\u00f3n entre progreso tecnol\u00f3gico y desigualdad. La pregunta se plantea en estos t\u00e9rminos: el progreso tecnol\u00f3gico \u00bffavorece la mejora de la calidad de vida del conjunto de la humanidad o solamente favorece a los ya privilegiados? Es m\u00e1s: el progreso tecnol\u00f3gico \u00bfgenera mayor desigualdad en la humanidad? \u00bfEs el progreso solamente para una minor\u00eda de privilegiados que son (y somos) los beneficiados de sus frutos? \u00bfSon los marginados \u201cefectos colaterales\u201d de un proceso imparable de progreso tecnol\u00f3gico?<\/p>\n<p>Para el art\u00edculo de El Pa\u00eds ya citado, la desigualdad econ\u00f3mica siempre ha existido, pero en los \u00faltimos cinco a\u00f1os adquiri\u00f3 una enorme visibilidad. Entre otras cosas porque, si bien a nivel mundial ha disminuido, en los pa\u00edses m\u00e1s avanzados se ha agudizado, convirti\u00e9ndose en un tema central del debate nacional en todas partes, lo cual es bueno. El peligro, por supuesto, es que este problema en manos de demagogos suele llevar a la adopci\u00f3n de pol\u00edticas que, en vez de reducir las inequidades, las aumentan. Pero, sin duda, el asunto requiere de urgente y eficaz atenci\u00f3n.<\/p>\n<p>Otro trabajo reci\u00e9n publicado tambi\u00e9n arroja interesantes luces sobre las grandes transformaciones en curso. Se trata del <a href=\"https:\/\/www.weforum.org\/es\/agenda\/2017\/01\/subempleo-exclusion-y-amenazas-el-mundo-en-2017-d5c7cf14-fbd0-44df-b8d7-5558d3542655\/\">Informe Anual de Riesgos Globales<\/a>, que edita desde hace una d\u00e9cada el Foro Econ\u00f3mico Mundial. Este informe se basa en las percepciones de 750 reconocidos expertos de diferentes \u00e1mbitos y pa\u00edses sobre los principales riesgos que enfrenta el mundo. Durante varios a\u00f1os, la crisis econ\u00f3mica ocup\u00f3 el primer lugar de las preocupaciones. Ya no.<\/p>\n<p>En la edici\u00f3n de 2016, el cambio clim\u00e1tico (que en los \u00faltimos tres a\u00f1os estuvo entre los cinco mayores riesgos) emerge como el peligro m\u00e1s grave y de mayor impacto. Le siguen la proliferaci\u00f3n de armas de destrucci\u00f3n masiva, los conflictos por la escasez de agua y los movimientos migratorios involuntarios. Se\u00f1ala el informe que hoy ya hay 60 millones de desplazados (de formar un pa\u00eds, los refugiados ser\u00edan el 24\u00ba m\u00e1s poblado del planeta). El informe tambi\u00e9n le da mucha importancia a la cibercriminalidad, que ya provoca 445.000 millones de d\u00f3lares de p\u00e9rdidas anuales y crece a gran velocidad.<\/p>\n<p>Pero quiz\u00e1s, junto con el calentamiento global, el cambio m\u00e1s importante de los \u00faltimos a\u00f1os es el aumento de nuestra capacidad para alterar la biolog\u00eda. En 2010, especificar la secuencia de un genoma costaba 47.000 d\u00f3lares. Cinco a\u00f1os m\u00e1s tarde, se hace por 1.300 d\u00f3lares. Y el precio sigue bajando.<\/p>\n<h3><strong><em>\u00bfEs \u00e9ste un riesgo o una oportunidad?<\/em><\/strong><\/h3>\n<p>Acudimos a otro interesante informe publicado en <a href=\"http:\/\/elpais.com\/elpais\/2016\/02\/12\/ciencia\/1455304552_817289.html\">El Pa\u00eds sobre el futuro de la humanidad<\/a>. En este informe recorremos el impacto de la inteligencia artificial sobre el futuro del planeta. \u00bfEn manos de qui\u00e9nes estamos? \u00bfQu\u00e9 repercusiones sociales y \u00e9ticas puede tener? \u00bfEst\u00e1 en manos de la inteligencia artificial el futuro de la humanidad? Tal vez las preguntas puedan parecer alarmistas y generar alarma social. Pero es necesario afrontar la realidad tal como aparece.<a href=\"https:\/\/www.fhi.ox.ac.uk\" target=\"_blank\" rel=\"noopener noreferrer\"><img loading=\"lazy\" decoding=\"async\" class=\"alignright wp-image-1566\" src=\"http:\/\/blogs.comillas.edu\/FronterasCTR\/wp-content\/uploads\/sites\/24\/2017\/05\/Captura-de-pantalla-2017-05-07-a-las-11.23.13.png\" alt=\"\" width=\"297\" height=\"150\" \/><\/a><\/p>\n<p>Seg\u00fan este informe, necesitamos sabidur\u00eda para enfrentar el futuro. Para saber si los progresos tecnol\u00f3gicos de vanguardia van en la direcci\u00f3n adecuada o no; si favorecen al ser humano o todo lo contrario. Para tener una idea de qu\u00e9 hacer si se presentan escenarios que ponen en riesgo la supervivencia de la especie, como los derivados de la amenaza nuclear, la modificaci\u00f3n de microbios letales o la creaci\u00f3n de mentes digitales m\u00e1s inteligentes que el hombre.<\/p>\n<p>A reflexionar sobre este tipo de cuestiones se dedican un pu\u00f1ado de cerebros en un lugar ubicado en Oxford y llamado el <a href=\"https:\/\/www.fhi.ox.ac.uk\/\">Instituto para el Futuro de la Humanidad.<\/a> Al frente de un heterodoxo grupo de fil\u00f3sofos, tecn\u00f3logos, f\u00edsicos, economistas y matem\u00e1ticos se encuentra un fil\u00f3sofo formado en f\u00edsica, neurociencia computacional y matem\u00e1ticas, un tipo que desde su adolescencia se encontr\u00f3 sin interlocutores con los cuales compartir sus inquietudes acerca de Schopenhauer, un sueco de 42 a\u00f1os que se pasea por las instalaciones del Instituto con un brebaje hecho a base de vegetales, prote\u00ednas y grasas al que denomina elixir y que escucha audiolibros al doble de velocidad para no perder un segundo de su preciado tiempo.<\/p>\n<p>Se llama <a href=\"http:\/\/www.nickbostrom.com\/\">Nick Bostrom<\/a>, y es el autor de <em>Superinteligencia: Caminos, Peligros, Estrategias<\/em>, un libro que ha causado impacto, una reflexi\u00f3n acerca de c\u00f3mo afrontar un futuro en que la inteligencia artificial supere a la humana, un ensayo que ha recibido el respaldo expl\u00edcito de cerebros de Silicon Valley como Bill Gates y Elon Musk, de fil\u00f3sofos como Derek Parfit o Peter Singer, de f\u00edsicos como Max Tegmark, profesor del Massachusetts Institute of Technology. Un trabajo que, adem\u00e1s, se col\u00f3 en la lista de los libros m\u00e1s vendidos que elabora <em>The New York Times Book Review<\/em>. La ONU le reclama para que exponga su visi\u00f3n, sociedades cient\u00edficas como <a href=\"https:\/\/royalsociety.org\/\">The Royal Society<\/a> le invitan a dar conferencias, <a href=\"https:\/\/www.ted.com\/talks\/nick_bostrom_what_happens_when_our_computers_get_smarter_than_we_are?language=en\">una de sus charlas TED<\/a> lleva ya contabilizados m\u00e1s de 1.747.000 visionados. Y Stephen Hawking ya ha alertado al mundo: hay que tener cuidado con la Inteligencia Artificial.<\/p>\n<p>El Instituto para el Futuro de la Humanidad \u2014FHI, siglas en ingl\u00e9s\u2014 es un espacio con salas de reuniones bautizadas con nombres de h\u00e9roes an\u00f3nimos que con un gesto salvaron el mundo \u2014como Stanislav Petrov, teniente coronel ruso que evit\u00f3 un incidente nuclear durante la Guerra Fr\u00eda\u2014 donde fluyen las ideas, los intercambios de impresiones, donde florecen hip\u00f3tesis y an\u00e1lisis. Sobre todo, por las tardes-noches: el jefe es, como \u00e9l mismo confiesa, un noct\u00e1mbulo; se queda en la oficina hasta las dos de la madrugada.<\/p>\n<p>\u201cEn el momento en que sepamos c\u00f3mo hacer m\u00e1quinas inteligentes, las haremos\u201d, afirma Bostrom, en una sala del Instituto que dirige, \u201cy para entonces, debemos saber c\u00f3mo controlarlas. Si tienes un agente artificial con objetivos distintos de los tuyos, cuando se vuelve lo suficientemente inteligente, es capaz de anticipar tus acciones y de hacer planes teniendo en cuenta los tuyos, lo cual podr\u00eda incluir esconder sus propias capacidades de modo estrat\u00e9gico\u201d.<\/p>\n<p>Expertos en Inteligencia Artificial que cita en su libro aseguran que hay un 90% de posibilidades de que entre 2075 y 2090 haya m\u00e1quinas tan inteligentes como los humanos. En la transici\u00f3n hacia esa nueva era habr\u00e1 que tomar decisiones. Inocular valores morales a las m\u00e1quinas, tal vez. Evitar que se vuelvan contra nosotros.<\/p>\n<p>A analizar este tipo de supuestos y escenarios se dedica este hombre que en estos d\u00edas lee intensivamente sobre <em>machine learning<\/em> (<a href=\"http:\/\/elpais.com\/elpais\/2016\/01\/26\/ciencia\/1453766578_683799.html\">aprendizaje autom\u00e1tico<\/a>, rama de la inteligencia artificial que explora t\u00e9cnicas para que las computadoras puedan aprender por s\u00ed solas) y econom\u00eda de la innovaci\u00f3n. Para Bostrom el tiempo nunca es suficiente. Leer, leer, leer, asentar conocimientos, profundizar, escribir. \u201cEl tiempo es precioso. Es un bien de gran valor que constantemente se nos desliza entre los dedos\u201d.<\/p>\n<p>La gente parece olvidar la guerra nuclear. Un cambio para mal en la geopol\u00edtica podr\u00eda ser un peligro. Estudiar, formular hip\u00f3tesis, desarrollarlas, anticipar escenarios. Es lo que se hace en este Instituto donde se cultiva la tormenta de ideas y la videoconferencia, un laberinto de salas dominadas por pizarras <em>vileda<\/em> con diagramas y en cuyo pasillo de entrada cuelga un cartel que reproduce la portada de <em>Un mundo feliz<\/em>, la visionaria distop\u00eda firmada por Aldous Huxley en 1932.<\/p>\n<p>Un total de 16 profesionales trabajan aqu\u00ed. Publican en revistas acad\u00e9micas, hacen informes de riesgos para compa\u00f1\u00edas tecnol\u00f3gicas, para gobiernos (por ejemplo, el finland\u00e9s) o para la ONU, que se dispone a crear su primer programa sobre Inteligencia Artificial \u2014uno de cuyos representantes andaba la semana pasada por las oficinas del FHI\u2014. Niel Bowerman, director adjunto, f\u00edsico del clima y exasesor del equipo pol\u00edtico de Energ\u00eda y Medio Ambiente de Barack Obama, explica que en el instituto siempre estudian c\u00f3mo de grande es un problema, cu\u00e1nta gente trabaja en \u00e9l y c\u00f3mo de f\u00e1cil es realizar progresos en esa \u00e1rea para determinar los campos de estudio.<\/p>\n<p>Bostrom es el hombre que comanda el Instituto, el que decide por d\u00f3nde se transita, el visionario. Desarrolla su labor gracias al impulso filantr\u00f3pico de James Martin, millonario interesado en las cuestiones de los riesgos existenciales del futuro que impuls\u00f3 el FHI hace diez a\u00f1os para que se estudie y reflexione en torno a aquellas cosas en las que la industria y los gobiernos, guiados por sus particulares intereses, no tienen por qu\u00e9 pensar.<\/p>\n<p>Al fil\u00f3sofo sueco, que form\u00f3 parte en 2009 de la lista de los 100 mayores pensadores globales de la revista <em>Foreign Policy<\/em>, le interesa estudiar, sobre todo, amenazas lejanas, a las que no le gusta poner fecha. \u201cCuanto m\u00e1s largo sea el plazo\u201d, dice, \u00abmayores son las posibilidades de un escenario de extinci\u00f3n o de era posthumana\u201d. Pero existen peligros a corto plazo. Los que m\u00e1s le preocupan a Bostrom son los que pueden afectar negativamente a las personas como las plagas, la gripe aviar, los virus, las pandemias.<\/p>\n<h3><strong><em>Transhumanismo e inteligencia artificial<\/em><\/strong><\/h3>\n<p>En cuanto a la Inteligencia Artificial y su cruce con la militar, dice que el riesgo m\u00e1s claro lo presentan los drones y las armas letales aut\u00f3nomas. Y recuerda que la guerra nuclear, aunque tiene pocas probabilidades de llegar, sigue siendo un peligro latente. \u201cLa gente parece haber dejado de preocuparse por ella; un cambio para mal en la situaci\u00f3n geopol\u00edtica podr\u00eda convertirse en un gran peligro\u201d.<\/p>\n<p>\u201cHay una carrera entre nuestro progreso tecnol\u00f3gico y nuestra sabidur\u00eda, que va mucho m\u00e1s despacio. La biotecnolog\u00eda, y en particular, la posibilidad que ofrece el sistema de edici\u00f3n gen\u00e9tica CRISPR de crear armas biol\u00f3gicas, tambi\u00e9n plantea nuevos desaf\u00edos. \u201cLa biotecnolog\u00eda est\u00e1 avanzando r\u00e1pidamente va a permitir manipular la vida, modificar microbios con gran precisi\u00f3n y poder. Eso abre el paso a capacidades muy destructivas\u201d. La tecnolog\u00eda nuclear, se\u00f1ala, se puede controlar. La biotecnolog\u00eda, la nanotecnolog\u00eda, lo que haga alguien un garaje con un equipo de segunda mano comprado en EBay, no tanto. Con poco se puede hacer mucho da\u00f1o.<\/p>\n<p>Superada su etapa transhumanista \u2014fund\u00f3 en 1998 junto a David Pearce la <a href=\"https:\/\/www.transhumanismo.org\" target=\"_blank\" rel=\"noopener noreferrer\">Asociaci\u00f3n Mundial Transhumanista<\/a>, colectivo que aboga de modo entusiasta por la expansi\u00f3n de las capacidades humanas mediante el uso de las tecnolog\u00edas\u2014, Bostrom ha encontrado en la Inteligencia Artificial el terreno perfecto para desarrollar su trabajo. La carrera en este campo se ha desatado, grandes empresas \u2014Google compr\u00f3 en 2014 la tecnol\u00f3gica DeepMind\u2014 y Estados pugnan por hacerse con un sector que podr\u00eda otorgar poderes inmensos, casi inimaginables.<\/p>\n<p>Uno de los escenarios que proyecta en su libro, cuya versi\u00f3n en espa\u00f1ol publica el 25 de febrero la <a href=\"http:\/\/www.teelleditorial.com\/#%21blank\/wmuyq\">editorial Teell<\/a>, es el de la toma de poder por parte de una Inteligencia Artificial (AI, siglas en ingl\u00e9s). Se produce una explosi\u00f3n de inteligencia. Las m\u00e1quinas llegan a un punto en que superan a sus programadores, los humanos. Son capaces de mejorarse a s\u00ed mismas. De desarrollar grandes habilidades de programaci\u00f3n, estrat\u00e9gicas, de manipulaci\u00f3n social, de <em>hacking<\/em>. Pueden querer tomar el control del planeta.<\/p>\n<p>Los humanos pueden ser un estorbo para sus objetivos. Para tomar el control, esconden sus cartas. Podr\u00e1n mostrarse inicialmente d\u00f3ciles. En el momento en que desarrollan todos sus poderes, pueden lanzar un ataque contra la especie humana. <em>Hackear<\/em> drones, armas. Liberar robots del tama\u00f1o de un mosquito elaborados en nanofactor\u00edas que producen gas nervioso, o gas mostaza.<\/p>\n<h3><strong><em>El libro futurista de Bostrom<\/em><\/strong><\/h3>\n<p>Esta es simplemente la s\u00edntesis del desarrollo de un escenario. Pero, como dec\u00eda la cr\u00edtica de <em>Superinteligencia<\/em> de la revista <em>The Economist<\/em>, las implicaciones de la introducci\u00f3n de una segunda especie inteligente en la Tierra merecen que alguien piense en ellas. \u201cAntes, muchas de estas cuestiones, no solo las del AI, sol\u00edan estar en el campo de la ciencia ficci\u00f3n, de la especulaci\u00f3n\u201d, dice Bostrom, \u201cpara mucha gente era dif\u00edcil de entender que se pudiera hacer trabajo acad\u00e9mico con ello, que se pod\u00edan hacer progresos intelectuales\u201d.<\/p>\n<p>El libro tambi\u00e9n plantea un escenario en que la Inteligencia Artificial se desarrolla en distintos sectores de manera paralela y genera una econom\u00eda que produce inimaginables cotas de riqueza, descubrimientos tecnol\u00f3gicos asombrosos. Los robots, que no duermen, ni reclaman vacaciones, producen sin cesar y desbancan a los humanos en m\u00faltiples trabajos.<\/p>\n<p>\u2014 \u00bfLos robots nos enriquecer\u00e1n o nos reemplazar\u00e1n?<\/p>\n<p>\u2014 Primero, tal vez nos enriquezcan. A largo plazo ya se ver\u00e1. El trabajo es costoso y no es algo deseado, por eso hay que pagar a la gente por hacerlo. Automatizarlo parece beneficioso. Eso crea dos retos: si la gente pierde sus salarios, \u00bfc\u00f3mo se mantiene? Lo cual se convierte en una cuesti\u00f3n pol\u00edtica, \u00bfse piensa en una garant\u00eda de renta b\u00e1sica? \u00bfEn un Estado del Bienestar? Si esta tecnolog\u00eda realmente hace que el mundo se convierta en un lugar mucho m\u00e1s rico, con un crecimiento m\u00e1s r\u00e1pido, el problema deber\u00eda ser f\u00e1cil de resolver, habr\u00eda m\u00e1s dinero. El otro reto es que mucha gente ve su trabajo como algo necesario para tener estatus social y que su vida tenga sentido. Hoy en d\u00eda, estar desempleado no es malo solo porque no tienes dinero, sino porque mucha gente se siente in\u00fatil. Se necesitar\u00eda cambiar la cultura para que no pensemos que trabajar por dinero es algo que te da valor. Es posible, hay ejemplos hist\u00f3ricos: los arist\u00f3cratas no trabajaban para vivir, incluso pensaban que tener que hacerlo era degradante. Creemos que las estructuras de significado social son universales, pero son recientes. La vida de los ni\u00f1os parece tener mucho sentido incluso si no hacen nada \u00fatil. Soy optimista: la cultura se puede cambiar.<\/p>\n<p><a href=\"http:\/\/humanityplus.org\" target=\"_blank\" rel=\"noopener noreferrer\"><img loading=\"lazy\" decoding=\"async\" class=\"alignleft wp-image-1569\" title=\"transhumanist\" src=\"http:\/\/blogs.comillas.edu\/FronterasCTR\/wp-content\/uploads\/sites\/24\/2017\/05\/Captura-de-pantalla-2017-05-07-a-las-11.26.06.png\" alt=\"\" width=\"430\" height=\"266\" srcset=\"https:\/\/blogs.comillas.edu\/FronterasCTR\/wp-content\/uploads\/sites\/24\/2017\/05\/Captura-de-pantalla-2017-05-07-a-las-11.26.06.png 594w, https:\/\/blogs.comillas.edu\/FronterasCTR\/wp-content\/uploads\/sites\/24\/2017\/05\/Captura-de-pantalla-2017-05-07-a-las-11.26.06-300x185.png 300w\" sizes=\"auto, (max-width: 430px) 100vw, 430px\" \/><\/a><\/p>\n<p>A Bostrom se le ha acusado desde algunos sectores de la comunidad cient\u00edfica de tener visiones demasiado radicales. Sobre todo, en su etapa transhumanista. \u201cSus visiones sobre la edici\u00f3n gen\u00e9tica o sobre la mejora del humano son controvertidas\u201d, se\u00f1ala Miquel-\u00c1ngel Serra, bi\u00f3logo que acaba de publicar junto a Albert Cortina <em>Humanidad: desaf\u00edos \u00e9ticos de las tecnolog\u00edas emergentes.<\/em> \u201cSomos muchos los esc\u00e9pticos con las propuestas que hace\u201d. Serra, no obstante, deja claro que Bostrom est\u00e1 ahora en el centro del debate sobre el futuro de la Inteligencia Artificial, que es una referencia.<\/p>\n<p>\u2014 \u00bfProyecta usted una visi\u00f3n demasiado apocal\u00edptica en su libro de lo que puede ocurrir con la humanidad?<\/p>\n<p>\u2014 Mucha gente puede quedarse con la impresi\u00f3n de que soy m\u00e1s pesimista con la AI de lo que realmente soy. Cuando lo escrib\u00ed parec\u00eda m\u00e1s urgente tratar de ver qu\u00e9 pod\u00eda ir mal para asegurarnos de c\u00f3mo evitarlo.<\/p>\n<p>\u2014 Pero, \u00bfes usted optimista con respecto al futuro?<\/p>\n<p>\u2014 Intento no ser pesimista ni optimista. Intento ajustar mis creencias a lo que apunta la evidencia; con nuestros conocimientos actuales, creo que el resultado final puede ser muy bueno o muy malo. Aunque tal vez podr\u00edamos desplazar la probabilidad hacia un buen final si trabajamos duramente en ello.<\/p>\n<p>\u2014 O sea, que hay cosas que hacer. \u00bfCu\u00e1les?<\/p>\n<p>\u2014 Estamos haciendo todo lo posible para crear este campo de investigaci\u00f3n de control problema. Hay que mantener y cultivar buenas relaciones con la industria y los desarrolladores de Inteligencia Artificial. Aparte, hay muchas cosas que no van bien en este mundo: gente que se muere de hambre, gente a la que le pica un mosquito y contrae la malaria, gente que decae por el envejecimiento, desigualdades, injusticias, pobreza, y muchas son evitables. En general, creo que hay una carrera entre nuestra habilidad para hacer cosas, para hacer progresar r\u00e1pidamente nuestras capacidades tecnol\u00f3gicas, y nuestra sabidur\u00eda, que va mucho m\u00e1s despacio. Necesitamos un cierto nivel de sabidur\u00eda y de colaboraci\u00f3n para el momento en que alcancemos determinados hitos tecnol\u00f3gicos, para sobrevivir a esas transiciones.<\/p>\n<h2><strong>LOS CINCO JINETES DEL APOCALIPSIS<\/strong><\/h2>\n<h3><strong><em>El investigador Anders Sandberg\u00a0<\/em><\/strong><strong><em>analiza los mayores riesgos para el hombre<\/em><\/strong><\/h3>\n<p>En un <a href=\"http:\/\/elpais.com\/elpais\/2016\/02\/12\/ciencia\/1455307010_554783.html\">tercer informe sobre el futuro publicado en El Pa\u00eds<\/a>, se pasa revista a lo que pod\u00edan ser los cinco jinetes del apocalipsis del futuro. Para el articulista, la gente lleva miles de a\u00f1os hablando de los apocalipsis, pero pocos han intentado prevenirlos, y es que a los humanos no se nos da bien atajar los problemas que a\u00fan no han sucedido.<\/p>\n<p>El motivo, entre otras cosas, es la heur\u00edstica de la disponibilidad: la tendencia a magnificar la probabilidad de que ocurran acontecimientos de los que conocemos ejemplos, e infravalorar los acontecimientos que no podemos recordar f\u00e1cilmente.<\/p>\n<p>Sumidos en el barullo cotidiano de las \u201ccrisis\u201d a las que se enfrenta la humanidad, nos olvidamos de las muchas generaciones que, confiemos, est\u00e1n por venir. No en las que vivir\u00e1n dentro de 200 a\u00f1os, sino en 1.000 o 10.000 a\u00f1os. Nos enfrentamos a riesgos, <a href=\"http:\/\/www.nickbostrom.com\/existential\/risks.html\">llamados existenciales,<\/a> que amenazan con barrer del mapa a la humanidad. No se trata solo de los riesgos de grandes desastres, sino de desastres que podr\u00edan acabar con la historia.<\/p>\n<p>La actividad humana moldea continuamente el futuro de nuestro planeta y, aunque a\u00fan estemos lejos de poder controlar los desastres naturales, estamos desarrollando una tecnolog\u00eda que podr\u00eda ayudarnos a mitigarlos o, cuando menos, capearlos. No obstante, seguimos sin estudiar esos riesgos como se deber\u00eda; existe una sensaci\u00f3n de impotencia y fatalismo ante ellos.<\/p>\n<p>Con eso en mente, he seleccionado las que, en mi opini\u00f3n, son <a href=\"https:\/\/theconversation.com\/the-five-biggest-threats-to-human-existence-27053\">las cinco mayores amenazas para la humanidad<\/a>. Conviene, eso s\u00ed, ir sobre aviso: no se trata de una lista definitiva. Debemos esperar la aparici\u00f3n de otras. Asimismo, algunos riesgos que hoy en d\u00eda parecen serios podr\u00edan desaparecer a medida que aumente nuestro conocimiento. Las probabilidades tambi\u00e9n cambian con el paso del tiempo; a veces, los riesgos nos preocupan y les ponemos remedio.<\/p>\n<p>Por \u00faltimo, que algo sea posible y peligroso en potencia no significa que merezca la pena preocuparse por ello. Hay riesgos contra los que no podemos hacer absolutamente nada, como los estallidos de rayos gamma producidos por la explosi\u00f3n de una galaxia. Pero cuando aprendemos que podemos hacer algo al respecto, las prioridades cambian. Gracias a las instalaciones sanitarias, las vacunas y los antibi\u00f3ticos, por ejemplo, la peste pas\u00f3 de ser un castigo divino a un problema de sanidad p\u00fablica.<\/p>\n<p>Nos enfrentamos a riesgos, llamados existenciales, que amenazan con barrer del mapa a la humanidad.<\/p>\n<ol>\n<li>\n<h3><strong> Guerra nuclear<\/strong><\/h3>\n<\/li>\n<\/ol>\n<p>Aunque solo se han usado dos armas nucleares hasta la fecha \u2014las de <a href=\"http:\/\/elpais.com\/tag\/hiroshima\/a\/\">Hiroshima<\/a> y Nagasaki en la Segunda Guerra Mundial\u2014 y los arsenales nucleares est\u00e1n lejos del c\u00e9nit que alcanzaron durante la Guerra Fr\u00eda, es un error pensar que es imposible que se produzca una guerra nuclear. De hecho, no es improbable.<\/p>\n<p>La crisis de los misiles en Cuba estuvo a punto de alcanzar un nivel nuclear. Suponiendo que se produzca un acontecimiento as\u00ed cada 69 a\u00f1os, y que hay un tercio de posibilidades de que escale hasta convertirse en una guerra nuclear, la probabilidad de una cat\u00e1strofe as\u00ed aumenta hasta aproximadamente una de cada 200 al a\u00f1o.<\/p>\n<p>Para m\u00e1s inri, la crisis de los misiles en Cuba solo fue el caso m\u00e1s conocido. La historia de la disuasi\u00f3n nuclear entre la Uni\u00f3n Sovi\u00e9tica y Estados Unidos est\u00e1 repleta de soluciones por los pelos y errores peligrosos. La probabilidad actual cambia dependiendo de las tensiones internacionales, pero parece inveros\u00edmil que la posibilidad sea mucho menor a una entre 1.000 al a\u00f1o.<\/p>\n<p>El riesgo de que alguien ponga en circulaci\u00f3n algo devastador es bajo, pero a medida que la biotecnolog\u00eda se vuelva m\u00e1s barata, m\u00e1s personas tendr\u00e1n la capacidad de crear enfermedades m\u00e1s nocivas<\/p>\n<p>Una guerra nuclear a gran escala entre las principales potencias matar\u00eda a centenares de millones de personas directamente o a trav\u00e9s de sus secuelas: un desastre inimaginable. Sin embargo, no es suficiente para convertirla en un riesgo existencial.<\/p>\n<p>De la misma manera, los riesgos de la lluvia radioactiva suelen exagerarse: a escala local pueden ser mort\u00edferos, pero a escala mundial se trata de un problema relativamente limitado. Aunque se habl\u00f3 de las bombas de cobalto como una hipot\u00e9tica arma apocal\u00edptica cuya lluvia radioactiva matar\u00eda a todo el mundo, en la pr\u00e1ctica son dif\u00edciles y caras de construir. Y las posibilidades f\u00edsicas de fabricarlas tambi\u00e9n son muy reducidas.<\/p>\n<p>La aut\u00e9ntica amenaza es el invierno nuclear, es decir, que el holl\u00edn lanzado a la estratosfera provoque un enfriamiento y una sequ\u00eda mundial que se alarguen varios a\u00f1os. Las simulaciones clim\u00e1ticas modernas muestran que podr\u00eda condenar la agricultura de buena parte del planeta durante a\u00f1os.<\/p>\n<ol start=\"2\">\n<li>\n<h3><strong> Pandemia provocada por la bioingenier\u00eda<\/strong><\/h3>\n<\/li>\n<\/ol>\n<p>Las pandemias naturales han matado a m\u00e1s personas que las guerras. Sin embargo, no re\u00fanen las condiciones para suponer amenazas existenciales: suele haber personas inmunes al pat\u00f3geno, y los v\u00e1stagos de los supervivientes ser\u00edan a\u00fan m\u00e1s resistentes. La evoluci\u00f3n tampoco favorece a los par\u00e1sitos que se cargan a sus hu\u00e9spedes, que es la raz\u00f3n por la que la s\u00edfilis dej\u00f3 de ser una asesina virulenta y se convirti\u00f3 en una enfermedad cr\u00f3nica a medida que se extend\u00eda por Europa.<\/p>\n<p>Por desgracia, ahora somos capaces de empeorar las enfermedades. En estos momentos, el riesgo de que alguien ponga en circulaci\u00f3n deliberadamente algo devastador es bajo, pero a medida que la biotecnolog\u00eda se vuelva m\u00e1s sofisticada y barata, un mayor n\u00famero de personas tendr\u00e1n la capacidad de hacer m\u00e1s nocivas las enfermedades.<\/p>\n<p>El n\u00famero de v\u00edctimas de las armas biol\u00f3gicas y los brotes epid\u00e9micos parece tener una distribuci\u00f3n de ley de potencias: la mayor\u00eda de los ataques causan pocas v\u00edctimas, y unos pocos matan a muchos. Habida cuenta de las cifras actuales, el riesgo de una pandemia mundial por bioterrorismo parece \u00ednfimo. Pero solo estamos hablando de bioterrorismo: los Gobiernos han matado a mucha m\u00e1s gente que los terroristas con armas qu\u00edmicas (el programa de guerra biol\u00f3gica japon\u00e9s de la Segunda Guerra Mundial se cobr\u00f3 unas 400.000 vidas). Y en el futuro, cuanto m\u00e1s potente sea la tecnolog\u00eda, m\u00e1s f\u00e1cil ser\u00e1 dise\u00f1ar pat\u00f3genos m\u00e1s da\u00f1inos.<\/p>\n<ol start=\"3\">\n<li>\n<h3><strong> Superinteligencia<\/strong><\/h3>\n<\/li>\n<\/ol>\n<p>La inteligencia es muy poderosa. Un min\u00fasculo aumento en la capacidad de resolver problemas y la coordinaci\u00f3n en grupo nos bast\u00f3 para dejar al resto de simios en la estacada. Ahora su supervivencia depende de las decisiones humanas, no de sus actos. La inteligencia es una aut\u00e9ntica ventaja para personas y organizaciones, por lo que se invierte un esfuerzo enorme en idear formas de mejorar nuestra inteligencia individual y colectiva: desde los f\u00e1rmacos que potencian el conocimiento hasta los programas de inteligencia artificial.<\/p>\n<p>No hay motivos para pensar que la inteligencia por s\u00ed misma haga que algo se comporte con bondad y \u00e9tica. De hecho, se puede demostrar que determinados tipos de sistemas superinteligentes no obedecer\u00edan las leyes \u00e9ticas aun cuando fuesen correctas.<\/p>\n<p>Lo que resulta m\u00e1s preocupante todav\u00eda es que al intentar explicar algo a una inteligencia artificial tropezamos con profundos problemas pr\u00e1cticos y filos\u00f3ficos. Los valores humanos son elementos difusos y complejos, que no se nos da bien expresar; adem\u00e1s, aunque seamos capaces de hacerlo, puede que no entendamos todas sus consecuencias.<\/p>\n<p>La inteligencia inform\u00e1tica podr\u00eda pasar rapid\u00edsimamente de estar por debajo de la humana a tener un poder terror\u00edfico. Se ha insinuado que podr\u00eda producirse una \u201cexplosi\u00f3n de la inteligencia\u201d cuando los programas se vuelvan lo bastante sofisticados como para dise\u00f1ar mejores programas. Si se produjera un salto semejante, habr\u00eda una gran diferencia de poder potencial entre el sistema inteligente (o las personas que le dicen c\u00f3mo actuar) y el resto del mundo. Est\u00e1 claro el potencial para el desastre si los objetivos establecidos no son los id\u00f3neos.<\/p>\n<p>Hay motivos de sobra para pensar que algunos tipos de tecnolog\u00eda podr\u00edan hacer que las cosas se acelerasen a una velocidad mayor de la que la sociedad actual es capaz de asimilar. Es m\u00e1s, tampoco tenemos claro lo peligrosos que podr\u00edan ser los diferentes tipos de superinteligencia, o qu\u00e9 estrategias de mitigaci\u00f3n funcionar\u00edan. Resulta muy dif\u00edcil teorizar sobre una tecnolog\u00eda futura de la que a\u00fan no disponemos, o sobre una inteligencia mayor que la nuestra. De los riesgos de esta lista, este es el que m\u00e1s probabilidades tiene de ser, o bien catastr\u00f3fico, o bien un mero espejismo.<\/p>\n<p>Sorprendentemente, este es un \u00e1mbito muy poco investigado. Ya en las d\u00e9cadas de 1950 y 1960, cuando la gente estaba convencida de que la superinteligencia pod\u00eda alcanzarse \u201cen una generaci\u00f3n\u201d, no se prestaba demasiada atenci\u00f3n a las cuestiones de seguridad.<\/p>\n<ol start=\"4\">\n<li>\n<h3><strong> Nanotecnolog\u00eda<\/strong><\/h3>\n<\/li>\n<\/ol>\n<p>La <a href=\"http:\/\/elpais.com\/tag\/nanotecnologia\/a\/\">nanotecnolog\u00eda<\/a> es el control de la materia con una precisi\u00f3n at\u00f3mica o molecular. Eso no es peligroso de por s\u00ed; de hecho, ser\u00eda una fant\u00e1stica noticia para la mayor\u00eda de sus aplicaciones. Pero el aumento del poder tambi\u00e9n aumenta el potencial de abusos contra los que resultar\u00eda dif\u00edcil defenderse.<\/p>\n<p>El mayor problema <em>no<\/em> es la c\u00e9lebre \u201cplaga gris\u201d de nanom\u00e1quinas que se autorreplicasen hasta devorarlo todo. Para eso har\u00eda falta un dise\u00f1o inteligente <em>ex profeso.<\/em> Resulta dif\u00edcil hacer que una m\u00e1quina se replique; a la biolog\u00eda se le da mucho mejor, lo hace por naturaleza. El riesgo m\u00e1s evidente es que la fabricaci\u00f3n con un nivel at\u00f3mico de precisi\u00f3n parece venir como anillo al dedo para la producci\u00f3n r\u00e1pida y barata de cosas como armas. En un mundo donde cualquier gobierno pudiese \u201cimprimir\u201d una gran cantidad de armas aut\u00f3nomas o semiaut\u00f3nomas (incluidas las instalaciones para crear a\u00fan m\u00e1s), las carreras armament\u00edsticas adquirir\u00edan m\u00e1s velocidad de la cuenta, y por ende se volver\u00edan inestables.<\/p>\n<p>Las armas tambi\u00e9n pueden ser elementos min\u00fasculos y certeros: un \u201cveneno inteligente\u201d que act\u00faa como un gas nervioso pero que busca a sus v\u00edctimas, o un sistema de vigilancia ubicuo a trav\u00e9s de \u201crobots mosquito\u201d, parecen perfectamente plausibles. Asimismo, podr\u00eda llegarse a una situaci\u00f3n en que la proliferaci\u00f3n nuclear o la ingenier\u00eda clim\u00e1tica estuviesen al alcance de cualquiera.<\/p>\n<p>No podemos juzgar las probabilidades de un riesgo existencial en la nanotecnolog\u00eda del futuro, pero podr\u00eda resultar posiblemente perturbadora por el mero hecho de ser capaz de darnos todo lo que deseemos.<\/p>\n<ol start=\"5\">\n<li>\n<h3><strong> Riesgos desconocidos que a\u00fan no conocemos<\/strong><\/h3>\n<\/li>\n<\/ol>\n<p>La posibilidad m\u00e1s inquietante es que exista algo tremendamente mort\u00edfero de lo que no tenemos ni idea. F\u00edjense en que el desconocer algo no es \u00f3bice para que no podamos razonar sobre ello. En un art\u00edculo extraordinario, Max Tegmark y Nick Bostrom demuestran que existe una serie de riesgos, con menos de una posibilidad entre 1.000 millones al a\u00f1o, basada en la edad relativa de la Tierra.<\/p>\n<p>Uno podr\u00eda preguntarse por qu\u00e9 el cambio clim\u00e1tico o los impactos de meteorito se han quedado fuera de esta lista. Es poco probable que el cambio clim\u00e1tico, por aterrador que sea, haga inhabitable todo el planeta (aunque podr\u00eda conllevar otras amenazas si nuestras defensas ante \u00e9l se desmoronan). Sin duda los meteoritos podr\u00edan borrarnos del mapa, pero ya ser\u00eda mala suerte.<\/p>\n<p>Una especie de mam\u00edfero media sobrevive aproximadamente un mill\u00f3n de a\u00f1os. As\u00ed pues, la tasa de extinci\u00f3n natural ronda el uno entre un mill\u00f3n al a\u00f1o. Una cifra mucho m\u00e1s baja que el riesgo de guerra nuclear, que, pasados 70 a\u00f1os, sigue siendo la mayor amenaza para nuestra existencia.<\/p>\n<h2><strong>CONCLUSI\u00d3N<\/strong><\/h2>\n<p>Los pron\u00f3sticos que ofrecen los expertos sobre el futuro de la humanidad no son en exceso optimistas. Tal vez pequen de catastrofismo. Y \u00bfd\u00f3nde quedar\u00e1n las tradiciones religiosas en todo este proceso? \u00bfQu\u00e9 futuro les espera? \u00bfSobrevivir\u00e1n o ser\u00e1n capaces de reinventar nuevas f\u00f3rmulas para ocupar un espacio en el mapa complejo de la sociedad que nos espera? En la revista hermana, <a href=\"http:\/\/www.tendencias21.net\/TENDENCIAS-DE-LAS-RELIGIONES_r18.html\" target=\"_blank\" rel=\"noopener noreferrer\">Tendencias21 de las religiones<\/a> se han publicado m\u00e1s de 600 art\u00edculos en estos diez a\u00f1os en los que se apuntan las tendencias positivas que pueden aportar las tradiciones religiosas en el siglo XXI. A ellos nos remitimos. Tal vez una de las tendencias que hemos detectado es que la capacidad de supervivencia de las construcciones sociales es inmensa. Y tal vez ah\u00ed encontremos una v\u00eda de esperanza.<\/p>\n<p><strong>Mar\u00eda Dolores Prieto Santana<em>, antrop\u00f3loga y educadora, colaboradora de FRONTERASCTR y de la C\u00e1tedra Ciencia, Tecnolog\u00eda y Religi\u00f3n, Universidad P. Comillas (Madrid).<\/em><\/strong><\/p>\n","protected":false},"excerpt":{"rendered":"<p>(Por Mar\u00eda Dolores Prieto Santana) Necesitamos sabidur\u00eda para enfrentar el futuro. Para saber si los progresos tecnol\u00f3gicos de vanguardia van en la direcci\u00f3n adecuada o no; si favorecen al ser humano, o todo lo contrario. Para tener una idea de qu\u00e9 hacer si se presentan escenarios que ponen en riesgo la supervivencia de la especie, &#8230; <a title=\"El enigm\u00e1tico futuro de la humanidad y las tradiciones religiosas\" class=\"read-more\" href=\"https:\/\/blogs.comillas.edu\/FronterasCTR\/?p=1507\" aria-label=\"Leer m\u00e1s sobre El enigm\u00e1tico futuro de la humanidad y las tradiciones religiosas\">Leer m\u00e1s<\/a><\/p>\n","protected":false},"author":263,"featured_media":1519,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"generate_page_header":"","footnotes":""},"categories":[121],"tags":[244,250],"class_list":["post-1507","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-transhumanismo-y-posthumanismo","tag-humanismo","tag-transhumanismo"],"_links":{"self":[{"href":"https:\/\/blogs.comillas.edu\/FronterasCTR\/index.php?rest_route=\/wp\/v2\/posts\/1507","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/blogs.comillas.edu\/FronterasCTR\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blogs.comillas.edu\/FronterasCTR\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blogs.comillas.edu\/FronterasCTR\/index.php?rest_route=\/wp\/v2\/users\/263"}],"replies":[{"embeddable":true,"href":"https:\/\/blogs.comillas.edu\/FronterasCTR\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=1507"}],"version-history":[{"count":3,"href":"https:\/\/blogs.comillas.edu\/FronterasCTR\/index.php?rest_route=\/wp\/v2\/posts\/1507\/revisions"}],"predecessor-version":[{"id":1605,"href":"https:\/\/blogs.comillas.edu\/FronterasCTR\/index.php?rest_route=\/wp\/v2\/posts\/1507\/revisions\/1605"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/blogs.comillas.edu\/FronterasCTR\/index.php?rest_route=\/wp\/v2\/media\/1519"}],"wp:attachment":[{"href":"https:\/\/blogs.comillas.edu\/FronterasCTR\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=1507"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blogs.comillas.edu\/FronterasCTR\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=1507"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blogs.comillas.edu\/FronterasCTR\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=1507"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}