La pandemia de la Covid-19 como oportunidad para un nuevo humanismo

(Por Federico de Montalvo) La pandemia provocada por el virus SARS-CoV-2 causante de la enfermedad de la Covid-19 ha venido a alterar de manera extremadamente disruptiva nuestra realidad y no solo en el ámbito de la salud, sino en muchos otros ámbitos, como el familiar, social, económico, profesional, cultural e, incluso, político. Pero a pesar de lo duro de la situación, también puede ser una oportunidad para potenciar un nuevo humanismo. Esa es la propuesta del presente escrito.

 

La pandemia como nueva carta para el humanismo

La pandemia provocada por el virus SARS-CoV-2 causante de la enfermedad de la Covid-19 ha venido a alterar de manera extremadamente disruptiva nuestra realidad y no solo en el ámbito de la salud, sino en muchos otros ámbitos, como el familiar, social, económico, profesional, cultural e, incluso, político. Como señalara al inicio de la pandemia la Pontificia Academia para la Vida, “Toda la humanidad está siendo puesta a prueba. La pandemia de Covid-19 nos pone en una situación de dificultad sin precedentes, dramática y de alcance mundial”[1].

Y en este nuevo contexto, resulta ciertamente paradójico que la palabra disrupción, que nuestra Real Academia define como rotura o interrupción brusca, y que tan en boga ha estado estos últimos años, haya venido siempre vinculada de manera inescindible al ingente avance de la informática y la ingeniería o, en idénticos términos, a la capacidad de superación que se le ofrece ahora al ser humano desde la perspectiva de la electrónica, la mecánica y la computación y haya sido, precisamente, la naturaleza y una pandemia las que hayan provocado un cambio radical. Una mera búsqueda sencilla en internet de la palabra disrupción nos ofrece como resultado la vinculación de disrupción y tecnología o mundo digital. Las palabras disrupción y digital o tecnológica constituyen el resultado más habitual de dicha búsqueda. De hecho, la propia palabra disrupción parece que fue usada por primera vez para describir los tiempos actuales en un artículo publicado en 1995 en la Harvard Business Review (Disruptive technologies: catching the wave, Joseph L Bower y Clayton M Christensen), vinculada al cambio tecnológico de la empresa, lo que obligaba a los emprendedores a reinventarse.

La Inteligencia Artificial, la robótica, el Big Data o, más recientemente, el Blockchain se nos han venido presentando como los verdaderos impulsores de un cambio o transformación que se mostraba como inaudito y que vendría a marcar inexorablemente el futuro del ser humano. Como recuerda Sara Lumbreras, el tecnooptimismo nos anticipaba que todos los problemas de nuestra sociedad y nuestra condición humana quedarían resueltos en un futuro cercano[2]. Y si bien esta pandemia parece que sí fue vista venir por la IA. En concreto, la compañía de IA BlueDot, que utiliza aprendizaje automático para detectar brotes de enfermedades infecciosas en todo el mundo, alertó a sus clientes, incluidos varios gobiernos, hospitales y empresas, sobre un inusual aumento de casos de neumonía en Wuhan (China). Sin embargo, para qué ha servido tal predicción y, además, ¿ha permitido y permitirá la IA paliar las consecuencias de la pandemia?

Como explica el Massachusetts Institute of Technology (MIT), el bombo en torno a la IA contra el coronavirus está superando a la realidad. De hecho, lo que ha aparecido en muchos informativos y comunicados de prensa (que la IA es una nueva y poderosa arma contra enfermedades) solo es cierto en parte y podría resultar contraproducente. Por ejemplo, confiar excesivamente en las capacidades de IA podría provocar la toma de decisiones incorrectas por información equivocada que llevaría el dinero público a compañías de IA no comprobada a expensas de las intervenciones verificadas como los programas de medicamentos. También es malo para el propio campo: no sería la primera vez que las expectativas exageradas con resultados decepcionantes reducen el interés en la IA, lo que a su vez limita las inversiones[3]. Y como recuerda el Banco Interamericano de Desarrollo, BID, a pesar que la IA puede tener varios usos, su alcance y efecto en esta pandemia puede ser muy limitado ante un contagio de crecimiento acelerado. De hecho, la narrativa que la IA es una nueva solución contra las enfermedades es solo en parte cierta y corre el riesgo de volverse contraproducente, ya que demasiada confianza en las capacidades de AI podría llevar a tomar decisiones mal informadas respecto al desarrollo, financiamiento y posterior despliegue de soluciones no comprobadas que puedan generar consecuencias no deseables en la sociedad[4].

Así pues, es una pandemia, algo con evidente regusto a antiguo, a sociedad preindustrial, aunque hayamos tenido algunos ejemplos algo más recientes, la que ha provocado tales cambios. Y obviamente, no creemos que la pandemia haya venido para quedarse, en expresión ya muy manida, como todas pasará, pero parece que sí muchos de los cambios que ha provocado.

En palabras nuevamente de la Pontificia Academia para la Vida, “En medio de nuestra euforia tecnológica y gerencial, nos encontramos social y técnicamente impreparados ante la propagación del contagio: hemos tenido dificultades en reconocer y admitir su impacto. E incluso ahora, estamos luchando fatigosamente para detener su propagación. Pero también observamos una falta de preparación -por no decir resistencia- en el reconocimiento de nuestra vulnerabilidad física, cultural y política ante el fenómeno, si consideramos la desestabilización existencial que está causando. Esta desestabilización está fuera del alcance de la ciencia y de la técnica del sistema terapéutico” [5].

En todo caso, tiempos tan difíciles como los que estamos viviendo deben servir también de aprendizaje. Y, entre éstos, destacaría que el ser humano recuerde la importancia que tiene, en expresión del Papa Francisco, el cuidado de la Casa Común, lo que nuestra soberbia poshumanista ha podido, en cierto modo, hacernos olvidar. También, la propia fragilidad y vulnerabilidad que nos caracteriza como seres humanos. La pandemia ha puesto de relieve con una dureza inesperada la precariedad que marca radicalmente nuestra condición humana, incluso, en aquellos lugares del mundo en los que los avances de la ciencia y la tecnología nos habían creado la ilusión, ya fulminantemente desvanecida, de que eramos invulnerables y que podíamos encontrar una solución técnica para todo. La pandemia no ha podido ser controlada ni siquiera en las sociedades más desarrolladas económica y tecnológicamente, donde ha superado la capacidad de los laboratorios y estructuras sanitarias. Nuestras optimistas proyecciones del poder científico y tecnológico a nuestra disposición nos permitieron quizás imaginar que seríamos capaces de prevenir la propagación de una epidemia mundial de esta magnitud, convirtiéndola en una posibilidad cada vez más remota. Sin embargo, la actualidad parece que nos muestra sin ambages que, junto con los extraordinarios recursos de protección y cuidado que nuestro progreso acumula, también hay efectos secundarios de la fragilidad del sistema que no hemos vigilado lo suficiente[6].

Como señala Daniel Innerarity en su pandemocracia, una gran crisis biológica en la era de la inteligencia artificial y en medio de los debates sobre el transhumanismo nos pone cuerpo a tierra. Esta crisis subraya todavía más los límites de nuestra autosuficiencia y la común fragilidad, revelando nuestra dependencia tanto de otros seres humanos como respecto del mundo no humano. Y el problema, añade Innerarity, es que nos hemos hecho más vulnerables a los riesgos globales sin haber desarrollado suficientemente los correspondientes procedimientos de protección[7].

Además, este nuevo escenario que se nos ofrece con ocasión de la experiencia de la pandemia y que vendría a poner en cuestión el tecno-optimismo que nos había hecho creer, como decimos, que éramos invulnerables gracias a los avances de la ciencia y la tecnología tiene especial relevancia en España. Y ello, porque parece que nuestra sociedad es la más tecnooptimista de las de nuestro entorno más próximo. Así, la Fundación BBVA en su reciente documento bajo la denominación de Estudio Europeo de Valores: Valores y actitudes en Europa hacia la ciencia, la tecnología y la naturaleza, de enero de 2020, en el que se valora el interés y confianza de diferentes sociedades europeas (Alemania, Francia, Italia, Reino Unido y España), en la ciencia y la tecnología, destaca que la sociedad española es la que expresa un mayor nivel de expectativas positivas sobre el efecto de la mayoría de las aplicaciones de la ciencia y la tecnología, superando al promedio europeo en el caso de la ingeniería genética, la exploración del espacio y la inteligencia artificial. Además, el Estudio destaca también que los españoles coinciden con sus pares europeos respecto a que la religión no debe poner límites a los avances científicos, pero, a diferencia de los ciudadanos del resto de países, creen que la ética tampoco debería ponerlos[8].

Esta crisis no es el fin del mundo, sino el fin de un mundo y lo que se acaba (o se acabó hace tiempo y terminamos de aceptar su fallecimiento) es el mundo de las certezas, el de los seres invulnerables y el de la autosuficiencia. Entramos en un espacio desconocido, común y frágil, es decir, un mundo que tiene que ser pensado sistemáticamente y con una mayor aceptación de nuestra ignorancia irreductible. En un espacio en el que el humanismo se nos ofrece como el camino seguro que nos permite asumir nuestra fragilidad, es decir, nuestra autenticidad con ánimos de fortaleza para afrontar el futuro[9].

En definitiva, podría ya afirmarse que la profecía de Peter Sloterdijk en sus normas para el parque humano, por la que se considera superada la era del humanismo y se reclama una revisión genético-técnica de la humanidad, habiendo tomado las fantasías de selección biopolítica el relevo de las utopías de justicia parece haberse topado con el muro de una realidad tan natural y antigua como es una pandemia. Porque, una vez más, la naturaleza nos demuestra, nos parece dejar claro, una vez más, que no somos dueños de nuestro propio destino. La dialéctica hegeliana que ha venido enfrentando estos últimos años a tecnoconservadores y tecnoliberales parece que ha llegado a su fin. No creemos que estemos ante el final de la Historia, pero al menos sí puede que la pandemia nos haya dado, al menos, la esperanza de empezar a construirla a través del fortalecimiento del humanismo.

Hacia un nuevo humanismo tecnológico: panhumanismo y RenAIssance

Esta vuelta al humanismo que creemos que debe impulsarse en la postpandemia, no debe significar una renuncia a los avances que nos ofrece la tecnología, sino, antes al contrario, incorporarlos como instrumentos esenciales para una mejora de nuestra vida, pero sin caer, como acabamos de señalar, en el sueño de una invulnerabilidad fundamentada en la creencia de que la solución para todo estaba en la ciencia y en la tecnología.

La alianza entre el ser humano, la ética y la tecnología no debe desvanecerse, sino, todo lo contrario, reforzarse. De hecho, la propia tecnología se ha mostrado como la herramienta insustituible que nos ha permitido, a algunos, continuar desde la distancia de nuestros hogares con nuestras actividades profesionales y a prácticamente todos mantener las relaciones afectivas y de amistad desde el confinamiento. La tecnología ha mostrado en estos difíciles tiempos su lado más humano.

Este nuevo humanismo tecnológico o, como lo denominara Albert Cortina hace unos años, humanismo avanzado[10], sería un humanismo fundamentado en lo que Ulrich Beck en su sociedad del riesgo denominara cientificación reflexiva frente a la cientificación simple que se funda en la ingenuidad de creer que la actividad científica y tecnológica puede limitarse a los objetos científicos sin afectar a la sociedad, la moral o la política. La primera, por el contrario, asume que no solo es solución de problemas sino fuente que los origina, porque lo esencial ahora no es qué se investiga sino cómo se investiga, evitando tanto la infalibilidad cuanto la irreversibilidad[11].

Esta tecnología reflexiva ya lleva presente entre nosotros, al menos en el plano ético y legal desde hace unas décadas (ya otras grandes catástrofes, como la explosión de la central nuclear de Chernóbil o la denominada vulgarmente crisis de las vacas locas nos mostraron hasta donde la tecnología podía estar dejando a un lado al ser humano). Desde la perspectiva ética y jurídica, el principio de precaución, incorporado a la mayoría de los ordenamientos jurídicos de nuestro entorno europeo, supuso un nuevo enfoque de cautela frente al avance de la ciencia, una aproximación más humana. Supuso la toma de conciencia del legislador acerca de las incertidumbres de los riesgos que pueden acompañar al avance de la ciencia y la técnica, convirtiéndose en un instrumento jurídico del nuevo paradigma científico-reflexivo.

El principio de precaución se traduce en la práctica en el traslado de la carga de la prueba acerca del nivel de incertidumbre de los riesgos que pudieran derivarse de la concreta actividad que pretende desarrollarse. Y así, en virtud del principio, será el proponente de la actividad que deba acreditar que concurre la certidumbre suficiente que permite excluir los riesgos. Por ello, supone un cambio de paradigma muy profundo en el ámbito del Derecho, en la medida que altera la operatividad del principio de pro libertate que inspira nuestro ordenamiento jurídico, de manera que el aforismo clásico de que se considera permitido lo que no está prohibido (permissum id ese intellegitur, quod non prohibetur o, en similares términos, intellegitur consessum quod non est prohibitum) ya no es la única máxima. El principio general de que todo lo no prohibido explícitamente está permitido parece no tener plena virtualidad. A este respecto, se cita como ejemplo paradigmático, una Sentencia del Tribunal de lo contencioso-administrativo de Kassel (Alemania) de 6 de noviembre de 1989, relativa a la necesidad de obtener licencia para el desarrollo de actividades experimentales de manipulación genética, cuando no existía regulación alguna acerca de dichas técnicas. El Tribunal consideró que, dado que, en la investigación de las materias innovadoras básicas, como la energía nuclear, tecnología espacial, biología y, en especial, tecnología genética, nos movemos en otras dimensiones y en otros niveles cualitativos distintos, y dada la falta de seguridad de los resultados, debe esperarse a que el legislador decida acerca de la actividad, sin que pueda desarrollarse la misma en el periodo de ausencia de regulación. El principio se traduce, en términos de Hans Jonas, en un in dubio pro malo, es decir, en caso de duda presta oídos al peor pronóstico antes que al mejor, porque las apuestas se han vuelto demasiado elevadas como para jugar[12].

También, podemos mencionar el concepto o dilema del dual use, doble uso en nuestra lengua, menos plasmado en el plano normativo que el anterior principio, y en virtud del cual, en el desarrollo de una tecnología debe atenderse no solo a los fines principales a los que se pretende destinar la misma, sino también la posibilidad de utilizarse en el ámbito militar o, en general, para dañar al ser humano[13]. Como recuerda Michael J. Selgelid, el dilema del dual use surge en el marco de los escenarios en los que los resultados de una investigación científica bien intencionada pueden usarse tanto para fines buenos como perjudiciales[14]. El dilema del dual use sería, por tanto, un dilema ético tanto para el investigador como para aquellos (por ejemplo, los gobiernos) que tienen el poder o la autoridad para promover o no autorizar el trabajo del investigador. Es un dilema ético, ya que se trata de promover el bien en el contexto del potencial de causar también daño. Es un dilema ético para el investigador, no porque esté orientado hacia algo distinto de un buen resultado (por lo general, el investigador no tiene la intención de hacer daño). Más bien, el dilema surge para el investigador debido a las acciones potenciales de otros[15]. Sin embargo, teniendo el concepto de dual use una naturaleza inherentemente ética, la mayoría de los debates han involucrado principalmente a expertos en ciencia y seguridad y no a especialistas en ética[16].

En todo caso, el propio Michael J. Selgelid y Seumas Miller consideran erróneo tratar al dual use como dilema, dado que, precisamente, el problema debería resolverse, no optando por una solución de extrema de autorización o prohibición absoluta del desarrollo tecnológico, sino tratando de obtener una opción intermedia que permita combinar la seguridad para el ser humano con el progreso tecnológico[17]. El dual use no se emplearía, entonces, necesariamente para prohibir dichos desarrollos y detener el desarrollo tecnológico, sino para ofrecer soluciones proporcionales frente a posibles riesgos de usos perjudiciales.

La Comisión de la UE recordaba en una Comunicación al Consejo y al Parlamento Europeo que la investigación científica permite extraordinarios avances, que son beneficiosos para la sociedad, pero el riesgo de que sea mal utilizada genera una creciente tensión entre el principio de apertura de la ciencia y las preocupaciones de seguridad. Se ha resaltado en debates la necesidad de tomar en consideración el carácter mundial de la ciencia y la libre circulación de la información científica, pero también se ha subrayado que hay que afrontar los riesgos asociados con el posible abuso de la investigación científica y garantizar una evaluación independiente de las consecuencias para la seguridad. La propia Comisión propone un enfoque del doble uso más amplio, que no solo prevenga frente a un posible uso militar, sino de “seguridad humana”, que reconozca la inextricable vinculación entre la seguridad y los derechos humanos. Esto puede implicar el que se tienda a una definición de “artículos estratégicos” que no incluya sola y exclusivamente artículos con posibles usos finales militares y destinados a la proliferación de armas de destrucción masiva, sino que tenga un enfoque de seguridad más amplio[18].

El origen del concepto se sitúa inicialmente en el ámbito militar, para prevenir que desarrollos tecnológicos para usos principalmente civiles, lo puedan ser también doblemente como armas de destrucción masiva. Así, durante la Guerra Fría, los Estados Unidos de América y la Unión Soviética gastaron miles de millones de dólares desarrollando tecnología de cohetes que podrían llevar a los humanos al espacio, pero el desarrollo de esta tecnología de cohetes con fines pacíficos fue en paralelo al desarrollo de la tecnología de misiles balísticos intercontinentales. E, igualmente, en los primeros días de la física atómica, se descubrió que los descubrimientos con respecto a la fusión nuclear y la reacción en cadena podrían usarse tanto para fines beneficiosos como perjudiciales. Los científicos involucrados reconocieron que, por un lado, tales descubrimientos podrían tener aplicaciones importantes para la producción de medicamentos y energía, pero que, por otro lado, también podrían conducir a la producción de armas de destrucción masiva sin precedentes. Ello llevó a un grupo de científicos, encabezados por Leo Szilard, a iniciar el debate sobre las posibles virtudes de la autocensura[19]. En 2004, el Consejo Nacional de Investigación de Estados Unidos de América introdujo el término “dilema de doble uso” para identificar los dilemas éticos relacionados con la investigación que, siendo beneficiosa para ciencias de la vida, sus resultados podrían ser mal utilizados para hacer daño[20].

El propio movimiento Slow Science, que tomando como ejemplo el movimiento surgido en los años ochenta del Slow Food, viene promoviendo que los científicos, más allá del laboratorio o del ordenador, se tomen su tiempo para reflexionar sobre las grandes preguntas que plantea el incesante avance de la ciencia y la tecnología, es también expresión del paradigma reflexivo. En el Manifiesto aprobado en Berlín en 2010 se proclama que la ciencia debe tomarse su tiempo, sin renunciar al flujo constante de publicaciones en revistas con revisión por pares y su impacto y a la creciente especialización y diversificación en todas las disciplinas. Para los autores del Manifiesto, la ciencia necesita tiempo para pensar. La ciencia necesita tiempo para leer y tiempo para fallar. La ciencia no siempre lo sabe todo, desarrollándose de manera inestable, con movimientos bruscos y saltos impredecibles. Así, la sociedad debería dar a los científicos el tiempo que necesitan, pero lo más importante, los científicos deben tomarse su tiempo para pensar[21]. En palabras de Marcello Ienca y Effy Vayena, los riesgos del doble uso en la segunda década del siglo XXI, en comparación con sus antecedentes históricos, se caracterizan por tres características principales: la diversificación de dominios de doble uso, la digitalización de amenazas potenciales y la proliferación de actores[22].

Francoise Baylis señala que el movimiento del Slow Science puede ser interpretado como una llamada de parte de la comunidad científica hacia la justicia social y la reflexión[23], y es precisamente dicha dimensión de la necesaria reflexión y cautela que se demanda de la ciencia la que conecta con la precaución. No se trata de renunciar al avance científico, sino de llevarlo a cabo con una meditada reflexión acerca de sus consecuencias. De este modo, el principio de precaución no se muestra como una mera herramienta que la Ética y Derecho nos ofrecen para evitar los inciertos riesgos que pudieran derivarse de tales avances, sino como algo que va más allá, como un verdadero nuevo paradigma que, sin renunciar a las oportunidades que ofrece la ciencia, permita evaluar serenamente sus consecuencias para el ser humano y el entorno. La metáfora del modernismo y el progreso del cuanto más es mejor se transformaría en cuanto mejor es más.

Así pues, el marco reflexivo ya existía, al menos en el ordenamiento jurídico, pero quizás había sido, en cierto modo, arrinconado bajo la ilusión de que los viejos peligros, como las pandemias, eran ya fácilmente evitables con el aparataje tecnológico que rodeaba nuestras vidas. Se trata, por tanto, de recuperar e impulsar un nuevo paradigma que sin temor al avance de la tecnología sepa evaluar reflexivamente sus ventajas y riesgos y que comprenda que indispensablemente el ser humano debe estar en el centro de la reflexión, con su fragilidad y vulnerabilidad siempre presentes. Además, la pandemia nos muestra que la solución para un desarrollo científico y tecnológico reflexivo, en el que la dignidad el ser humano esté en el centro del debate, debe promoverse en un marco global y no local. Por ello, hemos tomado prestado el término panhumanismo, no solo para hacer referencia a la oportunidad que se nos ofrece con ocasión de la pandemia, sino también para destacar ese marco global de reflexiones y soluciones.

Premonitoriamente, una propuesta de desarrollo tecnológico ético, bajo el sugerente término de RenAIssance, fue promovida por la Iglesia Católica pocos días antes de que la Organización Mundial de la Salud declarara la pandemia, y habiéndose iniciado ya con viral fuerza la epidemia en el norte de Italia. Así, el 28 de febrero de 2020, se firmó en la Ciudad el Vaticano, en el marco de unas Jornadas organizadas por la Pontificia Academia para la Vida bajo el título The “good” algorithm? Artificial Intelligence, Law and Ethics, el manifiesto Rome Call for AI Ethics[24], promovido por la Iglesia Católica y suscrito, entre otras instituciones, por Microsoft, IBM, la FAO y el Gobierno italiano. En el manifiesto se recuerda que ahora más que nunca, debemos garantizar una perspectiva en la que la IA se desarrolle con un enfoque, no en la propia tecnología, sino por el bien de la humanidad y del medio ambiente, de nuestro hogar común y compartido y de sus seres humanos, que están inextricablemente conectados. Es decir, una visión en la que los seres humanos y la naturaleza están en el corazón de cómo se desarrolla la innovación digital, respaldada en lugar de ser reemplazada gradualmente por tecnologías que se comportan como actores racionales pero que de ninguna manera son humanos. Es hora de comenzar a prepararse para un futuro más tecnológico en el que las máquinas tendrán un papel más importante en la vida de los seres humanos, pero también un futuro en el que esté claro que el progreso tecnológico afirma la brillantez de la raza humana y sigue dependiendo de su integridad ética.

Y, por ello, añade el documento, los sistemas de IA deben ser concebidos, diseñados e implementados para servir y proteger a los seres humanos y el medio ambiente en el que viven. Esta perspectiva fundamental debe traducirse en un compromiso para crear condiciones de vida (tanto sociales como personales) que permitan que tanto los grupos como los miembros individuales se esfuercen por expresarse plenamente cuando sea posible.

Y concluye señalando que para que el avance tecnológico se alinee con el verdadero progreso para la raza humana y el respeto por el planeta, debe cumplir con tres requisitos. Debe incluir a todos los seres humanos, sin discriminar a nadie; debe tener el bien de la humanidad y el bien de cada ser humano en su corazón; finalmente, debe ser consciente de la compleja realidad de nuestro ecosistema y caracterizarse por la forma en que cuida y protege el planeta (nuestro “hogar común y compartido”) con un enfoque altamente sostenible, que también incluye el uso de la AI para garantizar sistemas alimentarios sostenibles en el futuro. Además, cada persona debe estar alerta cuando interactúa con una máquina. Porque las transformaciones actualmente en curso no son solo cuantitativas, sino, sobre todo, son cualitativos, porque afectan la forma en que se llevan a cabo estas tareas y la forma en que percibimos la realidad y la naturaleza humana misma, tanto que pueden influir en nuestros hábitos mentales e interpersonales. La nueva tecnología debe ser desarrollada de acuerdo con criterios que garanticen que realmente sirva a toda la “familia humana”, respetando la dignidad inherente de cada uno de sus miembros y todos los entornos naturales, y teniendo en cuenta las necesidades de aquellos que son más vulnerables. El objetivo no es solo garantizar que nadie quede excluido, sino también expandir aquellas áreas de libertad que podrían verse amenazadas por el condicionamiento algorítmico.

 

Notas

[1] Pontificia Academia para la Vida, Pandemia y Fraternidad Universal, Ciudad del Vaticano, 2020, p. 1. Puede accederse a dicha Nota a través de la web de la Pontificia Academia, en www.academyforlife.va.

[2] Lumbreras Sancho, S., Respuestas al transhumanismo. Cuerpo, autenticidad y sentido, Digital Reasons, Madrid, 2019, p. 24.

[3] Vid. https://www.technologyreview.es/s/12021/por-que-la-ia-nos-ayudara-combatir-la-proxima-pandemia-pero-no-esta.

[4] González Alarcón, N. y Pombo, C., “¿Cómo puede la inteligencia artificial ayudar en una pandemia?”, Banco Interamericano de Desarrollo, Documento de Discusión, abril 2020, p. 4.

[5] Pontificia Academia para la Vida, op. cit., p. 1.

[6] Ibidem, p. 2.

[7] Innerarity, D., Pandemocracia, Galaxia Gutemberg, Barcelona, 2020, p. 115.

[8] Puede accederse a dicho Estudio en la página web de la Fundación BBVA, en https://www.fbbva.es.

[9] Innerarity, D., op. cit., p. 42.

[10] Cortina, A., Humanismo avanzado para una sociedad biotecnológica, Ediciones Teconte, Madrid, 2017, pp. 137 a 140.

[11] Beck, U., La sociedad del riesgo, Paidós, Barcelona, 2006, pp. 260 a 300. Vid., también, Ramiro Avilés, “Moralismo legal y bioética. El caso de la clonación humana”, Anuario de Filosofía del Derecho, año 20072007, pp. 103 y 104.

[12] Vid. Informe de los Comités de Bioética de España y del Conselho Nacional de Ética para as Ciências da Vida de Portugal de 24 de octubre de 2011, sobre biología sintética.

[13] El propio sistema de control de exportaciones en el ámbito de la UE atiende a dicho concepto, de manera que pueden aplicarse medidas de control adicionales y específicas para aquellos para la tecnología de doble uso, civil y militar. Véase, Reglamento (CE) nº 428/2009 del Consejo de 5 de mayo de 2009, por el que se establece un régimen comunitario de control de las exportaciones, la transferencia, el corretaje y el tránsito de productos de doble uso.

[14] Selgelid, M.J., “La gobernanza del doble uso de las investigaciones, un dilema ético”, Boletín de la Organización Mundial de la Salud, vol. 87, septiembre 2009, p. 720.

[15] Selgelid, M.J. y Miller, S., “Ethical and Philosophical Consideration of the Dual-use Dilemma in the Biological Sciences”, Science and Engineering Ethics, vol. 13, año 2007, p. 524.

[16] Selgelid, M.J., “La gobernanza del doble uso de las investigaciones, un dilema ético”, cit., p. 722.

[17] Selgelid, M.J. y Miller, S., “Ethical and Philosophical Consideration of the Dual-use Dilemma in the Biological Sciences”, cit., p. 543.

[18] Comunicación de la Comisión al Consejo y al Parlamento Europeo sobre Revisión de la política de control de las exportaciones: garantizar la seguridad y la competitividad en un mundo cambiante, COM(2014) 244 final.

[19] Selgelid, M.J., “La gobernanza del doble uso de las investigaciones, un dilema ético”, cit., p. 720.

[20] Imperiale M.J. y Casadevall, A., “A new synthesis for dual use research of concern”, PLoS Med, vol. 12, núm. 4, año 2015.

[21] Puede accederse a mayor información sobre dicho movimiento en http://slow-science.org.

[22] Ienca, M. y Vayena, E., “Dual use in the 21st century: emerging risks and global governance”, Swiss Medical Weekly, núm. 148, año 2018.

[23] BAYLIS, F., Altered inheritance, Harvard University Press, Cambridge, 2019, p. 124.

[24] Puede accederse al evento y al manifiesto a través de la página web de la Pontificia Academia para la Vida en http://www.academyforlife.va/content/pav/en/events/intelligenza-artificiale.html.

 

Artículo elaborado por Federico de Montalvo Jääskeläinen, Profesor propio agregado, Universidad Pontificia Comillas (ICADE), Presidente del Comité de Bioética de España.

Los comentarios están cerrados.