¿Puede la máquina sustituir al hombre? Una reflexión jurídica sobre el ojo clínico y la responsabilidad en tiempos de Big Data

[Por Federico de Montalvo] El Big Data ofrece en general y, especialmente, en el ámbito de la investigación en salud, muchas alternativas y oportunidades. La interrelación y explotación de los datos de salud tradicionales y con los no tradicionales va a permitir avanzar en la lucha contra las enfermedades y a favor de la prevención y predicción en unos términos que seguramente no van a encontrar parangón en la Historia de la Medicina y de la humanidad. Los resultados derivados de la explotación de datos o muestras que hasta hace pocos años se tardaban décadas en obtener ahora pueden conseguirse en meses, incluso, días. Basta sólo con pensar, por ejemplo, en la ingente cantidad de datos que se encuentran acumulados en un sistema sanitario fundamentalmente público como el nuestro que ha desarrollado en la última década una ardua tarea de digitalización de la historia clínica y lo que puede ofrecer la explotación masiva de los mismos a través de unos adecuados algoritmos. El dato clínico deja de ser un mero recordatorio del proceso asistencial y se convierte en principal fuente de conocimiento y avance en la Medicina y Biología.

Este nuevo panorama se nos ofrece, además, en momentos en los que surgen nuevas incertidumbres sobre cómo se desenvuelven muchas enfermedades que, aunque sean muy antiguas, como el cáncer, ofrecen nuevos paradigmas acerca del desarrollo celular y de proteínas, y, al mismo tiempo, nuevas enfermedades, muchas de ellas huérfanas aún de tratamiento. La oportunidad es, pues, indiscutible desde la perspectiva de la protección de la vida.

 

1. El mito: ¿Ve una máquina más que dos ojos?

Todo lo anterior no está, sin embargo, exento de mitos y riesgos. Mitos en la medida que el pretendido por algunos paradigma tecnológico no es que esté aún lejos de llegar, sino que puede que nunca realmente pueda llegar. Esta evolución de la ciencia derivada de la explotación de los datos masivos nos ofrece una doble conclusión que, en cierto modo, resulta paradójica: por un lado, es innegable que la lucha contra muchas de las enfermedades pasa por la explotación masiva de datos. Sin embargo, por otro lado, cada vez nos convencemos más de que la tecnología nos ayuda pero, en modo alguno, nos sustituye. La máquina puede completar el conocimiento humano pero nunca suplirlo. No podemos hablar de una nueva época de máquinas, sino de seres humanos ayudados por máquinas en sus quehaceres. Como metafóricamente se ha señalado en relación con el Big Data, las estadísticas, las correlaciones masivas de datos, son como la farola para un borracho, más que luz ofrece apoyo (Gil, E., 2016, p. 41).

Un ejemplo paradigmático que nos ofrece el Derecho en relación con este dilema entre máquina y conocimiento humano lo encontramos en el recientemente llegado Reglamento Europeo de Protección de Datos que, como nuestros correos electrónicos han podido comprobar de manera compulsiva estos últimos meses, acaba de entrar en vigor el pasado mes de mayo. El Reglamento incorpora interesantes novedades en comparación con la anterior Directiva. Entre éstas podemos destacar un nuevo derecho fundamental que, junto al derecho al olvido, se ve incorporado a nuestro acervo de derechos que deben entenderse contenidos en el artículo 18.4 de la Constitución que regula el denominado habeas data.

Se trata del derecho de oposición a las decisiones adoptadas de manera meramente automatizada (art. 22 del Reglamento UE). La Agencia Española de Protección de Datos explica que este nuevo derecho nace con la finalidad degarantizar que no seamos objeto de una decisión basada únicamente en el tratamiento de nuestros datos, incluida la elaboración de perfiles, que produzca efectos jurídicos sobre nosotros o nos afecte significativamente de forma similar. Es decir, podemos oponernos a las consecuencias que respecto de nuestros derechos o intereses pretendan derivarse del mero resultado de la explotación automatizada de datos sin que haya intervenido la razón humana a posteriori para verificar el resultado o solución propuesta por la máquina. La presencia del ojo clínico es para la Ley, pues, no sólo conveniente o recomendable sino jurídicamente exigible, lo que da buena cuenta de lo incrédulo que se muestra el Reglamento respecto del paradigma tecnológico.

Este nuevo derecho es, como decíamos antes, un buen ejemplo de cómo la intuición, el llamado ojo clínico, seguirá ostentando un papel protagonista en este nuevo mundo. La maquina ayuda pero nunca sustituye, mejora pero no completa el análisis y las conclusiones. Si bien el Big Data a través de la explotación masiva de datos permite localizar patrones que permitan realizar predicciones futuras, es, sin embargo, muy importante determinar cuál es la verdadera relación entre las variables para poder crear un modelo predictivo (Gil, E., 2016, pp. 32 y 33). En su defecto, estaremos dando por patrón válido lo que es una mera casualidad, es decir, lo que se denomina causalidad espuria. La correlación puede ser tanto causal como casual y sólo la primera permite establecer un patrón predictivo. Y la determinación de ello, en los términos empleados por el propio Reglamento, parece que solamente puede establecerla con cierta confianza el cerebro humano, el llamado ojo clínico. Además, el problema se agravará a medida que avancemos en el análisis masivo de datos. Cuando más “big” sean los “data” más expuestos estaremos a las falsas causalidades y más necesario será, por ende, el ojo clínico, véase, el factor humano. Como señalara el Parlamento Europeo en 2017, la información revelada por los análisis de los macrodatos no ofrece una visión general objetiva e imparcial de ninguna materia y que es tan fiable como lo permitan los datos subyacentes; resalta que los análisis predictivos basados en macrodatos únicamente pueden ofrecer una probabilidad estadística y que, por ello, no pueden predecir siempre con precisión la conducta individual; resalta, por ello, que son fundamentales normas científicas y éticas estrictas para gestionar la recopilación de datos y valorar los resultados de esos análisis.

Las causalidades espurias no son meras fantasías. La divertida página web de spurious correlations en www.tylervigen.com, nos muestra con gran humor cómo existe una correlación casi exacta entre el incremento de las personas que mueren ahogadas al caerse a una piscina con el número de películas en las que aparece el actor Nicolas Cage, entre el aumento del consumo per cápita de margarina con el de la tasa de divorcios en el bello Estado de Maine o entre el consumo de queso mozzarella y el número de doctores en ingeniería premiados. Las palabras casualidad y causalidad son gramaticalmente casi exactas pero en ningún modo sinónimas y eso lo sabemos bien, entre otros, los que nos dedicamos al mundo del Derecho, sobre todo, cuando tratamos de imputar responsabilidades legales.

Por ello, hay que evitar tanto despreciar o minusvalorar este nuevo panorama como considerarlo como un paradigma único y excluyente de la sabiduría humana, muchas veces más intuitiva que puramente racional, que conserva el ser humano. La que hace unos años Leon Kass tildara gráficamente de “sabiduría de la repugnancia” que más recientemente ha recuperado en cierto modo el último premio Princesa de Asturias de Ciencias sociales, Michael Sandel en su libro “Contra la perfección: la ética en la era de ingeniería genética”, no se desvanece ni ha perdido actualidad, por muy conservadora que pueda sonar. No se trata de parar el avance de la ciencia y de la tecnología, sino tan sólo de situar en su justo lugar las ventajas que puede ofrecer.

 

2. Los riesgos y también las oportunidades: la paradoja del Big Data

Por otro lado, este nuevo panorama del uso masivo de datos en el ámbito de la salud y la lucha contra las enfermedades ofrece, salvado el valor del ojo clínico, muchas e importantes oportunidades, como ya apuntábamos al comienzo, aunque no exentas de riesgos, sobre todo, para la intimidad de las personas y la confidencialidad de los datos. Sin dejar de ser ello cierto, también lo es el que no podemos seguir operando en este ámbito con postulados o paradigmas propios de contextos distintos al actual en los que los riesgos superaban con creces a las ventajas. En el momento actual, la explotación masiva de datos genera ciertos riesgos en relación con los derechos de los individuos, pero, por otro lado, ofrece verdaderas posibilidades de curación o prevención también para la comunidad. Especialmente en el ámbito de la salud, el Big Data muestra como todos estamos relacionados. Compartimos genes, exposiciones medioambientales, hábitos y comportamientos. De este modo, los datos obtenidos de un grupo de individuos pueden predecir la enfermedad y los patrones de evolución de otros grupos de individuos (Vayena, E, 2018, p. 158).

El mantener una posición que ignore el beneficio colectivo y prime no tanto la autonomía sino, incluso, el egoísmo y narcisismo tampoco parece aceptable, desde una perspectiva ético-legal. A este respecto Barbara J Evans señala que aquellos que invocan su derecho a no compartir sus datos en cualquier circunstancia, incluso cuando la salud de terceros puede depender de ellos, pueden estar difuminando la línea entre la autonomía individual y el narcisismo (Evans, B J, 2018, p. 21).

El seguir asentando el modelo legal en el postulado de que la enfermedad y sus datos sólo les pertenecen a quienes sufren aquélla y no a los demás es ignorar la realidad. El propio Comité Internacional de Bioética (IBC) de la UNESCO en su reciente Informe sobre el Big Data en salud de 2017, parcialmente redactado, por cierto, durante su sesión de trabajo desarrollada en la sede de la Universidad Pontificia Comillas, señala que el Big Data puede considerarse ya un bien común de la humanidad. Los avances y las nuevas oportunidades proporcionadas por la ciencia y la tecnología podrían ayudar a reducir y no profundizar las desigualdades que impiden a muchos seres humanos disfrutar del más alto nivel posible de salud, tanto a nivel nacional como internacional (ap. 74). El dato de salud, en la etapa del Big Data, puede decirse que es ya un verdadero patrimonio de la humanidad, aunque ello se expresa en términos meramente metafóricos.

Por otro lado, como también nos recuerda Barbara J Evans, nuestro modelo legal se ha asentado en la fuerza del consentimiento informado como garantía de la intimidad del individuo. Sin embargo, este modelo responde a una realidad distinta de la que ahora se nos ofrece porque la investigación actual, a diferencia de aquella que diera lugar a los grandes documentos bioéticos vinculados a la investigación como fueron el Código Nuremberg o la Declaración de Helsinki, no pretende actuar sobre la integridad de las personas, sino sobre sus datos. No se toca a la persona sino a sus datos. No estamos enfrentando integridad física del individuo e interés colectivo, lo que difícilmente superaría el test de proporcionalidad, y sobre todo, el límite de la dignidad como núcleo esencial del derecho, sino la intimidad. Se trata de un nuevo informational research que, ni ética ni legalmente, puede ser equiparado a los ensayos clínicos que pueden poner en riesgo la integridad del sujeto. En los entornos del Big Data, las normas tradicionales de consentimiento informado individual ya no pueden cumplir el objetivo principal para el que fueron diseñadas (Evans, B J, 2018, pp. 26 y 27).

En similares términos se expresa el Comité Internacional de Bioética (IBC) de la UNESCO cuando en su Informe ya citado manifiesta que, en el área de la investigación con grandes datos, el uso secundario potencial de datos en el futuro no se puede predecir. También implica interrelaciones entre fuentes de datos múltiples y cambiantes, tanto médicas como no médicas, lo que llama a un nuevo modelo más apropiado (ap. 51).

Y este precisamente es uno de los problemas a los que nos enfrentamos. El consentimiento informado, nacido esencialmente como garantía frente a las atrocidades cometidas a finales de la primera mitad del siglo XX, ha acabado por postular el principio de autonomía como el prevalente, obviando cuál es el contexto en el que se pretende que opere el mismo. Losproblemas que la doctrina del consentimiento informado hapresentado en su evolución vienenmotivados sustancialmente porque surge al amparo de la investigación médica con seres humanos,pretendiéndose implantar con la misma extensión y efectos en los demás ámbitos como serían el de la medicina asistencial ordinaria o el de la investigación con datos. Si bien un cumplimiento extraordinariamente riguroso del consentimiento informado cobra pleno sentido en una relación entre investigador ysujeto en la que aquél va a actuar sobre la vida e integridad física de éste y en la que individuo tiene que adoptar una decisión de tanto compromiso ético-legal como es la de participar o no en  un proyecto de experimentación, cuyo beneficio individual, más allá del comunitario es incierto, en la relaciónclínica asistencial ordinaria o en la mera investigación con datos, tales exigencias no parecen tannecesarias.

Además, cabría preguntarse si este modelo normativo, basado esencialmente en el interés del individuo, responde también a los deseos de los ciudadanos. A este respecto, ya hay trabajos que muestran que los ciudadanos no mantienen una posición contraria a compartir los datos; antes al contrario, como señala Haug, los pacientes desean que sus datos se compartan rápidamente, especialmente para garantizar que otros pacientes conozcan los posibles efectos secundarios de los tratamiento. Y si bien es cierto que también desean mantener cierto control sobre cómo se comparten aquéllos, ello se produce especialmente cuando los fines que se persiguen por los estudios son esencialmente comerciales y no tanto cuando son los propios sistemas públicos de salud los que pretenden recurrir a ellos para mejorar los tratamientos médicos o la atención a otros pacientes (Haug, C.J., 2017, p. 1). Porque, de hecho, recibir atención médica siempre implica una pérdida de privacidad. Los pacientes deben exponer su información personal para obtener ayuda, y esa ayuda generalmente se basa en el conocimiento adquirido a partir de las experiencias de pacientes anteriores que han revelado información personal (Haug, C.J., 2017, p. 2). El problema no está tanto en el uso, sino en la exigencia de un uso responsable.

El modelo, como puede verse, parece más asentado en el parecer de los legisladores y la doctrina de algunos académicos que en la verdadera voluntad de los ciudadanos.

Todo lo que venimos exponiendo, obviamente, no puede suponer primar el interés colectivo en total detrimento y exposición del interés individual, sino en buscar una fórmula equilibrada que permita conjugar ambos. Y precisamente esta fórmula puede lograrse otorgando un valor cualificado en el nuevo modelo de protección de datos que instaura el antes citado Reglamento de la UE, con la novedosa figura de la seudonimización.

Así es, en este contexto en que se plantea un dilema entre riesgos y oportunidades, entre interés individual e interés colectivo, surge como debate estelar el del uso secundario de los datos de salud, y no sólo de los que proceden del ámbito de la investigación biomédica y con fármacos, sino también de los obtenidos con ocasión de la asistencia sanitaria, cuyo volumen es muy superior al de aquéllos. El debate se centra en determinar si el nuevo modelo que pretendemos desarrollar, sobre todo, a partir de la implementación del Reglamento UE, debe seguir fundamentado, como garantías principales, en la doble alternativa de previo consentimiento informado para el nuevo fin o, en su defecto, estricta anonimización de los datos, lo que podríamos denominar el modelo Helsinki, o en un nuevo modelo que, sin quitar un ápice de valor a la dignidad humana y a los derechos del individuo, permita conjugar el interés individual con el colectivo, de manera que el dato de salud deje de ser considerado ya como un dato estrictamente personal y cobre sentido como verdadero patrimonio de la humanidad, como dato que tiene un impacto en el futuro de la salud de la colectividad.

Lo relevante en este nuevo modelo no será tanto que el individuo haya otorgado su consentimiento previo para el nuevo fin al que pretenden destinarse los datos o que el dato esté estrictamente anonimizado, como que el origen de los datos sea legítimo, que su uso secundario revista un interés muy relevante para la salud de la colectividad y que se implementen garantías suficientes que impidan que terceros no legitimados puedan acceder a través del dato a la identidad del individuo, sin exigir necesariamente dicha estricta anonimización. Y ello parece que, jurídicamente, puede lograrse a través de lo que se viene ahora en denominar seudonimización, entendida ésta, en palabras del Reglamento UE, como aquel tratamiento de datos personales de manera tal que ya no puedan atribuirse a un interesado sin utilizar información adicional, siempre que dicha información adicional figure por separado y esté sujeta a medidas técnicas y organizativas destinadas a garantizar que los datos personales no se atribuyan a una persona física identificada o identificable.

Puede considerarse que esta definición de seudonimización resulta algo paradójica, en la medida que es restrictiva pero amplia al mismo tiempo. Es restrictiva en el sentido de que excluye procesos que no pueden garantizar que los datos personales no se atribuyan a una persona física identificable. Sin embargo, es también amplia como decimos ya que la mera separación de la información adicional del dato parece sujetar el tratamiento de éstos a un régimen jurídico muy próximo o casi similar al del dato anonimizado, lo que se traduce en la no exigencia del consentimiento informado.

Así, el nuevo modelo optaría por permitir el uso secundario sin nuevo consentimiento informado y sin la exigencia de destruir el vínculo entre el dato y la persona.  No se exige una supresión absoluta del riesgo de vincular el dato con un individuo concreto, sino una extraordinaria minimización de aquél. Es, en cierto modo, el modelo que sugiriera una década atrás Ohm cuando afirmaba que la anonimización debía abandonarse como objetivo regulatorio, así como la tradicional distinción entre datos personales y no personales (anónimos) (Ohm, P., 2010, p. 1755).

Las virtudes que ofrece la seudonimización frente a la tradicional estricta anonimización son evidentes desde la perspectiva del interés de la salud de la colectividad, ya que, al mantenerse el vínculo entre el dato y la persona, aún cuando sea extraordinariamente difícil que un tercero pueda descodificarlo, se permite no sólo ampliar los datos que se utilizan en la investigación a otros que inicialmente podían no considerarse trascendentes (ampliación de datos) sino, lo que es muy importante en el estado actual de la ciencia del Big Data, contrastar los resultados de la explotación de datos con, por ejemplo, la verdadera evolución de los pacientes (verificación de resultados). La seudonimización es, a la postre, la única garantía frente a las causalidades espurias que ya hemos mencionado antes que es uno de los principales riesgos del Big Data.

Ello es compartido por Ohmann C, Banzi R,Canham S, et al., cuando señalan que es recomendable compartir datos seudonimizados y no estrictamente anonimizados, debiendo ser ésta la regla general. Incluso, puede afirmarse que existe una obligación legal para los patrocinadores de la investigación de mantener el conjunto de datos seudonimizados. Las principales opciones para compartir datos son seudonimizar o anonimizar efectivamente el conjunto de datos antes de que se comparta, reemplazando los identificadores usados ​​en la prueba con otro conjunto independiente y no reteniendo ninguna información de enlace entre los dos. La ventaja de compartir datos seudonimizados es que, si el investigador usuario de dichos datos descubre buenas razones para aclarar, expandir o unir algunos de los datos, o incluso para realizar nuevas investigaciones con parte de la población de origen, pueden contactar con los titulares de los datos. Esto no significa que la información identificable se transfiera a un usuario secundario, a menos que haya un consentimiento explícito del participante para que esto ocurra. Solo significa que se puede regresar a las personas involucradas para solicitar un consentimiento adicional.

El propio Reglamento UE hay que entender que se postula a favor de este nuevo modelo si atendemos a los términos en los que se expresa en sus artículos 6 y 9. También lo ha hecho suyo, desde una perspectiva estrictamente ética, el Comité Internacional de Bioética (IBC) de la UNESCO en el Informe al que antes hemos hecho referencia. En su Informe de 2017 sobre Big Data y Salud (ap. 59) señala que, si bien el uso secundario de los datos de salud exige un nuevo consentimiento específico, tal regla encuentra una excepción cuando se implementen procedimientos técnicos adecuados que eviten que los investigadores o terceros accedan a los datos personales, como sería la seudonimización.

Y así además parecen haberlo entendido dos Estados tan relevantes en el ámbito de los derechos humanos, con sus diferentes sensibilidades históricas, como el Reino Unido y Alemania. La Cámara de los Comunes en su Informe de 2016 sobre The Big Data Dilemmaseñala (ap. 101) que  la nueva regulación UE parece abrir el uso secundario de datos a través de la seudonimización, si concurre un interés público en ello. Tal parece se ha plasmado, además, en la reciente Ley de Economía Digital de 2017 que en su artículo 64 acerca de la “Disclosure of information for research purposes”, dispone, literalmente, que

“(1) Information held by a public authority in connection with the authority’s functions may be disclosed to another person for the purposes of research which is being or is to be carried out.

(2) If the information is personal information it may not be disclosed under subsection (1) unless the following conditions are met.

(3) The first condition is that, if the information identifies a particular person, it is processed before it is disclosed so that—

(a) the person’s identity is not specified in the information, and

(b) it is not reasonably likely that the person’s identity will be deduced from the information (whether by itself or taken together with other information)”.

Y, por su lado, la nueva Ley alemana de protección de datos de 2017 recoge un artículo 22 en el que dispone que, si el tratamiento es necesario por razones de interés público en el ámbito de la salud pública, para garantizar altos niveles de calidad y seguridad de la asistencia sanitaria, las medidas para implementar para proteger la privacidad de los datos pueden incluir la seudonimización de los datos personales.

 

Epílogo

En definitiva, en este nuevo panorama de mitos y riesgos, pero, sobre todo, de grandes oportunidades para la lucha en contra de las enfermedades y la mejora de la salud de las personas, es importante promover nuevos paradigmas que, sin caer en lo tecnológico, no sólo como algo esencialmente bueno, sino como absolutamente excluyente de la intuición y sabiduría humana, tampoco olviden que el contexto es muy distinto al existente pocos años atrás y que las oportunidades que puede ofrecer el tratamiento masivo de datos han de trascender a una visión exclusivamente basada en el interés individual en detrimento del bien común. Un punto de equilibrio entre ambas posturas parece mostrarse, al igual que ocurre en muchos otros ámbitos, como la verdadera virtud.

Además, el debate debe plantearse en términos en los que el contexto no se pierda de vista. En los modelos de protección de la salud desarrollados en la Europa occidental tras la Segunda Guerra Mundial y, sobre todo, en los basados en la fórmula más socialdemócrata como es la Beveridge, resulta un contrasentido mantener una posición que únicamente atienda a la dimensión individual o subjetiva, cuando el modelo tiene rasgos esenciales de comunitarismo. Acudir a un Hospital y ver resuelto un grave problema de salud con cargo a los presupuestos públicos exige también de los ciudadanos un ejercicio de responsabilidad y ésta se manifiesta en el contexto actual del avance de la tecnología en el deber moral de compartir los datos para que, aquellos otros que no han logrado tan fácilmente la curación, puedan obtenerla.

Obviamente, no promovemos un modelo de responsabilidad punitiva, sino unconcepto de responsabilidad como deber de ayuda a los demás, en términos acuñados por Yoshua Mounk.

Bibliografía

BOLLIER, D., The promise and peril of Big Data, The Aspen Institute, Maryland, 2010.

COTINO HUESO, L., Big data e inteligencia artificial. Una aproximación a su tratamiento jurídico desde los derechos fundamentales, Dilemata, núm. 24, año 9, 2017, pp. 131-150.

GIL, E., Big Data, privacidad y protección de datos, Boletín Oficial del Estado, Madrid, 2016.

GLENN COHEN, I, FERNÁNDEZ LYNCH, H, VAYENA, E. y GASSER, U. (Edit.), Big Data, Health Law and Bioethics, Cambridge University Press, Cambridge, 2018.

HAUG, C.J., Whose Data Are They Anyway? Can a Patient Perspective Advance the Data-Sharing Debate?, NEJM, 26 de abril 2016.

House of Commons, Science and Technology Committee, The Bid Data dilemma, Fourth Report of Session 2015-16, Londres, 2016.

International Bioethics Committee (IBC) UNESCO, Report on Big Data and Health, París, 2017.

MOUNK, Y., The age of responsibility. Luck, choice and the Welfare State, Harvard University Press, Cambridge, 2017.

OHM, P., Broken Promises of Privacy: Responding to the Surprising Failure of Anonymization, UCLA Law Review, núm. 57, año 2010, pp.  1701-1777.

Resolución del Parlamento Europeo, de 14 de marzo de 2017, sobre las implicaciones de los macrodatos en los derechos fundamentales: privacidad, protección de datos, no discriminación, seguridad y aplicación de la ley (2016/2225(INI)).

STALLA-BOURDILLON, S. y KNIGHT, A., Anonymous data v. personal data—a false debate: an EU perspective on anonymization, pseudonymization and personal data, Wisconsin International Law Journal, 2017. Available at SSRN: https://ssrn.com/abstract=2927945

 

Federico de Montalvo Jääskeläinen es vicerrector de la Universidad Pontificia Comillas.

Este artículos se publicó originalmente en la revista Razón y fe

Los comentarios están cerrados.