¿Es la mente humana un ordenador?

(María Dolores Prieto Santana) En nuestra sociedad científico-técnica hay opiniones muy autorizadas que consideran que la mente humana se puede comparar con un ordenador. Que las funciones que los humanos realizamos para elaborar pensamientos pueden ser sustituidas, incluso con creces, por los potentes ordenadores que ya están en funcionamiento. ¿Estamos en una nueva frontera? Desde los campos de la educación, se habla de “modelos de procesamiento de la información” que pueden sustituir a los profesores. Es más: en este año pasado, año de pandemia y de cierre de las aulas para los alumnos, algunos postulan que los ordenadores pueden sustituir a los profesores. ¿Es la mente humana un gran ordenador?
El pasado 23 de marzo de 2021 asistía virtualmente a una conferencia organizada por la Fundación Tatiana Pérez de Guzmán el Bueno. Su título: “mitos, realidades y retos”. El conferenciante, el profesor Javier Bernácer, hizo una afirmación que a algunos les pareció demasiado tajante: “El cerebro no es un ordenador”. Desde nuestro punto de vista, esta expresión exigiría una matización: “El cerebro es más que un ordenador”.

En nuestra época de las nuevas tecnologías, la mente vuela y el mestizaje futuro entre humanos, humanoides, cyborg, ultrahumanos, trashumanos, robots parece ser que forma parte del debate sobre nuestro futuro y si deberemos compartir el espacio con nuevas mentes no humanas.

 

La autocompresión de lo humano

En nuestro mundo del siglo XXI emerge una verdadera revolución en la autocomprensión del ser humano. La filosofía transhumanista parece trastocarlo todo. Incluso la misma identidad de la naturaleza humana. Es extensa la literatura que genera rondando a veces la ciencia ficción.

Uno de los filósofos que más está colaborando a la clarificación conceptual y ética de este fenómeno es el profesor Carlos Beorlegui, doctor en filosofía y licenciado en teología por la Universidad de Deusto, Catedrático emérito de Filosofía en la UD y profesor invitado de la UCA José Simeón Cañas (San Salvador), desde 1993. En las páginas de FronterasCTR hemos publicado hace pocas semanas uno de sus trabajos. La labor académica e investigadora de Beorlegui se ha centrado en temas como la Antropología filosófica, la Historia de la Filosofía española y latinoamericana, la Filosofía de la mente, la Ética de las profesiones y El hecho religioso.

Pertenece al consejo de redacción de la revista Pensamientoy ha publicado numerosos artículos en revistas de filosofía españolas y latinoamericanas. Entre sus libros publicados destacan: Antropología filosófica. Nosotros: urdimbre solidaria y responsable (1999, 2004, 2009), La singularidad de la especie humana. De la hominización a la humanización (2011), Antropología filosófica. Dimensiones de la realidad humana (2016), Humanos. Entre lo pre-humano y lo post- o trans-humano (2019).

Su último libro merece nuestra consideración: Nuevas tecnologías, trans/posthumanismo y naturaleza humana. Editorial Comares, Granada, 2021, Colección Filosofía hoy, número 79,  415 páginas.

Para Beorlegui, el ser humano ha ido forjando su ser y su identidad a lo largo de su propia historia. El ser humano se ha hecho a sí mismo construyendo todo tipo de artefactos y herramientas con los que ha ido transformando su entorno vital y a sí mismo. El avance del conocimiento científico construido por comunidades de expertos, hace posible una interpretación cada vez más ajustada a la realidad de los procesos que rigen el funcionamiento del universo enigmático.

Es más: el conjunto de las llamadas nuevas tecnologías y la convergencia potenciadora entre ellas están suponiendo un avance de tal magnitud respecto a las potencialidades tecnológicas de épocas anteriores, que los humanos tenemos ya en nuestras manos la capacidad de poner en peligro el equilibrio ecológico del planeta Tierra y consiguientemente la propia supervivencia de nuestra especie.

Si ante los avances científicos y tecnológicos suelen aparecer siempre posturas extremas, que los rechazan radicalmente (tecnofobia) o los defienden sin fisuras (tecnofilia), la capacidad que las nuevas tecnologías tienen de transformar las leyes de la naturaleza y la esencia de lo humano, hacen que estas posturas extremas se presenten con renovada radicalidad.

Especial interés posee en la actualidad la ideología trans/post-humanista, que sueña con la utilización de estas nuevas tecnologías para traspasar la esencia de los humano con vistas a construir una nueva era post-humana habitada por nuevas especies que sobrepasen lo humano. De ahí la necesidad de acercarse al problema de forma prudente, crítica y responsable, puesto que se trata de algo que nos concierne a todos, siendo irresponsable dejar estas decisiones en manos tan solo de los científicos, las empresas que los financian, los intelectuales o los políticos, porque está en juego el futuro de la especie humana.

 

Beorlegui y las nuevas tecnologías: ¿cambia la naturaleza humana?

En concordancia con esta problemática antropológica, y explicitando los contenidos de los diversos capítulos que componen este libro, Beorlegui comienza por realizar una presentación global de las nuevas tecnologías, centrándonos en las cuatro que los estudiosos sitúan bajo esta denominación (las NBIC convergentes): las nanotecnologías, las biotecnologías, las infotecnologías, y las ciencias del conocimiento(las neurocienciasy la IA, junto con la robótica).

“Al mismo tiempo que presentamos los principales avances, aportaciones y posibilidades de estas nuevas tecnologías, analizaremos al mismo tiempo los retos, peligros y múltiples interrogantes que nos plantean, tanto en el ámbito social y político, como en el filosófico, ético y antropológico. Dedicaré el primer capítulo al análisis de la nanotecnología y la infotecnología, centrándome en el segundo en las biotecnologías, mientras que en el tercero me ocuparé de presentar la situación básica del mundo de las neurociencias, dedicando el cuarto al estudio y reflexión crítica sobre la IA y el mundo de la robótica”.

En el capítulo quinto, se centra en el análisis de las diferentes propuestas trans/post-humanistas, presentando las más interesantes posturas existentes dentro de esta corriente tan compleja, así como un análisis crítico sobre la consistencia de sus propuestas utópicas. Está claro que hay que distinguir entre las nuevas tecnologías propiamente dichas (en su nivel técnico y científico, así como en el de sus consecuencias para la sociedad humana) y las propuestas utópicas de los post/trans-humanismos que múltiples pensadores nos proponen como horizonte al que supuestamente nos enfrentamos los humanos en un plazo de tiempo relativamente breve.

Propuestas utópicas sobre el futuro de la naturaleza humana

En relación a estos planteamientos, tendremos como trasfondo los presupuestos míticos en los que se apoyan (sobre todo, sus semejanzas con las teorías gnósticas, y los trasfondos teológicos y religiosos que sus rezuman sus propuestas), algo que ya analizamos en el capítulo primero, para centrarnos directamente en el análisis de la seriedad y plausibilidad de estas propuestas utópicas, algo que tenemos que sopesar analizando tanto sus posibilidades técnicas como sus niveles éticos, filosóficos y antropológicos.

Todas estas reflexiones sobre las propuestas post/trans-humanistas nos abocan al reto de volver a reflexionar sobre el núcleo de lo que conforma la esencia o naturaleza humana. Es el objetivo central hacia el que apuntan y convergen las utopías post-humanistas, así como el criterio ante el que se ponen a prueba. Los humanos estamos dotados por esencia con la capacidad de discernir y separar lo que es de lo que debe ser, esto es, estamos dotados de capacidad ética para discernir sobre la bondad o maldad de lo que hacemos. Esto nos lleva a concluir que no todo lo que podemos hacer técnicamente está permitido moral o éticamente.

Ahora bien, los contenidos que marcan la moralidad y los criterios que usamos para discernir u juzgar entre lo bueno y lo malo, tienen que ver directamente con la idea que tenemos de nosotros mismos, con la esencia de lo humano.

 

Las ciencias del conocimiento: las neurociencias

Nos preguntamos al inicio de este artículo: ¿es el cerebro un ordenador? Nuestra mente, ¿funciona como un gran ordenador? Tal vez esta pregunta necesite mucho más espacio. Pero recogemos las ideas del profesor Carlos Beorlegui en el capítulo tercero (“Las ciencias del conocimiento. Las neurociencias”) de su libro citado más arriba: Nuevas tecnologías, trans/posthumanismo y naturaleza humana. Editorial Comares, Granada, 2021.

El cognitivismo científico

Dentro del esquema general de su libro, el cuarto ámbito de las nuevas tecnologías lo constituyen las ciencias del conocimiento, también llamado cognitivismo científico, que comprende el mundo tanto de las neurocienciascomo de la Inteligencia Artificial (IA) y la robótica. Como ambos campos son suficientemente amplios, y se hallan en la actualidad en pleno proceso de avance y crecimiento, dedicaremos sendos capítulos a describirlos y analizar sus aportaciones, riesgos y problemática que suscitan.

El estudio del cerebro está siendo uno de los ámbitos del saber más determinantes y más dinámicos de nuestro tiempo. Basta con presentar una breve historia de los estudios sobre el cerebro e interpretaciones consecuentes, para advertir el extraordinario despegue que ha experimentado este campo científico en la actualidad. Podemos decir que constituye, junto con la biología y las infotecnologías, el saber que más avances está teniendo y que más impacto está produciendo en nuestra sociedad. Hay quien considera que le siglo XXI se debería denominar el siglo del cerebro.

Durante el siglo XX los debates sobre la relación mente-cerebro han sido interminables. Desde nuestro punto de vista, las filosofías emergentistas tienen más poder explicativo, aunque respetamos otras posturas. El emergentismo defiende los aspectos más valiosos del funcionalismo y evita sus errores más claros. Así, para el emergentismo, la mente no se reduce a ser mera función de los estados cerebrales ni tampoco a los contenidos de un programa que tiene su base material en el cerebro, sino que se define como la estructura total del cerebro.

Por eso, una de las ideas básicas en las que se apoya el emergentismo es el concepto de sistema o de estructura, como realidad que es más que la suma de sus partes. Estructura que no es estática, sino dinámica, puesto que se halla en permanente actividad y crecimiento. Así, un sistemaes un conjunto de partes que posee, al menos, una cualidad o característica nueva respecto a las partes de que está compuesto.

Emergentismos frente a reduccionismos

El emergentismo se opone a los reduccionismos materialistas, aunque considera que el mejor modo de acercarse a un correcto análisis de la realidad es complementando las dos ópticas: la que persigue el reduccionismo (descomponer los sistemas en sus partes) y la emergentista (estudiar las sucesivas sistematizaciones con que las diferentes partes se han ido estructurando).

Además, los sistemas que van emergiendo son novedades imprevisibles e irreductibles. Son novedades, en la medida en que aportan estructuraciones y cualidades nuevas, que, por otro lado, son imprevisibles: no se pueden prever desde el nivel anterior en el que se apoyan; y, por eso, son irreductibles, esto es, no pueden reducirse totalmente al nivel o niveles anteriores. De ahí que los programas reduccionistas fracasan siempre, tanto a la hora de reducir lo mental a lo biológico o físico, como también en el empeño por reducir lo biológico a lo físico, como vimos, en el capítulo anterior, al analizar la pretensión de la biología sintética y su visión ingenieril de los seres vivos, a diferencia de la biología sistémica.

Mente, cerebro y programas informáticos

Es también importante advertir, adelantándonos a lo que veremos después sobre la IA, que aunque los programas informáticos (software) puedan parecerse y simular a la inteligencia humana, y en muchos aspectos incluso superarla, resulta imposible igualar en todo la inteligencia general de los humanos.

Y esto ya lo afirmamos desde ahora, puesto que los procesos de nuestra mente no son el resultado de un programa simbólico artificial, sino de una nueva estructuración cerebral, resultado del largo proceso evolutivo, proceso en el que han intervenido las transformaciones genéticas, en diálogo con el entorno natural y social (proceso evo-devo: evolución y desarrollo evolutivo).

Así, en los programas informáticos simbólicos se hace hincapié y se halla presente la dimensión sintáctica del lenguaje, e incluso una cierta dimensión semántica, pero adolece de la pragmática. El sentido semántico y lógico que los humanos atribuimos a lo que hacemos y decimos es el resultado de múltiples y sucesivos acuerdos culturales con los que se va construyendo la realidad humana y los diversos contenidos culturales.

Los robots inteligentes pueden aprender algunas convenciones, pero sólo tomando parte de las convenciones pragmáticas de los humanos es como se puede entender e imitar su forma de pensar y de razonar. Ahora bien, para que eso sea posible, se tienen que poseer y apoyarse en las bases biológicas y cerebrales que nos capacitan y nos dotan de las potencialidades lingüísticas, del pensamiento simbólico, de la libertad de decidir y de la capacidad y responsabilidad ética con las que estamos dotados los humanos. Y estas cualidades se hallan en permanente maduración y crecimiento, puesto que la especial estructuración de nuestro cerebro es un sistema dinámico, pues nos hallamos en permanente esfuerzo de realización, tanto en lo individual como en lo social e histórico.

Nuestro cerebro enigmático

El cerebro es uno de los órganos más importantes que poseemos, órgano clave y determinante para conformar nuestra humanidad. Pero es también fundamental insistir en que el cerebro no puede ser estudiado al margen de los demás componentes de nuestro cuerpo, puesto que formamos un sistema único e inseparable. Esto es lo que ha llevado a los humanos a estudiarlo tan a fondo, especialmente a partir de las últimas décadas, poniendo en marcha grandes proyectos de investigación, siguiendo las huellas del Proyecto Genoma Humano. Son precisamente lo genético y lo cerebral los ámbitos que marcan lo que se han denominado las dos fronteras de la hominización.

Como todos los saberes, también las neurociencias nos aportan grandes avances en el conocimiento de nosotros mismos, así como en el empeño de descubrir las raíces de nuestras enfermedades cerebrales, para conseguir un estilo de vida más adecuado a nuestra condición y dignidad. De ahí que resulta imprescindible la confluencia de los saberes científicos con los filosóficos y éticos para orientar las investigaciones y aportaciones de las neurociencias de cara a disfrutar de sus aportaciones, presentes y futuras, así como para adelantarnos a sus posibles malos usos, encaminados a la manipulación de los humanos por parte de quienes tengan en sus manos las claves de la utilización de estos avances.

De ahí que, como hemos indicado en relación a las demás nuevas tecnologías, es fundamental que establezcamos con antelación y acierto las orientaciones éticas y sociales adecuadas para que todos los humanos podamos beneficiarnos de estas tecnologías, utilizar de forma correcta y por igual de todos sus avances, evitando de esta forma las previsibles derivas hacia una sociedad con desigual acceso al disfrute de estos avances neurocientíficos.

 

La Inteligencia Artificial (IA): ¿simula nuestra mente?

En los medios de comunicación, con frecuencia, se exaltan las potencialidades de la llamada Inteligencia Artificial (IA).¿Puede un ordenador suplir el pensamiento humano? ¿Se fabricarán robots inteligentes? ¿Podemos caer en manos de super-cerebros más inteligentes que nosotros mismos? ¿Es una utopía o una distopía, una bendición o una maldición?      

La Inteligencia Artificial (IA) es el segundo ámbito del cognitivismo científico, que, junto con las neurociencias, está conformando el cuarto apartado de las nuevas tecnologías. La IA pretende, sobre todo la llamada IA fuerte, llegar a construir máquinas inteligentes iguales a los humanos. Es verdad, que todavía las infotecnologías están muy lejos de lograr este objetivo, pero nada se opone a que en el futuro se pueda conseguir.

La Inteligencia artificial en su contexto filosófico y científico

Si se acude a la historia de la psicología, se puede afirmar que el paradigma conductista prevaleció en el ámbito anglosajón durante casi medio siglo, dejando de lado las propuestas de las teorías competidoras, como el psicoanálisis, la Gestalt y la etología de K. Lorenz.

Pero, a partir de la mitad del siglo XX los planteamientos conductistas comenzaron a desmoronarse, produciéndose el regreso de lo mental y el nacimiento de las teorías cognitivistas. Las ciencias cognitivistas son un conjunto de saberes (H. Gardner habla del hexágono cognitivista, incluyendo en él a la psicología, la lingüística, la filosofía, la antropología, la neurociencia y la IA) que convergen o coinciden en dos supuestos teóricos: el primero, defender la analogía entre la relación mente-cuerpo y la del programa de un ordenador (software) y su base material (hardware), de tal forma que, para ellos, la mente se reduce a ser un programa de ordenador; y el segundo, “la tesis internalista, que establece la existencia de representaciones mentales y que reclama un nivel de análisis propio para estudiarlas al margen de los factores biológicos y de algunos de los factores ambientales que los afectan”.

El paradigma cognitivista fue surgiendo a partir de varios encuentros o simposios y conferencias científicas. La conferencia de Dartmuth (1956) suele ser  considerada como la reunión fundacional de la IA.En medio de las diversas ideas que se manejaron en esta reunión, merecen resaltarse dos de ellas. La primera hace referencia a la teoría de la información(presentada por Cl. Schanon y W. Weaver), fundamental para lo que se suele denominar la inteligencia simbólica;  y la segunda, el modelo de la neurona (propuesta por W. McCulloch y W. Pitts), que se halla a la base de lo que veremos se denomina inteligencia subsimbólica.

Algunas aclaraciones sobre la idea de “inteligencia”

El movimiento cognitivista pretendió alcanzar una idea unitaria del concepto de inteligencia, dando por hecho que se trataba de un procedimiento conductual similar, en el fondo, tanto en el caso de la inteligencia humana como en la inteligencia animal y la artificial. Pero esas pretensiones unificadoras del concepto de inteligencia, como indica H. Gardner, no han llegado nunca a cumplirse, aunque haya muchos investigadores que consideran que las diferencias entre los tres tipos de inteligencias son tan sólo de tipo accidental o cuantitativa, pero no cualitativa. De ahí que sería más adecuado hablar de inteligencias que de inteligencia.

Gardner entiende que la inteligencia es una realidad compleja y llena de múltiples factores, tanto de tipo biológico como cultural. Por eso, aunque está claro que la inteligencia es “la capacidad de resolver problemas”, o de “elaborar productos”, se trata de problemas y productos que poseen valor “para un determinado contexto comunitario o cultural”.

Sin embardo, desde nuestro punto de vista, las inteligencias artificiales no son capaces de adquirir competencias naturales (sean físicas o sociales), sino las artificiales y artefactuales contenidas en su programa. Esa es la razón de que no puedan las máquinas (al menos las de IA simbólica) ser capaces de manejar el círculo hermenéutico que utiliza la inteligencia humana, conjugando la dimensión natural e innata con los aprendizajes posteriores, procediendo como un dinamismo de ida y vuelta: del todo a las partes, y de las partes al todo. En resumen, “la inteligencia es como una máquina del tiempo con la estructura de un pudin y las características de una habilidad atlética que sirve para gobernar el organismo y puede ser evaluada como una institución educativa” (según apunta Carabantes en la obra ya citada).

El enfoque de H. Gardner sobre las inteligencias múltiples se centra, por su parte, en el análisis de la inteligencia en el ámbito de la conducta. De ahí que, como ya vimos, defina la inteligencia como la capacidad para resolver problemas o elaborar productos. Y desmarcándose de muchos de sus colegas psicólogos, que mantienen una idea de inteligencia unitaria, descontextualizada e individual, Gardner considera que la inteligencia está conformada por tres propiedades fundamentales: es plural, contextualizada y distribuida.

  • La inteligencia es plural, en la medida en que no existe un tipo de inteligencia general, que esté programada para resolver todo tipo de problemas, sino que hay diversas inteligencias, que funcionan con cierta autonomía, sin poseer un yo ejecutivo central, aunque en el fondo funcionan de modo conjunto, incluso para acometer tareas simples.
  • Por otro lado, en segundo lugar, la inteligencia está siempre contextualizada, por lo que no se trata de competencias de un individuo, sino que está siempre en relación con un colectivo o cultura, siendo fundamental, por tanto, los dominios y ámbitos en los que se sitúa en la realidad.
  • El tercer aspecto que resalta Gardner respecto a la inteligencia es que se trata de una cualidad distribuida, esto es, los seres humanos trabajamos en grupo, puesto que se da una permanente interacción entre unos individuos y otros, y todos aprovechamos y nos valemos de los avances y descubrimientos de los demás.

A la vista de la gran complejidad de la idea de inteligencia, podemos deducir la similar dificultad inherente al objetivo de la IA, así como el fuerte reduccionismo desde el que acometieron esta tarea sus primeros investigadores.

 

Los antecedentes de la IA en Alan Turing

Los antecedentes de la IA hay que buscarlos en las investigaciones iniciales y las propuestas pioneras de Alan Turing (1912-1954).Turing, a la hora de acercarse a investigar sobre la inteligencia, en vez de hacerlo de forma directa, lo hace a través de una forma singular, el juego de la imitación, proponiendo en sus escritos, como el artículo “Computer machinery and intelligence” [TURING, A., “Maquinaria computadora e inteligencia”, en ROSS ANDERSON, Alan (ed.), Controversia sobre mentes y máquinas, Barcelona, Tusquets, 1984], lo que se ha denominado el test de Turing.Por ello se le considera el padre de la informática, anticipando muchos de los desarrollos de la IA futura, e intuyendo la gran importancia que tendría el aprendizaje automático en el desarrollo de las máquinas inteligentes.

El tipo de máquina en la que está pensando Turing es una computadora electrónica, dotada de extraordinarias habilidades lógico-matemáticas, y dos tipos de inteligencia: la lógico-matemática y la lingüística, las más valoradas por nuestra cultura occidental.

Algún tiempo después de la muerte de Turing, varios autores norteamericanos empezaron también a mostrar interés en investigar en campos similares al del investigador inglés. Se suele considerar como el inicio de la IA el encuentro ya citado del Dartmouth College en New Hampshire, celebrado en 1956 y convocado por John McCarthy.

A partir de la conferencia de Dartmouth, las investigaciones sobre IA se centraron en la heurística y el aprendizaje. El término heurística, acuñado por G. Polya, hace referencia a la investigación sobre las grandes reglas que permiten resolver los problemas. Hay determinados problemas ante los cuales no se necesita heurística, mientras que otros, sí.

En 1957, Marvin Minsky y O. Selfridge, del MIT, crearon un primer programa (Pandemonium)sobre el que, una década después, R. Lindsay y E. Feigenbaum se apoyarían para construir el primer sistema experto. Estos sistemas se centraban en lo que denominaban micromundos, pequeñas parcelas de la realidad, que podían ser controladas y dominadas con poca variedad de entidades y operaciones posibles.

La historia de la IA ha sido una sucesión de momentos de gran optimismo, seguidos de parones, dudas y puesta en cuestión de sus objetivos, siendo el momento inicial uno de los momentos de máximo optimismo, consecuencia de haber subestimado las dificultades que suponía no conocer cómo funciona la mente humana y querer construir a pesar de ello una máquina que la simulase e igualase. De hecho, al celebrarse en 2006 los cincuenta años de esos inicios, los propios protagonistas reconocieron que habían subestimado las dificultades, y que el objetivo que perseguían era mucho más difícil de lo que imaginaban. Los primeros trabajos se centraron en el reconocimiento de patrones, programación de ordenadores que pudieran jugar al ajedrez como los humanos, o programas que fueran capaces de aprender a resolver dificultades.

Las críticas de Roger Penrose a la Inteligencia Artificial

Muy crítico respecto a la IA fuerte fue el físico-matemático inglés Roger Penrose, quien formuló sus primeras críticas en un conocido libro, La nueva mente del emperador (1989). Su postura es contraria a la posibilidad de construir máquinas inteligentes que igualen el pensamiento humano, teniendo muy claro que los ordenadores no podrán tener nunca conciencia ni alcanzar una inteligencia como la humana, porque se hallan limitados por los teoremas de incompletitud de Gödel.

La mente humana es tan potente y especial porque funciona apoyada en las leyes cuánticas, que permiten dar el salto del nivel macrofísico de las conexiones neuronales al nivel de la conciencia, regida por leyes propias de la física cuántica. La dificultad está en que con las leyes de la física clásica no se puede acometer todavía esta tarea verificadora, por lo que considera que se necesita una nueva física (síntesis de la teoría de la relatividad generalizada y de una revisión de la actual mecánica cuántica, lo que denomina gravedad cuántica correcta), desde la cual acometer con un nuevo enfoque el estudio de la mente. Sólo así será posible, si no resolver del todo el enigma de la mente y la conciencia (y la relación mente-cerebro), al menos avanzar en esa dirección de forma significativa.

En libros posteriores PENROSE, R., Lo grande, lo pequeño y la mente humana, Madrid, Ed. Cambridge University, 1999; Id., El camino de la realidad. Una guía completa de las leyes del universo, Madrid, Debate, 2006] Penrose ha ido completando y profundizando su pensamiento, continuando sus propuestas anteriores. Es cierto que no todos están de acuerdo con todos los aspectos de la postura de Penrose, habiendo sido recibidas sus propuestas con mucho escepticismo por parte de muchos científicos, pero también han sido aceptadas por otros pensadores, que consideran que sus aportaciones están resultando un estímulo importante para orientar las investigaciones sobre la mente humana, las relaciones entre mente y cerebro, así como la diferencia entre la inteligencia humana y la IA.

 

La Inteligencia Artificial en la actualidad. Un nuevo optimismo sobre el futuro de la IA

Tras la experiencia de grandes crisis en el desarrollo de la Inteligencia Artificial, podríamos decir que en estos años del siglo XXI nos hallamos en un momento de renovada ilusión e incluso euforia.

Tras la desilusión de los sistemas expertos en los años 80, la IA simbólica se ha empeñado en construir computadoras con sentido común, es decir, con capacidad para resolver problemas similares a los que los humanos nos encontramos en nuestras actividades normales.

Lo que se persigue es que las máquinas vean, entiendan y hablen el lenguaje natural de los humanos, investigando sobre la parte inconsciente de la inteligencia. Pero en la actualidad sigue sin haber ninguna IA, simbólica o subsimbólica, que consiga ni de lejos imitar la inteligencia ni el comportamiento humano en su relación con el mundo y con los otros humanos. Por lo tanto, no consiguen superar el test de Turing.

Las fronteras de la Inteligencia Artificial

Y la razón de por qué no se ha logrado superar el test de Turing es esta: la inteligencia humana no puede ser codificada en un sistema de símbolos, como pretende la IA simbólica, sino que es un instrumento social, conformado en el proceso de las relaciones sociales (dimensión pragmática). Por tanto, el lenguaje natural se sitúa en principio fuera de la inteligencia simbólica. De ahí que las inteligencias artificiales simbólicas se hallan siempre aquejadas de la limitación de dominio, esto es, sólo resuelven problemas dentro de contextos restringidos, en sus micromundos. La inteligencia humana es, en cambio, muy versátil, aunque en muchos dominios sea superada por las máquinas artificiales.

Ya hemos señalado que uno de los rasgos específicos de las nuevas tecnologías es su convergencia y mutua interrelación, que multiplica sus efectos y potencialidades, de tal modo que las aplicaciones de la IA cada vez son mayores y más extraordinarias, consiguiéndose de forma imparable aplicaciones y logros en todos los terrenos de nuestra realidad, llegando no sólo al ámbito del lenguaje, sino incluso al del arte, la música, la pintura, etc., produciéndose lo que algunos está denominando una auténtica creatividad computacional.

Pero por más que se consigan avances extraordinarios en el terreno de esta creatividad computacional, acercándose a lo que se considera la inteligencia general, es muy posible que nunca se consiga igualar a la inteligencia humana.

Como ya lo hemos repetido, el proceso de creación y maduración de las mentes e inteligencias humanas exige una estrecha y permanente relación con el entorno, dentro del cual es fundamental la referencia al entorno social de los otros humanos, entorno en el que los humanos aprendemos tanto a madurar nuestra propia identidad como los contenidos de nuestra cosmovisión, el conjunto de los principios éticos y sociales con los que organizamos nuestras vidas en sociedad.

 

Conclusiones

Es evidente que pueda afirmarse que la inteligencia, en su sentido amplio, no es una característica exclusiva de los humanos. Es cierto que también advertimos conductas inteligentes en muchos animales, que ciertamente persiguen objetivos y manejan herramientas para conseguirlos. Y también ciertas máquinas desarrollan actividades que pueden ser denominadas inteligentes. Pero es evidente que se trata en los tres casos de comportamientos inteligentes de distinto tipo. La distinción entre los diferentes tipos de inteligencias ha solido reducirse a la IA débil y fuerte, pero vamos a ver cómo hay que hacer referencia a otros tipos de inteligencia para abarcar toda la complejidad que este ámbito comporta.

Es importante advertir que la propuesta de Turing no se orientaba simplemente a construir ordenadores que realizaran determinadas acciones que simularan las de los humanos, sino que se trataba de imitarlos e igualarlos en su totalidad. Por tanto, la IA fuerte pretende imitar la inteligencia general de los humanos, no tanto construir sistemas expertos que imiten aspectos limitados de la inteligencia humana.

En realidad, hasta ahora no se han conseguido más que ciertos logros dentro de la IA débil, advirtiéndose distintos modelos de IA (simbólico, conexionista, evolutivo y corpóreo), en cada uno de los cuales se advierte claramente la dificultad de acercarse tan sólo a igualar la inteligencia humana.

Hasta ahora hemos estado reflexionando sobre las condiciones de posibilidad técnicas de la IA; es decir, sobre las posibilidades de llegar o no a construir máquinas inteligentes que igualen a los humanos. Pero hay otra dimensión fundamental a tener en cuenta, que constituye el complemento necesario del anterior: el análisis de las condiciones de posibilidad éticas y sociales que se hallan detrás de estos proyectos. Se trata de preguntarse por el trasfondo de los intereses económicos y políticos, y sus consecuencias sociales, que se advierten detrás de estos programas de investigación. Y, en definitiva, resulta imprescindible cuestionarse sobre la utilización y los beneficiarios de estas tecnologías en nuestra sociedad actual y del mañana.

 

Maria Dolores Prieto Santan, es educadora y antropóloga. Asociación Interdisciplinar José de Acosta (ASINJA) y Colaboradora de la Cátedra Francisco J. Ayala de Ciencia, Tecnología y Religión.

Los comentarios están cerrados.