Translate this page

Mostrando entradas con la etiqueta Douglas Hofstadter. Mostrar todas las entradas
Mostrando entradas con la etiqueta Douglas Hofstadter. Mostrar todas las entradas

viernes, 28 de diciembre de 2018

Inteligencia artificial, filosofía y ciencia ficción



¿Máquinas que piensan?

La inteligencia artificial (IA) está de más actualidad que nunca debido a los avances recientes en sistemas de aprendizaje automático y en aplicaciones como los asistentes virtuales, los vehículos automáticos y los algoritmos que analizan nuestras preferencias en las redes sociales o en el consumo de contenidos en línea. Estos programas “inteligentes” afectan ya a nuestra vida y su impacto crecerá aún más a medida que se integren, y quizás sustituyan, muchas funciones hasta ahora exclusivamente humanas, como la creación artística, el cuidado de los enfermos, la gestión pública, el derecho o la defensa.
Diversas personalidades, como Stephen Hawking y Elon Musk, han advertido de los problemas que acarrearía un desarrollo descontrolado de las IAs, pero ¿es posible que estos sistemas sean realmente capaces de pensar, sentir y ser conscientes como nosotros? ¿Cómo será nuestra relación con ellos en el futuro?
Exploremos estas cuestiones desde la perspectiva de dos campos en apariencia distantes: la filosofía académica y la ciencia ficción.


Del espíritu divino al Test de Turing

El mito hebreo del golem se repite en diversas formas desde la Biblia hasta el siglo XVI y algunos lo consideran un antecedente de la ciencia ficción. Esta leyenda cuenta cómo un rabino crea un ser artificial que le ayuda a proteger a su pueblo. Lo hace insuflando la chispa divina en una masa de barro, un acto que reproduce, a menor escala, la creación del primer hombre por parte del dios judeocristiano.
La concepción de la naturaleza de la vida que subyace a esta historia es el dualismo: la materia por sí misma es inanimada y requiere un espíritu o alma de origen divino para convertirse en un ser vivo. El golem es un pálido reflejo de esta combinación, sin voz ni inteligencia, pues el rabino, por muy sabio que sea, no tiene poder para replicar toda la potencia del acto divino.
En el siglo XVII, el filósofo René Descartes dio un vuelco a esta visión. Por un lado, se opone al vitalismo tradicional y a las ideas aristotélicas sobre la naturaleza, adoptando una visión mecanicista para explicar mediante procesos físicos el funcionamiento de los astros, las plantas, los animales y el cuerpo humano. Sin embargo, Descartes defiende la singularidad humana por la presencia de un alma o mente inmaterial de la que carecería cualquier otro ser. Aunque esta concepción dualista, con una materia y un espíritu como sustancias diferenciadas, ha sido rechazada ampliamente por la filosofía y la ciencia posterior, todavía perdura en las ideas populares y religiosas sobre la naturaleza humana.


Será Mary Shelley, con su novela Frankenstein (1818), quien dé el gran paso con el que nace la ciencia ficción moderna. Su “golem” no consigue la vida gracias a la infusión de un espíritu místico, sino porque la electricidad despierta una mente primitiva en el cuerpo ensamblado por un científico, que sustituye al rabino y a la propia divinidad en su papel creador. Este ser artificial es defectuoso y, a pesar de sus buenas intenciones, entra en conflicto con la sociedad humana. Parece inevitable una conclusión moralizante: el hombre no debería arrogarse el poder de crear de vida inteligente.
Este patrón arquetípico del monstruo de Frankenstein se repetirá en innumerables ocasiones referido a androides y máquinas pensantes, por ejemplo, con la ginoide de “Metrópolis” (1927), la computadora HAL 9000 de la película “2001: una odisea del espacio” (1968), el ordenador Colossus, en el film con el mismo nombre (1970), o el Skynet de la saga “Terminator” (1984).


El desarrollo de los primeros ordenadores dignos de tal nombre comenzó a finales de los años 1930 (e Zuse Z1 de 1938 es considerado el primer computador) y se aceleró en los años 40 y 50. Inmediatamente se puso sobre la mesa la cuestión de si estas máquinas podrían llegar a pensar y qué consecuencias se derivarían de ello.
Isaac Asimov, prolífico autor de ciencia ficción y perenne optimista acerca del poder benefactor de la ciencia, deseaba contrarrestar el influjo mitológico de Frankenstein y el temor de la gente de que las máquinas se alzaran contra sus creadores. Comenzando con su relato “Círculo vicioso” (1940) escribió historias de robots futuristas dotados de un cerebro artificial, cuyo comportamiento está regulado por tres Leyes de la Robótica que garantizan su fidelidad a los humanos. En posteriores relatos y novelas, Asimov llega a dejar en manos de estas IAs la salvaguarda de la humanidad como especie. Durante la década de los 50 vemos este tipo de robots obedientes y bondadosos en películas como “Ultimátum a la Tierra” (1951) y “Planeta prohibido” (1956).

Por otro lado, Alan Turing, matemático inglés que había trabajado en los fundamentos teóricos de la computación y había contribuido a descifrar los códigos nazis durante la Segunda Guerra Mundial, publicó en 1950 el artículo “Máquina computadora e inteligencia”, donde realiza el primer análisis filosófico acerca del posible pensamiento de las máquinas. En la época de Turing, la corriente psicológica dominante era el conductismo, que renunciaba a definir estados mentales internos y se preocupaba en su lugar de la conducta visible de los individuos. Siguiendo esta idea, Turing propone sustituir la cuestión sobre el pensamiento de las máquinas por una prueba (el famoso Test de Turing) mediante la cual trataríamos de distinguir las respuestas escritas de un ordenador de aquellas proporcionadas por una persona. Si esta distinción no es posible, propone Turing, debemos afirmar que a todos los efectos prácticos el ordenador es capaz de pensar.


La mente como software: el funcionalismo y sus críticos

El conductismo entró en declive a partir de los años 50, coincidiendo con el auge de la psicología cognitiva, que defendía la validez de los estados y procesos mentales. Adoptando una postura materialista (no dualista), la nueva psicología afirmó que debía existir una relación entre los contenidos de la mente (un dolor, una idea, una creencia, un recuerdo) y los estados de las neuronas en el cerebro. De hecho, cada vez existían más pruebas de esta relación gracias a los estudios sobre drogas, lesiones cerebrales y experiencias de estimulación directa de la corteza.
Sin embargo, pronto se vio que la correspondencia entre estados de la mente y del cerebro no podía ser rígida, ya que nuestras estructuras neuronales son individualmente diferentes y cambiantes. Aunque compartimos sensaciones, ideas y estructuras de pensamiento similares, un mismo estado mental puede tener múltiples realizaciones físicas.
El desarrollo de la informática mostró que el comportamiento de un ordenador (la respuesta a las entradas de datos) venía definido por su “software”, y que los programas podían funcionar de forma idéntica aunque cambiara el soporte físico (“hardware”). Siguiendo esta idea, el funcionalismo (formulado por primera vez por Hilary Putnam en 1960) propone que los estados mentales son independientes de su realización física concreta: la mente es como el software del cerebro y puede ser ejecutado con resultados similares en cerebros diferentes. Algún día el software o algoritmo de una mente podría funcionar sobre otro soporte físico, quizás una máquina suficientemente compleja que dispondría, por tanto, de estados mentales (sentimientos, pensamientos) equivalentes a los humanos.
Desde el mismo momento de su formulación, se propusieron diversas objeciones a la idea de que un software pueda pensar. Una de ellas, formulada por Fodor en 1972 y defendida luego por Nagel, Searle, Penrose y otros, es que nuestras percepciones y sentimientos se reducen a elementos llamados qualia que dependen del sustrato físico de nuestro sistema nervioso y no pueden ser reproducidos en una máquina. Según ello, un robot nunca podría percibir, sentir o pensar como nosotros porque no tiene la misma experiencia interna.
Sin embargo, si consideramos que las sensaciones son mediadas por impulsos neuroeléctricos a través de conexiones concretas (la señal de “rojo” puede significar “verde” o “dolor” si la conectamos en un lugar diferente), ¿no tendría la misma información y las mismas sensaciones cualquier sistema que reciba y procese información con el mismo patrón de conexiones?
Otra objeción al Test de Turing y a la idea de la mente como software es la que formuló Searle en 1980 con su famoso experimento imaginario de la habitación china. Si en una habitación hay personas que solo entienden el español, dice Searle, pero son capaces de responder a preguntas en chino cotejando estos símbolos con las reglas escritas en un libro (o en un programa de ordenador), ¿significa eso que estas personas comprenden el chino? Obviamente no, y por eso, según Searle y otros, una computadora tampoco comprenderá nunca el lenguaje, por mucho que sea capaz de imitar la conducta verbal humana.

Veamos un par de respuestas a estos argumentos, utilizando relatos de ciencia ficción como vehículo. En su maravilloso libro “Gödel, Escher y Bach: un Eterno y Grácil Bucle”, Douglas R. Hofstadter cuenta la historia de unos personajes que se encuentran con una sofisticada colonia de insectos sociales llamada Madame Cologne d’Or Migas, con la cual se comunican mientras observan sus procesos internos: cómo las hormigas realizan las tareas de interpretar, procesar y formar símbolos para responder a sus mensajes. Se trata de una alegoría sobre la habitación china, donde las hormigas (o neuronas) son capaces de generar pensamiento y lenguaje sin comprender los significados que manejan. Como trabajadores en una cadena de montaje, solo ven su parte del proceso, pero el que las neuronas o los circuitos individuales no sean capaces de pensar no quiere decir que no lo haga el sistema que forman entre todas.
Por su parte, el genial escritor polaco Stanislaw Lem utilizó robots inteligentes en muchas de sus historias para ilustrar las miserias y el antropocentrismo de la raza humana. Nada menos que tres de sus relatos fueron recogidos en “Mind’s I” (1981), la compilación de textos sobre filosofía de la mente realizada por Hofstadter y el filósofo Daniel Dennett. En estas historias los protagonistas son robots, creadores de simulaciones donde se han desarrollado seres humanoides. Los bruñidos robots discuten si estos seres, a pesar de un diseño corporal marcado por el despiadado azar de la evolución, pueden ser capaces de sentir y pensar.

Hacia la Singularidad

Las críticas a la idea de la mente como software son comprensibles, dada la simplicidad que tuvieron los programas de ordenador durante décadas. La IA tradicional solo fue capaz de crear “sistemas expertos” que reflejaban el conocimiento de una persona especializada en cierta materia, sintetizando este saber en forma de unas pocas reglas. Resulta difícil concebir que se llegue a producir una máquina pensante y sintiente mediante esta aproximación.
Sin embargo, en los últimos años se ha producido un salto cualitativo en la potencia de la IA, y ello ha sido posible al replicar las fuentes que dotan a los cerebros animales de sus especiales capacidades. Una de las técnicas utilizadas es el desarrollo de software basado en redes neuronales en lugar de reglas predefinidas. Otra es la introducción de procesos evolutivos en el software, como la realimentación de estas redes con el aprendizaje y el uso de algoritmos genéticos que simulan de forma acelerada los procesos de selección y adaptación.

Desde el punto de vista práctico, esta nueva forma de IA ha permitido que el software supere a los humanos en tareas cada vez más complejas, no solo en juegos como el ajedrez y el go, sino también en áreas como el diagnóstico médico, la demostración matemática y la detección de patrones ocultos en enormes volúmenes de información.
De hecho, Turing anticipó esta situación en su artículo de 1950. Ya entonces propuso superar las limitaciones de las computadoras de la época utilizando sistemas de aprendizaje automático y un proceso análogo a la evolución. Turing también rechazó la idea popular de que “el ordenador hace lo que se le ha programado” y se dio cuenta de que llegaría un momento en que no sabríamos descifrar los procesos internos de los sistemas inteligentes, igual que ignoramos los detalles de lo que sucede en nuestros cerebros individuales. Esta ignorancia, seguramente, hará más natural afirmar que la máquina piensa, siente o tiene creencias, puesto que no podremos discernir sus "mecanismos internos".
El filósofo Daniel Dennett ha elaborado ideas similares en sus libros “La actitud intencional” (1989), “La consciencia explicada” (1991) o “La evolución de la libertad” (2003), mostrando cómo el proceso evolutivo que ha generado la mente humana es compatible con una visión funcionalista en la que cabe la consciencia y el libre albedrío.
¿Hacia dónde nos llevará la evolución de la IA? De acuerdo con muchos autores, como Stanislaw Lem y otros que han abordado el transhumanismo y la llamada Singularidad (Frederik Pohl, Raymond Kurzweil, Vernon Vinge, Greg Egan, Richard Morgan, etc.), la acelerada progresión de la inteligencia no humana nos situará ante una encrucijada: o vernos superados por IAs con motivaciones y pensamientos incomprensibles para nosotros, como sucede en “Golem XIV” (1981) de Lem, o fusionarnos de alguna forma con la inteligencia mecánica y evolucionar con ella.
Philip K. Dick, el autor de novelas y relatos de ciencia ficción sobre los que se basan “Bladerunner”, “Desafío Total” o “El Hombre en el Castillo”, previó la coexistencia de los humanos con androides de capacidad similar o superior y enfatizó el papel de la empatía como nexo común entre ambos, algo que también hizo Isaac Asimov en “El hombre bicentenario” (1976).
La cinematografía actual (por ejemplo en “Her”, “Ex-machina” o en la secuela “Bladerunner 2049”) muestra también que las futuras relaciones entre humanos e inteligencias artificiales vendrán determinadas por el desarrollo de valores y un entorno social compartido, o se producirá una dolorosa separación o un terrible conflicto si ello no es posible.


Aunque lo pretendamos, las Leyes de la Robótica y la ética no podrán ser impuestas a las IAs por una meras reglas de programación o circuitos que condicionen su conducta; serán demasiado complejas para ello. Las IAs tendrán que aprender a comportarse en sociedad igual que lo hacemos nosotros, incorporando sentimientos reflejos mediante su integración en la civilización humana. O posthumana.


lunes, 19 de mayo de 2014

Transhumanismo e inmortalidad (2/2): qué es la consciencia y cómo reproducirla


Subiendo el disco duro de la mente a la nube: mind uploading


En la entrada anterior vimos que en las fases avanzadas de la evolución transhumana o posthumana se plantea alcanzar la inmortalidad mediante la transferencia de nuestra identidad a una simulación donde nos encontraríamos con otras conciencias similares, bien de otras personas o bien de inteligencias artificiales.

El proceso de llevar nuestra mente a un sistema de simulación se conoce como transferencia mental, a partir del inglés mind uploading. Como vimos, esta idea se ha utilizado con frecuencia en la literatura de ciencia-ficción, y también en cine y televisión, como en la reciente película Trascendence.

Quizás fue el film Tron, en 1982, el primero que planteó como argumento la transferencia de una persona al interior de una simulación. Podéis ver la escena de la digitalización a partir del minuto 1:00:


Más allá de la ciencia ficción, la cuestión es si sería posible realizar esta transferencia de la mente de forma que se mantenga nuestra identidad, memoria y experiencia subjetiva. Para ello deberíamos tener continuidad en nuestros recuerdos, sentirnos familiarizados con nuestro cuerpo simulado y seguir interactuando con el entorno y con otras personas mientras mantenemos la capacidad de aprender y acumular nuevos recuerdos.

El planteamiento 'conductista' y Turing


Cuando a mediados del siglo XX se plantearon los primeros modelos de computabilidad y la posibilidad de construir máquinas que los ejecutaran, surgió de forma natural la cuestión de si una máquina podría llegar a pensar. Alan Turing, el famoso matemático y pionero de la informática, publicó en 1950 un artículo llamado Máquinas de Computación e Inteligencia, en el que plantea una alternativa práctica para contestar a esa pregunta: el Test de Turing.

Lo que Turing viene a decir es que sin una definición clara de "pensar" resulta difícil saber si una máquina podría hacerlo. Incluso si una máquina tuviera consciencia, ¿cómo podríamos estar seguros de ello? Turing propone otra forma de abordar la cuestión: decidir si la máquina se comporta como una persona, en una situación en la que no sea tan sencillo distinguir una de otra.

Turing propuso una forma de realizar este test: tanto la computadora como el humano estarían en otra sala, separados de nosotros, y solo pudiéramos juzgar su conducta mediante las respuestas que dieran por escrito a nuestras preguntas.


En este video vemos cómo la idea del Test de Turing se aplica a la observación de avatares en un videojuego, para determinar si son manejados por un humano o por un programa:


Sin embargo, podemos aceptar que una máquina supere el Test de Turing y sin embargo negarnos a admitir que piense o tenga consciencia. Aunque todavía no exista una máquina capaz de pasar con éxito el Test de Turing en todas las circunstancias, el objetivo de los investigadores se sitúa ya más allá: no sólo se plantea crear un programa que responda como un ser humano sino que, por la forma en que razona y se reconoce a sí mismo, podamos decir que piensa y es consciente.

A pesar de esta superación teórica de las ideas de Turing, en la práctica es posible que el matemático tenga razón, y que en nuestra vida cotidiana lleguemos a asignar pensamiento, emociones y consciencia a las máquinas en función de su comportamiento debido a la tendencia humana a antropomorfizar otros seres (ver el libro de Reeves y Nash). Por esta razón, muchos investigadores estudian cómo simular las emociones en las máquinas.


Sin embargo, si queremos reproducir nuestra propia consciencia individual en una simulación, no estaremos satisfechos con un mero test verbal que califique el resultado. Queremos estar seguros de que sentiremos, recordaremos y nos comportaremos en la simulación de una forma similar a cómo lo hacemos en nuestra existencia biológica, incluso con mejoras en nuestras capacidades.

Por tanto, no se trata solo de hacer un modelo detallado del cerebro que responda a los estímulos externos de forma similar a la nuestra (emulación cerebral, o cerebro artificial) sino de reproducir toda nuestra experiencia subjetiva y personal.

La factibilidad de este programa depende de dos supuestos:

  • Supuesto 1 (Materialismo): la consciencia tiene una base meramente físico-química y es explicable mediante la naturaleza bioquímica y la estructura del cerebro humano. Esto no implica que podamos identificar los elementos específicos de la consciencia (significados, ideas...) examinando el cerebro, ya que la correspondencia entre pensamientos y sensaciones con la estructura cerebral tendría una increíble complejidad. Sabemos, por ejemplo, que en la representación de un objeto intervienen muchas neuronas y un número grandísimo de conexiones que codifican aspectos visuales, táctiles, relacionales, etc., del objeto. Su significado viene definido por nuestros recuerdos sobre él, las asociaciones con otros objetos, conexiones lingüísticas, etc. Véase, por ejemplo, este interesante artículo.
Lo que sí implica este supuesto es que si consiguiéramos hacer una copia física exacta de un individuo, replicaríamos también su consciencia, incluyendo sus recuerdos, identidad, etc. 

Esta posibilidad se ha aprovechado también con frecuencia en la ciencia ficción, abordando la posibilidad de crear réplicas con identidad duplicada, lo que abre el camino a una forma de inmortalidad, como en este hilarante capitulo de la serie alemana sobre Ijon Tichy, el famoso personaje de Stanislaw Lem:


Esta posibilidad de duplicación plantea múltiples cuestiones filosóficas sobre la identidad personal, algunas planteadas por el propio Lem, por ejemplo, la posibilidad de teletransporte creando copias remotas (¿sería un asesinato la eliminación del original?), por no hablar de las consecuencias legales (¿quién sería el propietario de los bienes del sujeto original? ¿asumiría la copia los mismos deberes y obligaciones: matrimonio, condenas penales, etc.?).

  • Supuesto 2 (Funcionalismo): las características que permiten la existencia de una consciencia o mente son estructurales-relacionales, no dependen de que su sustrato material sea el mismo de un cerebro humano, sino que se podrían reproducir en otro sustrato material con capacidades estructurales-relacionales homólogas. Esta es la idea de mente independiente del sustrato, una idea que en Filosofía de la Mente o al hablar del problema mente-cuerpo, se identifica con el nombre de Funcionalismo.
Vamos a examinar cada uno de estos supuestos y veremos si, aun admitiéndolos como ciertos, hay una forma de construir una réplica simulada de una mente.

La mente construida sobre la materia


Durante casi toda la historia de la humanidad se aceptó que había algún elemento no material que explicaba las capacidades únicas de los seres humanos. Cuando con los avances del Renacimiento se comenzó a estudiar la anatomía humana y se hizo evidente que, en buena medida, el cuerpo funcionaba como una máquina biológica, René Descartes formuló su visión dualista: el cuerpo y el cerebro están controlados por una sustancia no extensa que interactúa con la parte física a través de la glándula pineal.


Aunque actualmente se mantenga la creencia en la existencia del alma, espíritu u otra forma inmaterial, en el ámbito de la ciencia y la filosofía de orientación científica se ha eliminado la referencia a entidades inmateriales para explica las características de la mente y la consciencia humana.

Algunas de las razones para desechar el dualismo y defender una base material de la mente y la consciencia son:
  • Las funciones de la mente están mediadas químicamente. El descubrimiento del papel de las hormonas y los neurotransmisores, la explicación de los efectos de las drogas en el cerebro, los fármacos contra la depresión, la hiperactividad o la bipolaridad, todos son indicios de que nuestras funciones mentales (ser conscientes, percibir a través de los sentidos, moverse, emocionarse, tomar decisiones...) están mediadas químicamente y pueden ser alteradas de forma natural o artificial mediante estas sustancias. Si estas funciones residieran fuera del ámbito material, no tendrían por qué verse afectadas.

  • Desaparece la noción de una 'acción incausada', de un libre albedrío en sentido estricto. A partir de investigaciones experimentales sobre la realidad y la percepción del tiempo en las acciones humanas, se sabe que el proceso de tomar decisiones se produce en el cerebro antes de que tengamos conscienca de ello (por ejemplo, los impulsos para mover una mano suceden antes de que creamos moverla conscientemente). Dicho de otra manera, la decisión se toma de manera inconsciente a partir de una serie de influencias causales en la red neuronal del cerebro, y se informa del resultado al nivel consciente que reconstruye la secuencia temporal, de manera que parece que el yo consciente ha tomado la decisión.

El modelo de consciencia de Ezequiel Morsella y otros desarrolla esta visión pasiva de la consciencia. Quizás más adelante dedique otra entrada al problema del libre albedrío, que es complejo, pero desde el punto de vista de la causalidad de las acciones, la situación es clara: si queremos hablar de 'voluntad' tenemos que asignarla a las operaciones inconscientes del cerebro, aunque el nivel consciente participe en las deliberaciones previas a la decisión última.




  • Hay pruebas claras de que el yo no es una entidad indivisible, sino una amalgama de componentes físicamente distribuidos por el cerebro. Tras los intentos de explicación pseudocientífica de la frenología, mediante estudios más serios sobre los efectos de las lesiones cerebrales se fueron identificando las funciones generales de zonas concretas de la corteza cerebral y otras partes del encéfalo.

Hoy en día, gracias a sensores más sofisticados, se han identificado áreas diminutas que realizan funciones muy precisas, como reconocer rostros de personas. Incluso se ha determinado que hay pequeños grupos de neuronas que se activan al reconocer a personas concretas, como en el experimento de la llamada neurona de Jennifer Aniston



  • El fenómeno de las personalidades múltiples, en el que a partir de un trauma infantil se aislan diferentes personalidades como mecanismo de defensa y apoyo, muestra que la plasticidad del cerebro permite incluso albergar diferentes "yoes" que se activan y desactivan en función de necesidades psicológicas. Antiguamente, esta patología se explicaba recurriendo a la idea de "posesión" del cuerpo por parte de otro espíritu.


Este excelente documental, ganador de un premio Emmy, narra diferentes casos de personalidad mútiple y cómo se producen (lástima que solo lo he encontrado en inglés):


  • Otro argumento claro a favor de la distribución física del yo en el cerebro son los experimentos con cerebros divididos, realizados en los años 60 por Roger Sperry y sus colaboradores, y cuyos resultados se han generalizado en una concepción modular del cerebro.

En esta conferencia, Michael Gazzaniga, uno de los colaboradores originales de Sperry, describe el modelo actual de la mente como una red distribuida:


Reduccionismo y emergentismo


La identificación de la mente con su base física en el cerebro despierta frecuentemente acusaciones de reduccionismo. Sin embargo, como dice el propio artículo de Wikipedia, "el uso de la reducción no supone necesariamente el reduccionismo. Como cualquier otra herramienta, la reducción puede ser utilizada de manera moderada o radical".

Una postura reductiva diría que los fenómenos que observamos en el nivel alto de organización (por ejemplo, los fenómenos mentales, los organismos vivos, el calor) están causados por entidades de un nivel inferior (neuronas, compuestos bioquímicos y movimientos de moléculas, respectivamente). No hay necesidad de introducir una 'sustancia mágica' o esencia ad-hoc para explicar su existencia o propiedades (espíritu inmaterial para el caso de la mente, "esencia vital" para el caso de los organismos vivos, "fluido calórico" para el calor, etc.).


Pero una postura reductiva no significa necesariamente reduccionismo. Reduccionismo sería afirmar que podemos describir y explicar el nivel superior solamente con categorías y propiedades del nivel inferior. Así, sabemos que la atmósfera se reduce a moléculas gaseosas, pero a nadie se le ocurre describir los fenómenos meteorológicos utilizando la física molecular. El movimiento de los gases se organiza en estructuras de alto nivel (nubes, viento, frentes, etc.) que son más útiles para describir, explicar y predecir los fenómenos en el nivel superior.


De la misma forma, aunque las entidades de la biología se reducen a las de la química, y éstas a la física, etc., en la práctica no se puede describir o explicar cada nivel desde el inferior. La teoría de sistemas dinámicos complejos o teoría del caos, explica cómo surgen los niveles de organización y generan sus propias dinámicas impredecibles desde el nivel inferior.
Una postura compatible con la reducción, pero no reduccionista, es el emergentismo débil. Ésta visión diría que en el proceso evolutivo del universo, la vida y la cultura se han ido creando sucesivos niveles de organización (espontáneamente o por selección), y que, aunque todo al final esté compuesto de las mismas entidades básicas, para describir y explicar cada nivel necesitamos categorías de organización propias de ese nivel.


Desde este punto de vista, la organización de los fenómenos mentales ha ido emergiendo evolutivamente de la estructura de procesamiento de información del sistema nervioso, que a su vez emerge de las neuronas que lo componen. De hecho, esta evolución de millones de años hacia la complejidad ha hecho que el sistema nervioso humano sea el objeto más complejo del universo conocido.

La longitud de los 'cables' neuronales unidos de una persona daría cuatro veces la vuelta a la Tierra. Poseemos unas 100.000 millones de neuronas en el cerebro, un número que es similar al de estrellas que tiene una galaxia como la Vía Láctea, y estas neuronas están interconectadas con 100 trillones de sinapsis, con 1000 interruptores moleculares por sinapsis. Un cerebro humano tiene más elementos de proceso de información que todos los ordenadores y conexiones de Internet de toda la Tierra juntos.

Por cierto, la idea de que solo usamos el 10% del cerebro es una de esas leyendas urbanas que se basa solamente en la ignorancia que existía hace años acerca de las funciones de ciertas áreas del cerebro:


De todas formas, aunque comprendamos las reglas de funcionamiento básico de las estructuras neuronales, no tiene sentido realizar una descripción del estado mental de una persona recurriendo a cómo se encuentra cada sinapsis de cada una de sus neuronas. Tendría el mismo sentido y la misma dificultad que describir el tiempo atmosférico describiendo el movimiento de cada molécula de aire y vapor de agua. Necesitamos utilizar propiedades y categorías de un nivel más alto.

Sin embargo, como hemos visto en el caso de la 'neurona de Jennifer Anniston', si podremos detectar algunos componentes de los estados mentales viendo el mapa de neuronas activas. En muchos casos necesitaremos conocimiento específico de cómo este mapa está configurado en esa persona en particular.


En su increible libro "Gödel, Escher, Bach", que ya he mencionado en otras ocasiones, Douglas R. Hofstadter expone la postura del emergentismo débil a través de un cuento. Una de las protagonistas, Madame Cologne d'Or Migas (una colonia de hormigas) conversa con otros de los personajes mientras éstos observan su funcionamiento interno (los comportamientos de las hormigas), viendo cómo se construyen y fluyen los símbolos e ideas que forman los pensamientos y las acciones de Madame Cologne d'Or Migas.


En este símil de la colonia, el cerebro es como un hormiguero donde las neuronas juegan el papel de las hormigas. Obviamente, las hormigas-neuronas individuales no son inteligentes, no saben cuál es el resultado final de sus acciones desde el punto de vista de la colonia-cerebro, pero eso no quiere decir que no sean ellas (a través de las reglas de comportamiento guiadas por la evolución y el aprendizaje) las responsables de la conducta de la colonia-cerebro como totalidad, de la misma manera que durante el desarrollo fetal cada célula embrionaria hace lo que tiene que hacer para dar forma al organismo como totalidad.



El relato de Madame Cologne d'Or Migas esta incluido también en The Mind's I, una recopilación de relatos y artículos de Hofstadter y el filósofo Daniel Dennett, donde apoyan su idea de la mente como sistema de computación.


Frente a este 'emergentismo débil', el emergentismo fuerte pretendería que la evolución de los sistemas crea en los niveles superiores estructuras que tienen poder causal sobre los niveles inferiores. Dicho de otra forma, que la mente es la que causaría el comportamiento de las neuronas, no a la inversa. Desde mi punto de vista, esto es como decir que una célula controla la expresión de sus genes o que el viento hace que se muevan las moléculas de aire, o que la evolución de la especie hace que los genes muten de determinada manera. Sirve como una expresión poética o metafórica,  pero no refleja el funcionamiento causal en la realidad y puede llevar a confusión.


Ya hemos visto que en la secuencia temporal de una acción realizada por la mente, el nivel consciente es el último en enterarse, y por tanto no puede ser el que cause la acción de las neuronas que realizan anteriormente el proceso inconsciente que toma la decisión.


Por otra parte, tampoco es necesario caer en el epifenomenalismo, es decir, que la mente es solamente una construcción descriptiva útil pero que no tiene entidad propia ni poderes causales. En el nivel de descripción que le corresponde (cuando hablamos de personas y sus acciones) es legítimo decir que una persona (su mente) decide hacer algo y genera ciertas consecuencias y efectos, igual que es legítimo decir que un cuerpo físico causa un movimiento sobre otro, aunque sean sus átomos los que interactúan realmente.

De esta forma se pueden preservar en un contexto materialista conceptos como la responsabilidad personal y el libre albedrío. Aunque sean ilusorios si los observamos desde el nivel de descripción de las neuronas, son necesarios para la descripción del mundo en el nivel de las personas y la sociedad.

Por ello, como explica Daniel C. Dennett en su libro "La evolución de la libertad", el determinismo en el comportamiento de las neuronas no es incompatible con el libre albedrío como propiedad de la mente como totalidad.


De todas formas, el problema mente-cuerpo es un campo abonado desde hace siglos a la discusión y no tiene una solución trivial. Os invito a buscar más material sobre este tema (ver, por ejemplo, aquí y aquí) y formaros vuestra propia opinión, aunque a veces el debate entre los filósofos alcanza alturas técnicas difíciles de seguir.

Teorías de la consciencia 


Una vez vistos los argumentos a favor de que la mente tiene su base en la materia y en la biología del sistema nervioso central, veamos cómo pueden estas estructuras cerebrales formar el curioso fenómeno que experimentamos como consciencia, cómo es posible que nos demos cuenta de lo que nos rodea y de nuestros propios pensamientos y sensaciones.

El mito de la conciencia cuántica

Algunas teorías de la conciencia se apoyan sobre un nivel físico inferior a las conexiones entre las neuronas. Por ejemplo, el físico y matemático Roger Penrose propone que el libre albedrío de la mente se fundamentaría en la indeterminación e impredecibilidad cuántica de la materia microscópica. Para ello propone una serie de estructuras neuronales (microtúbulos) como sede originaria de la consciencia que la estructura cerebral explotaría para sus funciones superiores, aunque no está nada claro qué relación hay entre el nivel microscópico y las capacidades generales de la consciencia.




La teoría de Penrose está relacionada con una visión más o menos popular que afirma que la consciencia se relaciona con los procesos cuánticos de determinación del estado de los sistemas a partir de su onda de probabilidad (el problema de la medida o del colapso de la función de onda), constituyendo una especie de misticismo cuántico.

Aunque no haya una explicación completa del mecanismo que produce la reducción de la onda de probabilidad durante la medida en un sistema microscópico, el hecho de que al final de la cadena de medición esté la consciencia de una persona que recibe la información no quiere decir que sea esta conciencia la que causa la medida. Sería tanto como decir que porque la luz de los objetos llega al final a los ojos, son los ojos los que generan la luz.


Esta concepción de la conciencia 'cuántica' también se relaciona con una interpretación popular inexacta y en muchos casos pseudocientífica de lo que significa el principio de incertidumbre. Se habla de que 'el observador modifica el sistema observado', y por tanto pareciera que la consciencia tuviera un papel en la determinación de la realidad. Sin embargo esta influencia del observador perturbando lo observado no es exclusiva de los procesos cuánticos, sucede también en la física clásica sin ninguna intervención de la consciencia.

Además, en ningún caso el observador decide en qué estado queda lo observado, sino que el resultado viene dado por las azarosas probabilidades calculadas por la mecánica cuántica. Circulan muchas teorías absurdas que mezclan conceptos científicos reciclados e ideas descabelladas de cosecha propia y aprovechan la popularidad de la terminología 'cuántica' para dar mayor caché a su negocio pseudocientífico.

En este excelente artículo podéis encontrar una crítica al uso de esta terminología cuántica, particularmente en las teorías de la consciencia como la de Penrose, y una crítica general a la manía de los científicos de cierta edad, expertos en un campo determinado, de meterse en otros campos de los que no saben mucho.



La mente como propiedad de la estructura del sistema nervioso

Quizás el primer científico que comenzó a desarrollar una teoría de la consciencia con base biológica fue Gerald Edelman, comenzando en 1987 con su libro "Darwinismo neuronal" y expandiendo posteriormente sus ideas con otros libros técnicos y de divulgación:


Edelman, premio Nobel de Fisiología y Medicina, propone que las características de la consciencia pueden derivarse de la forma en que las neuronas se organizan mediante un mecanismo de competencia darwinista. En particular, la conscienca se basaría en la tendencia de las estructuras neuronales a establecer conexiones de reentrada, es decir, bucles de realimentación entre los mapas construidos en el sistema nervioso central para representar diferentes aspectos de la realidad (espaciales, lingüísticos, conceptuales). Estos bucles continuos de neuronas que representan conceptos y relaciones en un nivel alto de abstracción (incluido el concepto del propio yo) es lo que llamamos consciencia.

En la teoría de Edelman cabe la evolución continua de la consciencia en el mundo animal desde formas más sencillas (consciencia primaria) hasta una consciencia superior mediada por el lenguaje, como la nuestra.



Dicho de otra manera, la consciencia sería una serie de bucles continuos que conectan una visión de alto nivel de abstracción sobre lo que pasa en el mundo, en el propio cuerpo y en el sistema nervioso de la persona. En los humanos serían los lóbulos frontales, donde se evalúan los riesgos y planifican las acciones, la clave estructural de la consciencia. 

En nuestra especie, buena parte de estos bucles se entrelaza con la percepción de nuestros pensamientos en forma lingüística. En este sentido hay que reconocer el trabajo pionero del bioquímico español Faustino Cordón identificando el pensamiento como una evolución de nuestra capacidad verbal, mediante la cual somos capaces de "escucharnos hablar a nosotros mismos", como forma de utilizar nuestro conocimiento almacenado sin necesidad de emitir las palabras vocalmente.


Otro destacado proponente de una teoría puramente neurobiológica de la mente es el premio Nobel Francis Crick, codescubridor de la estructura del ADN. En su libro The Astounding Hypothesis (traducido en España como "La Búsqueda Científica del Alma"). Crick admite que no se dispone actualmente de una explicación completa de la consciencia, pero ofrece algunas ideas de partida basadas en el funcionamiento de la percepción visual.


Aquí tenemos la explicación del propio Crick. Se pueden activar los subtítulos en inglés, aunque a veces la transcripción no es correcta:


A partir de las propuestas de Edelman y Crick, actualmente existe un cierto consenso científico respecto a la posibilidad de crear modelos basados en la estructura cerebral que expliquen el funcionamiento y características de la experiencia consciente.


La discusión científica y filosófica se centra en este momento no tanto en si la consciencia se genera desde una base biológica, sino en la cuestión de si estas propiedades de la estructura cerebral pueden abstraerse de su sustrato biológico para definirse en un nivel funcional, como "software" de la mente, lo que permitiría "ejecutar" un "software consciente" en otros soportes.

Hay autores que niegan esta posibilidad, como David Chalmers, separando dos niveles de explicación en lo relativo a la mente. Aunque acepta que todas las funciones de la mente y la mayor parte de lo que consideramos consciencia tienen una base biológica (cree, por ejemplo, que todos los sistemas que procesan información, por simples que sean, tienen un cierto grado de consciencia), por otro lado Chalmers piensa que el nivel de la experiencia consciente subjetiva no puede ser explicado desde una visión neurológica, proponiendo un 'dualismo naturalista'.


Por tanto, la polémica actual se centra en el supuesto 2: la discusión sobre si la mente se deriva de la estructura funcional de la red neuronal, de un "software" cerebral, o es específica y única del "hardware" cerebral.

Uno de los más persistentes críticos del funcionalismo y de la posibilidad de concebir y simular la mente como software es John Searle, el inventor de la metáfora de la caja o habitación china, que mencionaremos después. Searle cree que las propiedades de la mente emergen del sustrato biológico, pero mantiene que hay aspectos como el significado de los símbolos que manejamos y la experiencia sensorial subjetiva (los famosos qualia) que no pueden explicarse mediante una descripción neurofisiológica o funcional. De hecho Searle critica a todos los que de una manera u otra quieran descifrar lo que él llama "el misterio de la consciencia".


Funcionalismo y software mental

La idea funcionalista de la mente ha pasado por diversas fases, defendida por científicos y filósofos cercanos a la informática y la teoría de la información, contendiendo con severas críticas desde diferentes campos, incluyendo a neurobiólogos como Edelman que a pesar de coincidir en la base biológica de la mente niegan que pueda concebirse como un software susceptible de simulación y que piensan que la conciencia es inseparable de las características de su sustrato neural.

Sin embargo, a pesar de las críticas, la visión funcionalista se va imponiendo con los avances de los modelos computacionales que replican el aprendizaje, la memoria, la percepción visual y el lenguaje. En mi opinión, el rechazo que suscita el funcionalismo entre algunos autores se debe en parte a que el concepto de "mente como software" resulta equívoco y basado en modelos anticuados de la "inteligencia artificial" que la conciben como basada en entidades de alto nivel (conceptos, lenguaje, reglas...) y en una comparación inconsciente con el software que manejamos todos los días y que evidentemente aún dista mucho de ser inteligente o consciente.



La idea básica de la que parte el funcionalismo es sencilla. Las neuronas trabajan como pequeños procesadores que calculan una señal de salida por sus axones a partir de las entradas provenientes de otras neuronas y, al final, de los estímulos proporcionados por los sentidos. La función de cálculo de cada neurona cambia según el aprendizaje y la memoria, procesos en los que se reconfiguran sus conexiones.

Por tanto el cerebro puede verse como ejecutando un gigantesco (increíblemente complejo) programa de cálculo en paralelo. La parte de este programa que se refiere a los bucles autorreferentes que forman el nivel consciente sería el software que define el funcionamiento de la consciencia.


Las diferencias y discusiones entre diferentes versiones del funcionalismo, y entre los funcionalistas y sus críticos, se deben muchas veces a la confusión o énfasis en diferentes niveles de abstracción del programa mental. Por ejemplo, la Inteligencia Artificial clásica y los modelos cognitivos de la mente utilizan funciones de software de muy alto nivel, como el procesamiento de símbolos lingüísticos y el almacenamiento de conceptos. De esta manera, son fácilmente atacables por argumentos como el de la habitación china de Searle. Una máquina puede manejar símbolos y generar salidas más o menos compatibles con el test de Turing, pero obviamente no "entiende" esos símbolos como lo hacemos nosotros.


Pero esta crítica falla si cambiamos la escala del modelo. En el cerebro humano, las neuronas no comprenden los símbolos que representan y procesan, y sin embargo el sistema en su totalidad sí lo hace. La crítica de la habitación china no tiene porqué ser aplicable a un sistema muy complejo con diversos niveles de organización y representación, incluyendo la autorepresentación, porque este sistema puede representar conceptos y relaciones semánticas adquiridos mediante aprendizaje.

En el otro extremo de la IA clásica está el conexionismo, que defiende que el software del cerebro se construye con las funciones de procesamiento de las neuronas, capaces de aprender y autoorganizarse para reconocer, recordar y calcular. El conexionismo defiende que estos procesos no se pueden recrear con un software basado en reglas simbólicas como el de la Inteligencia Artificial clásica. Pero, por otro lado, resulta difícil derivar las funciones y conceptos de alto nivel que elabora la mente humana a partir de esta visión de bajo nivel, con neuronas y sinapsis, igual que no resulta factible describir el tiempo atmosférico utilizando las moléculas del aire.




La solución al dilema entre el alto nivel cognitivo y el bajo nivel de procesos neuronales es reconocer que hay una jerarquía de niveles de procesamiento entrelazados, con funciones cercanas a las redes neuronales simples en los niveles inferiores, mientras en los niveles superiores se componen funciones más cercanas a las reglas de lógica difusa sobre conceptos abstractos. Esta complejidad a diferentes niveles es difícil reproducir en la práctica, pero sería capaz de explicar las propiedades de la mente y en teoría podría ser replicada mediante un software muy complejo.




Un filósofo contemporáneo decididamente funcionalista es Daniel C. Dennett. Ya hemos comentado su trabajo con Douglas Hofstadter para explicar cómo las propiedades mentales emergen a partir de una estructura compleja y cómo defiende la compatibilidad del determinismo y del libre albedrío en cierto sentido.


En su libro La Consciencia Explicada, Dennett presenta su modelo funcionalista de la consciencia y cómo se relaciona con la evolución biológica.


En esta reciente conferencia, Dennett expone sus ideas de una forma sencilla, cómo se puede describir objetivamente la consciencia, que a veces nos engaña a nosotros mismos.


Replicando el software de la mente


Si aceptamos la visión funcionalista de que las propiedades mentales y de la consciencia vienen dadas por la estructura de elementos del sistema nervioso y las funciones que calculan estos elementos (con modulaciones debidas al entorno químico, como las drogas que afectan al funcionamiento de los neurotransmisores), podemos extraer las siguientes conclusiones:
  • Al igual que en un programa de ordenador, el software mental puede tener varios niveles de abstracción, subrutinas y funciones anidadas, unas dentro de otras, según las jerarquías enlazadas que hemos visto antes. Por ejemplo, la función "ser consciente de lo que me rodea" se descompondría en módulos con funciones para la percepción visual, auditiva, etc. y mantendrían mapas mentales del espacio, de las relaciones sociales y de otros agentes activos. A su vez cada canal de percepción se basaría en varios procesos paralelos. Por ejemplo, en el sistema visual se procesan por separado el movimiento, el color y la forma. Este análisis llegaría hasta los niveles más bajos, donde pequeños grupos de neuronas realizan funciones sencillas como detectar líneas verticales, reconocer caras, etc.
  • Si replicáramos las mismas funciones de cálculo en otro soporte físico (una simulación informática) y les proporcionáramos entradas de estímulos similares a las que se encontraría en el mundo real (incluyendo información sobre su propio cuerpo), tendríamos respuestas y estados internos muy similares a los del software mental y, por tanto, una simulación de la mente original.
La clave, cuando nos planteamos la replicación del software mental para realizar un 'clon virtual' de una mente específica y nos enfrentamos a la complejísima jerarquía de funciones, es ¿hasta qué nivel de detalle es necesario replicar estas funciones? Como mínimo, necesitamos:
  • Que se reproduzcan las propiedades mentales (percepción, imaginación, motivación...), incluyendo la consciencia.
  • Que se preserven las características distintivas de la persona concreta (sus conocimientos, recuerdos, creencias, tendencias, estilo cognitivo, personalidad, estilo de movimiento físico, de habla...)
  • Que la simulación sea capaz de seguir aprendiendo y adquiriendo nuevos recuerdos. 

Modelando de arriba a abajo (top-down)

Una aproximación para replicar las funciones de un cerebro humano sería hacer "ingeniería inversa", igual que cuando intentamos comprender cómo funciona una máquina: vemos cuáles son sus partes y cómo se conectan, y luego intentamos replicarlas.

Aunque hemos visto antes que comenzamos a conocer los grandes bloques funcionales del cerebro, la complejidad de las interconexiones es tan grande que desenmarañar todos los componentes llevará un tiempo y unos recursos considerables.


La siguiente imagen, publicada en National Geographic, es solo una primera aproximación al problema. Representa el conocimiento general de las conexiones cerebrales de alto nivel disponible actualmente (por ejemplo, las líneas rosas y anaranjadas son vías neuronales relacionadas con el lenguaje).


Los objetivos del proyecto Conectoma y la iniciativa BRAIN son similares a los proyectos de genoma humano, pero respecto a la red neuronal: su objetivo es crear un mapa detallado del cerebro, pero la complejidad y la variabilidad de las conexiones cerebrales son mucho mayores que la del ADN.

Sin embargo, ni siquiera con el resultado de estos proyectos llegaremos a obtener el detalle suficiente para elaborar una simulación detallada. Por ejemplo, solo cartografiarán fibras -grupos de conexiones-, pero no las conexiones ni sinapsis individuales. No sabremos qué fuerza tienen, qué función matemática ejecutan, y mucho menos cómo cambian con el tiempo. Con suerte, tendremos un mapa genérico del esquema general para un humano tipo, pero sabemos que hay grandes variaciones por sexo, cultura, y no digamos individuales, en la escala de detalle necesaria para replicar la consciencia.


Aún así, los proyectos del conectoma supondrán un primer paso y los mapas genéricos que consigan son necesarios para organizar los futuros modelos cerebrales igual que el genoma humano genérico ha servido para conocer las partes del ADN que necesitamos secuenciar para distinguir individuos específicos.


En este video del programa Redes, uno de los responsables del proyecto Conectoma, Sebastian Seung, quien ha popularizado la frase "Yo soy mi conectoma", habla de sus objetivos y esperanzas:




Modelando de abajo a arriba (bottom-up): redes neuronales

La aproximación preferida por los proponentes de la "transferencia mental" es diferente: la idea es hacer un modelo detallado de las conexiones de un individuo específico hasta el nivel de las sinapsis y llevar ese modelo a una simulación que las reproduzca. De esta forma no tendríamos que preocuparnos por las estructuras de alto nivel del cerebro y en teoría capturaríamos todos los recuerdos y características particulares del individuo.

En este vídeo podemos ver un resumen del funcionamiento de la red neuronal:



Desde hace décadas se han desarrollado modelos matemáticos y computacionales relativamente sencillos de redes de neuronas que se utilizan con éxito para construir sistemas computacionales que aprenden a reconocer o controlar objetos o patrones específicos.


Estas redes neuronales artificiales se han extendido en aplicaciones de visión por computador, reconocimiento del lenguaje, etc., pero también para finanzas, bolsa, conducción automática, clasificación, algoritmos de redes sociales. Las redes neuronales artificiales son una de las técnicas que ha permitido la explosión del "machine learning" o aprendizaje automático.


También se han creado modelos de redes neuronales artificiales complejos para reproducir algunos aspectos del funcionamiento de los sistemas nerviosos reales. Por ejemplo, en el proyecto OpenWorm se ha simulado en detalle el sistema nervioso de un nemátodo, que consta de 300 neuronas, sobre todo para estudiar sus mecanismo de locomoción:


Uno de los supercomputadores más potentes del mundo, la serie Blue Gene de IBM, ha simulado una red tan compleja como el cerebro de un ratón a una velocidad igual a una décima parte de la real. Posteriormente ha simulado también el volumen equivalente a un cerebro de gato (4,5% de la complejidad de un cerebro humano). Sin embargo, estas simulaciones se refieren únicamente a aspectos del comportamiento eléctrico de las neuronas que pueden ser útiles para estudiar ciertas enfermedades relacionadas con la transmisión de los impulsos nerviosos, como la enfermedad Parkinson, pero no son tan interesantes para simular las funciones reales del sistema nervioso.


Como continuación, el proyecto Blue Brain pretende ahora simular un modelo más parecido a las neuronas biológicas, comenzando en una primera fase por una columna cortical, la unidad funcional de bajo nivel en la corteza visual de un mamífero.


Basándose en las mismas ideas, la Unión Europea ha lanzado el Human Brain Project para construir una infraestructura de computación y software para modelar el cerebro, principalmente con fines médicos.


Otra vía de investigación práctica es el desarrollo de chips neuromorfos que intentan replicar en el hardware las características de las neuronas, de manera que sea mucho más eficiente su simulación en paralelo. Sin embargo esta investigación está en una fase muy temprana y no está claro si estos chips reproducirán aspectos de la función neuronal esenciales para los modelos capaces de sustentar funciones cerebrales superiores, y qué potencia de cálculo tendrán.


Por ahora el fabricante de chips Qualcomm está desarrollando con fines comerciales chips que simulan de forma simplificada ciertas funciones de las redes neuronales, pensados para aplicaciones de aprendizaje y control.


Sin embargo, es evidente que ni siquiera los supercomputadores más ponentes son suficientes para abarcar la simulación del sistema nervioso de un sólo ser humano. La cantidad de memoria necesaria para el almacenamiento y la capacidad de procesamiento requerida para la simulación son enormes.

Las estimaciones sobre cuándo un ordenador alcanzará la potencia necesaria varían entre pocos años y un siglo.

Cómo obtener el modelo de un humano

Asumiendo los principios del funcionalismo y suponiendo que dispusiéramos de un modelo suficientemente detallado y de la enorme capacidad de almacenamiento y cálculo necesarias, el otro elemento tecnológico que necesitaríamos para llegar a la transferencia mental sería un sistema capaz de escanear la estructura detallada del sistema nervioso de una persona concreta que quisiéramos reproducir virtualmente.


Los sistemas actuales de escaneado por resonancia magnética DTI recogen ya el movimiento de fluidos en las fibras nerviosas. Existen otros métodos de captura como la resonancia funcional, que da pistas de la actividad general de las neuronas en un área, pero ninguno de estos métodos ofrece el detalle requerido para ver las conexiones individuales y sus propiedades dinámicas.


Por otra parte, estos sistemas de escaneado no destructivo son muy útiles para obtener un conocimiento general del cerebro y su actividad. Se usan para investigar enfermedades como el Alzheimer o el autismo, como puede verse en el maravilloso vídeo que sigue, donde se examinan partes del cerebro de un niño autista de siete años:


Para conseguir más detalle necesitamos, por el momento, utilizar un método de escaneado destructivo que accede directamente al interior del cerebro y lo corta en finas lonchas para analizarlo. Un ejemplo es este método desarrollado en la Universidad de Stanford, capaz de llegar al nivel de las sinapsis y la configuración de receptores y emisores de los neurotransmisores. Otro método utiliza marcadores de ARN para identificar neuronas individuales.

El siguiente vídeo muestra el increíble detalle y belleza de los resultados (en el cerebro de un ratón):


En Harvard han desarrollado un método similar con el MIT:


Suponiendo que el objetivo del escaneado sea preservar nuestra vida mediante una simulación virtual, seguramente sea "aceptable" destruir el cerebro para escanearlo con suficiente detalle. Pero, ¿es esta la única opción?

Raymond Kurzweil, el visionario profeta del transhumanismo, ha propuesto un método de escaneado basado en nanorobots que circularían por nuestro cuerpo y nuestro cerebro, digitalizando todos los detalles necesarios. Pero esta es una idea cuya realización requiere tecnologías aún lejos de nuestro alcance, y no está tan claro que unos nanorobots sencillos pudieran realizar todas las tareas necesarias (necesitarían un sistema de transmisión para comunicar sus datos al exterior, identificando su posición y orientación en el espacio).


En todo caso, las tecnologías de escaneado del cerebro humano se están convirtiendo en una de las áreas de investigación más activas, con congresos y revistas científicas dedicadas exclusivamente a este tema, por no hablar de los grandes proyectos que hemos comentado, así que cabe esperar grandes progresos en los próximos años.


Por otra parte, en el pasado ha habido predicciones demasiado optimistas respecto a otros campos como la inteligencia artificial así que, aunque seguramente habrá avances importantes, no debemos subestimar las dificultades de abordar un sistema con un grado de complejidad tan importante como la mente humana. Esta es la crítica que hace Paul Allen, legendario fundador de Microsoft y a quien nadie puede acusar de falta de visión. Según él, la Singularidad no está tan cerca como dicen los transhumanistas.

Mientras tanto, ya hay empresas que ofrecen preservar indefinidamente el cerebro hasta que la digitalización sea posible.


Conectar el modelo mental con un cuerpo y mundo virtuales


Para replicar una conciencia humana en un mundo virtual no solamente sería necesario reproducir con fantástica fidelidad su sistema nervioso, sino también el cuerpo. Aunque en la ciencia ficción y en las películas es frecuente la suposición de que el cuerpo puede cambiarse, conectarse y desconectarse a diferentes mentes (casi siempre con fines cómicos, pero también en serio, como en "Altered carbon", donde los cuerpos sirven de "fundas" a la consciencia digitalizada), la realidad es que se está descubriendo que el cuerpo y la mente son muy interdependientes.


Todo lo que aprendemos sobre el espacio, el movimiento, el control de los objetos, la relación física con otras personas, es a través de nuestro cuerpo específico. Nuestro sistema nervioso sabe de cada uno de nuestros músculos, cómo responde, qué tensiones soporta, etc. No es tan fácil desacoplar la mente del cuerpo.

Por otra parte, el sistema nervioso debe recibir también estímulos del mundo exterior que estén de acuerdo con sus acciones sobre él. Por ejemplo, si decidimos enfocar los músculos del cristalino a una distancia determinada, las neuronas que terminan en la retina deben recibir estímulos luminosos simulados correspondientes a rayos de luz virtuales que inciden en las direcciones correctas, o si estamos caminando en forma virtual debemos recibir sensaciones de presión adecuadas en los nervios simulados de la planta del pie, de las articulaciones y de todos los órganos del cuerpo que resultan 'sacudidos' por el movimiento. Lo mismo para los demás sentidos.


Simular todo un mundo virtual y la interacción de una persona consciente con ese entorno y con otros humanos es una tarea al menos tan difícil como la propia simulación mental, y multiplica por un factor aún más grande los recursos computacionales necesarios. Muchas de las técnicas necesarias para simular aspectos visuales y sonoros de un mundo virtual se han desarrollado para videojuegos, pero el factor de detalle requerido sería muchísimo mayor:


Además, la simulación de la estructura mental no sería estática, sino que debe permitir que esta estructura cambie en función de las nuevas experiencias virtuales, para que éstas sean almacenadas como nuevos recuerdos y aprendamos de ellas igual que en la realidad.

Igual que en algunas de las simulaciones neuronales complejas que hemos comentado, existe la posibilidad de utilizar más tiempo que el real para hacer la simulación. Por ejemplo, para simular un segundo de "vida virtual" podemos utilizar un año de tiempo de un supercomputador. Los que vivan en el mundo virtual no notarían esta diferencia, pero incluso utilizando este truco tardaremos aún muchos años en disponer de la potencia informática necesaria. Serán necesarios grandes avances en nanotecnología para crear sistemas de computación que sean varios órdenes de magnitud más compactos y rápidos que los actuales.

¿Quién quiere vivir para siempre?


Sean cuales sean las dificultades filosóficas y tecnológicas, la carrera hacia la inmortalidad cibernética está en marcha y se van creando proyectos, comunidades, institutos de investigación, fundaciones e incluso empresas con ese objetivo en mente (nunca mejor dicho).



Quizás nosotr@s no lleguemos a verlo, pero es posible que nuestr@s hij@s o niet@s vivan en un mundo donde esta posibilidad se convierte en algo real, y tengan que enfrentarse a los debates éticos, políticos y económicos que suscitará. Tendrán que tomar partido y quizás elegir entre seguir siendo humanos de carne y hueso, o algo diferente.

Para finalizar, por cortesía de Juan Diego Jaén, que me la recordó...


Hasta la próxima,

    Salvador