Subiendo el disco duro de la mente a la nube: mind uploading
En la entrada anterior vimos que en las fases avanzadas de la evolución transhumana o posthumana se plantea alcanzar la inmortalidad mediante la transferencia de nuestra identidad a una simulación donde nos encontraríamos con otras conciencias similares, bien de otras personas o bien de inteligencias artificiales.
El proceso de llevar nuestra mente a un sistema de simulación se conoce como transferencia mental, a partir del inglés mind uploading. Como vimos, esta idea se ha utilizado con frecuencia en la literatura de ciencia-ficción, y también en cine y televisión, como en la reciente película Trascendence.
Quizás fue el film Tron, en 1982, el primero que planteó como argumento la transferencia de una persona al interior de una simulación. Podéis ver la escena de la digitalización a partir del minuto 1:00:
El planteamiento 'conductista' y Turing
Cuando a mediados del siglo XX se plantearon los primeros modelos de computabilidad y la posibilidad de construir máquinas que los ejecutaran, surgió de forma natural la cuestión de si una máquina podría llegar a pensar. Alan Turing, el famoso matemático y pionero de la informática, publicó en 1950 un artículo llamado Máquinas de Computación e Inteligencia, en el que plantea una alternativa práctica para contestar a esa pregunta: el Test de Turing.
Lo que Turing viene a decir es que sin una definición clara de "pensar" resulta difícil saber si una máquina podría hacerlo. Incluso si una máquina tuviera consciencia, ¿cómo podríamos estar seguros de ello? Turing propone otra forma de abordar la cuestión: decidir si la máquina se comporta como una persona, en una situación en la que no sea tan sencillo distinguir una de otra.
Turing propuso una forma de realizar este test: tanto la computadora como el humano estarían en otra sala, separados de nosotros, y solo pudiéramos juzgar su conducta mediante las respuestas que dieran por escrito a nuestras preguntas.
En este video vemos cómo la idea del Test de Turing se aplica a la observación de avatares en un videojuego, para determinar si son manejados por un humano o por un programa:
Sin embargo, podemos aceptar que una máquina supere el Test de Turing y sin embargo negarnos a admitir que piense o tenga consciencia. Aunque todavía no exista una máquina capaz de pasar con éxito el Test de Turing en todas las circunstancias, el objetivo de los investigadores se sitúa ya más allá: no sólo se plantea crear un programa que responda como un ser humano sino que, por la forma en que razona y se reconoce a sí mismo, podamos decir que piensa y es consciente.
A pesar de esta superación teórica de las ideas de Turing, en la práctica es posible que el matemático tenga razón, y que en nuestra vida cotidiana lleguemos a asignar pensamiento, emociones y consciencia a las máquinas en función de su comportamiento debido a la tendencia humana a antropomorfizar otros seres (ver el libro de Reeves y Nash). Por esta razón, muchos investigadores estudian cómo simular las emociones en las máquinas.
Sin embargo, si queremos reproducir nuestra propia consciencia individual en una simulación, no estaremos satisfechos con un mero test verbal que califique el resultado. Queremos estar seguros de que sentiremos, recordaremos y nos comportaremos en la simulación de una forma similar a cómo lo hacemos en nuestra existencia biológica, incluso con mejoras en nuestras capacidades.
Por tanto, no se trata solo de hacer un modelo detallado del cerebro que responda a los estímulos externos de forma similar a la nuestra (emulación cerebral, o cerebro artificial) sino de reproducir toda nuestra experiencia subjetiva y personal.
La factibilidad de este programa depende de dos supuestos:
- Supuesto 1 (Materialismo): la consciencia tiene una base meramente físico-química y es explicable mediante la naturaleza bioquímica y la estructura del cerebro humano. Esto no implica que podamos identificar los elementos específicos de la consciencia (significados, ideas...) examinando el cerebro, ya que la correspondencia entre pensamientos y sensaciones con la estructura cerebral tendría una increíble complejidad. Sabemos, por ejemplo, que en la representación de un objeto intervienen muchas neuronas y un número grandísimo de conexiones que codifican aspectos visuales, táctiles, relacionales, etc., del objeto. Su significado viene definido por nuestros recuerdos sobre él, las asociaciones con otros objetos, conexiones lingüísticas, etc. Véase, por ejemplo, este interesante artículo.
Lo que sí implica este supuesto es que si consiguiéramos hacer una copia física exacta de un individuo, replicaríamos también su consciencia, incluyendo sus recuerdos, identidad, etc.
Esta posibilidad se ha aprovechado también con frecuencia en la ciencia ficción, abordando la posibilidad de crear réplicas con identidad duplicada, lo que abre el camino a una forma de inmortalidad, como en este hilarante capitulo de la serie alemana sobre Ijon Tichy, el famoso personaje de Stanislaw Lem:
Esta posibilidad de duplicación plantea múltiples cuestiones filosóficas sobre la identidad personal, algunas planteadas por el propio Lem, por ejemplo, la posibilidad de teletransporte creando copias remotas (¿sería un asesinato la eliminación del original?), por no hablar de las consecuencias legales (¿quién sería el propietario de los bienes del sujeto original? ¿asumiría la copia los mismos deberes y obligaciones: matrimonio, condenas penales, etc.?).
- Supuesto 2 (Funcionalismo): las características que permiten la existencia de una consciencia o mente son estructurales-relacionales, no dependen de que su sustrato material sea el mismo de un cerebro humano, sino que se podrían reproducir en otro sustrato material con capacidades estructurales-relacionales homólogas. Esta es la idea de mente independiente del sustrato, una idea que en Filosofía de la Mente o al hablar del problema mente-cuerpo, se identifica con el nombre de Funcionalismo.
La mente construida sobre la materia
Durante casi toda la historia de la humanidad se aceptó que había algún elemento no material que explicaba las capacidades únicas de los seres humanos. Cuando con los avances del Renacimiento se comenzó a estudiar la anatomía humana y se hizo evidente que, en buena medida, el cuerpo funcionaba como una máquina biológica, René Descartes formuló su visión dualista: el cuerpo y el cerebro están controlados por una sustancia no extensa que interactúa con la parte física a través de la glándula pineal.
Aunque actualmente se mantenga la creencia en la existencia del alma, espíritu u otra forma inmaterial, en el ámbito de la ciencia y la filosofía de orientación científica se ha eliminado la referencia a entidades inmateriales para explica las características de la mente y la consciencia humana.
Algunas de las razones para desechar el dualismo y defender una base material de la mente y la consciencia son:
- Las funciones de la mente están mediadas químicamente. El descubrimiento del papel de las hormonas y los neurotransmisores, la explicación de los efectos de las drogas en el cerebro, los fármacos contra la depresión, la hiperactividad o la bipolaridad, todos son indicios de que nuestras funciones mentales (ser conscientes, percibir a través de los sentidos, moverse, emocionarse, tomar decisiones...) están mediadas químicamente y pueden ser alteradas de forma natural o artificial mediante estas sustancias. Si estas funciones residieran fuera del ámbito material, no tendrían por qué verse afectadas.
- Desaparece la noción de una 'acción incausada', de un libre albedrío en sentido estricto. A partir de investigaciones experimentales sobre la realidad y la percepción del tiempo en las acciones humanas, se sabe que el proceso de tomar decisiones se produce en el cerebro antes de que tengamos conscienca de ello (por ejemplo, los impulsos para mover una mano suceden antes de que creamos moverla conscientemente). Dicho de otra manera, la decisión se toma de manera inconsciente a partir de una serie de influencias causales en la red neuronal del cerebro, y se informa del resultado al nivel consciente que reconstruye la secuencia temporal, de manera que parece que el yo consciente ha tomado la decisión.
El modelo de consciencia de Ezequiel Morsella y otros desarrolla esta visión pasiva de la consciencia. Quizás más adelante dedique otra entrada al problema del libre albedrío, que es complejo, pero desde el punto de vista de la causalidad de las acciones, la situación es clara: si queremos hablar de 'voluntad' tenemos que asignarla a las operaciones inconscientes del cerebro, aunque el nivel consciente participe en las deliberaciones previas a la decisión última.
- Hay pruebas claras de que el yo no es una entidad indivisible, sino una amalgama de componentes físicamente distribuidos por el cerebro. Tras los intentos de explicación pseudocientífica de la frenología, mediante estudios más serios sobre los efectos de las lesiones cerebrales se fueron identificando las funciones generales de zonas concretas de la corteza cerebral y otras partes del encéfalo.
Hoy en día, gracias a sensores más sofisticados, se han identificado áreas diminutas que realizan funciones muy precisas, como reconocer rostros de personas. Incluso se ha determinado que hay pequeños grupos de neuronas que se activan al reconocer a personas concretas, como en el experimento de la llamada neurona de Jennifer Aniston.
- El fenómeno de las personalidades múltiples, en el que a partir de un trauma infantil se aislan diferentes personalidades como mecanismo de defensa y apoyo, muestra que la plasticidad del cerebro permite incluso albergar diferentes "yoes" que se activan y desactivan en función de necesidades psicológicas. Antiguamente, esta patología se explicaba recurriendo a la idea de "posesión" del cuerpo por parte de otro espíritu.
Este excelente documental, ganador de un premio Emmy, narra diferentes casos de personalidad mútiple y cómo se producen (lástima que solo lo he encontrado en inglés):
- Otro argumento claro a favor de la distribución física del yo en el cerebro son los experimentos con cerebros divididos, realizados en los años 60 por Roger Sperry y sus colaboradores, y cuyos resultados se han generalizado en una concepción modular del cerebro.
En esta conferencia, Michael Gazzaniga, uno de los colaboradores originales de Sperry, describe el modelo actual de la mente como una red distribuida:
Reduccionismo y emergentismo
La identificación de la mente con su base física en el cerebro despierta frecuentemente acusaciones de reduccionismo. Sin embargo, como dice el propio artículo de Wikipedia, "el uso de la reducción no supone necesariamente el reduccionismo. Como cualquier otra herramienta, la reducción puede ser utilizada de manera moderada o radical".
Una postura reductiva diría que los fenómenos que observamos en el nivel alto de organización (por ejemplo, los fenómenos mentales, los organismos vivos, el calor) están causados por entidades de un nivel inferior (neuronas, compuestos bioquímicos y movimientos de moléculas, respectivamente). No hay necesidad de introducir una 'sustancia mágica' o esencia ad-hoc para explicar su existencia o propiedades (espíritu inmaterial para el caso de la mente, "esencia vital" para el caso de los organismos vivos, "fluido calórico" para el calor, etc.).
Pero una postura reductiva no significa necesariamente reduccionismo. Reduccionismo sería afirmar que podemos describir y explicar el nivel superior solamente con categorías y propiedades del nivel inferior. Así, sabemos que la atmósfera se reduce a moléculas gaseosas, pero a nadie se le ocurre describir los fenómenos meteorológicos utilizando la física molecular. El movimiento de los gases se organiza en estructuras de alto nivel (nubes, viento, frentes, etc.) que son más útiles para describir, explicar y predecir los fenómenos en el nivel superior.
Desde este punto de vista, la organización de los fenómenos mentales ha ido emergiendo evolutivamente de la estructura de procesamiento de información del sistema nervioso, que a su vez emerge de las neuronas que lo componen. De hecho, esta evolución de millones de años hacia la complejidad ha hecho que el sistema nervioso humano sea el objeto más complejo del universo conocido.
Por cierto, la idea de que solo usamos el 10% del cerebro es una de esas leyendas urbanas que se basa solamente en la ignorancia que existía hace años acerca de las funciones de ciertas áreas del cerebro:
De todas formas, aunque comprendamos las reglas de funcionamiento básico de las estructuras neuronales, no tiene sentido realizar una descripción del estado mental de una persona recurriendo a cómo se encuentra cada sinapsis de cada una de sus neuronas. Tendría el mismo sentido y la misma dificultad que describir el tiempo atmosférico describiendo el movimiento de cada molécula de aire y vapor de agua. Necesitamos utilizar propiedades y categorías de un nivel más alto.
Sin embargo, como hemos visto en el caso de la 'neurona de Jennifer Anniston', si podremos detectar algunos componentes de los estados mentales viendo el mapa de neuronas activas. En muchos casos necesitaremos conocimiento específico de cómo este mapa está configurado en esa persona en particular.
En su increible libro "Gödel, Escher, Bach", que ya he mencionado en otras ocasiones, Douglas R. Hofstadter expone la postura del emergentismo débil a través de un cuento. Una de las protagonistas, Madame Cologne d'Or Migas (una colonia de hormigas) conversa con otros de los personajes mientras éstos observan su funcionamiento interno (los comportamientos de las hormigas), viendo cómo se construyen y fluyen los símbolos e ideas que forman los pensamientos y las acciones de Madame Cologne d'Or Migas.
En este símil de la colonia, el cerebro es como un hormiguero donde las neuronas juegan el papel de las hormigas. Obviamente, las hormigas-neuronas individuales no son inteligentes, no saben cuál es el resultado final de sus acciones desde el punto de vista de la colonia-cerebro, pero eso no quiere decir que no sean ellas (a través de las reglas de comportamiento guiadas por la evolución y el aprendizaje) las responsables de la conducta de la colonia-cerebro como totalidad, de la misma manera que durante el desarrollo fetal cada célula embrionaria hace lo que tiene que hacer para dar forma al organismo como totalidad.
El relato de Madame Cologne d'Or Migas esta incluido también en The Mind's I, una recopilación de relatos y artículos de Hofstadter y el filósofo Daniel Dennett, donde apoyan su idea de la mente como sistema de computación.
Ya hemos visto que en la secuencia temporal de una acción realizada por la mente, el nivel consciente es el último en enterarse, y por tanto no puede ser el que cause la acción de las neuronas que realizan anteriormente el proceso inconsciente que toma la decisión.
De esta forma se pueden preservar en un contexto materialista conceptos como la responsabilidad personal y el libre albedrío. Aunque sean ilusorios si los observamos desde el nivel de descripción de las neuronas, son necesarios para la descripción del mundo en el nivel de las personas y la sociedad.
Por ello, como explica Daniel C. Dennett en su libro "La evolución de la libertad", el determinismo en el comportamiento de las neuronas no es incompatible con el libre albedrío como propiedad de la mente como totalidad.
De todas formas, el problema mente-cuerpo es un campo abonado desde hace siglos a la discusión y no tiene una solución trivial. Os invito a buscar más material sobre este tema (ver, por ejemplo, aquí y aquí) y formaros vuestra propia opinión, aunque a veces el debate entre los filósofos alcanza alturas técnicas difíciles de seguir.
Teorías de la consciencia
Una vez vistos los argumentos a favor de que la mente tiene su base en la materia y en la biología del sistema nervioso central, veamos cómo pueden estas estructuras cerebrales formar el curioso fenómeno que experimentamos como consciencia, cómo es posible que nos demos cuenta de lo que nos rodea y de nuestros propios pensamientos y sensaciones.
El mito de la conciencia cuántica
Algunas teorías de la conciencia se apoyan sobre un nivel físico inferior a las conexiones entre las neuronas. Por ejemplo, el físico y matemático Roger Penrose propone que el libre albedrío de la mente se fundamentaría en la indeterminación e impredecibilidad cuántica de la materia microscópica. Para ello propone una serie de estructuras neuronales (microtúbulos) como sede originaria de la consciencia que la estructura cerebral explotaría para sus funciones superiores, aunque no está nada claro qué relación hay entre el nivel microscópico y las capacidades generales de la consciencia.
La teoría de Penrose está relacionada con una visión más o menos popular que afirma que la consciencia se relaciona con los procesos cuánticos de determinación del estado de los sistemas a partir de su onda de probabilidad (el problema de la medida o del colapso de la función de onda), constituyendo una especie de misticismo cuántico.
Aunque no haya una explicación completa del mecanismo que produce la reducción de la onda de probabilidad durante la medida en un sistema microscópico, el hecho de que al final de la cadena de medición esté la consciencia de una persona que recibe la información no quiere decir que sea esta conciencia la que causa la medida. Sería tanto como decir que porque la luz de los objetos llega al final a los ojos, son los ojos los que generan la luz.
Además, en ningún caso el observador decide en qué estado queda lo observado, sino que el resultado viene dado por las azarosas probabilidades calculadas por la mecánica cuántica. Circulan muchas teorías absurdas que mezclan conceptos científicos reciclados e ideas descabelladas de cosecha propia y aprovechan la popularidad de la terminología 'cuántica' para dar mayor caché a su negocio pseudocientífico.
En este excelente artículo podéis encontrar una crítica al uso de esta terminología cuántica, particularmente en las teorías de la consciencia como la de Penrose, y una crítica general a la manía de los científicos de cierta edad, expertos en un campo determinado, de meterse en otros campos de los que no saben mucho.
La mente como propiedad de la estructura del sistema nervioso
Edelman, premio Nobel de Fisiología y Medicina, propone que las características de la consciencia pueden derivarse de la forma en que las neuronas se organizan mediante un mecanismo de competencia darwinista. En particular, la conscienca se basaría en la tendencia de las estructuras neuronales a establecer conexiones de reentrada, es decir, bucles de realimentación entre los mapas construidos en el sistema nervioso central para representar diferentes aspectos de la realidad (espaciales, lingüísticos, conceptuales). Estos bucles continuos de neuronas que representan conceptos y relaciones en un nivel alto de abstracción (incluido el concepto del propio yo) es lo que llamamos consciencia.
En la teoría de Edelman cabe la evolución continua de la consciencia en el mundo animal desde formas más sencillas (consciencia primaria) hasta una consciencia superior mediada por el lenguaje, como la nuestra.
Dicho de otra manera, la consciencia sería una serie de bucles continuos que conectan una visión de alto nivel de abstracción sobre lo que pasa en el mundo, en el propio cuerpo y en el sistema nervioso de la persona. En los humanos serían los lóbulos frontales, donde se evalúan los riesgos y planifican las acciones, la clave estructural de la consciencia.
En nuestra especie, buena parte de estos bucles se entrelaza con la percepción de nuestros pensamientos en forma lingüística. En este sentido hay que reconocer el trabajo pionero del bioquímico español Faustino Cordón identificando el pensamiento como una evolución de nuestra capacidad verbal, mediante la cual somos capaces de "escucharnos hablar a nosotros mismos", como forma de utilizar nuestro conocimiento almacenado sin necesidad de emitir las palabras vocalmente.
Hay autores que niegan esta posibilidad, como David Chalmers, separando dos niveles de explicación en lo relativo a la mente. Aunque acepta que todas las funciones de la mente y la mayor parte de lo que consideramos consciencia tienen una base biológica (cree, por ejemplo, que todos los sistemas que procesan información, por simples que sean, tienen un cierto grado de consciencia), por otro lado Chalmers piensa que el nivel de la experiencia consciente subjetiva no puede ser explicado desde una visión neurológica, proponiendo un 'dualismo naturalista'.
Uno de los más persistentes críticos del funcionalismo y de la posibilidad de concebir y simular la mente como software es John Searle, el inventor de la metáfora de la caja o habitación china, que mencionaremos después. Searle cree que las propiedades de la mente emergen del sustrato biológico, pero mantiene que hay aspectos como el significado de los símbolos que manejamos y la experiencia sensorial subjetiva (los famosos qualia) que no pueden explicarse mediante una descripción neurofisiológica o funcional. De hecho Searle critica a todos los que de una manera u otra quieran descifrar lo que él llama "el misterio de la consciencia".
Funcionalismo y software mental
La idea funcionalista de la mente ha pasado por diversas fases, defendida por científicos y filósofos cercanos a la informática y la teoría de la información, contendiendo con severas críticas desde diferentes campos, incluyendo a neurobiólogos como Edelman que a pesar de coincidir en la base biológica de la mente niegan que pueda concebirse como un software susceptible de simulación y que piensan que la conciencia es inseparable de las características de su sustrato neural.
Sin embargo, a pesar de las críticas, la visión funcionalista se va imponiendo con los avances de los modelos computacionales que replican el aprendizaje, la memoria, la percepción visual y el lenguaje. En mi opinión, el rechazo que suscita el funcionalismo entre algunos autores se debe en parte a que el concepto de "mente como software" resulta equívoco y basado en modelos anticuados de la "inteligencia artificial" que la conciben como basada en entidades de alto nivel (conceptos, lenguaje, reglas...) y en una comparación inconsciente con el software que manejamos todos los días y que evidentemente aún dista mucho de ser inteligente o consciente.
Por tanto el cerebro puede verse como ejecutando un gigantesco (increíblemente complejo) programa de cálculo en paralelo. La parte de este programa que se refiere a los bucles autorreferentes que forman el nivel consciente sería el software que define el funcionamiento de la consciencia.
Las diferencias y discusiones entre diferentes versiones del funcionalismo, y entre los funcionalistas y sus críticos, se deben muchas veces a la confusión o énfasis en diferentes niveles de abstracción del programa mental. Por ejemplo, la Inteligencia Artificial clásica y los modelos cognitivos de la mente utilizan funciones de software de muy alto nivel, como el procesamiento de símbolos lingüísticos y el almacenamiento de conceptos. De esta manera, son fácilmente atacables por argumentos como el de la habitación china de Searle. Una máquina puede manejar símbolos y generar salidas más o menos compatibles con el test de Turing, pero obviamente no "entiende" esos símbolos como lo hacemos nosotros.
Pero esta crítica falla si cambiamos la escala del modelo. En el cerebro humano, las neuronas no comprenden los símbolos que representan y procesan, y sin embargo el sistema en su totalidad sí lo hace. La crítica de la habitación china no tiene porqué ser aplicable a un sistema muy complejo con diversos niveles de organización y representación, incluyendo la autorepresentación, porque este sistema puede representar conceptos y relaciones semánticas adquiridos mediante aprendizaje.
En el otro extremo de la IA clásica está el conexionismo, que defiende que el software del cerebro se construye con las funciones de procesamiento de las neuronas, capaces de aprender y autoorganizarse para reconocer, recordar y calcular. El conexionismo defiende que estos procesos no se pueden recrear con un software basado en reglas simbólicas como el de la Inteligencia Artificial clásica. Pero, por otro lado, resulta difícil derivar las funciones y conceptos de alto nivel que elabora la mente humana a partir de esta visión de bajo nivel, con neuronas y sinapsis, igual que no resulta factible describir el tiempo atmosférico utilizando las moléculas del aire.
La solución al dilema entre el alto nivel cognitivo y el bajo nivel de procesos neuronales es reconocer que hay una jerarquía de niveles de procesamiento entrelazados, con funciones cercanas a las redes neuronales simples en los niveles inferiores, mientras en los niveles superiores se componen funciones más cercanas a las reglas de lógica difusa sobre conceptos abstractos. Esta complejidad a diferentes niveles es difícil reproducir en la práctica, pero sería capaz de explicar las propiedades de la mente y en teoría podría ser replicada mediante un software muy complejo.
Un filósofo contemporáneo decididamente funcionalista es Daniel C. Dennett. Ya hemos comentado su trabajo con Douglas Hofstadter para explicar cómo las propiedades mentales emergen a partir de una estructura compleja y cómo defiende la compatibilidad del determinismo y del libre albedrío en cierto sentido.
En su libro La Consciencia Explicada, Dennett presenta su modelo funcionalista de la consciencia y cómo se relaciona con la evolución biológica.
En esta reciente conferencia, Dennett expone sus ideas de una forma sencilla, cómo se puede describir objetivamente la consciencia, que a veces nos engaña a nosotros mismos.
Replicando el software de la mente
- Al igual que en un programa de ordenador, el software mental puede tener varios niveles de abstracción, subrutinas y funciones anidadas, unas dentro de otras, según las jerarquías enlazadas que hemos visto antes. Por ejemplo, la función "ser consciente de lo que me rodea" se descompondría en módulos con funciones para la percepción visual, auditiva, etc. y mantendrían mapas mentales del espacio, de las relaciones sociales y de otros agentes activos. A su vez cada canal de percepción se basaría en varios procesos paralelos. Por ejemplo, en el sistema visual se procesan por separado el movimiento, el color y la forma. Este análisis llegaría hasta los niveles más bajos, donde pequeños grupos de neuronas realizan funciones sencillas como detectar líneas verticales, reconocer caras, etc.
- Si replicáramos las mismas funciones de cálculo en otro soporte físico (una simulación informática) y les proporcionáramos entradas de estímulos similares a las que se encontraría en el mundo real (incluyendo información sobre su propio cuerpo), tendríamos respuestas y estados internos muy similares a los del software mental y, por tanto, una simulación de la mente original.
- Que se reproduzcan las propiedades mentales (percepción, imaginación, motivación...), incluyendo la consciencia.
- Que se preserven las características distintivas de la persona concreta (sus conocimientos, recuerdos, creencias, tendencias, estilo cognitivo, personalidad, estilo de movimiento físico, de habla...)
- Que la simulación sea capaz de seguir aprendiendo y adquiriendo nuevos recuerdos.
Modelando de arriba a abajo (top-down)
Una aproximación para replicar las funciones de un cerebro humano sería hacer "ingeniería inversa", igual que cuando intentamos comprender cómo funciona una máquina: vemos cuáles son sus partes y cómo se conectan, y luego intentamos replicarlas.
Aunque hemos visto antes que comenzamos a conocer los grandes bloques funcionales del cerebro, la complejidad de las interconexiones es tan grande que desenmarañar todos los componentes llevará un tiempo y unos recursos considerables.
Los objetivos del proyecto Conectoma y la iniciativa BRAIN son similares a los proyectos de genoma humano, pero respecto a la red neuronal: su objetivo es crear un mapa detallado del cerebro, pero la complejidad y la variabilidad de las conexiones cerebrales son mucho mayores que la del ADN.
Sin embargo, ni siquiera con el resultado de estos proyectos llegaremos a obtener el detalle suficiente para elaborar una simulación detallada. Por ejemplo, solo cartografiarán fibras -grupos de conexiones-, pero no las conexiones ni sinapsis individuales. No sabremos qué fuerza tienen, qué función matemática ejecutan, y mucho menos cómo cambian con el tiempo. Con suerte, tendremos un mapa genérico del esquema general para un humano tipo, pero sabemos que hay grandes variaciones por sexo, cultura, y no digamos individuales, en la escala de detalle necesaria para replicar la consciencia.
En este video del programa Redes, uno de los responsables del proyecto Conectoma, Sebastian Seung, quien ha popularizado la frase "Yo soy mi conectoma", habla de sus objetivos y esperanzas:
Modelando de abajo a arriba (bottom-up): redes neuronales
La aproximación preferida por los proponentes de la "transferencia mental" es diferente: la idea es hacer un modelo detallado de las conexiones de un individuo específico hasta el nivel de las sinapsis y llevar ese modelo a una simulación que las reproduzca. De esta forma no tendríamos que preocuparnos por las estructuras de alto nivel del cerebro y en teoría capturaríamos todos los recuerdos y características particulares del individuo.
En este vídeo podemos ver un resumen del funcionamiento de la red neuronal:
Desde hace décadas se han desarrollado modelos matemáticos y computacionales relativamente sencillos de redes de neuronas que se utilizan con éxito para construir sistemas computacionales que aprenden a reconocer o controlar objetos o patrones específicos.
Estas redes neuronales artificiales se han extendido en aplicaciones de visión por computador, reconocimiento del lenguaje, etc., pero también para finanzas, bolsa, conducción automática, clasificación, algoritmos de redes sociales. Las redes neuronales artificiales son una de las técnicas que ha permitido la explosión del "machine learning" o aprendizaje automático.
Uno de los supercomputadores más potentes del mundo, la serie Blue Gene de IBM, ha simulado una red tan compleja como el cerebro de un ratón a una velocidad igual a una décima parte de la real. Posteriormente ha simulado también el volumen equivalente a un cerebro de gato (4,5% de la complejidad de un cerebro humano). Sin embargo, estas simulaciones se refieren únicamente a aspectos del comportamiento eléctrico de las neuronas que pueden ser útiles para estudiar ciertas enfermedades relacionadas con la transmisión de los impulsos nerviosos, como la enfermedad Parkinson, pero no son tan interesantes para simular las funciones reales del sistema nervioso.
Como continuación, el proyecto Blue Brain pretende ahora simular un modelo más parecido a las neuronas biológicas, comenzando en una primera fase por una columna cortical, la unidad funcional de bajo nivel en la corteza visual de un mamífero.
Basándose en las mismas ideas, la Unión Europea ha lanzado el Human Brain Project para construir una infraestructura de computación y software para modelar el cerebro, principalmente con fines médicos.
Otra vía de investigación práctica es el desarrollo de chips neuromorfos que intentan replicar en el hardware las características de las neuronas, de manera que sea mucho más eficiente su simulación en paralelo. Sin embargo esta investigación está en una fase muy temprana y no está claro si estos chips reproducirán aspectos de la función neuronal esenciales para los modelos capaces de sustentar funciones cerebrales superiores, y qué potencia de cálculo tendrán.
Por ahora el fabricante de chips Qualcomm está desarrollando con fines comerciales chips que simulan de forma simplificada ciertas funciones de las redes neuronales, pensados para aplicaciones de aprendizaje y control.
Sin embargo, es evidente que ni siquiera los supercomputadores más ponentes son suficientes para abarcar la simulación del sistema nervioso de un sólo ser humano. La cantidad de memoria necesaria para el almacenamiento y la capacidad de procesamiento requerida para la simulación son enormes.
Las estimaciones sobre cuándo un ordenador alcanzará la potencia necesaria varían entre pocos años y un siglo.
Cómo obtener el modelo de un humano
Asumiendo los principios del funcionalismo y suponiendo que dispusiéramos de un modelo suficientemente detallado y de la enorme capacidad de almacenamiento y cálculo necesarias, el otro elemento tecnológico que necesitaríamos para llegar a la transferencia mental sería un sistema capaz de escanear la estructura detallada del sistema nervioso de una persona concreta que quisiéramos reproducir virtualmente.
Los sistemas actuales de escaneado por resonancia magnética DTI recogen ya el movimiento de fluidos en las fibras nerviosas. Existen otros métodos de captura como la resonancia funcional, que da pistas de la actividad general de las neuronas en un área, pero ninguno de estos métodos ofrece el detalle requerido para ver las conexiones individuales y sus propiedades dinámicas.
Los sistemas actuales de escaneado por resonancia magnética DTI recogen ya el movimiento de fluidos en las fibras nerviosas. Existen otros métodos de captura como la resonancia funcional, que da pistas de la actividad general de las neuronas en un área, pero ninguno de estos métodos ofrece el detalle requerido para ver las conexiones individuales y sus propiedades dinámicas.
Por otra parte, estos sistemas de escaneado no destructivo son muy útiles para obtener un conocimiento general del cerebro y su actividad. Se usan para investigar enfermedades como el Alzheimer o el autismo, como puede verse en el maravilloso vídeo que sigue, donde se examinan partes del cerebro de un niño autista de siete años:
Para conseguir más detalle necesitamos, por el momento, utilizar un método de escaneado destructivo que accede directamente al interior del cerebro y lo corta en finas lonchas para analizarlo. Un ejemplo es este método desarrollado en la Universidad de Stanford, capaz de llegar al nivel de las sinapsis y la configuración de receptores y emisores de los neurotransmisores. Otro método utiliza marcadores de ARN para identificar neuronas individuales.
El siguiente vídeo muestra el increíble detalle y belleza de los resultados (en el cerebro de un ratón):
Suponiendo que el objetivo del escaneado sea preservar nuestra vida mediante una simulación virtual, seguramente sea "aceptable" destruir el cerebro para escanearlo con suficiente detalle. Pero, ¿es esta la única opción?
El siguiente vídeo muestra el increíble detalle y belleza de los resultados (en el cerebro de un ratón):
En Harvard han desarrollado un método similar con el MIT:
Raymond Kurzweil, el visionario profeta del transhumanismo, ha propuesto un método de escaneado basado en nanorobots que circularían por nuestro cuerpo y nuestro cerebro, digitalizando todos los detalles necesarios. Pero esta es una idea cuya realización requiere tecnologías aún lejos de nuestro alcance, y no está tan claro que unos nanorobots sencillos pudieran realizar todas las tareas necesarias (necesitarían un sistema de transmisión para comunicar sus datos al exterior, identificando su posición y orientación en el espacio).
En todo caso, las tecnologías de escaneado del cerebro humano se están convirtiendo en una de las áreas de investigación más activas, con congresos y revistas científicas dedicadas exclusivamente a este tema, por no hablar de los grandes proyectos que hemos comentado, así que cabe esperar grandes progresos en los próximos años.
Por otra parte, en el pasado ha habido predicciones demasiado optimistas respecto a otros campos como la inteligencia artificial así que, aunque seguramente habrá avances importantes, no debemos subestimar las dificultades de abordar un sistema con un grado de complejidad tan importante como la mente humana. Esta es la crítica que hace Paul Allen, legendario fundador de Microsoft y a quien nadie puede acusar de falta de visión. Según él, la Singularidad no está tan cerca como dicen los transhumanistas.
Mientras tanto, ya hay empresas que ofrecen preservar indefinidamente el cerebro hasta que la digitalización sea posible.
Conectar el modelo mental con un cuerpo y mundo virtuales
Para replicar una conciencia humana en un mundo virtual no solamente sería necesario reproducir con fantástica fidelidad su sistema nervioso, sino también el cuerpo. Aunque en la ciencia ficción y en las películas es frecuente la suposición de que el cuerpo puede cambiarse, conectarse y desconectarse a diferentes mentes (casi siempre con fines cómicos, pero también en serio, como en "Altered carbon", donde los cuerpos sirven de "fundas" a la consciencia digitalizada), la realidad es que se está descubriendo que el cuerpo y la mente son muy interdependientes.
Por otra parte, el sistema nervioso debe recibir también estímulos del mundo exterior que estén de acuerdo con sus acciones sobre él. Por ejemplo, si decidimos enfocar los músculos del cristalino a una distancia determinada, las neuronas que terminan en la retina deben recibir estímulos luminosos simulados correspondientes a rayos de luz virtuales que inciden en las direcciones correctas, o si estamos caminando en forma virtual debemos recibir sensaciones de presión adecuadas en los nervios simulados de la planta del pie, de las articulaciones y de todos los órganos del cuerpo que resultan 'sacudidos' por el movimiento. Lo mismo para los demás sentidos.
Simular todo un mundo virtual y la interacción de una persona consciente con ese entorno y con otros humanos es una tarea al menos tan difícil como la propia simulación mental, y multiplica por un factor aún más grande los recursos computacionales necesarios. Muchas de las técnicas necesarias para simular aspectos visuales y sonoros de un mundo virtual se han desarrollado para videojuegos, pero el factor de detalle requerido sería muchísimo mayor:
Además, la simulación de la estructura mental no sería estática, sino que debe permitir que esta estructura cambie en función de las nuevas experiencias virtuales, para que éstas sean almacenadas como nuevos recuerdos y aprendamos de ellas igual que en la realidad.
Igual que en algunas de las simulaciones neuronales complejas que hemos comentado, existe la posibilidad de utilizar más tiempo que el real para hacer la simulación. Por ejemplo, para simular un segundo de "vida virtual" podemos utilizar un año de tiempo de un supercomputador. Los que vivan en el mundo virtual no notarían esta diferencia, pero incluso utilizando este truco tardaremos aún muchos años en disponer de la potencia informática necesaria. Serán necesarios grandes avances en nanotecnología para crear sistemas de computación que sean varios órdenes de magnitud más compactos y rápidos que los actuales.
¿Quién quiere vivir para siempre?
Sean cuales sean las dificultades filosóficas y tecnológicas, la carrera hacia la inmortalidad cibernética está en marcha y se van creando proyectos, comunidades, institutos de investigación, fundaciones e incluso empresas con ese objetivo en mente (nunca mejor dicho).
Quizás nosotr@s no lleguemos a verlo, pero es posible que nuestr@s hij@s o niet@s vivan en un mundo donde esta posibilidad se convierte en algo real, y tengan que enfrentarse a los debates éticos, políticos y económicos que suscitará. Tendrán que tomar partido y quizás elegir entre seguir siendo humanos de carne y hueso, o algo diferente.
Para finalizar, por cortesía de Juan Diego Jaén, que me la recordó...
Hasta la próxima,
Salvador