Translate this page

viernes, 28 de diciembre de 2018

Inteligencia artificial, filosofía y ciencia ficción



¿Máquinas que piensan?

La inteligencia artificial (IA) está de más actualidad que nunca debido a los avances recientes en sistemas de aprendizaje automático y en aplicaciones como los asistentes virtuales, los vehículos automáticos y los algoritmos que analizan nuestras preferencias en las redes sociales o en el consumo de contenidos en línea. Estos programas “inteligentes” afectan ya a nuestra vida y su impacto crecerá aún más a medida que se integren, y quizás sustituyan, muchas funciones hasta ahora exclusivamente humanas, como la creación artística, el cuidado de los enfermos, la gestión pública, el derecho o la defensa.
Diversas personalidades, como Stephen Hawking y Elon Musk, han advertido de los problemas que acarrearía un desarrollo descontrolado de las IAs, pero ¿es posible que estos sistemas sean realmente capaces de pensar, sentir y ser conscientes como nosotros? ¿Cómo será nuestra relación con ellos en el futuro?
Exploremos estas cuestiones desde la perspectiva de dos campos en apariencia distantes: la filosofía académica y la ciencia ficción.


Del espíritu divino al Test de Turing

El mito hebreo del golem se repite en diversas formas desde la Biblia hasta el siglo XVI y algunos lo consideran un antecedente de la ciencia ficción. Esta leyenda cuenta cómo un rabino crea un ser artificial que le ayuda a proteger a su pueblo. Lo hace insuflando la chispa divina en una masa de barro, un acto que reproduce, a menor escala, la creación del primer hombre por parte del dios judeocristiano.
La concepción de la naturaleza de la vida que subyace a esta historia es el dualismo: la materia por sí misma es inanimada y requiere un espíritu o alma de origen divino para convertirse en un ser vivo. El golem es un pálido reflejo de esta combinación, sin voz ni inteligencia, pues el rabino, por muy sabio que sea, no tiene poder para replicar toda la potencia del acto divino.
En el siglo XVII, el filósofo René Descartes dio un vuelco a esta visión. Por un lado, se opone al vitalismo tradicional y a las ideas aristotélicas sobre la naturaleza, adoptando una visión mecanicista para explicar mediante procesos físicos el funcionamiento de los astros, las plantas, los animales y el cuerpo humano. Sin embargo, Descartes defiende la singularidad humana por la presencia de un alma o mente inmaterial de la que carecería cualquier otro ser. Aunque esta concepción dualista, con una materia y un espíritu como sustancias diferenciadas, ha sido rechazada ampliamente por la filosofía y la ciencia posterior, todavía perdura en las ideas populares y religiosas sobre la naturaleza humana.


Será Mary Shelley, con su novela Frankenstein (1818), quien dé el gran paso con el que nace la ciencia ficción moderna. Su “golem” no consigue la vida gracias a la infusión de un espíritu místico, sino porque la electricidad despierta una mente primitiva en el cuerpo ensamblado por un científico, que sustituye al rabino y a la propia divinidad en su papel creador. Este ser artificial es defectuoso y, a pesar de sus buenas intenciones, entra en conflicto con la sociedad humana. Parece inevitable una conclusión moralizante: el hombre no debería arrogarse el poder de crear de vida inteligente.
Este patrón arquetípico del monstruo de Frankenstein se repetirá en innumerables ocasiones referido a androides y máquinas pensantes, por ejemplo, con la ginoide de “Metrópolis” (1927), la computadora HAL 9000 de la película “2001: una odisea del espacio” (1968), el ordenador Colossus, en el film con el mismo nombre (1970), o el Skynet de la saga “Terminator” (1984).


El desarrollo de los primeros ordenadores dignos de tal nombre comenzó a finales de los años 1930 (e Zuse Z1 de 1938 es considerado el primer computador) y se aceleró en los años 40 y 50. Inmediatamente se puso sobre la mesa la cuestión de si estas máquinas podrían llegar a pensar y qué consecuencias se derivarían de ello.
Isaac Asimov, prolífico autor de ciencia ficción y perenne optimista acerca del poder benefactor de la ciencia, deseaba contrarrestar el influjo mitológico de Frankenstein y el temor de la gente de que las máquinas se alzaran contra sus creadores. Comenzando con su relato “Círculo vicioso” (1940) escribió historias de robots futuristas dotados de un cerebro artificial, cuyo comportamiento está regulado por tres Leyes de la Robótica que garantizan su fidelidad a los humanos. En posteriores relatos y novelas, Asimov llega a dejar en manos de estas IAs la salvaguarda de la humanidad como especie. Durante la década de los 50 vemos este tipo de robots obedientes y bondadosos en películas como “Ultimátum a la Tierra” (1951) y “Planeta prohibido” (1956).

Por otro lado, Alan Turing, matemático inglés que había trabajado en los fundamentos teóricos de la computación y había contribuido a descifrar los códigos nazis durante la Segunda Guerra Mundial, publicó en 1950 el artículo “Máquina computadora e inteligencia”, donde realiza el primer análisis filosófico acerca del posible pensamiento de las máquinas. En la época de Turing, la corriente psicológica dominante era el conductismo, que renunciaba a definir estados mentales internos y se preocupaba en su lugar de la conducta visible de los individuos. Siguiendo esta idea, Turing propone sustituir la cuestión sobre el pensamiento de las máquinas por una prueba (el famoso Test de Turing) mediante la cual trataríamos de distinguir las respuestas escritas de un ordenador de aquellas proporcionadas por una persona. Si esta distinción no es posible, propone Turing, debemos afirmar que a todos los efectos prácticos el ordenador es capaz de pensar.


La mente como software: el funcionalismo y sus críticos

El conductismo entró en declive a partir de los años 50, coincidiendo con el auge de la psicología cognitiva, que defendía la validez de los estados y procesos mentales. Adoptando una postura materialista (no dualista), la nueva psicología afirmó que debía existir una relación entre los contenidos de la mente (un dolor, una idea, una creencia, un recuerdo) y los estados de las neuronas en el cerebro. De hecho, cada vez existían más pruebas de esta relación gracias a los estudios sobre drogas, lesiones cerebrales y experiencias de estimulación directa de la corteza.
Sin embargo, pronto se vio que la correspondencia entre estados de la mente y del cerebro no podía ser rígida, ya que nuestras estructuras neuronales son individualmente diferentes y cambiantes. Aunque compartimos sensaciones, ideas y estructuras de pensamiento similares, un mismo estado mental puede tener múltiples realizaciones físicas.
El desarrollo de la informática mostró que el comportamiento de un ordenador (la respuesta a las entradas de datos) venía definido por su “software”, y que los programas podían funcionar de forma idéntica aunque cambiara el soporte físico (“hardware”). Siguiendo esta idea, el funcionalismo (formulado por primera vez por Hilary Putnam en 1960) propone que los estados mentales son independientes de su realización física concreta: la mente es como el software del cerebro y puede ser ejecutado con resultados similares en cerebros diferentes. Algún día el software o algoritmo de una mente podría funcionar sobre otro soporte físico, quizás una máquina suficientemente compleja que dispondría, por tanto, de estados mentales (sentimientos, pensamientos) equivalentes a los humanos.
Desde el mismo momento de su formulación, se propusieron diversas objeciones a la idea de que un software pueda pensar. Una de ellas, formulada por Fodor en 1972 y defendida luego por Nagel, Searle, Penrose y otros, es que nuestras percepciones y sentimientos se reducen a elementos llamados qualia que dependen del sustrato físico de nuestro sistema nervioso y no pueden ser reproducidos en una máquina. Según ello, un robot nunca podría percibir, sentir o pensar como nosotros porque no tiene la misma experiencia interna.
Sin embargo, si consideramos que las sensaciones son mediadas por impulsos neuroeléctricos a través de conexiones concretas (la señal de “rojo” puede significar “verde” o “dolor” si la conectamos en un lugar diferente), ¿no tendría la misma información y las mismas sensaciones cualquier sistema que reciba y procese información con el mismo patrón de conexiones?
Otra objeción al Test de Turing y a la idea de la mente como software es la que formuló Searle en 1980 con su famoso experimento imaginario de la habitación china. Si en una habitación hay personas que solo entienden el español, dice Searle, pero son capaces de responder a preguntas en chino cotejando estos símbolos con las reglas escritas en un libro (o en un programa de ordenador), ¿significa eso que estas personas comprenden el chino? Obviamente no, y por eso, según Searle y otros, una computadora tampoco comprenderá nunca el lenguaje, por mucho que sea capaz de imitar la conducta verbal humana.

Veamos un par de respuestas a estos argumentos, utilizando relatos de ciencia ficción como vehículo. En su maravilloso libro “Gödel, Escher y Bach: un Eterno y Grácil Bucle”, Douglas R. Hofstadter cuenta la historia de unos personajes que se encuentran con una sofisticada colonia de insectos sociales llamada Madame Cologne d’Or Migas, con la cual se comunican mientras observan sus procesos internos: cómo las hormigas realizan las tareas de interpretar, procesar y formar símbolos para responder a sus mensajes. Se trata de una alegoría sobre la habitación china, donde las hormigas (o neuronas) son capaces de generar pensamiento y lenguaje sin comprender los significados que manejan. Como trabajadores en una cadena de montaje, solo ven su parte del proceso, pero el que las neuronas o los circuitos individuales no sean capaces de pensar no quiere decir que no lo haga el sistema que forman entre todas.
Por su parte, el genial escritor polaco Stanislaw Lem utilizó robots inteligentes en muchas de sus historias para ilustrar las miserias y el antropocentrismo de la raza humana. Nada menos que tres de sus relatos fueron recogidos en “Mind’s I” (1981), la compilación de textos sobre filosofía de la mente realizada por Hofstadter y el filósofo Daniel Dennett. En estas historias los protagonistas son robots, creadores de simulaciones donde se han desarrollado seres humanoides. Los bruñidos robots discuten si estos seres, a pesar de un diseño corporal marcado por el despiadado azar de la evolución, pueden ser capaces de sentir y pensar.

Hacia la Singularidad

Las críticas a la idea de la mente como software son comprensibles, dada la simplicidad que tuvieron los programas de ordenador durante décadas. La IA tradicional solo fue capaz de crear “sistemas expertos” que reflejaban el conocimiento de una persona especializada en cierta materia, sintetizando este saber en forma de unas pocas reglas. Resulta difícil concebir que se llegue a producir una máquina pensante y sintiente mediante esta aproximación.
Sin embargo, en los últimos años se ha producido un salto cualitativo en la potencia de la IA, y ello ha sido posible al replicar las fuentes que dotan a los cerebros animales de sus especiales capacidades. Una de las técnicas utilizadas es el desarrollo de software basado en redes neuronales en lugar de reglas predefinidas. Otra es la introducción de procesos evolutivos en el software, como la realimentación de estas redes con el aprendizaje y el uso de algoritmos genéticos que simulan de forma acelerada los procesos de selección y adaptación.

Desde el punto de vista práctico, esta nueva forma de IA ha permitido que el software supere a los humanos en tareas cada vez más complejas, no solo en juegos como el ajedrez y el go, sino también en áreas como el diagnóstico médico, la demostración matemática y la detección de patrones ocultos en enormes volúmenes de información.
De hecho, Turing anticipó esta situación en su artículo de 1950. Ya entonces propuso superar las limitaciones de las computadoras de la época utilizando sistemas de aprendizaje automático y un proceso análogo a la evolución. Turing también rechazó la idea popular de que “el ordenador hace lo que se le ha programado” y se dio cuenta de que llegaría un momento en que no sabríamos descifrar los procesos internos de los sistemas inteligentes, igual que ignoramos los detalles de lo que sucede en nuestros cerebros individuales. Esta ignorancia, seguramente, hará más natural afirmar que la máquina piensa, siente o tiene creencias, puesto que no podremos discernir sus "mecanismos internos".
El filósofo Daniel Dennett ha elaborado ideas similares en sus libros “La actitud intencional” (1989), “La consciencia explicada” (1991) o “La evolución de la libertad” (2003), mostrando cómo el proceso evolutivo que ha generado la mente humana es compatible con una visión funcionalista en la que cabe la consciencia y el libre albedrío.
¿Hacia dónde nos llevará la evolución de la IA? De acuerdo con muchos autores, como Stanislaw Lem y otros que han abordado el transhumanismo y la llamada Singularidad (Frederik Pohl, Raymond Kurzweil, Vernon Vinge, Greg Egan, Richard Morgan, etc.), la acelerada progresión de la inteligencia no humana nos situará ante una encrucijada: o vernos superados por IAs con motivaciones y pensamientos incomprensibles para nosotros, como sucede en “Golem XIV” (1981) de Lem, o fusionarnos de alguna forma con la inteligencia mecánica y evolucionar con ella.
Philip K. Dick, el autor de novelas y relatos de ciencia ficción sobre los que se basan “Bladerunner”, “Desafío Total” o “El Hombre en el Castillo”, previó la coexistencia de los humanos con androides de capacidad similar o superior y enfatizó el papel de la empatía como nexo común entre ambos, algo que también hizo Isaac Asimov en “El hombre bicentenario” (1976).
La cinematografía actual (por ejemplo en “Her”, “Ex-machina” o en la secuela “Bladerunner 2049”) muestra también que las futuras relaciones entre humanos e inteligencias artificiales vendrán determinadas por el desarrollo de valores y un entorno social compartido, o se producirá una dolorosa separación o un terrible conflicto si ello no es posible.


Aunque lo pretendamos, las Leyes de la Robótica y la ética no podrán ser impuestas a las IAs por una meras reglas de programación o circuitos que condicionen su conducta; serán demasiado complejas para ello. Las IAs tendrán que aprender a comportarse en sociedad igual que lo hacemos nosotros, incorporando sentimientos reflejos mediante su integración en la civilización humana. O posthumana.


No hay comentarios:

Publicar un comentario