¿Máquinas que piensan?
La inteligencia artificial (IA)
está de más actualidad que nunca debido a los avances recientes en sistemas de
aprendizaje automático y en aplicaciones como los asistentes virtuales, los
vehículos automáticos y los algoritmos que analizan nuestras preferencias en
las redes sociales o en el consumo de contenidos en línea. Estos programas
“inteligentes” afectan ya a nuestra vida y su impacto crecerá aún más a medida
que se integren, y quizás sustituyan, muchas funciones hasta ahora
exclusivamente humanas, como la creación artística, el cuidado de los enfermos,
la gestión pública, el derecho o la defensa.
Diversas personalidades, como
Stephen Hawking y Elon Musk, han advertido de los problemas que acarrearía un
desarrollo descontrolado de las IAs, pero ¿es posible que estos sistemas sean
realmente capaces de pensar, sentir y ser conscientes como nosotros? ¿Cómo será
nuestra relación con ellos en el futuro?
Exploremos estas cuestiones desde
la perspectiva de dos campos en apariencia distantes: la filosofía académica y
la ciencia ficción.
Del espíritu divino al Test de Turing
El mito hebreo del golem se
repite en diversas formas desde la Biblia hasta el siglo XVI y algunos lo
consideran un antecedente de la ciencia ficción. Esta leyenda cuenta cómo un
rabino crea un ser artificial que le ayuda a proteger a su pueblo. Lo hace
insuflando la chispa divina en una masa de barro, un acto que reproduce, a
menor escala, la creación del primer hombre por parte del dios judeocristiano.
La concepción de la naturaleza de
la vida que subyace a esta historia es el dualismo: la materia por sí
misma es inanimada y requiere un espíritu o alma de origen divino para
convertirse en un ser vivo. El golem es un pálido reflejo de esta combinación,
sin voz ni inteligencia, pues el rabino, por muy sabio que sea, no tiene poder
para replicar toda la potencia del acto divino.
En el siglo XVII, el filósofo René
Descartes dio un vuelco a esta visión. Por un lado, se opone al vitalismo
tradicional y a las ideas aristotélicas sobre la naturaleza, adoptando una
visión mecanicista para explicar mediante procesos físicos el funcionamiento de
los astros, las plantas, los animales y el cuerpo humano. Sin embargo,
Descartes defiende la singularidad humana por la presencia de un alma o mente
inmaterial de la que carecería cualquier otro ser. Aunque esta concepción
dualista, con una materia y un espíritu como sustancias diferenciadas, ha sido
rechazada ampliamente por la filosofía y la ciencia posterior, todavía perdura
en las ideas populares y religiosas sobre la naturaleza humana.
Será Mary Shelley, con su
novela Frankenstein (1818), quien dé el gran paso con el que nace la ciencia
ficción moderna. Su “golem” no consigue la vida gracias a la infusión de un
espíritu místico, sino porque la electricidad despierta una mente primitiva en
el cuerpo ensamblado por un científico, que sustituye al rabino y a la propia
divinidad en su papel creador. Este ser artificial es defectuoso y, a pesar de
sus buenas intenciones, entra en conflicto con la sociedad humana. Parece
inevitable una conclusión moralizante: el hombre no debería arrogarse el poder
de crear de vida inteligente.
Este patrón arquetípico del
monstruo de Frankenstein se repetirá en innumerables ocasiones referido a
androides y máquinas pensantes, por ejemplo, con la ginoide de “Metrópolis”
(1927), la computadora HAL 9000 de la película “2001: una odisea del espacio”
(1968), el ordenador Colossus, en el film con el mismo nombre (1970), o el
Skynet de la saga “Terminator” (1984).
El desarrollo de los primeros
ordenadores dignos de tal nombre comenzó a finales de los años 1930 (e
Zuse Z1 de 1938 es considerado el primer computador) y se aceleró en los años
40 y 50. Inmediatamente se puso sobre la mesa la cuestión de si estas máquinas
podrían llegar a pensar y qué consecuencias se derivarían de ello.
Isaac Asimov,
prolífico autor de ciencia ficción y perenne optimista acerca del poder
benefactor de la ciencia, deseaba contrarrestar el influjo mitológico de
Frankenstein y el temor de la gente de que las máquinas se alzaran contra sus
creadores. Comenzando con su relato “Círculo vicioso” (1940) escribió historias
de robots futuristas dotados de un cerebro artificial, cuyo comportamiento está
regulado por tres Leyes de la Robótica que garantizan su fidelidad a los
humanos. En posteriores relatos y novelas, Asimov llega a dejar en manos de
estas IAs la salvaguarda de la humanidad como especie. Durante la década de los
50 vemos este tipo de robots obedientes y bondadosos en películas como
“Ultimátum a la Tierra” (1951) y “Planeta prohibido” (1956).
Por otro lado, Alan Turing,
matemático inglés que había trabajado en los fundamentos teóricos de la
computación y había contribuido a descifrar los códigos nazis durante la
Segunda Guerra Mundial, publicó en 1950 el artículo “Máquina computadora e
inteligencia”, donde realiza el primer análisis filosófico acerca del posible
pensamiento de las máquinas. En la época de Turing, la corriente psicológica
dominante era el conductismo, que renunciaba a definir estados mentales
internos y se preocupaba en su lugar de la conducta visible de los individuos.
Siguiendo esta idea, Turing propone sustituir la cuestión sobre el pensamiento
de las máquinas por una prueba (el famoso Test de Turing) mediante la
cual trataríamos de distinguir las respuestas escritas de un ordenador de
aquellas proporcionadas por una persona. Si esta distinción no es posible,
propone Turing, debemos afirmar que a todos los efectos prácticos el ordenador
es capaz de pensar.
La mente como software: el funcionalismo y sus críticos
El conductismo entró en declive a
partir de los años 50, coincidiendo con el auge de la psicología cognitiva,
que defendía la validez de los estados y procesos mentales. Adoptando una
postura materialista (no dualista), la nueva psicología afirmó que debía
existir una relación entre los contenidos de la mente (un dolor, una idea, una
creencia, un recuerdo) y los estados de las neuronas en el cerebro. De hecho,
cada vez existían más pruebas de esta relación gracias a los estudios sobre
drogas, lesiones cerebrales y experiencias de estimulación directa de la
corteza.
Sin embargo, pronto se vio que la
correspondencia entre estados de la mente y del cerebro no podía ser rígida, ya
que nuestras estructuras neuronales son individualmente diferentes y
cambiantes. Aunque compartimos sensaciones, ideas y estructuras de pensamiento
similares, un mismo estado mental puede tener múltiples realizaciones
físicas.
El desarrollo de la informática mostró
que el comportamiento de un ordenador (la respuesta a las entradas de datos)
venía definido por su “software”, y que los programas podían funcionar de forma
idéntica aunque cambiara el soporte físico (“hardware”). Siguiendo esta idea,
el funcionalismo (formulado por primera vez por Hilary Putnam en
1960) propone que los estados mentales son independientes de su realización física
concreta: la mente es como el software del cerebro y puede ser ejecutado
con resultados similares en cerebros diferentes. Algún día el software o
algoritmo de una mente podría funcionar sobre otro soporte físico, quizás una
máquina suficientemente compleja que dispondría, por tanto, de estados mentales
(sentimientos, pensamientos) equivalentes a los humanos.
Desde el mismo momento de su formulación, se
propusieron diversas objeciones a la idea de que un software pueda pensar. Una
de ellas, formulada por Fodor en 1972 y defendida luego por Nagel,
Searle, Penrose y otros, es que nuestras percepciones y sentimientos se reducen
a elementos llamados qualia que dependen del sustrato físico de nuestro
sistema nervioso y no pueden ser reproducidos en una máquina. Según ello, un
robot nunca podría percibir, sentir o pensar como nosotros porque no tiene la
misma experiencia interna.
Sin embargo, si consideramos que las sensaciones
son mediadas por impulsos neuroeléctricos a través de conexiones concretas (la
señal de “rojo” puede significar “verde” o “dolor” si la conectamos en un lugar
diferente), ¿no tendría la misma información y las mismas sensaciones cualquier
sistema que reciba y procese información con el mismo patrón de conexiones?
Otra objeción al Test de Turing y a la idea de
la mente como software es la que formuló Searle en 1980 con su famoso experimento
imaginario de la habitación china. Si en una habitación hay personas que
solo entienden el español, dice Searle, pero son capaces de responder a preguntas
en chino cotejando estos símbolos con las reglas escritas en un libro (o en un
programa de ordenador), ¿significa eso que estas personas comprenden el chino?
Obviamente no, y por eso, según Searle y otros, una computadora tampoco
comprenderá nunca el lenguaje, por mucho que sea capaz de imitar la conducta
verbal humana.
Veamos un par de respuestas a
estos argumentos, utilizando relatos de ciencia ficción como vehículo. En su
maravilloso libro “Gödel, Escher y Bach: un Eterno y Grácil Bucle”, Douglas
R. Hofstadter cuenta la historia de unos personajes que se encuentran con
una sofisticada colonia de insectos sociales llamada Madame Cologne d’Or Migas,
con la cual se comunican mientras observan sus procesos internos: cómo las
hormigas realizan las tareas de interpretar, procesar y formar símbolos para
responder a sus mensajes. Se trata de una alegoría sobre la habitación china,
donde las hormigas (o neuronas) son capaces de generar pensamiento y lenguaje
sin comprender los significados que manejan. Como trabajadores en una cadena de
montaje, solo ven su parte del proceso, pero el que las neuronas o los
circuitos individuales no sean capaces de pensar no quiere decir que no lo haga
el sistema que forman entre todas.
Por su parte, el genial escritor
polaco Stanislaw Lem utilizó robots inteligentes en muchas de sus
historias para ilustrar las miserias y el antropocentrismo de la raza humana.
Nada menos que tres de sus relatos fueron recogidos en “Mind’s I” (1981), la
compilación de textos sobre filosofía de la mente realizada por Hofstadter y el
filósofo Daniel Dennett. En estas historias los protagonistas son
robots, creadores de simulaciones donde se han desarrollado seres humanoides.
Los bruñidos robots discuten si estos seres, a pesar de un diseño corporal
marcado por el despiadado azar de la evolución, pueden ser capaces de sentir y
pensar.
Hacia la Singularidad
Las críticas a la idea de la mente
como software son comprensibles, dada la simplicidad que tuvieron los programas
de ordenador durante décadas. La IA tradicional solo fue capaz de crear “sistemas
expertos” que reflejaban el conocimiento de una persona especializada en
cierta materia, sintetizando este saber en forma de unas pocas reglas. Resulta
difícil concebir que se llegue a producir una máquina pensante y sintiente
mediante esta aproximación.
Sin embargo, en los últimos años
se ha producido un salto cualitativo en la potencia de la IA, y ello ha sido
posible al replicar las fuentes que dotan a los cerebros animales de sus
especiales capacidades. Una de las técnicas utilizadas es el desarrollo de
software basado en redes neuronales en lugar de reglas predefinidas.
Otra es la introducción de procesos evolutivos en el software, como la
realimentación de estas redes con el aprendizaje y el uso de algoritmos
genéticos que simulan de forma acelerada los procesos de selección y adaptación.
Desde el punto de vista práctico,
esta nueva forma de IA ha permitido que el software supere a los humanos
en tareas cada vez más complejas, no solo en juegos como el ajedrez y el go,
sino también en áreas como el diagnóstico médico, la demostración matemática y la
detección de patrones ocultos en enormes volúmenes de información.
De hecho, Turing anticipó esta
situación en su artículo de 1950. Ya entonces propuso superar las limitaciones de las
computadoras de la época utilizando sistemas de aprendizaje automático y
un proceso análogo a la evolución. Turing también rechazó la idea
popular de que “el ordenador hace lo que se le ha programado” y se dio cuenta
de que llegaría un momento en que no sabríamos descifrar los procesos internos
de los sistemas inteligentes, igual que ignoramos los detalles de lo que sucede
en nuestros cerebros individuales. Esta ignorancia, seguramente, hará más natural afirmar que la máquina piensa, siente o tiene creencias, puesto que no podremos discernir sus "mecanismos internos".
El filósofo Daniel Dennett
ha elaborado ideas similares en sus libros “La actitud intencional” (1989), “La
consciencia explicada” (1991) o “La evolución de la libertad” (2003), mostrando cómo el proceso evolutivo que ha generado la mente humana es compatible
con una visión funcionalista en la que cabe la consciencia y el libre albedrío.
¿Hacia dónde nos llevará la evolución
de la IA? De acuerdo con muchos autores, como Stanislaw Lem y otros que han
abordado el transhumanismo y la llamada Singularidad (Frederik
Pohl, Raymond Kurzweil, Vernon Vinge, Greg Egan, Richard Morgan, etc.), la
acelerada progresión de la inteligencia no humana nos situará ante una
encrucijada: o vernos superados por IAs con motivaciones y pensamientos incomprensibles para nosotros, como sucede en “Golem XIV” (1981)
de Lem, o fusionarnos de alguna forma con la inteligencia
mecánica y evolucionar con ella.
Philip K. Dick, el autor de
novelas y relatos de ciencia ficción sobre los que se basan “Bladerunner”,
“Desafío Total” o “El Hombre en el Castillo”, previó la coexistencia de los
humanos con androides de capacidad similar o superior y enfatizó el papel de la empatía
como nexo común entre ambos, algo que también hizo Isaac Asimov en “El
hombre bicentenario” (1976).
La cinematografía actual (por
ejemplo en “Her”, “Ex-machina” o en la secuela “Bladerunner 2049”)
muestra también que las futuras relaciones entre humanos e inteligencias
artificiales vendrán determinadas por el desarrollo de valores y un entorno
social compartido, o se producirá una dolorosa separación o un terrible conflicto si ello no es
posible.
Aunque lo pretendamos, las Leyes de la Robótica y la ética
no podrán ser impuestas a las IAs por una meras reglas de programación o circuitos que condicionen su conducta; serán demasiado complejas para ello. Las
IAs tendrán que aprender a comportarse en sociedad igual que lo hacemos nosotros, incorporando
sentimientos reflejos mediante su integración en la civilización humana. O posthumana.
No hay comentarios:
Publicar un comentario