Translate this page

Mostrando entradas con la etiqueta Escher. Mostrar todas las entradas
Mostrando entradas con la etiqueta Escher. Mostrar todas las entradas

lunes, 20 de enero de 2014

Las paradojas de la razón autorreferente (1/2)


 En el programa tradicional de la filosofía y la ciencia (al menos desde la Ilustración y los éxitos de la física newtoniana) se pensaba que utilizando un razonamiento riguroso, formalizado lógicamente, se podrían generar enunciados verdaderos y comprobar la veracidad o falsedad de cualquier afirmación sobre la realidad, al menos de las cuestiones clasificadas como científicas.



Este programa 'clásico' se ha ido demostrando inviable por varias razones que quizás examinemos más adelante en el blog (pensemos en las implicaciones de la física cuántica respecto a la incertidumbre y la naturaleza probabilística de la propia realidad, o las consecuencias de la teoría del caos sobre la predictibilidad de los sistemas).


En esta entrada y la siguiente nos ocuparemos, sin embargo, de una serie de descubrimientos lógicos y filosóficos que tomados en su conjunto muestran una limitación intrínseca y básica del razonamiento formal, sea humano o computacional. Podríamos resumir esta limitación diciendo que cuando un sistema de razonamiento es tan potente que puede representar conceptos autorreferentes, de 'referirse' a sí mismo, de expresar el infinito, cae en paradojas lógicas que muestran su imposibilidad de generar verdades de manera consistente.


(ilustración de Logicomix, un libro que comentaré en la siguiente entrada)


La paradoja de Epiménides o del mentiroso


Como muchas otras cuestiones relativas a la ciencia y la filosofía, las paradojas lógicas del razonamiento autoreferente comenzaron con los antiguos griegos. Epiménides, un filósofo y poeta griego del siglo VI a.C., afirmó en uno de sus poemas que "Todos los cretenses son unos mentirosos", planteando sin proponérselo una paradoja, ya que él mismo era cretense.


Para formular la paradoja en términos más modernos, pensemos que Epiménides, o cualquier persona, dijera "Estoy diciendo una mentira", o "Esta frase es mentira".


La paradoja se hace aparente si pensamos, como haría la lógica 'clásica', que todo enunciado bien formado y con términos de significado definido debe ser o bien verdadero o bien falso. Sin embargo el enunciado "Esta frase es mentira" no puede ser verdadero (por que entonces, según él mismo dice, sería falso), pero tampoco falso, ya que entonces no sería cierto que es una mentira, y por tanto no sería falso.

Verdadero -> Falso
Falso -> Verdadero

En versiones más modernas de esta paradoja, que analizaremos más adelante, se repiten la incapacidad del razonamiento para representar o analizar un objeto, enunciado o problema:
  • El objeto, enunciado o problema se refiere a sí mismo (autorreferencia, que cuando es repetida lleva a la recursividad infinita)
  • El objeto, enunciado o problema niega algo sobre sí mismo

Debemos notar que el problema no depende de un enunciado específico, pues la capacidad de autorreferencia pertenece al lenguaje mismo que estamos juzgando. Por ejemplo, puede construirse la autorreferencia de forma cruzada entre dos enunciados y el problema de indecibilidad entre verdad y falsedad se produce de la misma manera:

Frase izquierda verdadera -> frase derecha falsa -> frase izquierda falsa
Frase izquierda falsa -> frase derecha verdadera -> frase izquierda verdadera

Podemos notar aquí otra característica común a las paradojas de autorreferencia: el proceso de evaluar la verdad o falsedad (resolver el problema) se convierte en una cadena infinita de inferencias o evaluaciones. Veremos en la segunda parte, al explicar el problema de la parada de Turing, que esta recursión infinita es precisamente el síntoma de la paradoja cuando la tratamos de forma computacional.

Como hizo con otros conceptos formales, el maestro del grabado M.C. Escher representó de manera inigualable la paradoja de la autorreferencia cruzada en su cuadro "Manos":


Que podemos ver aquí en versión 'actualizada':

Las paradojas de Zenón y la escuela de Elea


Otro frente de batalla en la duda sobre el alcance del razonamiento formal es la discusión de la capacidad o incapacidad de la razón para comprender conceptos básicos que deben servir para representar y comprender la realidad. También fueron los antiguos griegos los primeros en cuestionar si la razón podía informarnos adecuadamente de estos conceptos o categorías básicas de la percepción y el razonamiento sobre el mundo, concretamente acerca del espacio y el tiempo, y del movimiento como relación entre ambos.

Zenón, uno de los filósofos de la escuela de Elea, planteó varias paradojas, de las cuales la más conocida es la de Aquiles y la Tortuga. El corazón de la paradoja era la suposición de que una suma infinita de distancias no podía recorrerse en un tiempo finito. En este vídeo podéis ver una divertida y gráfica explicación:


Dado que estas paradojas parecían mostrar que el concepto de movimiento no era racionalmente sustentable, otros filósofos de la escuela, como Parménides, adoptaron la posición radical de que toda la diversidad y cambio aparente en la realidad era una pura ilusión, que el ser verdadero es único, omnipresente, eterno e indivisible, y que la verdad es solamente alcanzable por la razón pura ignorando los datos ilusorios de nuestra percepción o experiencia. Esta última idea es el punto de partida del racionalismo metafísico occidental.



Afortunadamente, el cálculo diferencial e integral de Leibniz y Newton mostró cómo el movimiento es posible al combinarse una cantidad infinita de trozos infinitesimales de espacio y tiempo para describir la trayectoria y velocidad de los cuerpos. Se solucionaron así las paradojas de Zeón. Fue una primera victoria contra el abismo conceptual del infinito, pero aún quedarían muchas más batallas y no todas podrían ganarse.

La crítica Kantiana: los límites de las categorías racionales


El filósofo Immanuel Kant, apoyado sobre el análisis previo realizado por los empiristas ingleses encabezados por David Hume, puso de manifiesto en su Crítica de la Razón Pura que el programa racionalista era inviable: la razón humana no permite manejar de forma consistente las categorías de espacio, tiempo y causalidad cuando intenta llevarlas más allá de nuestra experiencia.


Así, las preguntas sobre si el Universo es finito o infinito, si está formado por unidades indivisibles o es continuo, si existe la posibilidad de la acción incausada (libre albedrío-alma) o no, y si existe una causa primera o no (origen-dios), no son resolubles de forma racional, y por tanto la Metafísica no puede abordarse como una ciencia.


Tal como se explica aquí, tanto si las respuestas son afirmativas (tesis) como si son negativas (antítesis), todas son defendibles desde el punto de vista de la pura razón, y además la experiencia no puede confirmar ni refutar a unas ni a otras.

Por ejemplo, si pensamos en un espacio o tiempo con un límite, siempre podremos preguntarnos qué hay más allá de ese límite, por lo cual el concepto de comienzo o final del tiempo y el espacio no tiene sentido. Por otro lado, según Kant tampoco un espacio o tiempo infinito tiene sentido racional, porque nunca podemos experimentar el infinito en toda su extensión y no podemos por tanto concebirlo.



El mismo problema se hace patente con lo que Kant llama las Ideas Trascendentales: Alma, Mundo (Universo) y Dios. Según Kant, son ideas que no se adquieren ni hacen referencia a la realidad que experimentamos directamente (realidad fenoménica). Podemos pensar en esas ideas (que según Kant son necesarias para el funcionamiento práctico en la sociedad) pero no conocerlas racionalmente, porque son precisamente el límite donde nuestro conocimiento ha de detenerse, ya que quedan fuera de la experiencia posible.

Veremos en la segunda parte que la filosofía más moderna de Wittgenstein llega a una conclusión parecida a partir del análisis de la lógica y del lenguaje.


Para más información:   :-)


Los programas de racionalidad formal: Hilbert, Rusell y el positivismo lógico


La posibilidad de abarcar racionalmente el conocimiento de ámbitos que parecen 'infinitos', como algunas ideas o la propia experiencia, recibió un nuevo impulso a finales del siglo XIX a partir del trabajo de Georg Cantor para dominar matemáticamente el concepto de infinito, así como de las investigaciones de Gottlob Frege al poner las bases de la moderna lógica matemática.

 


 

Con este renovado optimismo, el más eminente matemático de su tiempo, David Hilbert, que acababa de publicar una nueva axiomatización de la Geometría, presentó en 1900 una lista de 23 problemas matemáticos que quedaban por resolver (actualmente quedan tres de ellos sin solucionar, y otros en discusión). Algunos de estos problemas eran particularmente importantes para asentar la matemática y las ciencias (particularmente la Física) sobre una base firme.



En particular, el segundo problema pedía probar que los axiomas de la aritmética (las operaciones con números enteros) son consistentes, esto es, que la aritmética es un sistema formal que no permite derivar o demostrar una contradicción. Veremos en la segunda parte de esta entrada que la solución del matemático Gödel a este problema va a suponer un mazazo a los planes de formalización completa del conocimiento.

Años más tarde, el mismo Hilbert (que tenía buen ojo para detectar problemas díficiles) enunció el llamado problema de la decisión, cuya solución por parte de Church y Turing también limita el alcance del conocimiento matemático por causa de una paradoja autorreferente, que también veremos en la segunda parte.

Sin embargo, a principios del siglo XX aún había lugar para el optimismo racional desaforado. El programa de investigación de Hilbert inspiró al filósofo Bertrand Rusell y al matemático Alfred North Whitehead (ambos trabajando en la Universidad de Cambridge) la idea de crear un sistema formal que abarcara y fundamentara todo el conocimiento matemático a partir de primeros principios o axiomas, publicando conjuntamente su monumental obra de los Principia Mathematica.


En los Principia, Russell y Whitehead utilizaban un sistema formal de cálculo lógico basado en la notación de Frege y en axiomas escogidos para diferentes áreas de la matemática. El objetivo es fundamentar la aritmética a partir de la teoría de conjuntos y extenderla hasta los números reales. Por ejemplo, véase la siguiente demostración de que 1+1=2   :-)


Este programa de formulación de las matemáticas como sistema axiomático-deductivo se quiso extender también a la fundamentación del conocimiento del mundo físico, dando nacimiento al llamado empirismo o positivismo lógico, desarrollado por el llamado Círculo de Viena.

El enfoque del positivismo lógico era que solamente aportan conocimiento y tienen sentido los enunciados demostrables analíticamente (los de la lógica y matemáticas) o los que son verificables por los hechos (suponían que las teorías científicas lo serían). El resto de los enunciados se deberían desechar como 'metafísica' (término que adquiere un sentido despectivo).

En su vertiente positiva, el empirismo lógico pensaba que uniendo la lógica al método inductivo (la observacíón experimental de secuencias de hechos de los que se extraen reglas o leyes) sería posible fundamentar de forma lógica todo el conocimiento significativo, el de las ciencias.



Sin embargo, nunca se consiguió demostrar cómo se podía construir lógicamente una ley o concepto general a partir de percepciones individuales, si no se aceptaba de entrada la regla que se quería demostrar.

Por otra parte, los enunciados básicos de la propia doctrina positivista eran, según sus propios criterios, inverificables, y por tanto no eran significativos  :-) por lo cual la teoría se cancelaba o negaba a sí misma (otra versión de la paradoja del mentiroso).



La completitud y la consistencia como sustitutos de la verdad


En el camino de formalización del conocimiento matemático se dan diferentes dificultades. Los dos problemas más serios son la indecidibilidad o incompletitud y la inconsistencia. Un sistema formal tiene un problema de indecibilidad cuando existen enunciados formulables en el sistema de los que no se puede demostrar su verdad o falsedad, por lo que también se puede decir que el sistema es incompleto. Por otra parte, la inconsistencia se produce cuando el sistema permite deducir tanto una cosa como la contraria, generando una contradicción.



En algunos casos se ha encontrado que los axiomas propuestos para una rama de las matemáticas eran insuficientes para demostrar o refutar partes de la teoría y debían ser por ello completados con nuevos axiomas, pero sorprendentemente existían varias opciones válidas para hacerlo.

De esta forma, se llega a la conclusión de que la verdad de una teoría matemática es un concepto que es interno a cada sistema, pudiendo existir varias teorías matemáticas incompatibles pero cada una con perfecta coherencia interna, por lo cual no se puede utilizar la correspondencia con la realidad o con nuestra intuición como criterio de corrección de una teoría matemática.



El ejemplo más conocido del nacimiento de teorías incompatibles pero internamente completas y consistentes es el planteado por el quinto postulado de Euclides o axioma de las paralelas. Cuando Euclides formaliza la geometría propone cinco postulados o axiomas base, por ejemplo: "Entre dos puntos cualquiera se puede trazar una recta". Pero su quinto postulado, que dice "Por un punto exterior a una recta, se puede trazar una única paralela a la recta dada" parecía a los matemáticos posteriores demasiado complicado para ser un axioma indemostrable y durante siglos se intentó probarlo a partir de los otros cuatro.

Sin embargo, en el siglo XIX se comprobó que era posible construir otras teorías geométricas (geometrías no euclidianas) cambiando el postulado de la paralela única (1) por un axioma que indica que no es posible ninguna paralela (2), o bien por otro que permite infinitas paralelas (3).


En el siglo XX se demuestra, además, que nuestro espacio-tiempo físico puede responder a cualquiera de los tres tipos de geometría, ya que todos cumplen las ecuaciones de la Relatividad General, y la elección de una u otra depende de la densidad de energía-materia en el universo. No hay una geometría más 'verdadera' que otra, aunque en la práctica una de ellas puede aproximar mejor la forma de nuestro espacio-tiempo particular.


Algo similar sucedió con otro de los problemas planteados por Hilbert, la Hipótesis del Continuo: la suposición de que entre el infinito de los números naturales y el de los números reales no hay otro tipo de infinito intermedio.



Hoy se sabe que esta suposición no se puede probar, sino que debe decidirse arbitrariamente si se quiere añadir a la teoría de números como axioma indemostrable o no.


La paradoja de Russell en la teoría de conjuntos


Al poco de dar Hilbert su lista de problemas, Russell descubrió que la teoría de conjuntos que habían formulado Cantor y Frege en el siglo XIX era inconsistente. Este descubrimiento fue un choque importante para él, porque Russell intentaba fundamentar la teoría de los números naturales sobre el concepto de conjunto, y si éste era inconsistente el edificio entero de la formalización lógica de las Matemáticas se derrumbaba.

La explicación de esta inconsistencia es lo que se conoce como Paradoja de Russell, y ofrece otro ejemplo claro de cómo una teoría se vuelve insostenible cuando se combina la autoreferencia y la negación.


La clave de la paradoja es que la teoría de conjuntos de Cantor y Frege permite formar conjuntos de conjuntos. Esto no parece demasiado problemático, pero aparece un mecanismo de autorreferencia que puede ser recurrente (conjuntos de conjuntos de conjuntos...). La paradoja de Russell surge de la siguiente manera:
  • Llamemos a un conjunto normal si no se contiene a sí mismo. Por ejemplo, el conjunto de libros escritos por Russell, o el conjunto de los conjuntos vacíos (no es vacío, y por tanto no se contiene a sí mismo). Éste es el punto de partida de la paradoja, al combinar la autorreferencia ('contenerse a sí mismo') con la negación.
  • Ahora definamos M como el conjunto que contiene a todos los conjuntos normales.
  • Preguntémonos si M es normal o no.
  • Si M fuera normal, por la definición de 'normal' no se contendría a sí mismo, pero al ser M por definición el conjunto de todos los conjuntos normales, esto implicaría que no puede ser normal, lo que contradice el punto de partida.
  • Por otra parte, si M no es normal, implicaría que sí se debe contener a sí mismo, pero entonces (puesto que M contiene solo conjuntos normales) el conjunto sería normal, contradiciendo otra vez el punto de partida.
Notemos que se llega a una contradicción recurrente, siguiendo el mismo esquema de doble implicación que en la paradoja del mentiroso. De manera formal:


Logicomix dramatiza así el descubrimiento de Russell (pinchad la imagen para ampliarla):


En ocasiones se hace una analogía entre el descubrimiento de Russell y la llamada paradoja del barbero: si el sultán obliga a que los barberos solo afeiten a quienes no se afeitan a sí mismos, ¿quién afeita a los barberos? He aquí una presentación de la paradoja con una solución no muy ortodoxa  :-)


También puede explicarse de forma precisa utilizando el símil de un catálogo en lugar de conjuntos, como explica la siguiente figura.



Una solución incompleta


¿Y cómo solucionó Russell la paradoja? Pues no tuvo otra opción que prohibir la autorreferencia de los conjuntos (evitar que pudieran contenerse a sí mismos). 


Pero como aún necesitaba utilizar conjuntos de conjuntos para su sistema formal, Russell tuvo que definir una jerarquía de tipos de entidades: 1) objetos simples; 2) conjuntos que contienen objetos simples; 3) conjuntos que contienen objetos de tipo 2 ó 1; 4) conjuntos que contienen objetos de tipo 3, 2 ó 1; etc. Esta solución evita que un conjunto de tipo N se contenga a sí mismo, pero es complicada y anti-intuitiva. Sin embargo, era la única forma de mantener consistente la teoría, sacrificando el poder de la autorreferencia. 

Demostrando que esta cuestión de la autorreferencia paradójica es general en los sistemas formales y no exclusiva de la teoría de conjuntos, la misma solución que aplicó Russell tuvo que ser utilizada por Alonzo Church para evitar problemas en el cálculo lambda, que él mismo había inventado para formalizar el concepto de función recursiva.

Pero como veremos en la segunda parte de esta larga entrada, no podemos eliminar siempre la autorreferencia, porque es parte de la capacidad intrínseca y necesaria de los sistemas formales más potentes (como en el caso de la Aritmética), y por tanto no tenemos otra opción que utilizarlos aunque sean demostrablemente incompletos e indecidibles.

Como siempre, Escher plasmó como nadie el concepto de autorreferencia de forma visual en su cuadro Galería de grabados:


Y el siguiente vídeo lo utiliza de manera magistral para mostrar cómo la autorreferencia se convierte en una recursión (visual) infinita...




Hasta la próxima, la segunda y última parte de este recorrido por las paradojas y límites que impone la capacidad de autorreferencia en los sistemas formales.

     Salvador



sábado, 14 de septiembre de 2013

Más allá del Ying y el Yang


   Añadiendo complejidad a los personajes


   Tras discutir el origen de las cosmovisiones dualistas, veremos en esta entrada ideas para superar la dicotomía bueno/malo al construir los personajes de nuestras historias.

   Obviamente, los personajes deben diferenciarse. Cuando hable en una entrada futura del esquema mítico del viaje del héroe y de los arquetipos, veremos que el protagonista debe tener siempre su antagonista, pero esta contraposición debe dar más juego que el de servir como instrumento moralizante o catártico para que 'el bien' triunfe sobre 'el mal'.

   L@s mal@s y l@s buen@s

 
    En las historias clásicas abundan los ejemplos de 'maniqueísmo' (ver entrada anterior), es decir, de una división sin muchos matices entre los héroes o heroínas buenos, por un lado, y los malos malísimos por otro lado. Por ejemplo, en el cine se ha recurrido siempre a pistas visuales para eliminar cualquier duda sobre este contraste.

   Además de la previsible "cara de mal@" de l@s villan@s, hay otras pistas igualmente evidentes y que llegan a convertirse en estereotipos. Por ejemplo, en los westerns clásicos los sombreros y trajes negros se reservaban para identificar a los malvados. Recordemos que el Zoroastrismo ya había identificado el negro con el mal. Esta identificación persiste hasta nuestros días en personajes como Darth Vader (Darth suena como Dark = oscuro, por no hablar del tono sombrío de su traje y su casco).



   Por su parte, los vaqueros buenos vestían con colores y sombreros claros, además de carecer de otras características 'malas' como el bigotillo y la sonrisa demoníaca a lo Jack Palance.


    Esta identificación era tan obvia para todos que el maestro de la ciencia-ficción Robert A. Heinlein se inventó en su juguetona obra maestra El Número de la Bestia unos misteriosos villanos interdimensionales (un trasunto de él mismo y su mujer, los verdaderos "amos de títeres" de la historia), a los que denominó simplemente "los sombreros negros".

    De las pistas maniqueas no se libran las mujeres, ni mucho menos. El cine en blanco y negro consagró el contraste entre la rubia buena y la morena mala (aunque a veces se invertían los papeles), y el color dejó espacio para que las pelirrojas y los diferentes tonos de castaño. Quizás como compensación, la mala resultaba ser casi siempre mucho más fascinante.

    Hoy en día se explotan otros dualismos igualmente simplistas, como la chica morena lista (pero impopular) contra la popular rubia tonta.




   Invasiones del otro lado


   Una forma en la que se intenta romper la barrera dualista entre el bien y el mal es suponer que dentro del personaje 'bueno' hay un 'lado oscuro' oculto (reprimido, podríamos decir), pero que, por alguna circunstancia desafortunada, aflora e incluso toma el control temporal del lado bueno.




   Este 'truco' dramático puede dar resultados interesantes si está bien llevado (como en la historia original del Dr. Jekyll y Mr. Hyde, el origen de este esquema), pero en el fondo lo único que hace es reforzar una visión dualista de la personalidad como si: a) hubiera una parte mala y otra buena fácilmente distinguibles, y b) la parte mala se pudiera aislar y dominar. 


Así que actualmente solo es recomendable utilizarla cuando se dispone de elementos para crear una verdadera tensión entre los dos lados (como en el caso de Gollum en "El Señor de los Anillos").

   Antidualismo zen


   Una manera más radical de romper con el dualismo bueno-malo es seguir la filosofía zen (y la filosofía oriental en general), uno de cuyos pilares es romper con la tiranía del lenguaje y su lógica binaria ("A o no A"). En realidad, el zen rechaza el mismo concepto de antidualismo, por ser también dualista  :-)  

   Hablaremos en otra ocasión de la filosofía (o antifilosofía) zen. Baste con decir ahora que frente al modelo Ying-Yang de fuerzas duales en la naturaleza, el zen propone como símbolo un mero círculo. No hay partes, no hay divisiones, no hay categorías, ni siquiera hay individuos.
   En lugar del Ying-Yang tenemos elementos decorativos que invitan a la anti-reflexión, a vaciar la mente de conceptos, etiquetas y categorías.



   El problema es que sin categorías difícilmente podemos desarrollar historias que no sean meras paradojas contra el lenguaje y el uso de la razón (como los koan zen).

   Una novela o una película zen sería, desde este punto de vista, un mero ejercicio contemplativo, en el que intentaríamos evitar cualquier juicio o explicación. Y tras intentar ver algunas películas de Terrence Malick, yo personalmente no me siento muy dispuesto a seguir esta vía radical.





   Tonos de blanco y negro


    Volviendo al símbolo original del Ying-Yang, vemos que aunque parte de categorías duales, como masculino-femenino, lógico-intuitivo, etc., apunta de forma gráfica la idea de que dentro de cada opción hay también una parte de su opuesto (dentro de la parte blanca hay un círculo negro y viceversa).

   


   Si nos quedamos aquí, volveríamos al concepto del 'lado oscuro' reprimido. Pero podemos imaginar que no hay una distinción tan clara entre los lados 'bueno' y 'malo', sino que se entremezclan, y cada parte buena o mala tiene en su interior otras partes buenas o malas. Esta idea se puede representar fácilmente con un dibujo fractal (que ya os habréis dado cuenta a estas alturas que es uno de mis conceptos favoritos):


   Incluso podemos utilizar un esquema fractal donde el blanco y el negro puro se mezclan en tonos de gris. Por tanto, aquí la complejidad no viene dada solamente por el hecho de que un personaje tenga lados buenos o malos, sino que todo su ser es en realidad una mezcla de aspectos, historias, traumas, intenciones, deseos, que juegan entre opuestos y los mezclan. No existe un deseo puramente bueno, o un recuerdo puramente malo.


   Por cierto, el título de la famosa novela "50 Sombras de Grey" significa literalmente "50 tonos de gris", y supuestamente hace referencia a los "complicados matices" del personaje de Grey (=gris). No he leído la novela, así que no puedo decir si el título le hace justicia, pero me temo que los tonos del personaje no llegan a 50.



   ¿Cómo sería la figura Ying-Yang que describiría a un personaje más real, más interesante? Quizás más parecido a la siguiente figura, en la que se superponen y entremezclan partes 'buenas' y 'malas' de una forma complicada, sin darnos una respuesta obvia o un patrón previsible. 


   No puedo terminar esta parte sobre la mezcla de opuestos sin mostrar otro grabado de M.C.Escher, titulado "Día y Noche", y que funciona también como una especie de Ying-Yang que hace compatible el uso de categorías duales con el de opciones intermedias entre los opuestos.



   Más allá del bien y del mal: otras dimensiones


   ¿Sería posible elevarse sobre la dualidad entre el bien y el mal, sin rechazar su utilidad práctica, pero apelando a otras dimensiones de la moralidad o del carácter de los personajes?

    Esto hubiera sido impensable, en términos generales, hasta la llegada del Romanticismo y de Friedrich Nietzsche (el filósofo que escribió "Más allá del Bien y del Mal"). Anteriormente, toda historia se basaba en una premisa moral expresada en términos de buenos y malos. Pero en el siglo XIX se introducen otras dimensiones que pueden definir la moralidad y el carácter.


   Para el Romanticismo, las dimensiones estéticas (belleza, tragedia) y políticas (nacionalismo, libertad) pueden sobrepasar y sustituir a la moralidad tradicional.

    En particular Nietzsche hará énfasis en la voluntad de poder, y la dicotomía esclavo-superhombre:

En definitiva, el hombre que guía su vida según la voluntad de poder (el Übermenschsuperhombre), es un hombre que intenta siempre superarse a sí mismo, mejorarse en todas sus facetas, etc. No tiene en cuenta lo que los demás piensen o digan de él, se enfrenta a la vida y asume la realidad, procura vivir de una manera tal que si tuviera que vivir de nuevo infinidad de veces esa misma vida, sería feliz al hacerlo. Es un hombre libre que repudia el vicio, la debilidad y la esclavitud.


    Podemos comprobar que la literatura y el cine de las últimas décadas incluye multitud de estos 'antihéroes' situados más allá de la moralidad tradicional y guiados solamente por sus propios valores (aunque en el caso de Hollywood es obligatorio que tengan algún aspecto tradicionalmente bueno). Sin embargo, en realidad estamos sustituyendo una dualidad (bueno-malo) por otra (poderoso-esclavo), lo cual no sirve necesariamente para superar la simplicidad de los personajes.


 

   Tridimensionalidad de los personajes: una disgresión por el caos


    En muchas ocasiones los críticos de literatura o cine hablan de personajes 'bidimensionales' frente a los que son 'tridimensionales'. Este adjetivo de tridimensional se usa en términos genéricos como indicativo de la complejidad del personaje, relacionada con su verosimilitud, y también porque existen modelos específicos para definir a un personaje utilizando tres dimensiones, como Pensamiento, Acción y Sentimiento.

    Todos podemos entender intuitivamente que tres dimensiones (o un triángulo de personajes) puede dar lugar a situaciones más ricas que cuando interaccionan solo dos elementos. Existe una base físico-matemática para esta idea. En efecto, se ha demostrado que en un sistema donde solamente hay dos variables independientes, se llega a una situación estática, o bien de equilibrio periódico (como la órbita de un planeta alrededor de una estrella).

    Por otro lado, cuando tenemos tres variables realmente independientes que interactúan de forma no lineal (no existe una simple proporcionalidad entre ellas), lo que se obtiene es algo muy diferente. Es un sistema en el cual se producen pautas, pero cuya complejidad es tal que no puede predecirse a medio plazo, ni calcularse una solución analítica. Es lo que se conoce como Caos o Sistema Dinámico.


   Un ejemplo sencillo, que originó la moderna Teoría del Caos, son las ecuaciones que investigaba un matemático llamado Lorenz para modelar el tiempo atmosférico (las tres variables independientes son x, y y z): 


   Cuando Lorenz trató de simular estas ecuaciones con un ordenador bastante primitivo, se dio cuenta de que el comportamiento era muy extraño: parecía alternar entre dos órbitas, pero nunca se repetía igual, y de tanto en tanto el sistema pasaba inesperadamente de una órbita a otra. Es lo que hoy conocemos como el Atractor de Lorenz.



   La lección que podemos extraer de esta teoría es que si queremos generar complejidad en los personajes debemos combinar varias dimensiones, de las cuales las más típicas son las dimensiones 'morales' (sea la de bueno-malo o la de poder-esclavo), pero puede haber otras (estéticas, ideológicas, socioeconómicas). Por ejemplo: chica rica-fea-mala contra chico pobre-guapo-bueno (dentro de cada dimensión podemos tener complejidad añadida por las combinaciones fractales y los niveles de gris que hemos mencionado).

    Así, además de la dualidad protagonista-antagonista, podemos añadir otros personajes contrapuestos por diferentes dimensiones, pero que también comparten otras características (por ejemplo, el chico pobre-guapo-bueno puede tener un amigo pobre-feo-no-tan-bueno).


   Arquetipos: un catálogo básico de personalidades


    Las combinaciones de dimensiones clásicas dan lugar a diferentes arquetipos o tipologías de personajes que pueden ser útiles como punto de partida para construir una historia, siempre que no se traten de manera demasiado simplista, ya que al ser arquetipos los espectadores o lectores ya están acostumbrados a ellos y pueden resultar demasiado previsibles.


   Por ejemplo, en la siguiente gráfica se combina la dimensión social-individual (social-ego) con otra dimensión libertad-orden (freedom-order) para crear un catálogo de arquetipos básicos: el/la fuera de la ley, explorador(a), creador(a), mago-a, sabio-a, gobernante, etc. 


   Cuantas más dimensiones consideremos, más complejo se vuelve el catálogo y más ricos pueden ser los personajes. Para haceros una idea de lo que se puede conseguir, mirad el siguiente diagrama de arquetipos femeninos (pulsad para abrir la imagen superpuesta, y luego con el botón derecho "abrir la imagen en otra pestaña" para ampliar):



    Concluyendo este repaso por la dimensionalidad moral y su aplicación a la complejidad de los personajes, diré que (como en otras cosas) lo importante es encontrar un equilibrio, combinando aspectos reconocibles para la audiencia con otros que resulten novedosos o chocantes, y también buscando un punto medio entre la simplicidad y la complejidad, pues el tiempo y el espacio disponible para dar vida y hacer justicia a los personajes es limitado.




   Y esto es todo. Hasta la próxima perorata,

      Salvador