LIMITES DEL CONOCIMIENTO RACIONAL

EPISTEMOLOGÍA DE LAS CIENCIAS NATURALES
DOCTORADO EN FILOSOFÍA – PUCE
ENERO, 16 del 2003
LUCIANA ALBÁN COBOS
GABRIELA PONCE PADILLA
DARWIN JIJON LARCO

LOS LÍMITES DEL CONOCIMIENTO RACIONAL

EL TEOREMA DE GÖDEL
Desde los tiempos de Euclides, hace ya dos mil trescientos años, los matemáticos han intentado partir de ciertos enunciados llamados axiomas y deducir luego de ellos toda clase de conclusiones útiles. En ciertos aspectos es casi como un juego, con dos reglas:
1. Los axiomas tienen que ser los menos posible y,
2. Los axiomas tienen que ser consistentes, es decir, tiene que ser imposible deducir dos conclusiones que se contradigan mutuamente.
Cualquier libro de geometría comienza con un conjunto de axiomas: por dos puntos cualesquiera sólo se puede trazar una recta, el total es la suma de las partes, etc.
Durante mucho tiempo se supuso que los axiomas de Euclides eran los únicos que podían constituir una geometría consistente y que por eso eran “verdaderos” pero en el siglo XIX, se demostró que modificando de cierta manera los axiomas de Euclides, se podían construir geometrías diferentes, “no euclidianas”. Cada una de estas geometrías difería de las otras, pero todas ellas eran consistentes. A partir de entonces no tenía ya sentido preguntar cuál de ellas era la “verdadera”. De hecho, son muchos los conjuntos de axiomas a partir de los cuales se podría construir un sistema matemático consistente: todos ellos distintos y todos ellos consistentes. En ninguno de estos sistemas matemáticos tendría que ser posible deducir, a partir de sus axiomas, que algo es a la vez “así” y “no así”, porque entonces las Matemáticas no serían consistentes, habría que desecharlas.
¿Pero qué ocurre sí establecemos un enunciado y comprobamos que no podemos demostrar que es “así” o “no así"?. Supongamos que digo: “el enunciado que estoy haciendo es falso”. ¿Es falso? Sí es falso, entonces es falso que estoy diciendo algo falso y tengo que estar diciendo algo verdadero. Pero sí estoy diciendo algo verdadero, entonces es cierto que estoy diciendo algo falso y sería verdad que estoy diciendo algo falso. Es imposible demostrar que lo que he dicho es o no es así. Supongamos que ajustamos los axiomas de la lógica a fin de eliminar la posibilidad de hacer enunciados de este tipo. ¿Podríamos encontrar otro modo de hacer enunciados del tipo “ni así ni no así”?.
En 1931, el físico y matemático austríaco Kurt Gödel presentó una demostración válida de que para cualquier conjunto de axiomas, siempre es posible hacer enunciados que, a partir de esos axiomas, no puede demostrarse ni que son así ni que no son así. En ese sentido, es imposible elaborar jamás un conjunto de axiomas a partir de los cuales se pueda deducir un sistema matemático “completo”.
Gödel en 1931 publicó el artículo «Sobre proposiciones formalmente indecidibles del Principia Mathematica y sistemas relacionados», en el que propuso sus dos teoremas de la incompletitud:
1. Ninguna teoría finitamente axiomatizable y capaz de derivar los postulados de Peano (esto es, abarcar un nivel mínimo de complejidad) es a la vez consistente y completa y,
2. Si una teoría es finitamente axiomatizable, consistente y capaz de derivar los postulados de Peano, entonces dicha teoría no puede probar su propia consistencia.
LA CUÁNTICA
Tanto el lenguaje como la teoría que hoy conocemos como mecánica cuántica, iniciaron su evolución en los institutos de física europeos en los finales del siglo con los trabajos del físico teórico alemán Max Planck quien se sentía intrigado por un problema fundamental que tenía que ver con la radiación de un denominado cuerpo negro.
A esa fecha ya se sabía que el color de la luz que emite un está relacionado con el material del que está hecho el objeto y con su temperatura. La generalidad de los científicos de la época creían que la clave de este problema se hallaba en comprender la interacción entre radiación electromagnética y materia.
Planck se mantuvo con rigidez dentro del reino de la física del siglo XIX. Pero, desde entonces, gira en sus conceptos y se desvía radicalmente. En efecto, para poder calcular el equilibrio de la energía entre los supuestos osciladores y su radiación de entrada y salida, Planck halló que necesitaba suponer la existencia de cuantos, o algunas diminutas divisiones de energía, antes que una gama continua de energías posibles.
Esos supuestos fueron los utilizados por Planck para resolver el problema del cuerpo negro, pero nunca llegó más allá en una interpretación significativa de sus cuantos, y así quedó el asunto hasta 1905, cuando Einstein, basándose en su trabajo, publicó su teoría sobre el fenómeno conocido como “efecto fotoeléctrico”. Éste, sosteniéndose en los cálculos de Planck, demostró que las partículas cargadas –que en esos tiempos se suponían que eran electrones- absorbían y emitían energía en cuantos finitos que eran proporcionales a la frecuencia de la luz o radiación.
De su parte, Einstein admite que la luz posee estructura granular, y se propaga en cuantos luminosos o fotones . Con su hipótesis, el fenómeno pierde de golpe su carácter enigmático. En la imagen corpuscular, la energía luminosa no se diluye, queda concentrada en un cierto número de proyectiles, fotones, que se propagan en todas las direcciones en línea recta; a cualquier distancia, la energía del proyectil será, pues, la misma.
La explicación de Einstein del efecto fotoeléctrico fue publicada en 1905, el mismo año que su ensayo sobre la relatividad especial, y reabrió un tema que la mayoría de científicos habían dado por cerrado. Su hipótesis de la luz como partículas se enfrentó a la teoría de la luz como ondas, y la discusión prosiguió durante casi dos décadas más, hasta que los físicos aceptaron que, de alguna forma, la luz era ambas cosas.
Pero fue el genio de Werner Heisenberg, después de haber inventado la mecánica matricial, en 1925, quién da un paso sustancial hacia la nueva teoría cuántica de los átomos. Junto con Max Born y Pascual Jordan en Gotinga, elaboró una versión completa de la nueva teoría cuántica, una nueva dinámica que servía para calcular las propiedades de los átomos, igual que había servido la mecánica de Newton para calcular las órbitas de los planetas.
EL IMPERIO DE LA INCERTIDUMBRE
Como una definición simple, podemos señalar que se trata de un concepto que describe que el acto mismo de observar cambia lo que se está observando.
En 1927, el físico alemán Werner Heisenberg se dio cuenta de que las reglas de la probabilidad que gobiernan las partículas subatómicas nacen de la paradoja de que dos propiedades relacionadas de una partícula no pueden ser medidas exactamente al mismo tiempo. Por ejemplo, un observador puede determinar o bien la posición exacta de una partícula en el espacio o su impulso (el producto de la velocidad por la masa) exacto, pero nunca ambas cosas simultáneamente. Cualquier intento de medir ambos resultados conlleva a imprecisiones.
Según el principio de incertidumbre, ciertos pares de variables físicas, como la posición y el momento (masa por velocidad) de una partícula, no pueden calcularse simultáneamente con la precisión que se quiera. Así, sí repetimos el cálculo de la posición y el momento de una partícula cuántica determinada (por ejemplo, un electrón), nos encontramos con que dichos cálculos fluctúan en torno a valores medios. Estas fluctuaciones reflejan, pues, nuestra incertidumbre en la determinación de la posición y el momento.
A finales de la década de 1970, tras importantes descubrimientos experimentales y teóricos, se completó una nueva imagen del micromundo subatómico. Las unidades básicas de la materia, como ya lo hemos mencionado, se agruparon en dos grandes familias, a las cuales hay que agregarle una antifamilia. Las interacciones de las partículas y antipartículas que conforman estas familias podrían explicar, en principio, todas las cosas materiales del universo.
ORDEN y/o CAOS
DOS MODELOS DE UNIVERSO.
El siglo XX ha sido testigo de dos modelos teóricos del universo: la teoría determinista, y la teoría del caos.
La teoría determinista está representada por Newton, Laplace y otros pensadores del siglo 17 en adelante y, en nuestro siglo por Einstein.
Según el determinismo, el universo funciona como un reloj, donde no existe lugar para el azar y donde todo está determinado inexorablemente por las eternas leyes de la naturaleza. Esto implica la posibilidad de poder predecir cualquier situación (B), conociendo la situación anterior (A) y las leyes naturales que rigen el proceso que va desde (A) hasta (B).
Si bien se reconocen casos donde no son posibles las predicciones, sobre todo cuando incursionamos en el territorio de lo infinitamente pequeño ( el de las partículas sub-atómicas) ello, para los deterministas, no ocurre porque en la realidad reine el azar, sino simplemente porque aún no hemos descubierto las leyes que rigen esos procesos.
El matemático René Thom, sostiene que si los físicos no pueden prever el resultado en el clásico ejemplo de lanzamiento de la moneda, no es porque ello sea imposible, sino porque el experimento sería muy difícil y costoso, ya que la previsión es teóricamente posible si el investigador controlara en forma lo suficientemente precisa las condiciones iniciales del lanzamiento.
Para la teoría del caos, esta previsión “exacta” es incluso teóricamente imposible pues, como ocurre en un sistema dinámico inestable, la condición inicial de la moneda que saldrá "cara" puede ser tan cercana e incluso igual a la condición inicial de la moneda que saldrá "cruz", pero sin embargo llegan a un final diferente. Esto es así porque el sistema evoluciona por zonas de incertidumbre donde no reinan las leyes eternas de la física.
LOS ANTECEDENTES DE LA TEORÍA DEL CAOS
Ya en 1908, el matemático francés Henri Poincaré (1854-1912) ensayó con sistemas matemáticos no lineales, llegando a conclusiones que, serían un importante antecedente histórico y conceptual de la teoría del caos.
Poincaré partió del esquema laplaceano según el cual, si conocemos con exactitud las condiciones iniciales del universo, y si conocemos con exactitud las leyes naturales que rigen su evolución, podemos prever exactamente la situación del universo en cualquier instante de tiempo subsiguiente. Hasta aquí … todo bien, pero, según Poincaré, ocurre que nunca podremos conocer con exactitud la situación inicial del universo, y siempre estaríamos cometiendo un error al establecerla y, aún suponiendo que pudiéramos conocer con exactitud las leyes que rigen su evolución, nuestra predicción de cualquier estado subsiguiente también sería aproximada.
Poincaré propuso la siguiente hipótesis: un pequeño error en las condiciones iniciales, en vez de provocar también un pequeño error en las últimas, provocaría un error enorme en éstas, con lo cual el fenómeno se vuelve impredecible. Este efecto multiplicativo del error no es debido a nuestra ignorancia o a nuestro limitado conocimiento de lo real, sino a la misma configuración de la realidad, que admite ese tipo de evoluciones erráticas.
En la década del 60, el meteorólogo y matemático norteamericano Edward Lorenz, exteriorizó su “perplejidad” ante la imposibilidad de pronosticar fenómenos climáticos más allá de un cierto número de días, se propuso a elaborar un modelo matemático para predecir fenómenos atmosféricos descubriendo que la misma herramienta matemática que utilizaba estaba fallando: pequeños cambios en las condiciones iniciales producían diferencias asombrosas (inesperadas, impredecibles) en el resultado, con lo cual las predicciones meteorológicas a mediano o largo plazo resultaban imposibles. La tradicional certeza de la matemática no podía compensar la tradicional incertidumbre de la meteorología, ya que el virus de la incertidumbre había invadido el mismísimo cuerpo de la madre de las ciencias exactas.
Si un fenómeno no puede predecirse, ello se debe en principio y como mínimo a una de tres razones:
1. La realidad es puro azar, y no hay leyes que permitan ordenar los acontecimientos.
2. La realidad está totalmente gobernada por leyes causales, y si no podemos predecir acontecimientos es simplemente porque aún no conocemos esas leyes.
3. En la realidad hay desórdenes e inestabilidades momentáneas, pero todo retorna luego a su cauce determinista. Los sistemas son predecibles, pero de repente, sin que nadie sepa muy bien porqué, empiezan a desordenarse y caotizarse (periodo donde se tornarían imposibles las predicciones), pudiendo luego retornar a una nueva estabilidad.
Las investigaciones -centradas en la tercera posibilidad- comenzaron en la década del 70: los fisiólogos investigaron porqué en el ritmo cardíaco normal se filtraba el caos, produciendo un paro cardíaco repentino; los ecólogos examinaron la forma aparentemente aleatoria en que cambiaban las poblaciones en la naturaleza; los ingenieros concentraron su atención en averiguar la razón del comportamiento a veces errático de los osciladores; los químicos, la razón de las inesperadas fluctuaciones en las reacciones; los economistas intentaron detectar algún tipo de orden en las variaciones imprevistas de los precios. Poco a poco fue pasando a un primer plano el examen de ciertos otros fenómenos tan inherentemente caóticos y desordenados que, al menos en apariencia, venían a trastocar la imagen ordenada que el hombre tenía del mundo: el movimiento de las nubes, las turbulencias en el cauce de los ríos, el movimiento de una hoja por el viento, las epidemias, los atascamientos en el tránsito de vehículos, los a veces erráticos dibujos de las ondas cerebrales, etc.
La auténtica perplejidad pasaría por comprobar el hipotético caso donde una serie comienza con una secuencia caótica de números, y en determinado momento se transforma en una serie ordenada.
LA TEORIA DEL CAOS
O teoría de las estructuras disipativas tiene como su principal representante en la figura del belga Ilya Prigogine, Premio Nobel de Química del año 1977 por sus trabajos sobre la termodinámica de los sistemas alejados del equilibrio.
La teoría del caos plantea que el mundo no sigue el modelo del reloj, previsible y determinado, sino que tiene aspectos caóticos donde el observador no es quien crea la inestabilidad o la imprevisibilidad con su ignorancia: ellas existen de por sí. Los sistemas estables, como la órbita de la tierra alrededor del sol, son la excepción: la mayoría son inestables, siendo un ejemplo típico el clima.
Para la teoría del caos, los procesos de la realidad dependen de un enorme conjunto de circunstancias inciertas, que determinan por ejemplo que cualquier pequeña variación en un punto del planeta, genere en los próximos días o semanas un efecto considerable en el otro extremo de la tierra.
Las relaciones causa-efecto pueden ser concebidas de varias maneras:
1. Como vínculos unidireccionales: A causa B, B causa C, etc., pero los efectos resultantes no vuelven a ejercer influencia sobre sus causas originales; C
2. Como eventos independientes: según esta concepción, no habría ni causas ni efectos: cada acontecimiento ocurriría al azar e independientemente de los otros;
3. Como vínculos circulares: A causa B, y B a su vez causa A, es decir, el efecto influye a su vez sobre la causa, como resultado de los cual ambos acontecimientos son a la vez causas y efectos.
Se trata de los llamados circuitos de retroalimentación, que pueden ser negativos o positivos.
La teoría del caos, en la medida en que considera que existen procesos aleatorios, adopta la segunda postura (eventos independientes), pero en la medida en que reconoce que otros procesos no son caóticos sino ordenados, sostiene que existen vínculos causales, de los cuales los que más desarrollará son los circuitos de retroalimentación positiva, es decir, aquellos donde se verifica una amplificación de las desviaciones.
Las alternativas de la relación causa efecto podrían ser las siguientes:
• Causas y efectos son razonablemente proporcionales
• Una causa pequeña produce un gran efecto;
• Una causa grande produce un pequeño efecto.
El sentido común prescribe una cierta proporción entre la causa y el efecto: una fuerza pequeña produce un movimiento pequeño, y una fuerza grande, un gran desplazamiento. Sin embargo, ciertas experiencias cotidianas y determinados planteos científicos nos obligan a considerar la posibilidad de algunas excepciones. Examinemos algunos ejemplos de desproporción cuantitativa -aparente o no- entre causas y efectos:
• Efecto palanca: Un simple movimiento de palanca es una causa pequeña, pero puede producir grandes efectos.
• Efecto gota de agua: Una gota más que agreguemos en la tortura china de la gota de agua producirá la insanía de quien la recibe.
• Efecto interacción experimental: Donde la acción conjunta de dos variables, lejos de producir un simple efecto sumativo, pueden generar un efecto inesperadamente mayor (o menor).
• Los fenómenos de cismogénesis :descritos por Gregory Bateson, y las escaladas simétricas o las "escapadas" mencionadas por Paul Watzlawick , todos fenómenos interpretables en términos de mecanismos de retroalimentación positiva.
• Mecanismos amplificadores: Von Bertalanffy, el mentor de la Teoría General de los Sistemas, describe la existencia de mecanismos amplificadores donde pequeñas causas generan grandes efectos. Al respecto, cita una distinción entre causalidad de "conservación", donde hay una proporcionalidad razonable entre las intensidades de la causa y el efecto, y la causalidad de "instigación", donde la causa actúa como instigadora o disparadora, es decir, un cambio energéticamente insignificante provoca un cambio considerable en el sistema total.
• Series complementarias: Hemos ya citado un ejemplo donde un factor desencadenante pequeño puede desatar clínicamente una psicosis o una neurosis, o puede sumir a una persona en una profunda crisis.
• La conversión masa-energía: Según lo prescribe el principio de equivalencia masas-energía de Einstein, una pequeñísima porción de masa, bajo ciertas condiciones puede liberar enormes cantidades de energía.
• Efecto mariposa.- "El aleteo de una mariposa que vuela en la China puede producir un mes después un huracán en Texas.
Tales categorías de fenómenos tienen tres aspectos susceptibles de ser analizados separadamente:
1. Situación donde pequeñas causas generan grandes efectos,
2. Una situación que no podemos predecir: sabemos que el efecto puede ser muy grande, pero no podemos saber en que consistirá, ni muchas veces cuándo, dónde o cómo ocurrirá; y
3. Una situación de descontrol: muchas veces no podemos ejercer un control de la influencia de la causa sobre el efecto.
En lo esencia, la teoría del caos sostiene que la realidad es una "mezcla" de desorden y orden, y que el universo funciona de tal modo que del caos nacen nuevas estructuras, llamadas estructuras "disipativas", propone para el universo un ciclo de orden, desorden, orden, etc., de forma tal que uno lleva al otro y así sucesivamente tal vez en forma indefinida.
En relación con las ideas de orden y caos, en principio y más allá de las respuestas de Prigogine, pueden plantearse varios interrogantes:
¿En el universo hay orden en vez de caos?
¿Hay caos en vez de orden?
¿Hay un orden oculto tras el caos aparente?
¿Hay un caos oculto tras el aparente orden?
¿Cómo del orden se pasa al caos?
¿Cómo del caos se pasa al orden?
La física se ha manejado tradicionalmente con un principio filosófico bastante simple: "lo que es, sigue siendo, mientras no haya motivos para que deje de ser lo que es". En éste caso, para la teoría determinista, se considera que un sistema tiende a permanecer en equilibrio si no hay ningún agente desequilibrante, y aún, cuando lo haya, el sistema evolucionará espontáneamente de nuevo hacia el estado de equilibrio.
Para la teoría del caos, mientras el sistema va caotizándose cada vez más, llega un momento en que alcanza lo que Prigogine denomina el “punto de bifurcación”, que es un punto donde el sistema puede evolucionar hacia una de dos posibilidades:
a. Retorna al estado de equilibrio original, tal cual lo prevé la termodinámica clásica, o
b. Al dejar de caotizarse, empieza a auto-ordenarse o auto-organizarse hasta constituir una nueva estructura, denominada estructura “disipativa” o “dispersiva”, debido a que consume mayor cantidad de energía que la organización anterior a la cual reemplazó.
La afirmación que del caos nace el orden puede generalizarse mediante los siguientes ejemplos:
• el universo nació de un caos inicial y generó un mundo organizado de galaxias;
• de la actividad desordenada de las moléculas nació la vida;
• la llegada caótica de muchos estímulos, cuando observamos una figura poco estructurada, son organizados por nuestra percepción en una estructura;
• de la actividad desordenada de muchos individuos nace el orden social y el progreso económico.
Según Prigogine cuando se empuja al sistema más allá de sus límites de equilibrio proliferan estos circuitos de retroalimentación positiva.
Es la irreversibilidad la que hace posible cosas que serían imposibles en estado de equilibrio, provee una importante ley constructiva, la del origen de la vida y de sus estructuras derivadas altamente complejas y sofisticadas, como el cerebro o la sociedad.
Para que surja una nueva estructura más compleja, una condición necesaria es que haya un estado inicial en el punto de bifurcación, por ejemplo un pequeño acontecimiento que luego, por retroalimentación positiva, genere grandes consecuencias. Este proceso de retroalimentación es la condición suficiente, porque por sí sola, la condición inicial no puede hacer nada. Prigogine destaca el hecho de este acontecimiento inicial, muchas veces insignificante, ¡se produce por azar!
La realidad no es entonces ni puramente determinada ni puramente gobernada por el azar. Hay algunos fenómenos a los que a grandes rasgos puede aplicarse el esquema determinista, como el movimiento de la tierra en torno al sol, pero en otros hay una mezcla de determinismo y probabilidad o azar, como en la evolución de un ser humano, de una sociedad, del clima terrestre, etc. Para Prigogine, un problema de la ciencia actual es precisamente determinar cuánto hay de determinismo y cuánto de azar en los fenómenos que estudiamos. Puesto que ambos elementos están siempre presentes en mayor o menor medida, las predicciones ya no pueden ser absolutas sino probabilísticas, y ello no por nuestra incompetencia o ignorancia sino porque la misma realidad tiene de por sí esa mezcla.
LA COMPLEJIDAD
Edgar Morin nos ofrece una primera aproximación a la complejidad: "A primera vista la complejidad es un tejido (complexus: lo que está tejido en su conjunto) de constituyentes heterogéneos inseparablemente asociados: presenta la paradoja de lo uno y lo multiple." La complejidad se presenta con los rasgos inquietantes de lo enredado,y muestra emparejados orden y caos.
Morin plantea la Complejidad en conjunción dos términos que parecen autoexcluirse, pero que, a poco que volvamos sobre nosotros mismos los encontramos muy íntimamente entrelazados. En la vida cotidiana cada uno juega varios roles sociales, cada ser tiene una multiplicidad de personalidades en sí mismo, un mundo de fantasmas y sueños que acompañan su vida.
La vida humana no se somete a ninguna ley o principio que pueda imponer el Paradigma de la Simplicidad, que pone Orden en el Universo y persigue todo tipo de Desorden y Caos. La Simplicidad, que o bien separa lo unido, o bien unifica lo que es diverso, nos presenta la pareja Disyunción/Reducción, frente a la que se opone con energía el dúo de la complejidad: Orden y Caos. Diversas patologías afectan al pensamiento moderno: la hiper-simplificación que ciega al espíritu a la complejidad de lo real; el idealismo, donde la idea oculta a la realidad que pretende traducir; el dogmatismo, que encierra a la teoría en sí misma, la racionalización que encierra lo real en un sistema coherente.
"Estas cegueras son parte de nuestra barbarie. Estamos siempre en la prehistoria del espíritu humano. Solo el pensamiento complejo nos permitirá civilizar nuestro conocimiento." Volviendo a nosotros otra vez, somos seres biológicos, pero no solo eso, también somos seres culturales, meta-biológicos, que vivimos en un universo de lenguaje, de ideas y de conciencia, y también somos seres físico-químicos compuestos de elementos que se comunican entre sí, sin que nosotros tengamos conciencia de esa comunicación.
Cuando amamos biológicamente, nuestros genes buscan su perpetuación, su difusión; cuando amamos culturalmente, perseguimos un ideal que ha sido amasado en nosotros a través de la educación (o como reacción a ella); si amamos químicamente, nuestras glándulas liberan sustancias que excitan y atraen a otras glándulas que se nos acercan; amamos también inconscientemente, nuestros instintos buscan aliviar tensiones producidas por nuestras pulsiones, y por último, amamos sin saber porque amamos. Así, comprobamos como nosotros mismos podemos ser múltiples siendo únicos como somos.
Valdría esta frase de Pascal para ilustrar la inseparabilidad que afecta a todo aquello con lo que nos enfrentamos, a todo lo que se nos presenta de forma compleja: "Siendo todas las cosas causadas y causantes, ayudadas y ayudantes, mediatas e inmediatas, y relacionándose todas por un vínculo natural e insensible que vincula a las más alejadas y a las más distintas, considero imposible conocer las partes sin conocer el todo, y también conocer el todo sin conocer las partes."
Nos encontramos con que ya no hay un fundamento único o último para el conocimiento, "en un universo donde Caos, desordenes y azares nos obligan a negociar con las incertidumbres". Aunque el reconocimiento de no poder encontrar certidumbre allí donde no la hay, constituye ya de por sí una certidumbre.
La aceptación de la confusión puede convertirse en un medio para resistir a la simplificación mutiladora. Nos falta un método en el comienzo, pero podemos disponer de un a-método en el que la ignorancia, incertidumbre, confusión, se convierten en virtudes. Nuestra expuesta pretensión de no renunciar al todo y a las partes parece convertirse en una empresa imposible, deviene un circulo vicioso, atenazado por la imposibilidad lógica, la imposibilidad del saber enciclopédico y por la renuncia omnipotente del principio de disyunción y la ausencia de un nuevo principio de organización del saber.
Nos las tenemos entonces con "un círculo vicioso de amplitud enciclopédica que no dispone ni de principio, ni de método para organizarse." Un círculo que nos atrapa, que nos devora como si fuéramos la serpiente Uro-boros. Sólo podemos conservar la circularidad, engarzarnos en el círculo para no ser inscritos por él. La pretensión de eliminar las contradicciones, las antinomias, se demuestra ilusoria. Querer romper la circularidad nos lleva a caer de nuevo bajo el principio de disyunción/reducción.
Conservar la circularidad es "respetar las condiciones objetivas del conocimiento humano", que conlleva siempre paradoja e incertidumbre. La circularidad nos permite un conocimiento que reflexiona sobre sí mismo, transformando el círculo vicioso en círculo virtuoso. Hay que velar, como nos recuerda Morin, por no apartarse de la circularidad: "El círculo será nuestra rueda, nuestra ruta será espiral". La insuperable pretensión del enciclopedismo no debe ser tomada en términos puramente acumulativos, se trata ahora de poner el saber en ciclo, articular lo que esta disociado y debería estar fundamentalmente junto. Necesitamos reaprender a aprender, constituyendo "un principio organizador del conocimiento que asocia a la descripción del objeto, la descripción de la descripción, y el desenterramiento del descriptor. Nos encontramos ante el nacimiento de un nuevo paradigma: el Paradigma de la Complejidad, que se empieza a gestar en las crisis que afectan al conocimiento en nuestro siglo. Un Paradigma que acepta "que el único conocimiento que vale es aquel que se nutre de incertidumbre y que el único pensamiento que vive es aquel que se mantiene a la temperatura de su propia destrucción."
El mundo físico nos ofrece un ejemplo de cohabitación entre Orden y Caos. Así las estrellas, son a la vez formidables máquinas de relojería - producen Orden, Organización - son Cosmos, y también son auténtico Caos: son fuego ardiendo en una autoconsumición insensata, se crean, se autoorganizan en la temperatura misma de su destrucción, viven en la catástrofe continua. También podríamos decir esto de algo más cercano a nosotros, de nosotros mismos, otra vez Caos y Orden, otra vez resultamos complejos. El Caos que se gesta en las estrellas produce interacciones, que, a su vez, permiten los encuentros que se traducen en Organización: los átomos. La relación Caos/Interacción/Organización/Orden está presente en todos los fenómenos complejos, se convierte en Tetrálogo. El Orden y el Desorden se coproducen mutuamente, se necesitan; mantienen una relación solidaria, una relación que es genésica. Y la genesis no ha cesado, seguimos estando en la nube que se dilata, en un universo que sigue en expansión. La complejidad surge en las ciencias físicas, paradójicamente las más reductoras, y precisamente por eso mismo.
El 2º principio de la Termodinámica, el universo en expansión de Hubble, la Teoría de la Relatividad, constituyen algunas de las fisuras a través de las que la complejidad se abre paso en el mundo físico, son las puertas por las que entran los conceptos de Caos, de Organización, de Expansión que convierten en ruinas lo que se había creído un edificio sólido. Y tras estas ruinas, nos encontramos con que toda observación, todo conocimiento, es siempre relativo a un observador, a un sujeto que conceptúa. Un observador que no es un ente puro, y que no puede desasirse de sus condicionamientos bio-antropológicos, culturales, psicológicos; de nuevo, como no, otra vez, nosotros mismos. Así se presenta la necesidad de articular la física a la antropo-sociología, intentando construir un círculo virtuoso, siguiendo una ruta compleja, una ruta espiral. La Complejidad de lo real necesita ser pensada a través de macro-conceptos, necesitamos pensar mediante "constelación y solidaridad de conceptos."
La Complejidad es el desafío, no la respuesta. El paradigma de la complejidad es una empresa que se esta gestando, que vendrá de la mano de nuevos conceptos, de nuevas visiones, de nuevos descubrimientos, y de nuevas reflexiones que se conectaran y reunirán. Es una apertura teórica, una teoría abierta que requiere de nuestro esfuerzo para elaborarse. Que requiere lo más simple y lo más difícil: "cambiar las bases de partida del razonamiento, las relaciones asociativas y repulsivas entre algunos conceptos iniciales, pero de las cuales depende toda la estructura del razonamiento, todos los desarrollos discursivos posibles".