por Francisco Ferrara


Los procesos causales no lineales producen un comportamiento no determinista.

Comienza a ser frecuente encontrar en la prensa o en publicaciones de tipo divulgativo referencias a la teoría de la complejidad, también llamada teoría del caos. Con motivo de las celebraciones conmemorativas de nuestro X aniversario, Telefónica I+D ha recibido la visita del ilustre profesor y premio Nobel Dr. Murray Gell-Mann, que impartió una conferencia muy interesante el pasado 5 de junio en el auditorio de Telefónica. En ella, el autor del Quark y el jaguar nos introdujo con mayor rigor en este nuevo concepto. Uno de sus comentarios más críticos fue la intolerable tergiversación de conceptos que, en ocasiones, hacen de esta teoría un mundo de ficción y de especulación, no sólo en el entorno de las personas corrientes, sino también en los círculos de prestigiosos científicos.

El objetivo de este artículo es presentar los conceptos esenciales de esta teoría, por medio de aspectos que podemos observar en la naturaleza que nos rodea, tratando de huir, en todo momento, de especulaciones que pueden conducir a planteamientos irreales. El estado de desarrollo de la teoría de la complejidad es incipiente. Sus bases se encuentran aún en estado de definición, por lo que los conceptos que presento son un intento de ordenación, a partir de las tendencias de diferentes autores, entre los cuales existen desavenencias importantes, por no decir un enfrentamiento que, en algunos casos, parece personal.

La complejidad a lo largo de la historia

La física ha sido una ciencia con un enorme éxito en definir modelos formales que permiten comprender el comportamiento físico de la naturaleza y, consiguientemente, el desarrollo de las tecnologías que han modificado la sociedad y el pensamiento humano, de forma profunda. En este desarrollo, ha estado siempre presente el principio de causalidad: las mismas causas producen siempre los mismos efectos. Esto ha llevado al pensamiento filosófico de que dadas unas condiciones de contorno de un sistema es posible determinar la evolución futura de éste.

En general, los modelos físicos se basan en unas leyes simples que encierran y explican, de forma global, un determinado comportamiento de la naturaleza.

Sin embargo, estos principios no han tenido éxito en otras áreas del conocimiento. De hecho, alguna de ellas parecen contradecirlos. Nuestra propia naturaleza nos muestra una constante incertidumbre sobre el futuro. La biología, psicología, sociología, etc. encuentran, con frecuencia, dificultades para explicar los procesos que estudian, a partir de los elementos componentes. Todo ello ha conducido a un cierto comportamiento psicológico dentro del mundo científico, definido como envidia de la física.

Esto incluso ha llevado a la disociación de la sociedad en dos partes, conocidas como las dos culturas; en nuestro argot cotidiano, los de ciencias y los de letras. Este patrón se repite sistemáticamente en las diferentes culturas conocidas, a pesar de sus enormes diferencias en otros terrenos.

Sin embargo, a lo largo de la historia, la física se ha enfrentado con éxito a la dificultad de explicar los procesos físicos naturales, si bien en muchos de ellos ha quedado un poso de frustración personal que, en general, ha permanecido diluido por el propio éxito del modelo y por los poderes fácticos de la ciencia.

Un ejemplo significativo es el caso de Maxwell, que dio forma definitiva a las ecuaciones de los campos electromagnéticos que llevan su nombre y que son un claro exponente de determinismo. Sin embargo, Maxwell, que fue contemporáneo Boltzmann, era un profundo conocedor de los problemas planteados por la termodinámica. De hecho, fue el primero en afirmar que el segundo principio es de naturaleza estadística y el creador de los “demonios” termodinámicos. Esto, y la dificultad de comprender la enorme complejidad que le rodeaba, le llevó a afirmar “la verdadera lógica de este mundo es el cálculo de probabilidades”.

A finales del siglo XIX, Poincaré estudió el movimiento de los planetas en un entorno complejo y concluyó que “puede ocurrir que pequeñas diferencias en las condiciones iniciales produzcan otras muy grandes en el fenómeno final; un pequeño error al comienzo produce un error enorme al final; la predicción es imposible”. Como sabemos, el movimiento de un planeta sometido a una fuerza central del tipo 1/d2 es una cónica. Sin embargo, cuando el escenario está formado por múltiples cuerpos que interaccionan entre sí, el comportamiento es fuertemente no lineal y, por tanto, imprevisible. Esto hace que las condiciones para formar sistemas orbitales estables, como sistemas planetarios y galaxias, deban cumplir unas condiciones de formación muy restrictivas, tales como explosiones o desgarramientos de un núcleo primigenio con un momento cinético inicial.

El propio Poincaré demostró de forma concluyente que ciertos sistemas mecánicos pueden desarrollar un comportamiento caótico, lo que le llevó a afirmar que “el determinismo es una fantasía de Laplace”. Un ejemplo es el péndulo compuesto. La base de esta demostración es la aparición de términos no lineales para desplazamientos infinitesimales en las ecuaciones de la dinámica del movimiento. Este comportamiento despertó en la época cierta expectación, pero quedó reducido a una mera curiosidad, sin interés científico.

En general, el comportamiento no determinista de los sistemas se debe a una naturaleza no lineal de las leyes que lo controlan. Un ejemplo son las ecuaciones de la dinámica de fluidos conocidas con el nombre de Navier-Stokes. A lo largo de los siglos XVIII y XIX, el avance de la física y las matemáticas se fundamentó principalmente en el estudio de sistemas lineales, ya que tienen un tratamiento relativamente sencillo y conducen a resultados predecibles, a partir de unas condiciones iniciales. Los mayores exponentes de este desarrollo fueron Laplace y Fourier. Una excepción son las ecuaciones mencionadas, que fueron inicialmente propuestas por Euler para fluidos no viscosos y completadas por Navier y Stokes para fluidos viscosos. En éstas aparecen términos no lineales correspondientes a los productos de las velocidades y a las derivadas de las velocidades. ¿El resultado? No hay más que observar un torrente, para apreciar el movimiento imprevisible de las moléculas. Un ejemplo similar es la dinámica de sistemas mecánicos con rozamiento.

Lo verdaderamente significativo es que, a pesar de estas evidencias, la ciencia ha seguido los principios de causalidad y determinismo como un principio fundamental. La justificación está en la dificultad de resolución de las ecuaciones diferenciales no lineales y en las limitaciones de cálculo numérico de la época. En definitiva, el método más adecuado ha sido simplificar estas ecuaciones linealizándolas y resolviendo casos sencillos. La aplicación de estos resultados a la ingeniería ha sido espectacular. El no determinismo de los procesos naturales ha quedado oculto a la ciencia. El resto ha sido obra del principio de parsimonia aplicado sistemáticamente en el desarrollo científico, que consiste en consolidar un modelo siempre que éste recoja el comportamiento de un fenómeno.

Esto no significa que los científicos de esa época no fueran sensibles a estos fenómenos, como se pone claramente de manifiesto en los casos de Boltzmann y de Planck. Lo que ocurre es que los conceptos tardan en madurar, hasta que se consolidan como modelos fiables de la realidad. Los comportamientos no cubiertos por los modelos quedan pendientes para sucesivos desarrollos. En definitiva, el éxito de los modelos físicos ha sido siempre parcial. De hecho uno de los objetivos perseguidos durante las últimas décadas ha sido la definición de un campo unificado que integre los cuatro tipos de fuerzas conocidos: gravedad, electromagnetismo, débiles y fuertes, y que actualmente logran integrar las tres últimas.

A mediados del siglo XIX, Boltzmann estableció las bases teóricas de la física estadística. Para ello, definió el concepto de probabilidad termodinámica, en el que, por primera vez, se describe un sistema por la probabilidad de encontrase en un determinado estado en cada instante, en contraposición con la concepción clásica, en la que el estado de un sistema está definido para cada instante de forma determinista. Así, el estado de un gas ideal compuesto por N partículas sin estructura y con una energía total fija estará determinado por la energía de cada partícula en cada instante. Utilizando el cálculo combinatorio, podemos calcular la probabilidad de cada uno de los posibles estados y, en general, la distribución de probabilidades del estado del sistema.

La conclusión a la que llegó Boltzmann es que la entropía del sistema, definida por el segundo principio de termodinámica, es una consecuencia directa de la distribución de probabilidades del estado del sistema, de tal forma que el estado más probable es aquel que tiene una entropía mayor. Con esto quedó demostrado formalmente un principio definido con anterioridad de forma empírica, que establece que la dinámica de un sistema de partículas sin estructura tiende hacia un estado en el que la entropía es máxima y en el que la temperatura de las partículas es homogénea y, por tanto, incapaz de realizar ningún trabajo. Este razonamiento conduce al pronóstico de la muerte térmica del universo.

Boltzmann sabía que la ley del crecimiento de la entropía no es una ley absoluta. Al aproximarse al equilibrio, el aumento de entropía no es un hecho forzoso, sino el más probable. En cualquier caso, el éxito de esta ley radica en que define un comportamiento macroscópico determinista, a partir de un proceso microscópico caótico. Esto fue lo que, en definitiva, arraigó como cuerpo de doctrina.

Con el nacimiento de este siglo, Planck calculó la entropía de un oscilador lineal, por dos procedimientos distintos: de acuerdo con la definición termodinámica de la entropía y por un procedimiento estadístico similar al utilizado por Boltzmann. En el segundo, Planck realizó un postulado cuántico, que supone que la energía total radiada por los osciladores está formada por elementos finitos e. La comparación de los procedimientos condujo a la famosa ecuación e= hn, que marcó el principio de la teoría cuántica. Éste es un ejemplo de cómo un proceso estocástico microscópico conduce a resultados deterministas a escala macroscópica.

La mecánica estadística y, sobre todo, la mecánica cuántica introducen el concepto de probabilidad, por lo que, de alguna manera, se reconoce que los procesos físicos están controlados por el azar. Lo más chocante es que este control determina efectos macroscópicos de primer orden. Esto choca frontalmente con el concepto de procesos deterministas.

Este hecho siempre ha captado la curiosidad de los creadores de los modelos, pero el éxito del modelo y el poder establecido han dejado a ésta en un segundo plano. Esto es comprensible si se considera que estos procesos estocásticos han conducido a formulaciones deterministas. Entre otros, la ecuación de la entropía, la explicación de la ley de radiación del cuerpo negro, etc.

Sin embargo, a medida que la teoría cuántica avanzó a principios de este siglo, el hecho estocástico se fue haciendo más patente, lo que ha supuesto un fuerte cambio de mentalidad. Un ejemplo de ello fue la posición de Einstein frente a la teoría cuántica. Era un determinista profundo que, al principio, participó en el desarrollo del concepto cuántico. Debemos recordar que le fue concedido el premio Nobel por la propuesta del cuanto de luz, a partir de un razonamiento puramente teórico y determinista, por medio del análisis de la ley de los gases perfectos y que fue corroborada experimentalmente años después. Es importante destacar que en su razonamiento no existe vestigio alguno del azar.

A lo largo de los años, desarrolló una actitud crítica hacia la teoría cuántica, ya que consideraba que la estadística era un juego que enmascaraba la incapacidad de definir los verdaderos procesos deterministas que encerraba la materia. Einstein trabajó siempre en esta línea, tratando de encontrar las leyes del campo unificado. Definía su postura con comentarios como “Dios no juega a los dados” o “cuanto más éxito tiene la teoría cuántica, más tonta parece”.

La teoría de la complejidad

La teoría de la complejidad se basa en el principio: Los procesos causales no lineales producen un comportamiento no determinista.

La teoría de la complejidad comienza a tomar cuerpo, a partir de los trabajos de Edward Lorenz sobre predicción del clima a largo plazo. Para ello, definió un sistema de ecuaciones diferenciales ordinarias no lineales que son una simplificación de las ecuaciones en derivadas parciales de la convección de fluidos.

El resultado de la resolución de estas ecuaciones mostraba un movimiento muy complejo de las partículas del fluido y una extraordinaria sensibilidad de las predicciones a las condiciones iniciales, a medida que aumentaba el periodo de predicción. Lo definió como el efecto mariposa. Una mariposa volando en un extremo del planeta modifica, a largo plazo, el pronóstico del tiempo atmosférico (no del clima) en el otro extremo.

Esto ha hecho que la teoría de la complejidad se asocie vulgarmente al efecto mariposa, o que se la defina como la sensibilidad de la dinámica a las condiciones iniciales. Pero no debe entenderse así, ya que no es más que una consecuencia de un principio fundamental. Se conoce también a la teoría de la complejidad como teoría del caos, debido a que el análisis de los comportamientos no deterministas nos inspira una situación de caos. Sin embargo, es un concepto equívoco, ya que caos significa desorden, y el comportamiento de un sistema y, en general, del universo es un orden complejo; es decir, existen leyes de ordenación que hacen que el comportamiento sea complejo.

La clasificación de simple o complejo es subjetiva y la frontera se encuentra entre lo que sabemos resolver y lo que no sabemos resolver. En este contexto, complejo significa fuera del conocimiento convencional, o sea, no determinista. Esto choca con nuestra percepción matemática, educada con unos criterios tradicionales. Dada una ley causal, la obtención de resultados sólo requiere ir dando valores a las variables y, si la precisión no es suficiente, aumentamos el número de decimales. Pero esto no es así necesariamente.

Existen funciones con puntos singulares. Cuando vamos a calcular el valor de la función en el punto, nos encontramos con que, a medida que aumentamos el número de decimales, el valor de la función cambia de forma significativa, y no existe correlación entre la precisión del cálculo y el resultado. En este caso, afirmamos que la función no tiene límite. En ocasiones, todos los puntos de la función son singulares, por lo que su resultado no se puede determinar en ningún caso. Es fácil poner de manifiesto este comportamiento. Un ejemplo sencillo es la sucesión xn+1=2.xn mod 1. Si expresamos xn en base 2, esta función nos da la parte fraccionaria resultante de desplazar la coma una posición hacia la derecha. En la figura podemos apreciar que el resultado de xn+1 es, a largo plazo, imprevisible y que, para dos valores iniciales, x0 y x0′ próximos, la función diverge. ¿Las causas? La complejidad infinita de los números reales.

Este comportamiento tiene un sentido físico concreto. A medida que nos movemos sobre los puntos de la función, encontramos un universo variado y de complejidad sin límites, similar a lo que ocurre a nuestro alrededor. Podemos tener la misma percepción, cuando nos sumergimos en el interior de la materia o cuando observamos con una dimensión cosmológica. Este comportamiento se hace patente cuando utilizamos el ordenador, en simulaciones, representación de fractales, en la creación de arte electrónico, etc. De hecho, el ordenador ha contribuido de forma notable a la percepción de la teoría de la complejidad, aunque también a su deformación.

El caso del gas de partículas de Boltzmann nos permite entender esta nueva concepción de la realidad. Imaginemos dos recintos idénticos que encierran el mismo número de partículas y con las mismas condiciones iniciales, excepto que una de las partículas de uno de los recintos tiene unas condiciones iniciales algo diferentes.

Al analizar la dinámica de los dos sistemas, observamos que sus estados siguen exactamente la misma trayectoria, hasta que la partícula en cuestión realiza un choque diferente a su homóloga del otro recinto. En ese instante, la dinámica del estado de los dos sistemas comenzará a diferenciarse notablemente, ya que el acontecimiento de choque mencionado desencadenará una avalancha acumulativa de choques diferentes. A largo plazo, el estado del gas en los dos recintos es completamente diferente.

Lo chocante es que, desde un punto de vista macroscópico, no se producen cambios que puedan ser medidos. Podemos hacer que las condiciones iniciales de uno de los recintos se aproximen a las del otro, tanto como queramos, lo cual no modificará la divergencia de sus estados, ya que, a largo plazo, siempre existirán choques diferentes. En la aproximación al límite, habrá un periodo inicial cada vez mayor en que los estados de los dos sistemas serán iguales, pero, a partir del primer choque diferente, los estados tomarán trayectorias distintas.

Causas y consecuencias de la teoría de la complejidad

Todos los procesos lineales poseen un comportamiento determinista. Entonces ¿qué tipo de procesos causales tienen un comportamiento no determinista? En general, todos los procesos cuya ecuación de la dinámica es no lineal. ¿Porqué? Porque el estado, en un instante determinado, depende de absolutamente todos los estados previos, ya que la no linealidad lleva implícita la recursividad. Sin embargo, no está tan claro de qué depende el grado de complejidad exhibido por el proceso. Podríamos decir que cuanto mayor es la no linealidad y el número de variables del proceso, pero esto no es necesariamente cierto.

El no determinismo de los procesos causales conduce a la dificultad de predecir el estado de un sistema, a largo plazo. Esto está en consonancia con nuestra percepción de la realidad cotidiana y depende de la complejidad encerrada por los procesos que controlan el sistema. Desgraciadamente, el desarrollo de la matemática no lineal es muy escaso, por lo que no existen aún criterios generales que nos permitan evaluar la complejidad de un sistema.

En general, la dinámica de un sistema no determinista es muy dependiente de las condiciones iniciales. Existen zonas en que la dinámica del estado presenta una gran complejidad, mientras que en otras son de gran estabilidad. Es como el desarrollo de una sociedad, que en ocasiones pasa por momentos de cambios profundos, mientras que en otras muestra una enorme monotonía; y muchas veces sin motivos claramente definidos.

Una de las consecuencias fundamentales del no determinismo de los sistemas causales es la imposibilidad de conocer con exactitud el desarrollo futuro de los sistemas. Sin embargo, es posible determinar o pronosticar aspectos macroscópicos o globales.

Volviendo al gas de partículas de Boltzmann, es imposible determinar la dinámica de estados del sistema sobre la base del estado de cada una de las partículas. Sin embargo, se puede establecer un modelo macroscópico determinista, en función de variables globales: presión, volumen y temperatura, cuya dinámica representa el comportamiento global del sistema. Estas variables están relacionadas, a su vez, con el balance energético del sistema y con su grado de ordenación: energía interna, trabajo, entropía y función de estado H.

Este ejemplo pone de manifiesto otra de las consecuencias de la teoría de la complejidad. Los sistemas complejos pueden ser modelados por otros más simples y deterministas, pero éstos son irreductibles. Esto significa que el modelo global permite predecir el comportamiento macroscópico del sistema, pero no hacer ninguna valoración de la realidad que lo sustenta.

Éste es el pilar del desarrollo de las ciencias clásicas. El ejemplo termodinámico anterior es un claro exponente. Se pueden exponer innumerables casos: el modelo de gravedad de Newton, el concepto de sólido rígido, etc. y no queda reducido a la física, sino que es extensible a todas las ciencias. En el campo de la psicología y la sociología, encontramos modelos abstractos que nada tienen que ver con la realidad física del cerebro o del ser humano y que, sin embargo, permiten explicar ciertos comportamientos.

Una nueva visión de la naturaleza

La acumulación de conocimiento, que puede ser paulatina, permite en ciertos momentos dar un gran salto en la visión del universo en el que estamos inmersos. La teoría de la complejidad es uno de estos acontecimientos.

Esta teoría nos enseña que no existe nada fundamentalmente distinto en los diferentes estratos en que hemos organizado la estructura de la naturaleza, física, biología, sociología, etc. La disociación de culturas, ciencias, letras, determinismo e inprevisibilidad no son más que visiones subjetivas de una misma naturaleza.

El problema es desarrollar leyes y modelos de comportamiento que nos permitan analizar con mayor rigor esta realidad esquiva. Dado el estado de desarrollo y la magnitud del problema, se pronostica una ocupación intensiva para científicos y matemáticos durante el próximo siglo. El proceso ya ha comenzado. A aquellos que hayan detestado la química, por considerarla un conjunto de recetas sin fundamento, les animo a que indaguen en una visión moderna, que, desgraciadamente, no está aún en la enseñanza normalizada. Lo mismo ocurre con la biología molecular y otras áreas de conocimiento, que probablemente seguirán un camino similar al desarrollo habido en la física.

¿Imagináis la economía y la biología utilizando las herramientas más sofisticadas jamás creadas por el ser humano?

La teoría de la complejidad va a constituir uno de los acontecimientos más importantes e impactantes del próximo siglo. Pero no nos hagamos ilusiones. Gutenberg inventó la imprenta hace mucho tiempo y sus efectos no han llegado, de forma definitiva, al conjunto de la sociedad. Además, existen visiones simplistas y sin fundamento. Así, no es extraño ver cómo se hacen comparaciones entre histogramas de los biorritmos y las fluctuaciones de los índices bursátiles, con la pretensión de sacar parecidos y, en consecuencia, conclusiones substanciales. Efectivamente, se parecen en algo: las dos son complejas, pero probablemente no tengan nada más en común.

La teoría del caos permite ofrecer una visión original de principios físicos relacionados con la estructura de modelos micróscópicos y macroscópicos y su irreductibilidad, como el 2º principio de la termodinámica o el principio de indeterminación de Heisenberg, pero este análisis lo contaremos en otra ocasión.

El desafío de la complejidad

“Todo está en todo y recíprocamente” dice con un dejo humorístico Edgar Morin (1) para no dejar dudas acerca de la condición sistémica del universo y todo lo que lo compone. Esta afirmación enfrenta a esa especie de lógica del desguace que primó durante siglos y que instituye las operaciones de división, separación y simplificación como método de conocimiento. Esta lógica disyuntiva y reductora que es la que todavía impregna toda nuestra educación, establece que, para conocer, es preciso separar al objeto de su entorno, aislarlo en condiciones especiales y buscar la explicación del todo a través de sus partes. “En la escuela hemos aprendido a pensar separando” dice Morin: Geografía por un lado, Historia por otro, Química, Física, Arte, costumbres; y podríamos agregar nosotros: en ningún lugar se vuelve a juntar eso que se ha separado tan cuidadosamente. La conclusión es un pensamiento con grandes dificultades para abordar sistemas, para considerar holísticamente las situaciones, para respetar la complejidad.

La ciencia de la modernidad se fundó y desarrolló a partir de estos paradigmas, y avanzó espectacularmente desintegrando el universo, buscando moléculas, genes, conductas, pero alejándose cada vez más de la comprensión integral de una complejidad que, reducida a sus mínimas expresiones, ya no ofrece más que la aridez de lo que ha sido llamado, en contraposición con la Antigüedad, un mundo desencantado. Los crecientes problemas acerca de la ética de algunas operaciones científicas (las armas nucleares, la clonación o la manipulación genética) nacen a partir de estas operaciones de simplificación. Un físico o un químico no tienen posibilidades, por su formación, de ocuparse de la vasta complejidad de los problemas éticos. La ciencia es precisa y exacta, aunque para eso deba aceptar que también es ciega.

Sin embargo, en este orgulloso edificio de las ciencias construido en la modernidad, surgieron hace algunos años grietas y goteras que encendieron luces de alarma y que, desde entonces, no cesan de presentar contradicciones y paradojas que cuestionan la validez de los principios acuñados durante siglos. Desde el interior de las llamadas “ciencias duras” y desde otras disciplinas surgen evidencias de que se ha llegado a un límite en el imperio de estos paradigmas. Hagamos un breve recorrido por estas cuestiones.

Una historia diferente.

Hace casi cuarenta años que se publicó el libro de Thomas Kuhn “La estructura de las revoluciones científicas” y su efecto sobre historiadores y epistemólogos es en la actualidad nítidamente reconocible en algunos de sus aportes centrales. La misma noción de paradigma, hoy ampliamente utilizada para definir los conceptos centrales de las disciplinas científicas, recibe en este libro de Kuhn su más precisa formulación (2).

¿Cuál fue el problema que Kuhn debió enfrentar al querer estudiar la historia de la ciencia? Desde su origen de físico profesional contaba con las herramientas proporcionadas por la filosofía positivista y su método histórico lineal, abstracto y logicista. Y encontró un escollo en su camino cuando, a partir de estos principios, tuvo que considerar una paradoja notable relacionada con Aristóteles. Resulta que este pensador, filósofo de tan vasta influencia en la cultura occidental, capaz de sorprender por la agudeza de sus observaciones y la profundidad de sus conceptos, era poco menos que un ignorante en lo que respecta a la física.

“Aristóteles me parecía no sólo un ignorante en mecánica, sino además un físico terriblemente malo. En particular sus escritos sobre el movimiento me parecían llenos de errores garrafales, tanto en lo que se refiere a la lógica como a la observación” (3)

¿Cómo conciliar ambas imágenes, el sabio y el ignorante, el pensador formidable y el torpe balbuceador de errores? Este es el hilo que le permitirá a Kuhn escapar al condicionamiento de su época y de los paradigmas con los cuales, sin saberlo, estaba descalificando al Aristóteles físico. A partir de aquí podrá comenzar a ver a Atristóteles no en relación con la física newtoniana, sino en el contexto de su época, empapándose del espíritu de esa época.

“Kuhn osó interrogar a fondo la historia de la ciencia para tratar de comprenderla. Se embebió en el espíritu de los autores que estudiaba, permitió que la belleza de sus teorías lo cautivara, intentó restituirles la coherencia que la historiografía positivista les había negado. Así, desarrolló un modelo de historia viva y latente, plena de sentido, totalmente diversa de la versión anacrónica tradicional que consiste en medir los acontecimientos del pasado con la vara de los del presente, despedazando para ello los universos de sentido que les daban coherencia y significado a los sucesos y a las teorías”.(4)

De este modo, no sólo recuperó la grandeza de Aristóteles sino que construyó un método histórico que le permitió reformular la historia de las ciencias y elaborar algunos conceptos de gran importancia. Por ejemplo que, en realidad, ciencia en el verdadero sentido del término, que es de cambio, novedad, creación, descubrimiento, sólo hay de tanto en tanto en la historia. En esos momentos especiales, cuando nuevos paradigmas irrumpen y desplazan a otros antiguos, es cuando se producen las llamadas revoluciones científicas. Esos nuevos paradigmas permiten, de repente, que los científicos vean el mundo de investigación que les es propio de manera diferente, como si fuera con otros ojos y establecen las condiciones para que exista verdaderamente ciencia. Luego, durante largos períodos entre revolución y revolución la tarea de los científicos, investigadores, profesores, es la de emprolijar los resultados del cataclismo, ordenar, explicar, difundir, enseñar. Entre sismo y sismo median largos periodos de ordenamiento y, consecuentemente, no de “verdadera” ciencia.

Es preciso reiterar que, muchas veces, los cambios de paradigma se expresan traumáticamente, que las épocas suelen presentar violenta, y a veces sangrientamente, la lucha por el predominio de determinados paradigmas, como veremos enseguida en el ejemplo de Galileo o en el trágico fin de otro científico de la época, Giordano Bruno, quemado vivo por el Santo Oficio por sus ideas renovadoras. Todo esto resulta tan verdadero como alejado de las bucólicas imágenes que presentan a los científicos como desinteresados seres humanos sólo movidos por su amor a la verdad y al avance de la humanidad.

En fin, Kuhn debió enfrentar, para poder producir sus aportes a la historia de la ciencia, lo que Castoriadis denominó “la paradoja de la historia”: el historiador es él mismo un ser histórico y, como tal debe dar cuenta de su cosmovisión, de los marcos conceptuales que le proporcionan su época y el estado de avance de su disciplina. Sólo así podrá escapar a la linealidad de una historia acumulativa y estará en condiciones de acercarse a la época o la figura que estudie considerando su contexto, con una mirada respetuosa y, por lo tanto, capaz de rescatar la complejidad de un momento y su irreductibilidad a las simplificaciones que pueden establecer las miradas posteriores.

Tres aportes fundamentales.

La edad Moderna, con sus desarrollos científicos y tecnológicos, desplazó a los paradigmas que habían reinado en la antigüedad, acabando con aquella imagen de mundo encantado, un mundo dotado de una unidad proveniente de la común pertenencia de todo a la Creación, en el que se concebía la interdependencia de los fenómenos materiales y espirituales, un mundo en el que había lugar tanto para el desarrollo conceptual como para el mito y la leyenda. La convicción de una Tierra centro del universo, de mares poblados de monstruos y sirenas, de bosques encantados, de duendes y magos, de historias fantásticas, de héroes y dioses, pero también de desarrollos filosóficos, de artesanías de gran complejidad, de máquinas de guerra y de vastos imperios, formaban parte del mundo antiguo y lo convertían en un fresco colorido y diverso.

Hasta que este mundo comienza a oír voces que cuestionan sus creencias y proponen cambios profundos en las certezas que, hasta entonces, le habían permitido avanzar y desarrollarse con su compleja configuración.

Una de estas voces es la de Galileo Galilei (1564-1624) quien probará la amarga experiencia de desafiar los conceptos establecidos, al enfrentarse a una acusación de herejía por difundir las ideas copernicanas acerca de que el sol permanece inmóvil y es el centro del universo, y no la Tierra como había establecido Ptolomeo y aceptaba la Iglesia como verdad indiscutible (la Tierra, centro de la Creación, no podía ser otra cosa que el centro del universo). Colocado ante la alternativa de ser ejecutado o desmentir públicamente su teoría, Galileo se decide por lo segundo, difundiendo un texto que le fuera dictado por sus inquisidores:

“Yo, Galileo Galilei, hijo del difunto Vicente Galilei, natural de Florencia, de setenta años, luego de ser sometido a juicio… abandono la falsa teoría de que el sol permanece inmóvil y es el centro del universo, y no sostendré, defenderé ni enseñaré dicha falsa doctrina de manera alguna”.

“¡Eppure si muove!” parece que dijo por lo bajo Galileo, luego de admitir lo que le obligaron decir (“¡Y sin embargo se mueve!”) refiriéndose a la traslación y rotación de la Tierra. Su caso y el de otros pasaron a la historia como ilustración de la violencia y la intolerancia que suelen acosar a quienes se atreven a desafiar las ideas establecidas, o los paradigmas, diría Kuhn.

Pero Galileo no sólo fue el refutador de la teoría geocéntrica, sino que incorpora una noción que habrá de ser clave para el desarrollo de la ciencia de la modernidad. Es posible, dice, comprender el libro de la Naturaleza a condición de que se utilice el idioma en el que está escrito, y ese idioma es el de las matemáticas. Incorpora así la idea de la herramienta matemática, una construcción de la razón humana, para el estudio de cualquier fenómeno, pero además ya prefigura una polaridad que habrá de adquirir estatuto pleno con la filosofía de Descartes: el mundo natural y un observador calificado.

René Descartes (1596-1650) será, precisamente, otro de los pilares que fundamentan los paradigmas de la ciencia moderna.

Preocupado por encontrar una verdad indudable y partiendo de la falibilidad de las apreciaciones humanas, utiliza el recurso de la duda metódica para desechar cualquier conocimiento que pueda ponerse en duda, en todo o en parte. Así, desestima la información proporcionada por los sentidos, puesto que está claro que estos son fuente de error y engaño. La vista, el oído, el gusto, el tacto o el olfato suelen inducirnos a equivocaciones, por lo que las informaciones que brindan poseen un evidente carácter dudoso. Continuando en esta dirección, llega a plantearse que en ese mismo instante en que está meditando, no tiene la seguridad plena de no estar dormido y ser, en definitiva, todas sus elucubraciones parte de un sueño y no una realidad. Debe, entonces, poner en duda también esa escena y continuar buscando algo que le resulte indudable.

Por último, luego de haber pasado revista rigurosamente a todas y cada una de las situaciones que, pretendiendo ser fuente de conocimiento no poseen ese carácter de indudable, culmina sus reflexiones admitiendo que, dormido o despierto, hay algo de lo que ya no puede dudar: está dudando. Esta actividad se le presenta como la clave a partir de la cual afirmar un saber indudable. Y la actividad de la duda, como función de su pensamiento, le permite formular la frase que pasó a la historia: pienso, luego existo. Es decir, la prueba indudable de mí existir es que dudo, puedo pensar, con el acto de mi pensamiento establezco mi existencia de manera indudable. Esto, que es llamado la constitución autónoma del sujeto, significa un paso en la afirmación de este término, sujeto, sin necesidad de recurrir a la acción divina. El sujeto es capaz de constituirse autónomamente. Y en este mismo acto, con el establecimiento del sujeto, queda, a su vez, escindido el mundo ya que todo lo demás pasa al orden objetivo. Sujeto y objeto, con el hiato que se abre entre ambos términos, van a constituirse en la operación que permitirá fundar la ciencia moderna: un mundo objetivo factible de ser conocido y un sujeto capaz de conocerlo por medio de su actividad racional. Como dice Raúl Cerdeiras acerca de la labor de Descartes:

“Él construye, abre un espacio de comprensión del Renacimiento florentino, de los viajes de Colón, de Copérnico, de la revolución científica, es decir, del nacimiento de la ciencia moderna y su proyecto gigantesco de matematizar el conocimiento por medio del esfuerzo de Galileo, de Kepler, contemporáneos todos de Renato Descartes.” (5)

El tercer aporte decisivo para el establecimiento de los paradigmas centrales de la ciencia de la modernidad es el de Isaac Newton (1642-1727), el constructor de la Física, el que formuló la ley de gravitación universal, el creador del Cálculo Diferencial. Sus ideas, que contribuyeron a forjar la ciencia de Occidente, pueden ser sintetizadas en un mensaje de simple enunciación: el Universo es ordenado y está sujeto a leyes, las que se expresan en lenguaje matemático. El hombre, a través de la ciencia, puede descubrir esas leyes y, en consecuencia, operar sobre el Universo.

Y será desde esta formulación que se abrirá el impresionantes capítulo de la ciencia moderna, la que entregará portentosos descubrimientos, invenciones extraordinarias y avances tecnológicos jamás soñados. Y la que fijará, a su vez, los límites de ese conocimiento ya que si se afirma que “el Universo es ordenado y está sujeto a leyes”, quedará fuera de interés todo lo que no responda a este enunciado, lo contradiga o lo relativice. El desorden, el caos, la impredecibilidad serán fuentes de error que el científico deberá evitar a toda costa, construyendo para eso precisos mecanismos y diseñando depurados métodos de investigación y operación.

El edificio de la ciencia moderna.

Pasemos revista a algunos de los pilares del conocimiento moderno desplegado en Occidente, para poder analizar después las paradojas y contradicciones que más adelante van a hacer tambalear a estos paradigmas.

Un valor fundamental es, como se ha dicho, la existencia de leyes de la naturaleza, es decir, que el mundo natural puede ser descripto según leyes físicas simples, las que se comportan con regularidad y exactitud. Una de esas leyes establece que el tiempo, al igual que el espacio, son absolutos y están presentes antes de la aparición de los objetos, los que luego se situarán en ellos. Tal como Newton lo describe, “el tiempo absoluto, verdadero y matemático, que fluye por su propia naturaleza, de forma uniforme, sin verse afectado por nada externo” (6) es incognoscible desde la perspectiva humana. Más adelante Einstein dirá que el tiempo es una ilusión. El hombre sólo podrá establecer convenciones que le permitan trabajar con tiempos y espacios relativos. Esto da nacimiento a los sistemas de medidas y a los acuerdos sobre los patrones a utilizar.

Este tiempo y espacio absolutos permiten la expresión de otra de las leyes, la reversibilidad, que plantea que las ecuaciones pueden ser matemáticamente equivalentes cambiando los signos de sus componentes (v equivale a -v, así como t equivale a -t ó 2 a -2). Es decir, establecida una posición cualquiera en el tiempo, es posible establecer su opuesto como cambio de sentido. Un péndulo perfecto, moviéndose en el vacío sería el ejemplo más claro. “Esto es la forma matemática de expresar que si a partir de un cierto instante hay un cambio en el sistema dinámico, otro cambio, definido mediante la inversión de las velocidades de los componentes, puede restaurar las condiciones originales.” (7) En definitiva, esta noción implica la imposibilidad de definir una diferencia intrínseca entre el antes y el después, es solidaria con la idea de un tiempo como absoluto, sin principio ni fin y permitirá que un continuador de la obra de Newton, Pierre Laplace (1749-1827) afirme que si se pudiera contar con la capacidad de cálculo suficiente, sería posible conocerlo todo, predecir el futuro o retrodecir el pasado. Esta posición ha sido considerada como el más claro exponente de la omnipotencia que dominó a los hombres de ciencia, a partir de la matematización del conocimiento, de la utilización del cálculo y del perfeccionamiento del método experimental.

El determinismo, por su parte, constituirá otro pilar de esta ciencia de la modernidad occidental. La relación causa-efecto presidirá la comprensión de todos los fenómenos y guiará la búsqueda de explicaciones: por la existencia de las leyes generales del universo, todo está determinado y obedece a causas que es posible hallar mediante precisas operaciones científicas. El azar, el caos, las paradojas quedan fuera del espacio de esta ciencia que reinó durante siglos y se constituyó en modelo al que deberían ajustarse todos los intentos humanos por conocer y comprender. La física, con su doble capacidad para formular hipótesis y verificarlas experimentalmente, pasó a posibilitar el acceso a las verdades irrefutables convirtiéndose en el modelo de ciencia por excelencia.

Pero tal vez el elemento principal sobre el que se asentará la ciencia moderna sea el que define la relación entre el sujeto y el objeto, a partir de la distinción establecida por René Descartes. Pareciera que este filósofo, luego de arribar a la constitución autónoma del sujeto, cuando demuestra la capacidad humana para conocer, inaugura también la más formidable impugnación de las facultades de ese sujeto, al que se le imputan desde allí todas las distorsiones imaginables en sus intentos por conocer el mundo. La ciencia, entonces, para ser verdadera ciencia, deberá cuidar que no interfiera la condición subjetiva en sus observaciones, investigaciones y operaciones. El método de laboratorio, con sus depurados procedimientos para evitar la incidencia del observador, se constituirá en “el” método. Según Fox Keller “… en el siglo XIX el término ‘objetivo’ adquirió su sentido actual, como de algo ajeno a toda perspectiva, ‘una visión desde ninguna parte’, un conocimiento sin un sujeto cognoscente” (8) Como plantea esta misma autora, un antecedente temprano de esta noción de visión externa surge con la perspectiva en la pintura de Filippo Brunelleschi, en el siglo XV, quien inaugura el método que, ubicando el punto de visión fuera del cuadro, crea la sensación de realidad, como una primitiva metáfora de lo que, dos siglos después, le sería requerido al observador para conferir exactitud a las operaciones científicas.

Serán las disciplinas sociales o humanísticas, como hemos dicho, las que sentirán profundamente el imperio de estos paradigmas, ya que, a partir de aquí, o se adaptan a los requerimientos del método científico o quedan reducidas a meras especulaciones no confiables. Ser “objetivo”, proceder con objetividad, fueron requerimientos insoslayables para poder acceder al estatuto de ciencia. Obviamente, desde esta perspectiva, no había lugar para las ciencias sociales o humanísticas. Demasiada imprecisión, demasiado ruido, demasiados errores en disciplinas que no alcanzaban a cumplir decentemente con las mínimas condiciones establecidas por la hegemonía de las llamadas ciencias duras.

Hubo, a partir del imperio de estos paradigmas, quienes buscaron replicar en las disciplinas humanísticas los requerimientos de objetividad que se imponían y construyeron métodos de laboratorio y definiciones físicas para fenómenos del campo subjetivo. Tales intentos, al establecer situaciones artificiales, distorsionar los “objetos” de estudio e importar métodos y conceptos desde el territorio de las ciencias duras, fueron conduciendo a estas disciplinas a callejones sin salida, a verdaderos desvíos de los que costó luego volver. Tal vez el ejemplo más claro sea el de Kurt Lewin, marchando desde las experiencias de laboratorio en investigaciones psicológicas hasta formular la necesidad de investigar en el campo social real, advirtiendo el error de asimilar las ciencias humanas al imperio de la física y planteándose profundamente la importancia de dar cuenta de los fenómenos psicosociales respetando sus propias características.

 El fin de las certidumbres.

Esta frase, que es a la vez el título de un libro del premio Nobel en Química Ilya Prigogine, nos sitúa frente al vasto movimiento que, desde hace algunas décadas, viene mostrando el agotamiento de los paradigmas construidos en la edad moderna y proponiendo enfoques alternativos. Justamente es este ruso educado en Bélgica quien se constituirá en uno de los referentes del debate acerca de los llamados nuevos paradigmas.

Uno de los testimonios que Prigogine ofrece del cambio de paradigmas a que asistimos, es la declaración efectuada en 1986 por Sir James Lighthill, presidente entonces de la Unión Internacional de Mecánica Teórica y Aplicada, quien, en una inusual muestra de sinceridad y responsabilidad científica, dijo:

“Aquí debo formular una proposición, hablando nuevamente en nombre de la gran fraternidad mundial de quienes se dedican a la mecánica. Hoy tenemos plena conciencia de que el entusiasmo de nuestros antecesores por los maravillosos logros de la mecánica newtoniana los llevó a hacer ciertas generalizaciones en esta área de predictibilidad, en las que en general tendíamos a creer antes de 1960, pero que ahora reconocemos como falsas. Deseamos pedir disculpas colectivas por no haber encaminado en la dirección adecuada al público culto en general, difundiendo ideas sobre el determinismo de los sistemas que se atienen a las leyes del movimiento de Newton, ideas que después de 1960 demostraron ser incorrectas” (9)

¿Qué había ocurrido para que se produzca tamaña autocrítica, tan poco frecuente en el presuntuoso mundo de la ciencia? Desde dentro y desde fuera de las ciencias duras habían surgido primero paradojas, luego dudas serias y por último evidencias de error en lo que, durante décadas, fueran las columnas en las que se apoyó el edificio de esas ciencias.

Una de las primeras manifestaciones de incomodidad, la tuvieron los defensores de la noción de reversibilidad del tiempo al enfrentarse con dos fuertes evidencias contradictorias:

Una de ellas es la proveniente de la Biología y, más precisamente, de los estudios que le permitieron a Charles Darwin escribir en 1859 su conocida obra El origen de las especies. Allí se demuestra que en la Biología y en la evolución no hay reversibilidad alguna, que en realidad esta evolución va desde los elementos más simples hasta los más complejos en una cadena siempre en desarrollo progresivo, que no hay posibilidad de vuelta atrás, que este movimiento, antes que reversibilidad, muestra lo que se denomina una flecha del tiempo, es decir, una dirección, un recorrido irreversible.

La otra surge del corazón mismo de la física, la termodinámica. Allí, pocos años después de la publicación del libro de Darwin, Rudolf Clausius enuncia en 1865 el Segundo Principio de la Termodinámica. ¿Qué decía este principio? Que en cualquier sistema aislado la entropía tiende a aumentar constantemente hasta un punto de equilibrio. Es decir, la entropía, palabra que en griego significa evolución, marca el proceso mediante el cual un sistema -un motor, el cuerpo humano, el sistema solar- agota la energía que consume de manera irreversible.

En ambos casos tambalea la noción de reversibilidad y surge una flecha del tiempo. Es posible, entonces, considerar la historia de los procesos, una noción que la física clásica había rechazado terminantemente. Se comienza a desplegar a partir de estas formulaciones un amplio movimiento que es descripto por Prigogine de la siguiente manera:

“Sorprende, en efecto, constatar que en la época en que la física, gracias al segundo principio de la termodinámica, anuncia la evolución irreversible allí donde parecía reinar la eternidad, las ciencias y la cultura descubren por todas partes el poder creador del tiempo. Es la época en la que todos los rasgos de la cultura humana, las lenguas, las religiones, las técnicas, las instituciones políticas, los juicios éticos y estéticos, se perciben como productos de la historia…” (10)

Pero habría más. Einstein abolirá los conceptos de espacio y tiempo absolutos, introduciendo la noción de relatividad respecto del observador que describe los fenómenos (ya no hay lugar para un “observador desde ninguna parte”, con lo que la objetividad queda severamente cuestionada). Y en la mecánica cuántica se accede a la comprensión de la inevitable perturbación que introduce en un sistema quien efectúa las observaciones, al advertir que, en ciertos procesos, la introducción de la luz, imprescindible para ver, produce modificaciones y distorsiones. Entonces, para estudiar en esas condiciones se deberá aceptar y considerar al sujeto observador de un modo que no aceptaba la exigencia de objetividad de la ciencia positivista.

Ya poco quedaba en pie de las ciencias de la modernidad, las que, no obstante estos necesarios cuestionamientos, fueron capaces de dar al mundo desarrollos de enorme significación. Pero el agotamiento se torna evidente y es preciso desplegar en toda su amplitud los paradigmas de la complejidad.

Pensar de nuevo.

Con la introducción de la historia, la presencia inevitable del sujeto, la relatividad de tiempo y espacio, toda la estructura hecha de objetividad, reversibilidad, eternidad, se resiente y comienza a dar lugar a enfoques basados en la complejidad y en la admisión de la existencia del azar junto a la necesidad, presente en numerosos fenómenos. Los procesos con alta sensibilidad a las condiciones iniciales y de finales abiertos presentes en la meteorología, por ejemplo, brindan una nueva posibilidad de comprender sistemas inestables e impredecibles. Esto es lo que se expresa en la frase popular que afirma que “el aleteo de una mariposa en Buenos Aires, puede producir un tornado en Arizona”.

La ciencia, de este modo, pierde la pretensión de universalidad que la caracterizó desde su origen moderno, pero adquiere a cambio la capacidad de considerar las especificidades.

“Las teorías… se alejan de las abstracciones absolutas del espacio y el tiempo y reconocen la pertinencia de pensar en distintos escenarios o contextos y que en cada uno de ellos se van construyendo distintas historias, que los resultados obtenidos dependen de las perspectivas y que éstas son variables.” (11)

Las investigaciones de Prigogine que lo llevaron a formular su Termodinámica No Lineal de Procesos Irreversibles (TNLPI) constituyeron un gran paso adelante. Prigogine no se detiene ante el desorden que se encuentra en los estados lejos del equilibrio, como aconseja la física newtoniana, sino que lejos del equilibrio encuentra nuevos movimientos moleculares organizados, estructuras que denomina disipativas y que muestran al caos como una combinación de azar y necesidad, con soluciones múltiples y aleatorias de gran sensibilidad a las pequeñas perturbaciones. Se establecen estos fenómenos con el paso del tiempo, lo que incluye la historia molecular como un componente del sistema.

“Los procesos caóticos tienen enorme importancia, como lo demuestra la fisiología neural. Curiosamente, allí el caos parece ser la condición previa de la actividad cerebral normal. En caso de enfermedad, las señales eléctricas del cerebro se vuelven ‘demasiado’ regulares” (12)

Estas estructuras disipativas permiten considerar los fenómenos que ocurren fuera del equilibrio como nuevas alternativas al conocimiento, encontrando que, lejos del desdén que la irreversibilidad causaba a los científicos modernos, ésta cumple un papel constructivo en la naturaleza, mostrando nuevas posibilidades de organización.

La “objetividad”, otro concepto clave construido en la edad moderna, como vimos, y que exigía la toma de distancia hasta la desaparición del sujeto en el acto del conocimiento científico, puede ser reemplazado por la “objetivación”, un proceso que supera la idea de un reflejo o una representación pasiva del objeto en la conciencia, por un procedimiento activo de apropiación del objeto por parte del sujeto, en una secuencia que pone en juego la capacidad de cada sujeto de organizar y significar el mundo, y que incluye su accionar, sus deseos, sus esquemas de acción. Es antes una construcción que un descubrimiento.

Claro que pensar la complejidad no resulta sencillo a partir de la existencia de trabas representadas, como plantea Morin, por la educación recibida y por la existencia de los obstáculos epistemológicos que describiera Gaston Bachelard.

¿Cuáles son esos obstáculos? Dice Bachelard en su libro La formación del espíritu científico: “Se es muy apegado a lo que se ha conquistado penosamente”. Y, en este sentido, el conocimiento es la principal traba para el conocimiento. Cuando hemos llegado a alcanzar determinado saber, hay una fuerza presente que se alza contra toda posibilidad de reconsiderar, replantear, repensar. Es lo que trasmite el brujo de Las enseñanzas de Don Juan cuando, al describir el camino hacia la sabiduría, advierte: “Una vez que el hombre venció al miedo, queda libre de él para el resto de su vida, porque, en lugar del miedo, adquirió la claridad… una claridad de espíritu que apaga el miedo. (…) Y así él encuentra su segundo enemigo: ¡la Claridad! Esa claridad de espíritu, que es tan difícil de obtener, elimina el miedo, pero también ciega” (13) Ciego como deslumbrado por la claridad alcanzada, esa es la imagen del punto de llegada, del conocimiento acabado, de la totalidad, un punto que congela y detiene, que rigidiza, que se alza como un freno a ulteriores desarrollos. Al respecto dice Lapassade aplicando el concepto sartreano de inacabamiento:

“La dialéctica de los grupos, las organizaciones y las instituciones nos enseña a evitar el uso de los conceptos de acabamiento y madurez en el análisis de los procesos y de las organizaciones sociales. Mejor dicho, se podría decir que la idea de acabamiento no aparece en la historia como no vaya ligada a la dominación: una clase que llega al poder proclama la madurez de la historia, su propia madurez; es, por ejemplo, la filosofía de las Luces, en el siglo XVIII.” (14)

Es también, en la actualidad de la globalización, la pretensión de Francis Fukuyama al proclamar el fin de la historia, quien ha afirmado, tras la caída del socialismo real y la mundialización de la economía capitalista:

“Quizás estemos siendo testigos no sólo del fin de la Guerra Fría, o del pasaje de un periodo particular de la historia de posguerra, sino del fin de la historia como tal: esto es, el punto final de la historia ideológica de la humanidad y de la universalización de la democracia liberal occidental como la forma final de gobierno humano” (15)

De algún modo, las dificultades para ejercer un pensamiento complejo y aceptar los desafíos se constituyen en los obstáculos a vencer para atravesar este tiempo de disputas de paradigmas. La siguiente anécdota ilustra esas dificultades: Un hombre buscaba algo en una callejuela oscura, bajo la luz de un farol. Se le acerca otra persona y le pregunta qué hace, a lo que el primer hombre responde que busca sus llaves. “¿Las ha perdido aquí, bajo el farol?”, pregunta el otro. “No, las perdí allá”, dice, señalando la zona oscura. “¿Y por qué las busca aquí?” inquiere, perplejo, el segundo. “¡Ah, porque aquí hay luz!”, contesta el primer hombre.

Buscar en la oscuridad implica perder las seguridades, los límites, los senderos conocidos, dejar la zona de luz, de lo instituido, para entrar en los territorios inexplorados que, así como producen innumerables dificultades, son también fuente de novedad, de creación, de hallazgos de lo impensado.

 


NOTAS:

(1) MORIN, Edgar: “Epistemología de la complejidad”, en: Nuevos Paradigmas, cultura y subjetividad, Paidós, Bs. As. p. 421
(2) KUHN, Thomas: La estructura de las revoluciones científicas, Fondo de cultura económica, México, 1980, pp. 33 a 37
(3) KUHN, Thomas: ¿Qué son las revoluciones científicas?, Paidós, Barcelona, 1989, p. 62
(4) NAJMANOVICH, Denise: Epistemología. Una mirada post-positivista, Seminario por Internet, Psiconet, 1999, clase 6.
(5) CERDEIRAS, Raúl: “La subversión de nuestro siglo”, revista Milenio, N° 2, Bs. As. 1994, pp. 4 y 5.
(6) Esta noción es la que se encuentra como base de las novelas de ciencia ficción que tratan de los viajes por el tiempo. Si el tiempo es un absoluto, presente, pasado y futuro coexisten en un fluir constante y es posible moverse por ellos teniendo los medios adecuados. También la reversibilidad contribuirá a estos argumentos.
(7) SAMETBAND, Moises José: Entre el orden y el caos: La complejidad, F.C.E. Bs. As, 1994, p. 23.
(8) FOX KELLER, Evelyn: “La paradoja de la subjetividad científica”, en Nuevos paradigmas, cultura y subjetividad, Paidós, Bs. As. 1994, p. 151.
(9) Citado por PRIGOGINE, Ilya, en su artículo “¿El fin de la ciencia?”, que forma parte de Nuevos paradigmas, cultura y subjetividad, Paidós, Bs. As. 1994, p. 40.
(10) PRIGOGINE, Ilya: Entre el tiempo y la eternidad, Alianza Universidad, Bs. As. 1992, p. 25.
(11) NAJMANOVICH, Denise: “De ‘el tiempo´a las temporalidades”, en Temporalidad, determinacion, azar. Lo reversible y lo irreversible, Paidós, Bs. As. 1994 p. 203.
(12) Citado por PRIGOGINE, Ilya, en su artículo “¿El fin de la ciencia?”, que forma parte de Nuevos paradigmas, cultura y subjetividad, Paidós, Bs. As. 1994, p. 54.
(13) CASTANEDA, Carlos: A erva do diabo, Record, Río de Janeiro, pp. 83 y 84
(14) LAPASSADE, Georges: Grupos, organizaciones e instituciones, Gedisa, 1985, p. 281.
(15) FUKUYAMA, Francis: “El fin de la historia”, artículo publicado en la revista The National Interest, N° 16, 1989.

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies