Recomendar este blog Notificar al moderador
FILOSOFIA: Javier del Arco
19votos

El Tesoro de la alfombra mágica

Como ya hemos explicado, la realidad está compuesta de totalidades/partes, es decir, de holones. Forman un contexto deslizante con significado y todos muestran una cierta capacidad para preservar su propia totalidad o autonomía. Ahora descubrimos que los holones se comportan como parte de otro holón mayor. Muestran dos tendencias opuestas, individualidad y comunión, que están presentes también en todos los dominios de la realidad, así como una capacidad de autoacomodación, autotrascendencia y autodisolución. La capacidad de autotrascendencia permite la emergencia de nuevos holones, que están fundamentalmente indeterminados en muchos aspectos, precisamente porque son autotrascendentes. Y cuando la autotrascendencia de un holón se acerca a cero, o lo que es lo mismo, su creatividad es mínima, las ciencias reconstructivas se transforman en ciencias predictivas. Hizo falta que llegara el Principio de Indeterminación de Heisemberg para recordarnos que ni siquiera los componentes de las rocas, partículas subatómicas, son tan predecibles y tan simples como pretendían los reduccionismos ingenuos.


Holones. Kuvat.
Holones. Kuvat.
Un holón funciona no sólo como una totalidad autopreservadora, sino también como parte de otro holón mayor, y precisamente esta última propiedad le conduce a adaptarse o acomodarse a otros holones -no autopoiésis sino alopoiésis; es decir, más que ausencia de asimilación, acomodación. El aspecto “parcialidad del holón”, se manifiesta en su capacidad de acomodarse, de registrar la presencia de otros holones, de encajar en el entorno existente.

Un ejemplo clásico: La capacidad de los electrones para acomodarse en un orbital en el que ya hay una determinada cantidad de esas mismas partículas. Lo que han hecho es registrar su entorno y reaccionar con él. Esto no implica intencionalidad por parte del electrón, tan solo la capacidad de reaccionar a las acciones de lo que le rodea. Como totalidad sigue siendo él mismo; como parte debe acoplarse con otros.

Podemos llamar a estas dos tendencias opuestas, individualidad y comunión del holón. Su individualidad -tendencias autoasertivas, autopreservadoras, asimiladoras- expresan su totalidad, su autonomía relativa. Su comunión por el contrario, concretada en sus tendencias participativas, conectivas y unificadoras, expresan su parcialidad, su relación con algo más grande.

Estas dos tendencias son absolutamente cruciales e igualmente importantes: el exceso de una de ellas destruirá al holón por desaparición de su patrón identificativo. Incluso un pequeño desequilibrio, le llevará a una deformación estructural, ya estemos hablando del crecimiento de una planta o de la evolución del patriarcado. Y anteriormente ya hemos sugerido que un desequilibrio de estas tendencias, se expresa como individualidad patológica, es decir alienación y represión, o comunión patológica, lo que supone fusión e indisociación.

Esta polaridad primordial está presente en todos los dominios de la existencia manifestada y fue expresada arquetípicamente como los principios taoístas del Yin (comunión) y Yang (individualidad). También serán aplicables estas tendencias a las teorías políticas de derechos individualidad, y responsabilidades, comunión.

Autotrascendencia o autotransformación

Cuando dos átomos de hidrógeno y uno de oxígeno se unen en unas determinadas condiciones, emerge un nuevo holón, en cierta manera sin precedentes: la molécula de agua. No se trata simplemente de asociación, autoadaptación o comunión de tres átomos; es una transformación cuyo resultado es un nuevo emergente: distintas totalidades se unen para producir una totalidad diferente. Creo sinceramente que es la única definición ejemplificada clara que ahora se me ocurre sobre una cuestión tan importante en filosofía de la ciencia.

Esto supone un giro creativo sobre lo que había ocurrido hasta ahora. Whitehead, en “Category of the Ultimate”, denomina Creatividad la “categoría última”, o la categoría necesaria para entender cualquier otra. En este libro, el filósofo norteamericano incluye tres conceptos fundamentales: creatividad, muchos y uno. En cierto sentido, hubiera podido reducirlo a creatividad y holón, ya que holón es uno/muchos, porque como bien sabemos, “muchos” y “uno” no pueden existir por separado.

La unificación aprehensiva de Whitehead es el holón presente, subjetivo, que pasa a ser objeto del holón subjetivo siguiente, de forma que cada holón aprehende su Universo real completo y sigue presente en la unificación aprehensiva de todos sus descendientes (causalidad). Por supuesto, toda la serie presenta distintos grados (jerarquía) dependiendo del grado de creatividad que se insufle en el flujo, en un momento dado.

El principio de la realidad

Conozco lo arriesgado de citar a Whitehead en estos tiempos. Y hacerlo además cuando sólo nos interesan ciertos aspectos de su filosofar. Pero estos artículos pretendo tengan algún contenido didáctico y este pensador, un tanto hermético y extraño cuando filosofa, presenta algunas facetas bastante poco conocidas pero a mi juicio interesantes

Hablar de Whitehead fuera del ámbito de la lógica matemática, es hacerlo de la llamada “filosofía del proceso”. Sir Alfred North Whitehead fue uno de los grandes intelectuales ingleses de la primera mitad del siglo XX. Murió en 1947 en Boston, ya que se había acogido a la jubilación en la universidad de Harvard, donde había trabajado desde 1924. Aunque era un eminente físico y matemático (con Russell publicó los Principia Mathematica de 1910 a 1913), desarrolló una complejísima ontología físico-metafísica, llena de términos nuevos, originales, que producen en el lector un fuerte efecto hermético.

Las ideas que iremos mencionando a continuación se derivan de la lectura de las obras de Whitehead, Process and Reality en la que este autor trata de entender la ontología de la realidad y de Science and theModern World también de este autor anglo-americano. El punto de partida de Whitehead no es la constatación de objetos o entidades estables, sino una referencia al “evento” (su terminología varía: acontecimiento, ocasión actual...).

El evento surge y se produce en el campo de la realidad: es el comienzo mismo de la constitución de la realidad. Pero el evento es un fluir, un acontecer temporal (no es un átomo o partícula como una entidad cerrada y estable). Los eventos deben ser entendidos más como campos que como puntos en un espacio discontinuo y métrico. El evento dinámico constituye lo que llama “prehensión” que origina la constitución de las entidades actuales (las prehensiones producen la relación de unos eventos a otros y de unas entidades a otras).

La organización de los eventos por prehensiones produce el mundo real, el mundo de los objetos que conocemos en toda su variedad. La forma y naturaleza de las prehensiones deriva a la variedad de entidades actuales en el universo: cada entidad tiene dos momentos, la interioridad y la exterioridad. Todas las entidades, incluso las más simples (partículas o átomos) tienen un factor de interioridad que se desarrolla a través de la jerarquía de los seres, células, organismos, hasta llevar a la conciencia humana superior.

El origen de las sensaciones

Las sensaciones se originan en las prehensiones. Pero plantas desintegradas o rocas, por ejemplo, no tienen, sin embargo, interioridad. El universo es así un sistema, una coordinación de estructuras integradas jerárquicamente, que se ha producido como un “estado momentáneo” del proceso universal de cambio y transformación fundado básicamente en el fluir de eventos primordiales. El universo, y sus objetos, no son substancia, sino proceso.

Por ello, permanecen momentáneamente las entidades actuales (diríamos las estructuras en proceso pero temporalmente estables), pero no los eventos primordiales que son puro proceso, puro fluir (aunque llenando en su lugar preciso las estructuras), en una línea de pensamiento heracliteana pero coordinada con la imagen científica del mundo microfísico.

Pero este mundo evolutivo en proceso siempre abierto necesita la referencia a una dimensión fundamental desde la que pueda producirse: esta exigencia de fundamento es lo que llama el “principio ontológico”. La realidad fundante, que nosotros denominamos Uno en honor de Plotino, pero que cada filósofo puede denominar como desee, incluso azar, aparece así como fundamento ontológico del proceso cósmico. Somos conscientes que al utilizar la senda neoplatónica del Uno nos apartamos de Whitehead el habla directamente de Dios.

En principio, desde la ontología del Uno podrían producirse muchas dinámicas procesuales; la teoría de los objetos eternos nos habla de las posibilidades creativas. Pero el Uno marca un camino productivo concreto: El Uno, en tanto que primer acontecimiento de todo, es eterno, distinto al mundo, pero es causa del acontecimiento eidético-matemático que concretado físicamente origina el universo.

Libertad de acción

La Naturaleza del Uno no participa –como pretende Whitehead- de la creación realizada y el Uno no prehende las entidades actuales producidas en el proceso continuo del mundo y, las novedades emergentes, son partes del proceso en el que él no participa pero que si desencadena.. El Uno, o lo que éste sea, ha puesto en movimiento el proceso para que dicho proceso se construya a sí mismo, el proceso es autoconfigurante, autocreador. Y en este sentido el Uno está abierto a lo que el proceso haga consigo mismo.

Hasta este punto nuestro acuerdo con Whitehead es claro. A partir de aquí él dice que este Dios –ya no decimos Uno, como puede verse, porque no tiene los atributos del Uno que es inmutable y por lo tanto inafectable- está afectado por el proceso del mundo, es un Dios dinámico abierto a la novedad que el mismo funda y que en alguna manera le limita. Así, según Whitehead, Dios tendría como dos naturalezas, una intemporal y la otra involucrada radicalmente en el tiempo. Parece también que Whitehead entendió que el mundo siempre había co-existido con Dios, aunque no en un sentido panteísta. Mi posición es otra, la plotniana, presentada en las Énneadas, que más adelante explicaremos.

Whitehead consideraba que el diálogo y conciliación ciencia/religión era esencial en el progreso de la humanidad. Pero esto no podía hacerse sin que la religión progresara en el mismo modo teológico de entender la religión; es decir, la experiencia religiosa presente diversificadamente en las tradiciones religiosas. Su filosofía de procesos era precisamente un esquema conceptual del mundo ofrecido por la ciencia que permitiría a la religión reformularse en términos propios de la cultura moderna. Barbour ha pretendido modelos científicos/religiosos.

Azar, necesidad, caos, estadística...

La referencia a la Causa Primera en el marco de Whitehead, pone en relación la estructura de eventos fluentes que supuestamente nacen del trasfondo de la divinidad, con una dinámica que confluye en prehensiones que producen un complejo nexo de entidades interrelacionadas en proceso continuo de transformación. Es el proceso de creación en que emerge el mundo microfísico como diseño especifico en que Dios se ha autolimitado haciendo una opción en el mundo de los objetos eternos.

Dios ha diseñado el proceso de interacciones para que éste se haga a sí mismo: la autocreación de cada entidad, en proceso evolutivo siempre abierto en que el azar, la necesidad, los grandes números, el caos, la estadística y la probabilidad juegan un papel específico (Hefner, Peacoke). Como plotino-wilberiano, no nos encontramos lejos de esta posición pero nos preocupa la expresión “estructura de eventos nace del trasfondo de la divinidad”.

Nosotros atribuimos al Uno -entidad filosófica que podemos asumir a una entidad matemática de orden superior no conocido- las atribuciones de ser simultáneamente generadora e inmutable, eidética, exacta, incorruptible impasible e inmutable y fuente del resto de las identidades de la proceden el nous o espíritu primero, y el alma en sentido global, después.

Mientras que el concepto de Uno es nuclear y filosófico, su primera e hipotética etapa consecuencial no ha podido ser verificada, pero si que puede su segunda etapa, partir de la gran explosión, re-interpretarse en una más panteísta Spinoziano ya que si el ente matemático Uno tiene atributos divinos, lo que de él proceda también habrá de tenerlos. Desde luego, nosotros con Hawking afirmamos un único acto físico generativo probado con consistencia matemática fue la gran explosión o Big-Bang.

Whitehead dice que Dios influye en el mundo, pero sin determinarlo. Nosotros limitaríamos esa influencia al ente primordial de los entes matemáticos que posibilitaron el que parece fuera el primer evento físico: el big-bang. No obstante, Whitehead dice que este un mundo con libertad autocreativa por su misma dinámica procesual; estamos de acuerdo, claro está. Pero también nos, al mismo tiempo, dice que Dios subyace al mismo proceso y puede controlar los eventos cuánticos, y sus indeterminaciones. Nosotros esta afirmación no la compartimos

Límites de la emergencia

Esta es la razón por lo que la “emergencia” en el sentido que la utiliza la ciencia convencional de originaria de los siglos XVII, XVIII y XIX, no explica realmente nada, sólo describe lo que ocurre de hecho. La explicación debe residir en algo similar a la “categoría última” de Whitehead, un rasgo de la realidad misma que explica la emergencia y que, en sí mismo, no puede ser explicado.

Este tema será recurrente en los artículos que seguirán a éste y se irá siendo matizado cada vez. Pero está claro que algún tipo de Eros atractivo, subyugador, está implicado en el proceso, porque si no, éste no habría podido comenzar.

Jantsch y Waddington denominaron a este giro creativo, autotrascendencia, por la que algo se convierte en una nueva totalidad que tiene sus propias formas nuevas de individualidad y comunión.

En su obra Self-organizing universe, Jantsch escribe: “No es suficiente caracterizar a estos sistemas simplemente como abiertos, adaptativos, sistemas del no-equilibrio, o sistemas con capacidad de aprendizaje –comunión-; son eso y más: son auto trascendentes, lo que nada menos significa que son capaces de transformarse a sí mismos. Los sistemas autotrascendentes son el vehiculo de la evolución para producir un cambio cualitativo y de esta forma asegurar su continuidad; a su vez, mantiene a los sistemas autotrascendentes que sólo pueden existir en un mundo de independencia. Para los sistemas autotrascendentes el ser se une al devenir.....”

Como dice Ilya Prigogine, premio Nóbel y renovador de las ciencias físicas, los distintos niveles y estadíos de la evolución son irreducibles unos a otros porque las transiciones entre ellos están caracterizadas por rupturas de simetría lo que significa simplemente que no son equivalentes a nuevas disposiciones del mismo material -sea lo que sea ese material-, sino que en parte son una trascendencia significante, un nuevo giro creativo.

Jantsch lo resume así: En el paradigma de la autoorganización, la evolución es el resultado de la autotrascendencia a todos los niveles.

Saltos evolutivos

En otras palabras, esto introduce una dimensión vertical que corta en ángulo recto, por así decirlo, con la horizontal de individualidad y comunión. En la autotrascendencia, la individualidad y la comunión no solo interactúan; más bien surgen nuevas formas de individualidad y comunión a través de rupturas de simetría, a través de la introducción de giros nuevos y creativos dentro de la corriente interactiva. En la evolución no sólo habría continuidad, sino importante discontinuidades, saltos, puntuaciones.

La naturaleza podría evolucionar tal vez a través de saltos repentinos y transformaciones profundas más que por la vía de pequeños reajustes -tesis que como ya hemos visto, también sostiene Gould-. El diagrama abierto del árbol de la vida ya no se parecería a las uniones en forma de “Y” de la teoría sintética sino que se representaría en forma de abruptos cambios... Habría pruebas, acumuladas en muchos campos de la ciencia empírica, por las que los sistemas dinámicos no evolucionan suavemente y con continuidad en el tiempo sino que lo hacen a través de saltos y estallidos comparativamente repentinos.

El paleontólogo George Simpson llamó a esto “evolución cuántica” porque estos estallidos, como se señala en el resumen de Murphy sobre los puntos de vista de Simpson, descritos en The future of the body, “implicaron alteraciones relativamente abruptas de la capacidad adaptativa o de la estructura corporal y dejaron muy pocas o ninguna prueba en el registro fósil de las transiciones entre ellas”.

Esta evolución cuántica condujo al “modelo puntuacional” de Niles Elgredge y de Stephen Jay Gould que discutimos anteriormente -todo lo que previamente se ha dicho guarda una conexión con lo que vendrá después; aunque parezca lo contrario, no nos perdemos en alardes eruditos innecesarios-. Michael Murphy lo resumió como “trascendencia evolutiva”.

Asimismo, Murphy señala que: “los teóricos evolutivos, T. Dobzhansky y Francisco Ayala les han llamado [...] sujetos que ejemplifican la trascendencia evolutiva porque de cada uno de ellos surgió un nuevo orden de existencia”.

Autotrascendencia

Ledyard Stebbins, uno de los principales arquitectos de la moderna teoría evolutiva, describió ciertas diferencias entre los pasos grandes y los pequeños dentro de la evolución orgánica, estudiando los avances de mayor o menor grado en plantas y animales. El término grado es usado por los biólogos para señalar una serie de características o habilidades que de manera clara dan a los descendientes de una especie ciertas ventajas sobre sus antecesores.

Según Stebbins, el desarrollo de las capacidades de polinización del algodoncillo y de las orquídeas, es un ejemplo de pequeños avances de grado, mientras que la aparición del tubo digestivo del sistema nervioso central, de los órganos de los sentidos, de los miembros en los vertebrados y del comportamiento social elaborado, representan grandes avances de grado. Él estimó que ha habido 640.000 de los pequeños y entre 20 y 100 de los grandes, durante los cientos de millones de años de la evolución de los organismos eucarióticos.

La cuestión es que no hay nada que sea especialmente metafísico y oculto en todo esto. La autotrascendencia es simplemente la capacidad que tiene un sistema para llegar más allá de lo dado e introducir en cierta medida algo innovador; una capacidad sin la cual, parece probable que la evolución no hubiese siquiera podido comenzar. La autotrascendencia, que llega a todos los rincones del Universo, significa nada más y nada menos que el Universo tiene la capacidad intrínseca de ir más allá de lo que fue anteriormente.

Autodisolución

Los holones que se van construyendo a través de la autotransformación vertical, también se pueden destruir. Obviamente, cuando los holones se “disuelven” o se “despegan”, tienden a hacerlo a lo largo de la misma secuencia vertical según la cual fueron construidos, aunque, como es natural en sentido opuesto. Como señala Jantsch en la obra citada anteriormente,

“si una estructura se ve forzada a retroceder en su evolución, mientras no haya fuertes perturbaciones, lo hace siguiendo el mismo camino por donde ha progresado [...]. Esto implica la existencia de un primitivo “sistema de memoria holística” que ya aparece en los niveles pertenecientes a las reacciones químicas”.

Esto es cierto en todo el recorrido, incluidos los holones psicológicos y lingüísticos que hemos convenido en llamar noosféricos. En el libro de Gardner, “Quest for mind”, se recoge una cita de Roman Jakobson en la que indica que:

“.....esos fenómenos estratificados que la psicología moderna descubre en distintas áreas del reino de la mente. Nuevas adiciones se superponen sobre las anteriores y la disolución comienza en los estratos superiores: El acuerdo sorprendentemente exacto entre la sucesión cronológica de estas adquisiciones y las leyes generales de solidaridad irreversible que gobiernan la sincronía de todas las lenguas del mundo”.

Para que se entienda: Lo que se construye verticalmente hacia arriba, puede desmoronarse verticalmente hacia abajo, y las rutas en ambos casos son básicamente las mismas.

Consideradas de forma conjunta, estas cuatro características: autopreservación o individualidad, comunión o autoacomodación, autotrascendencia y autodisolución, pueden ser representadas en un sistema de ejes cartesianos X e Y. El eje de abscisas –horizontal- tiene dos opuestos, individualidad y comunión; el eje de ordenadas –vertical- contiene otros dos opuestos, autotrascendencia y autodisolución. Si a partir del punto de origen O, suponemos que cada semieje es un vector fuerza, tendremos cuatro fuerzas, que en circunstancias normales, se hallaran en tensión constante y su resultante será nula.

Si aumenta el “vector individualidad”, disminuirá en módulo del “vector comunión” y viceversa. Cuanto más intensamente un holón preserva su propia individualidad, su propia totalidad, tanto menos contribuye a sus comuniones o a su parcialidad dentro de totalidades más amplias. Y viceversa naturalmente. Tomemos como ejemplo un elemento químico inerte como el Helio. Sabemos que se resiste tozudamente a unirse con otros elementos para formar compuestos debido a que su composición electrónica es muy estable. Este elemento, considerado como un holón, retiene su individualidad y resiste a la comunión. Sin embargo, el Cloro y el Sodio tenderán a la comunión para formar un holón superior que es la sal común.

Tensión constante

Esta es una tensión constante a lo largo de todos los dominios de la evolución y aparece en todas partes, desde la batalla entre la autopreservación y preservación de la especie hasta el conflicto entre derechos –individualidad- y responsabilidades –comunión-; identidad individual y afiliación; persona y comunidad; coherencia y correspondencia; autonomía y heteronomía... En resumen, ¿Cómo puedo ser simultáneamente mi propia totalidad y una parte de algo mayor sin sacrificar lo uno ni lo otro?

Como veremos, parte de la respuesta se halla en todos los estadios de la evolución, incluido el humano, e implica la autotrascendencia hacia nuevas formas de individualidad y comunión que integren e incorporen ambas partes, superponiéndolas: No solo se trata de una totalidad más amplia - expansión horizontal - sino de una totalidad más elevada o profunda, la emergencia vertical. Por esta razón la evolución es el resultado de una autotrascendencia a todos los niveles y es autorrealización a través de esa trascendencia.

Esta constante batalla entre individualidad y comunión, se extiende incluso a las formas de patología de cualquier nivel dado. Cuando hay un exceso de individualidad este lleva a cortar -léase reprimir y alienar- las ricas redes de comunión que mantienen esa misma individualidad; Por otra parte demasiada comunión, lleva a la pérdida de integridad individual, a la fusión con otros, a la indisociación, a borrar los límites y a fundirse perdiéndose la autonomía.

Si hemos hablado de batallas horizontales, la batalla vertical se encuentra entre la autotrascendencia y la autodisolución, las tendencias que construyen o destruyen. Y estas fuerzas interactúan con la individualidad y la comunión en cualquier nivel dado (recordemos que trabajamos sobre cuadrantes creados por ejes de coordenadas).

Riesgo de autodestrucción

Por ejemplo, demasiada individualidad y demasiada comunión, conducen a la autodestrucción y esto representa un problema constante en los asuntos humanos, donde el deseo de encontrar un “significado más amplio” a menudo lleva a un exceso de comunión o fusión con una “causa mayor”, y esa fusión es confundida con la trascendencia cuando se trata solo de una pérdida de autonomía, un abandono de responsabilidades.

Hemos dado ejemplos quizá complicados, especialmente en el ámbito humano, pero estas cuatro fuerzas operan también en los holones más simples. Cada holón es un holón dentro de otros, transfinitamente: Cada holón es simultáneamente un subholón -parte de otro holón- y un supraholón -que contiene otros holones-. Como holón, debe preservar su propio patrón o individualidad en el tiempo, y debe registrar y reaccionar a su entorno -sus comuniones en el espacio-. Si no responde adecuadamente es borrado: demasiada individualidad o demasiada comunión destruyen el patrón que le identifica.

Dado que cada holón es también un supraholón, cuando es borrado -cuando se autodisuelve en sus subholones- tiende a seguir el mismo camino descendente que estos han seguido en el camino ascendente: Las células se descompones en moléculas, que a su vez se descomponen en átomos y estos en partículas que desaparecen en las probabilísticas nubes transfinitas de la virtualidad. Burbujas dentro de burbujas...

Preservarse o acomodarse, trascenderse o disolverse. He aquí las cuatro tendencias a las que está sometido cada holón en el Kósmos.

Lo holones emergen

Emergen nuevos holones debido a la capacidad de autotrascendencia. Partículas subatómicas, átomos, moléculas, polímeros, células, y así sucesivamente. Los holones emergentes presentan cualidades que no pueden ser estricta y totalmente deducidas de sus componentes; por lo tanto, y esto es muy importante en el sistema que proponemos, ellos y sus descripciones no pueden ser reducidos simplemente a las partes que los componen.

Hofstadter lo expresa así: “Los niveles organizativos implican, ontológicamente, nuevas entidades más allá de los elementos de los que procede su proceso de autoorganización”. Y continúa: “Es importante darse cuenta que la ley de nivel superior no puede ser descrita en los términos que describe el nivel inferior”.

Y señala que esto es cierto tanto para las partículas de una gas como para las especies biológicas, los programas de ordenador o las réplicas de ADN, tanto para las escalas musicales como para las reglas lingüísticas.

Emergencia significa también que la indeterminación -y una de sus consecuencias, el grado de libertad- está enhebrada en el tejido mismo del Universo, porque emergencia sin precedentes significa no determinado por el pasado -aunque reconocemos que algunas partes del Universo pueden colapsar de forma determinista, como en la mecánica clásica-.

Los holones están fundamentalmente indeterminados en muchos aspectos, precisamente porque son autotrascendentes. Técnicamente esto puede expresarse así: La selección de entre el conjunto de estados estables alternativos y dinámicamente funcionales no está predeterminada. El nuevo estado no es decidido ni por las condiciones iniciales del sistema ni por cambios en los valores críticos de los parámetros ambientales; cuando un sistema dinámico es desestabilizado fundamentalmente, actúa de forma indeterminada.

Actualmente, parece prácticamente seguro que el determinismo surge solo como un caso límite cuando la autotrascendencia del holón se aproxima a cero o cuando esta misma hace pasar la situación de indeterminación a un holón superior.

Emergencia frecuente

La emergencia no es un fenómeno raro o aislado. Varela, Thompson y Rosch, resumen las pruebas disponibles de esta forma: “Esta claro que las propiedades emergentes han sido halladas en todos los dominios: Vórtices y láseres, oscilaciones químicas, redes genéticas, patrones de desarrollo, genética de poblaciones, sistemas inmunológicos, ecología y geofísica. Lo que todos estos fenómenos tienen en común es que en cada caso una red produce nuevas propiedades... La emergencia de patrones o configuraciones globales en sistemas de elementos interactuantes no es una rareza que solo se da en casos aislados. De hecho parece difícil que cualquier agregado densamente conectado escape a las propiedades emergentes” (Véase Francisco Varela y colaboradores, The embodied mind).

Ernst Mayr lo expresa así en su exhaustivo trabajo El desarrollo del pensamiento biológico (The growth of biological thought): “Los sistemas casi siempre tienen la particularidad de que las características de la totalidad no pueden ser deducidas, ni siquiera en teoría, del conocimiento profundo de los componentes tomados por separado o en combinaciones parciales. La aparición de nuevas características en las totalidades recibe el nombre genérico de emergencia. Esta ha sido invocada a menudo para explicar fenómenos tan difíciles como la vida, la mente, o la conciencia. Realmente, la emergencia es igualmente característica de los sistemas inorgánicos...es Universal, y como dijo Popper: vivimos en un Universo de novedad emergente”.

Todas las ciencias son reconstructivas. No podemos predecir el comportamiento de cualquier holón en el instante siguiente al de su consideración, ya que la emergencia autotrascendente conlleva siempre un cierto grado de incertidumbre. He aquí otra palabra mágica e importante: Incertidumbre.

Ciencias reconstructivas

Sin embargo, cuando la autotrascendencia de un holón se acerca a cero, o lo que es lo mismo, su creatividad es mínima, las ciencias reconstructivas se transforman en ciencias predictivas. Afirmación terrible, porque las ciencias empíricas comenzaron estudiando precisamente aquellos holones que mostraban una creatividad mínima -un montón de rocas en movimiento- y de esa forma, trastocaron la auténtica naturaleza de la ciencia haciéndola esencialmente predictiva y por lo tanto inexacta.

Las ciencias físicas Newtonianas fueron involuntariamente responsables de que el Kósmos se convirtiera y colapsara en Cosmos, de que la Gran Holarquía del Ser se redujera a las criaturas más simples y al estudio individualizado de estas, y del también tuvieron que ver con el aplastamiento de una realidad multidimensional hasta reducirla a un paisaje chato, plano y descolorido, máximamente predecible y mínimamente creativo.

Hizo falta que llegara el Principio de Indeterminación de Heisemberg para recordarnos que ni siquiera los componentes de las rocas, partículas subatómicas, son tan predecibles y tan simples como pretendían los reduccionismos ingenuos. He ahí el verdadero comienzo de la nueva y verdadera física y, como señala Ilya Prigogine, fue la mecánica cuántica la primera ciencia que se vio obligada a dejar de lado la descripción determinista.
Javier Del Arco
Sábado, 27 de Mayo 2006
Facebook Twitter LinkedIn Google Meneame Viadeo Pinterest

Todos los holones muestran una cierta capacidad para preservar su propia totalidad o autonomía. Un átomo de hidrógeno, dentro del contexto adecuado, sigue siendo un átomo de hidrogeno. Preserva su individualidad a lo largo del tiempo, lo que en sí mismo ya es un logro notable. Un holón, en un entorno vivo como una célula, muestra una capacidad aún más sofisticada de autopreservación: La capacidad de renovación o autopoiésis por la que mantiene sus propias estructuras o patrones reconocibles, aunque sus componentes materiales sean intercambiados; se entiende que asimila el entorno a si mismo. Es lo que llamamos una estructura disipativa metaestable que trataremos a continuación pues contribuye a aclarar el concepto nuclear de autopoiésis.


Autopoiesis. Ken Rinaldo.
Autopoiesis. Ken Rinaldo.
Autopreservación y autopoiésis

Se dice que un sistema es disipativo si su energía se degrada en forma de calor, que en parte no es transformable en otras formas de energía menos degradada. Una estructura es disipativa en la medida que ayuda a los mecanismos disipativos. Según la clásica segunda ley de la termodinámica, un sistema aislado ha de ir perdiendo (disipando) toda la energía libre que posee con lo cual su entropía se maximiza.

Un sistema en equilibrio térmico ya no disipa más y se halla en un estado de máxima entropía. Si un sistema se halla en las cercanías del equilibrio, sus tendencias espontáneas e irreversibles lo son hacia el equilibrio. La fuerza impulsora es la de producir entropía. Por definición, en el equilibrio ya no puede producir más entropía (principio de la mínima producción de entropía).

Pero no abundan los sistemas aislados, por lo cual puede haber sistemas alejados del equilibrio (como el planeta iluminado o el cerebro con nutrimentos) que no pueden llegar a él - aunque lo buscan espontáneamente - porque mientras tanto siguen recibiendo aportes de energía externa (el sol, la glucosa en sangre). Con esos aportes las ecuaciones diferenciales descriptivas de la dinámica, ya no son más lineales. No están en el equilibrio sino en el desequilibrio. Como hay sistemas disipativos con estructuras, es lícito llamarlas, con Prygogine, "estructuras disipativas", aunque a primera vista su estudio parezca poco interesante. Pero hay algo muy real: las condiciones "lejos del equilibrio" o "en el desequilibrio" implican leyes no-lineales.

La única regla general para las ecuaciones diferenciales no-lineales es que no hay reglas generales. El caos es una posibilidad, como también la presencia de atractores, repulsores, bifurcaciones, autoorganizaciones o sistemas autopoiéticos. Lo que afirma Prygogine es que aunque no halló para esta rama de la física incorporada a la mecánica estadística, una nueva constante universal, por lo menos ha encontrado una desigualdad matemática, un "criterio de evolución universal".

Transiciones

Así como hay transiciones de fase en la física lineal, con roturas de simetría, muy cercanas al equilibrio (como el hielo que se funde), también las hay en la física no-lineal donde las estructuras disipativas se vuelven inestables y tienden a veces hacia patrones de organización coherente que minimizan la energía libre y disminuyen los grados de libertad. Prygogine propone que dentro de un sistema complejo no-lineal lejos del equilibrio existen subsistemas fluctuantes. De vez en cuando se combinan y amplifican las fluctuaciones y se disrrumpe la estructura previa, ocasión en la cual aparece una bifurcación, un punto de bifurcación.

La teoría no puede predecir, por adelantado, si el resultado será una estructura de dinámica caótica o una estructura autoorganizada con un orden "superior", un "orden por fluctuaciones". En este último caso, como la estructura necesita de energía externa para seguir organizada, es aceptable llamarla "estructura disipativa", puesto que necesita más energía externa que la estructura no-disipativa (más simple) previa reemplazada.

Tiene un límite para su evolución y es la falta de capacidad para eliminar más y más calor. Los seres vivientes funcionan como sistemas disipativos, autoorganizados por fluctuaciones ambientales. Cabe destacar que no todos los autores aceptan incondicionalmente estas afirmaciones. Por ejemplo, un crítico de las ideas de irreversibilidad de Prygogine es Jean Bricmon.

Concepto clave en la Biología

El concepto de autopoiésis es clave en la Biología moderna y creemos que es nuestra obligación aclararlo porque además, guarda determinadas relaciones con la Teoría Sociológica nada desdeñables, se esté o no de acuerdo con ellas. Además, se trata de un concepto muy manejado a lo largo de este ensayo.

El creador del principio de autopoiésis fue el biólogo chileno Humberto Maturana, que estudió medicina en la Universidad de Chile y biología en Inglaterra y Estados Unidos. Obtuvo el doctorado en Oxford y en la actualidad es docente en la Facultad de Ciencias de la Universidad de Chile. En el MIT, realizó experimentos que alcanzaron resonancia internacional sobre fisiología de la percepción. En el Biological Computer Laboratory, en Illinois, publicó su informe sobre biología de la cognición. Ha desarrollado una hipótesis que intenta situar la circularidad del hecho reproductivo de la vida, en el centro de una teoría epistemológica del conocimiento. Su concepto esencial, autopoiésis, expresa la auto producción de la vida, a través de elementos que son a su vez, reproducidos por la vida.

En la introducción a la obra de Humberto Maturana, “La Realidad: ¿Objetiva o Construida?, Javier Tomás Nafarrate dice: ”En las introducciones de los libros de Maturana existe una práctica (no pretendida) de dejar que la emoción se deslice sobre el texto, como en la antigua retórica, para hacer sentir la importancia de la obra”.

Y no es para menos. Maturana es el pensador actual que ha formulado quizá el principio teórico más radical capaz de explicar un gran número de problemas de la sociedad contemporánea. Estamos, ante todo, ante un biólogo, un gran biólogo, diríamos mejor. Sin embargo el principio teórico que aborda, la explicación de la vida, se aplica a muchos campos de lo que la tradición ha venido llamando ciencias del hombre. Maturana dice que el principio constitutivo de la célula, en calidad de ultraelemento de los organismos, se mantiene en todos los niveles de complejidad que tienen que ver con lo vivo: células, organismos, sistema nervioso, comunicación, lenguaje, conciencia, sociedad. En otras palabras, no hay discontinuidad entre lo social, lo humano y sus raíces biológicas. Porque todos son holones, dentro de holones, dentro de... (Esto lo decimos nosotros).

Moléculas diferentes

Pero, ¿cómo entendemos la autopoiesis como teoría fundamental de la vida? Partiendo de un estado primitivo abiótico del planeta Tierra, existían diferentes tipos de moléculas. Algunas de ellas tenían la propiedad de “clausurarse” frente al medio ambiente. Este hecho fue posible mediante la generación de unas estructuras moleculares, a la vez englobantes y aislantes, a partir de ahora llamadas membranas, suficientemente estables y dotadas de plasticidad.

Este tipo de moléculas -y sólo este- fue capaz de formar barreras efectivas y, al mismo tiempo, disponer de la capacidad de realizar intercambios con el entorno para difundir átomos y/o moléculas cargadas eléctricamente, los iones, durante tiempos relativamente largos con respecto a las velocidades moleculares. A este tipo molecular -o macromolecular- pertenecen las proteínas cuya flexibilidad y capacidad de asociación es prácticamente ilimitada. Cuando en la historia del planeta Tierra se dieron las condiciones para la formación de este tipo de moléculas, surgió la vida.

El punto decisivo que ha permitido trazar un límite entre la continua producción molecular abiógena -todavía sin las características que definen “lo vivo”- que se llevaba a cabo en la superficie de los mares y en la atmósfera, y la irrupción de lo viviente, estriba en que hubo momentos en los que fue posible la formación de cadenas de reacciones moleculares de un tipo peculiar. Esta peculiaridad, en la que reside la clave del asunto, es denominada por Maturana, Autopoiesis. Esta denominación sirve para describir un fenómeno radicalmente circular por el que las moléculas orgánicas forman redes de reacciones que producen a las mismas moléculas que las integran. Tales redes e interacciones que se producen a sí mismas y especifican sus propios límites, no son sino seres vivos.

Definiríamos, siempre según Maturana, los seres vivos como aquellos entes que se producen a sí mismos y la organización que los define la llamamos autopoiética. Todo sistema autopoiético goza de cinco propiedades importantes, denominadas: Autonomía, Emergencia, Clausura de Operación, Autoconstrucción de Estructuras y Reproducción autopoiética.

Descripciones

Aún a costa de alargarnos en exceso, no resistimos la tentación de describirlas:

-Autonomía: La célula pone de manifiesto la superación de la correspondencia, punto por punto, con respecto al medio ambiente. Ya no es la célula un componente constituido solo por átomos y moléculas, sino la forma específica de la combinación de dichos componentes (el holón superior abarca e incluye a los holones inferiores y el resultado es más extenso/profundo que la suma de sus partes). Esta-forma-especifica-de-combinación, exige una perspectiva de autonomía, en el sentido que la célula requiere de la creación a distancia con respecto al mundo circundante. La autonomía de lo orgánico, en último término, significa que solo desde la perspectiva celular se puede determinar lo que es relevante y sobre todo lo que le es indiferente. Ejemplo de ello es el transporte activo y selectivo a través de las membranas.

-Emergencia: La aparición de un orden cualitativo en la célula, distinto al de las moléculas que integran un mineral, no puede deducirse a partir de sus características materiales o energéticas. La emergencia señala la aparición de un orden nuevo, cuyas características solo pueden ser advertidas después de su constitución. Lo que es emergente en la célula es su “operación”, la forma en como están organizadas y como esa organización se lleva a efecto

Siempre que se habla de un orden emergente, queda presupuesto -pero no incluido- el continuo de energía o de materiales sobre el que una unidad se sostiene. La emergencia del orden modifica la composición interna de la materia: por ejemplo, la electrónica interna del átomo se transforma en cuanto surge el orden emergente de las macromoléculas. De aquí que la energía atómica no forme parte del proceso químico que constituye la célula. Si se emplea un diseño de teoría como la de Sistemas, que se orienta por la distinción sistema/entorno, entonces se tendrían que considerar a los átomos como entorno del sistema de organización autopoiética de la célula.

-Clausura de operación: Los sistemas autopoiéticos son sistemas cuya operatividad es cerrada y cuyos componentes son productos en el interior de un proceso recursivo, llevado a cabo en el interior de un retículo clausurado. Clausura no debe entenderse aquí como lo opuesto a apertura, sino como la condición de su posibilidad. Lo que está clausurado en la autopoiésis es el control mismo mediante el cual los elementos se organizan de manera emergente. Ese-control-mismo-de-la-organización, se puede visualizar en la siguiente cadena de la evolución: átomos que se convierten en moléculas; moléculas inorgánicas que devienen en cristales y soluciones; macromoléculas que pasan a ser células; células que se transforman en organismos pluricelulares.

La clausura de la operación en la autopoiésis está en relación directa con el nivel de estabilidad que alcanza una operación dada, bajo unas determinadas condiciones y en la que necesariamente esta operación tiende a formar un cálculo recursivo que siempre debe volver sobre sí mismo, es decir ser auto referente.

La clausura operacional supone que las células produzcan operaciones exclusivas reproductoras de vida por las que se mantienen en la vida. Esto quiere decir: el sistema solo puede disponer de sus propias operaciones; o con otras palabras, no existe otra cosa que su propia operación. Esta operación única logra conformar dentro del sistema dos acontecimientos fundamentales: La construcción de sistemas y la autopoiésis.

-Autoconstrucción de estructuras: Dado que la operación en una célula está, en un determinado momento clausurada, no puede captar estructuras: ella misma debe construirlas. Por lo tanto el proceso de autoconstrucción deberá entenderse, en primer lugar, como producción de estructuras propias, mediante operaciones propias. Los sistemas clausurados en su operación producen sus propios elementos y, por consiguiente, sus propios cambios estructurales. No existe, y esta afirmación de Maturana es muy fuerte, ninguna operación causal del entorno del sistema, sin que el mismo sistema la provoque: todo cambio de estructura, trátese de adaptación o rechazo, es en última instancia, autoinducido.

-Reproducción autopoiética: Autopoiésis significa determinación del estado siguiente del sistema a partir de la estructuración anterior a la que llegó la operación.

Sistema nervioso

Porque será objeto de atención en próximos capítulos, no quiero soslayar, en la continua elevación que supone el recorrido por la escala de la complejidad, la relación existente entre el Sistema Nervioso y el principio fenomenológico que hemos dado en llamar clausura de operación.

Se tiene la idea que el Sistema Nervioso obtiene información del medio circundante y que luego la utiliza para construir una representación del mundo que le rodea y con ello elaborar una conducta adecuada que le permita sobrevivir en él. Esto inicialmente parece obvio, pero las cosas son más complicadas porque así, solo hemos descrito en el fondo, los sentidos e incluso las intuiciones/percepciones, pero no más allá.

El rendimiento del Sistema Nervioso posibilita la expansión del campo de estados posibles del organismo. De esa manera, se trata de un aumento de la configuración de los estados internos que, después, un observador puede enjuiciar en correlación acoplada con el mundo, pero que, en sentido restringido, no son sino formas del modo interno de operación de un sistema.

Debido a la característica expansiva del comportamiento interior que se logra mediante el Sistema Nervioso, el fenómeno de conocer no es exclusivo del ser humano. En la organización de lo viviente, desde una bacteria al hombre, todo operar orgánico supone conocimiento como acertadamente opina la importante bacterióloga Lynn Margulis. Todo hacer es conocer. El conocimiento no opera y no puede operar valiéndose de una representación que se efectua en el medio ambiente. Conocer es pues el operar de los componentes de un sistema, dentro del dominio de sus estados internos y de sus cambios estructurales.

En la lógica del Principio de Clausura de Operación, la evolución desarrolla una primera línea formada por unidades orgánicas individuales que operan con autonomía. Las vinculaciones colectivas surgen en el momento en que las interacciones de una misma especie, a lo largo de su historia, adquieren un carácter recurrente. De tal manera, que se puede afirmar que estos organismos quedan acoplados en el plano de la estructura, lo que a su vez permite la conservación de su capacidad autopoiética en la larga historia de las interacciones.

El colectivo es biológico

Lo colectivo, entonces, no es un fenómeno esencialmente humano, sino biológico; no cultural sino natural. A partir de unidades individuales autónomas, surge un orden que coordina el comportamiento de las unidades individuales orgánicas cuando entran en reacciones recurrentes. El sustrato biológico de la vida, no contrapone individuo y sociedad.

Como se señala en la obra de Maturana y Varela “El árbol del conocimiento” : “se es altruistamente egoísta y egoístamente altruista porque la realización individual incluye la pertenencia al grupo que lo integra”.

La comunicación, en su sentido más general es la coordinación de conductas que, por sí mismas, no podrían crear actos colectivos recurrentes. De aquí que la comunicación no transfiera contenidos, sino más bién coordine comportamientos. Dicen Maturana y Varela “hay comunicación cada vez que hay coordinación conductual en un dominio de acoplamiento estructural”.

Aunque la comunicación no se agota con la aparición de conductas lingüísticas, es evidente que el lenguaje es un fenómeno inédito por el significado inmensamente abarcador para el ser humano, aunque haya, en otros niveles del ámbito de la biosfera, equivalentes de comportamientos lingüísticos.

El lenguaje introduce una doble dimensión en la historia del ser humano: primero, porque del lenguaje emerge la experiencia de lo mental y la conciencia humana como expresión del centro más íntimo del hombre; segundo, y esto es quizá lo más sorprendente, es que al situar al individuo en el plano de las interacciones recurrentes frente a otros, despoja al individuo de toda certidumbre absoluta de lo personal y lo invita a situarse en una perspectiva más amplia: la de la creación del mundo junto con otros.

¿Una utopía?

Muchos consideran esta cosmovisión como una utopía, sobre todo en vista de la situación real de la sociedad y de las desigualdades, tan crasas, que se dan en su seno. La Teoría de la Autopoiésis es algo controvertido. Nosotros mismos albergamos reservas sobre ella, no tanto en su fundamento biológico, como en sus extrapolaciones. No hemos tratado de hacer un alarde erudito. Hemos pretendido, quizá con menos acierto que voluntad, relatar una hipótesis poco explicada, pero influyente, en la filosofía de la biología actual.

En la edición alemana de la obra de Maturana, Schmidt, recomienda: “todo aquel que desee una mejora del sistema social, le haría bién pensar que sin un cambio en las disposiciones cognitivas, no es posible transformación política o social alguna. Las revoluciones sociales presuponen revoluciones culturales”.

Medítese bién esa frase última, cuando hoy estamos inmersos en una impresionante revolución tecnológica, científica y cultural.

Autopoiesis y teoría del conocimiento

Estos supuestos teóricos, llevados a diferentes áreas del conocimiento, pueden producir conmociones importantes, toda vez que pueden inducir a pensar que el conocimiento se halla sustentado en operaciones que carecen de contacto con el entorno. Fuerte deducción pero obvia de lo anteriormente expuesto. No nos pronunciamos, pero invitamos encarecidamente a que se investigue con velocidad.

Aunque la teoría del conocimiento la hemos tratado con cierta profundidad vamos, de una manera tosca y rápida, a comentar los dos ejes, por cierto mal avenidos, sobre los que hasta ahora ha discurrido, y relacionarlo todo con la cuestión que nos ocupa.

El primer eje, el racionalismo, sostiene que el conocimiento no puede partir de la realidad inmediata, sino exclusivamente de la realidad escueta. Posibilidad significa solamente inteligibilidad exenta de paradojas. De aquí que el conocimiento sea algo puramente deductivo que se desprende de conceptos primeros o axiomas, procurando siempre el caer en contradicciones.

En el polo opuesto, se encuentra el empirismo que funciona bajo el supuesto que es la realidad la que ha de decidir lo que es verdadero y lo que es falso. La aclaración de los hechos procede de la utilización de un método experimental riguroso. De esta manera, es la misma realidad la que confirma y la que permite descartar errores. El empirismo sostiene que existe una certeza del mundo exterior y que ella es el agente confirmante.

Kant estaba convencido, en contra del racionalismo, que los juicios universales y necesarios -Vg.: “todos los hombres son mortales”- no pueden ser sólo analíticos, sino también sintéticos: no sólo han de tener capacidad para explicar, sino que habrán de poder ampliar el contenido inmediato de la realidad.

Con todo, estos juicios sintéticos que han de tener validez universal y necesaria, no pueden fundamentarse solamente en la experiencia -tal y como la concibe el empirismo-, ya que ésta sólo aporta lo singular y lo contingente.

Juicios sintéticos

El problema para Kant se resuelve si es que existen juicios sintéticos a priori, que se fundamentan en principios pre-experimentales y que, a pesar de eso, aportan un paso adelante al conocimiento. Este planteamiento sitúa el problema de la estructura del conocimiento mucho más allá de las representaciones epistemológicas de su época. Desde entonces, se comprenderá el conocimiento a partir de las condiciones previas de su posibilidad. Así, dice Kant: “nuestra manera de conocer los objetos, en cuanto ésta es posible, a priori”. Lo que viene a decir que la realidad en sí, es irreconocible.

Maturana recorre este recorrido clásico de la teoría cognitiva, en términos de trampas del conocimiento. La primera trampa es creer que el mundo de los objetos puede dar instrucciones al conocimiento, cuando de hecho, no hay mecanismo que permita tal información. La segunda, es que una vez que no existe el control de la certeza inmediata, abandonados a la oscura interioridad de lo posible pensado, amenaza el caos y la arbitrariedad.

La primera trampa cree que el sistema nervioso trabaja con representaciones del mundo, cuando en realidad su modo de operar está determinado, instante a instante, por la clausura operacional. La segunda, tiende a atribuir una absoluta soledad cognoscitiva –solipsismo-, y se desentiende de explicar la asombrosa conmensurabilidad entre el operar del organismo y el mundo.

En “El árbol del conocimiento”, se señala: “La solución, como todas las soluciones aparentemente contradictorias, consiste en salirse del plano de la oposición y cambiar la naturaleza de la pregunta a un contexto con más capacidad de abarcación”.

El filo de la navaja

Maturana sugiere andar por el filo de la navaja y desarrollar un control lógico para encontrar salida al problema del conocimiento. Para ello, propone una distinción: la de la operación/observación. Desde la operación, el conocimiento está clausurado y sólo responde desde sus estructuras interiores. El observador, situado fuera de la operación, y con mayor capacidad de observación, puede efectuar enlaces causales entre operación y mundo circundante que, conscientemente, no son accesibles a los organismos que los efectúan.

Así, señala: “al mantener limpia nuestra contabilidad lógica -expresión literal de Maturana que puede interpretarse como bagaje lógico-, esta complicación se disipa, ya que nos hacemos cargo de estas dos perspectivas y las relacionamos en un dominio más abarcador que nosotros mismos establecemos. Así, no necesitamos recurrir a las representaciones, ni precisamos negar que el sistema opera en un medio que le es conmensurable como resultado de una historia de acoplamiento estructural”.

Si estas reflexiones se llevan al plano formal de la generalización, el que el conocimiento esté constituido por una operación que está clausurada, quiere decir que no puede establecer ningún contacto con el entorno. Este es un principio teórico muy complicado que contradice toda la tradición reflexiva existente sobre el conocimiento y que yo consigno aquí como llamada de atención.

Todo conocimiento sobre la realidad debe hacerse como actividad interna -del conocimiento, se entiende- dirigida mediante discriminaciones própias -para las que no existe ninguna correspondencia con el entorno-.

Acoplamiento estructural

La pregunta candente es pués ¿cómo se configura el conocimiento? Maturana para este problema difícil propone un concepto igualmente difícil: acoplamiento estructural. Esta noción presupone que todo conocimiento -que es una operación emergente autopoiética- opera como un sistema determinado sólo desde el interior de sus propias estructuras. Se excluye, entonces, el que datos existentes en el entorno puedan especificar, conforme a las estructuras internas, lo que sucede en el sistema.

Humberto Maturana diría que el acoplamiento estructural se encuentra de modo ortogonal con respecto a la autodeterminación del sistema. Lo que quiere que una certeza inmediata de la realidad, aunque no determina lo que sucede en el conocimiento, debe estar presupuesta, ya que de otra manera cesaría la autopoiésis. En este sentido todo el conocimiento está previamente acoplado de manera amplia al entorno -o no existiría-, pero hacia el interior del radio de acción que se le confiere, el conocimiento tiende a dar vueltas acopladas en modo estricto. La realidad, por consiguiente, sirve sólo de medio amplio y abierto, para que el conocimiento aporte, desde sí mismo, acoplamientos estrictos y configurados según su propia idea de orden.....

Autopoiésis y teoría de la sociedad

Cuando un concepto se extiende más allá del contexto para el que fue pensado, se transforma entonces en una estructura general que puede ser aplicada en muchos campos. Tenemos el ejemplo de la Categoría de Proceso, que fue descubierta primero en el terreno de la jurisprudencia y luego fue adaptada a la ¡química¡

Einstein aportó, quizá más que ningún otro, las bases para el desarrollo de la teoría quántica, pero toda su vida mantuvo sobre ella serias reservas. Como creemos que ya hemos visto-y si no este es un momento tan bueno como cualquiera para expresarlo- el resultado de las dudas de Einstein ha sido que la física se ha orientado por dos teorías universales que, hasta ahora, no han podido conciliarse de una forma general y convincente .Por un lado, tenemos la Teoría General de la Relatividad que gobierna la estructura del Universo a gran escala; y por otro está la mecánica quántica que rige y explica el comportamiento a nivel atómico y molecular. En estos momentos hay serios intentos de integración que no acaban de fructificar definitivamente.

Salvando las distancias, con la autopoiesis ha ocurrido un fenómeno parecido: al quedar expuesta al proceso de re-especificación en cada una de las disciplinas humanísticas, ha sufrido modificaciones en las interpretaciones. La diferencia más notable en cuanto a precisiones de sentido de este concepto, se halla en la discusión actual entre sociología y biología.

El sociólogo alemán Niklas Luhmann ha desarrollado una teoría autopoiética de la sociedad basada en las ideas de Maturana. Así como el origen de la vida tiene que ver con el proceso de clausura de ciertas proteínas, así, en la propuesta de Luhmann, aquello que se ha designado como proceso de humanización –socialización- fue posible gracias al surgimiento de una forma emergente, una red cerrada –autopoiética- de comunicación. Solo a esta red cerrada de comunicación le es aplicable el concepto de sociedad. Fuera de esta red no existe comunicación. Ella es la única que utiliza este tipo de operación y en esta medida es real y necesariamente cerrada.

Desde que la humanidad inicia ese maravilloso proceso llamado civilización, Luhmann supone que la sociedad es una forma clausurada de comunicación que tiene la cualidad de albergar dentro de sí misma, de manera omniabarcante, todo lo que tenga que ver con formas de comunicación de sentido.

Procesos, procesos...

La evolución parece que encontró en el proceso de comunicación, no sólo el proceso de hominización, sino también el de socialización. En otras palabras, Luhmann establece que la civilización y sus resultados son consecuencia de las condiciones del proceso de comunicación. Ahora procede una afirmación fuerte: No son los seres humanos los creadores del proceso de su propia civilización, al contrario: los seres humanos se hacen dependientes de esta red emergente de orden superior, bajo cuyas condiciones pueden elegir los contactos con otros seres humanos. Esta red de comunicación de orden superior es lo que Luhmann denomina sociedad. Lo social no surge del hombre. Consiste en una solución de tipo evolutivo que precede a los sujetos y se halla encaminada a proveer de estructuras -léase formas- de sentido que mantienen la cohesión y se imponen a la tendencia disgregadora.

La socialización de los seres humanos no es, en sentido estricto, humanización. Si se parte de la premisa que la sociedad es pura comunicación, el desarrollo de lo social se debe entender como un aumento en el desempeño comunicativo, tal como lo ve Luhmann. En esto consiste su discrepancia con Rousseau y Nietzsche; el primero veía el citado desarrollo social como una ampliación de la humanización en el sentido de perfeccionar la naturaleza humana -teóricamente bello pero científicamente falso según la Teoría de la Evolución ya comentada-; para Nietzsche, la humanización suponía la superación de las energías dionisíacas -cierto, pero su explicación la retrasaremos a nuestra idea de la nueva visión nietzscheana-.

Lo social nunca ha sido el espacio de la realización absoluta de las posibilidades más humanas del hombre. Esto es cierto, aunque en un sentido que iremos desempaquetando, poco a poco, en apartados posteriores. La sociedad manifiesta una consistencia propia -dinámica y evolutiva-, una regulación auto referente que da pie a que cada individuo la experimente en grados de profundidad y en direcciones diversas -también veremos que esto guarda relación con ideas que expondremos posteriormente-.

El otro lado

Pero estos grados de vivencia posibles, pero subjetivos, no pertenecen al ámbito de lo social: están ubicados en lo que de momento llamaremos, por seguir a Luhmann, el otro lado de la forma de lo social, en el entorno. El descubrimiento moderno de lo inconmensurable en cuanto a la interioridad humana se refiere, a partir de Freud, Jung y otros, advierte que no es posible construir una sociedad que pueda corresponder a tales posibilidades de variación, pero quien siga leyendo los capítulos restantes de esta obra verá como lo individual y lo social/cultural, si se interconectan en La emergencia de la naturaleza humana.

Luhmann conecta directamente con el concepto de autopoiésis en el momento en el que considera la sociedad como una red cerrada, auto referente. La crítica a este tipo de sociología proviene de diversos sectores, siendo uno de ellos el que opina que se considera a la sociedad como una especie de realidad orgánica presentada en formato grande. Se acusa a la teoría de estar vinculada a la sociobiología de Wilson.

Luhmann se defiende: “si la noción de autopoiésis que describe la forma de vida -y para Maturana no sólo describe, sino que define el concepto mismo de la vida- es aceptable para los biólogos, no se deduce de ello que el concepto sea sólo biológico. Si los automóviles trabajan con un motor interno, esto no significa que el concepto de motor deba quedar reducido a los automóviles. Nada impide el que tratemos de ver si los sistemas sociales son autopoiéticos en términos de su propio modo de producción y reproducción, en lugar de verlos en términos de la operación bioquímica de la vida” (Tomado de “Entrevista con Niklas Luhmann”, en David Sciulli, Theory, Culture & Society. Sage, Londres, Thousand Oaks y Nueva Delhi, Vol. 11, Pág.42, 1994).

Para Luhmann, no sólo están organizados autopoiéticamente los sistemas orgánicos, sino también las formas sociales y las conciencias de los individuos, generalizando el concepto de autopoiésis y lo conduce y aplica a otros ámbitos de la realidad.

Los sistemas vivos, los neuronales, las conciencias, y los sistemas sociales son para Luhmann, sistemas autopoiéticos, esto es, sistemas que se desarrollan gracias a una reproducción recursiva de sus elementos como unidades autónomas. El concepto de autopoiésis significa auto conservación del sistema mediante la producción de sus propios elementos. En la obra de Luhmann, Die Autopoiesis des Bewusstseins, Soziologische Aufklärung 6, Opladen, 1995, p. 56, se dice:

“como autopoiéticos nosotros queremos designar aquel tipo de unidades que producen y reproducen los elementos de los que están constituidos, a partir de los elementos de los que están constituidos. Todo lo que estos elementos utilizan como unidad -ya se trate de elementos, de procesos, de estructuras, de sí mismos- debe ser producido mediante esas mismas unidades. O dicho de otro modo: no existe ninguna unidad que sirva como input para el sistema; ni ningún output que sirva de unidad que no provenga del sistema. Esto no quiere decir que no haya ninguna relación con el entorno, pero estas relaciones se situan en un nivel de realidad distinto de la autopoiésis”.

Orden emergente

La sociedades, pues, un orden emergente que se deslinda de lo especifico de la vida orgánica y de la vida interior de las conciencias. El concepto de emergencia designa la irrupción de un nuevo orden de realidad que no puede ser explicado -ni reducido- en su totalidad, a partir de las características de la infraestructura sobre la que se encuentra sostenido. En el caso, por ejemplo, de la relación entre conciencia y cerebro -tema importante en este libro con pocas fronteras-, la conciencia está sustentada sobre procesos neuronales -lo que hoy en día es decir poco-, pero las neuronas no producen ningún tipo de pensamiento o de representación. La frase, atribuida a Ernest Bloch de que por más que nos paseáramos por las azoteas del cerebro nunca encontraríamos allí una idea, ilustra su contenido.

La dimensión del significado por el que se establece que la sociedad sea un orden emergente autopoiético, debe ser sopesada con toda gravedad, ya que contradice toda la tradición filosófica y sociológica que se sustenta en la conceptualización del sujeto: el ser humano, en este tipo de tradición constituye el ultraelemento de lo social. Esta tradición considera que los seres humanos son los que se comunican y se comunican con otros.

Desde el momento que Luhmann opta por la conceptualización de la autopoiésis, rompe con la tradición del pensamiento europeo. Lo social, en esta teoría, no está constituido por los seres humanos, sino por la comunicación. En esta dinámica de pensamiento los seres humanos no están considerados como los creadores de la comunicación. La comunicación no es ningún resultado de la acción del ser humano, sino una operación que solamente se hace posible genuinamente por sí sola, es decir, por la sociedad.

En su obra, Teoría de la Sociedad, Pág. 52, Luhmann dice: “No es el hombre quien puede comunicarse, sólo la comunicación puede comunicar. La comunicación constituye una realidad emergente sui generis. De la misma manera como los sistemas de comunicación -como también por otra parte los cerebros, las células, etc-, los sistemas de conciencia son también sistemas operacionalmente cerrados. No pueden tener contacto unos con otros. No existe la comunicación de conciencia a conciencia, ni entre el individuo y la sociedad. Si se quiere comprender con suficiente precisión la comunicación es necesario excluir tales posibilidades -aún la que consiste en concebir la sociedad como un espíritu colectivo-. Solamente una conciencia puede pensar -pero no puede pensar con pensamientos propios dentro de otra conciencia- y solamente la sociedad puede comunicar. Y en los dos casos se trata de operaciones propias de un sistema operacionalmente cerrado, determinado por la estructura”.

La sociedad es autónoma no sólo en el plano estructural -a lo que ya había llegado el estructuralismo-, sino también y fundamentalmente en el plano del control de la organización de sus estructuras. La sociedad puede hacer surgir operaciones própias solamente empalmándolas a operaciones propias y con anticipación a ulteriores operaciones de la sociedad.

¿Está Luhmann en lo cierto? Veamos lo que opina el propio Maturana en un comentario manuscrito no publicado al libro Sociedad y teoría de sistemas, de Darío Rodríguez y Marcelo Arnold, emitido en enero de 1992, en Santiago de Chile:

“Esta discrepancia con Luhmann no es trivial....Ciertamente se puede hacer lo que Luhmann hace al distinguir un sistema cerrado definiblemente autopoiético en el espacio de las comunicaciones que él llama sistema social. Lo que yo me pregunto es si la noción de lo social como ésta surge en el ámbito cotidiano y se aplica adecuadamente a ese sistema: es decir, me pregunto si el sistema que Luhmann distingue como sistema social genera los fenómenos y experiencias que en la vida cotidiana connotamos al hablar de lo social. Yo pienso que no, que no lo hace, y pienso, por lo tanto, que la noción de lo social está mal aplicada al tipo de sistemas que Luhmann llama “sistemas sociales”.....Lo social no pertenece a la sociología, pertenece a la vida cotidiana, y la sociología sólo hace sentido como intento explicativo de la vida cotidiana, si no, es sólo literatura. Todo lo que Luhmann parece querer explicar con su teoría de los sistemas sociales separando lo humano y dejándolo como parte del entorno, y mucho más que él no puede explicar, como el origen del lenguaje, como el origen de lo humano, se puede explicar sin ese argumento”.

Hipótesis desconocida

Alguno pensará y con razón, que nos hemos extendido demasiado en el concepto de Autopoiésis. Lo que ocurre es que teorías como la de la evolución, la relatividad y otras están bién explicadas en muchos lugares mientras que la hipótesis autopoiética es menos conocida y goza de alta relevancia científica en el mundo biológico moderno.

Volviendo a la Teoría Holónica, aunque los holones existen gracias a sus relaciones de interconexión o contexto, no están definidos por este, sino más bien por su propia forma, patrón, modelo o estructura individual. Como señaló Leibniz, incluso partículas que dependen de otras, mantienen su perspectiva individual.

Esta forma intrínseca o patrón es conocido con diversos nombres: entelequia (Aristóteles), unidad/campo mórfico (Sheldrake), régimen, código o canon (Koestler), estructura profunda (Wilber). En la fisiosfera la forma del holón resulta, a pesar de su asombrosa complejidad, relativamente simple en relación con la biosfera y noosfera, en las que su relación de intercambio con el entorno persigue conservar estable -o teleológicamente reconocible-, coherente y relativamente autónomo el patrón que es la esencia de cualquier holón. Francisco Varela explicó antes de su fallecimiento que la vieja biología estaba basada en “unidades heterónomas que operaban según una lógica de correspondencia”, mientras que la esencia de la nueva biología se basa en “unidades autónomas que operan según una lógica de coherencia”.

En resumen, los holones se definen no por la materia de la que están hechos -puede no haber materia-, ni por el contexto en el que se hallan -aunque son inseparables de él-, sino por él patrón relativamente autónomo y coherente que presentan. La capacidad de preservar ese patrón es una de las características del holón.

Javier Del Arco
Sábado, 20 de Mayo 2006
Facebook Twitter LinkedIn Google Meneame Viadeo Pinterest

17votos

El Tesoro de la alfombra mágica

La Recursividad y teoría holónica constituyen la primera gran coincidencia. Los problemas filosóficos de la intelección sentiente y de la ‘formalidad’ de la realidad se forjan, al menos en parte, ante la necesidad de fundamentar la matemática y de interpretar los resultados del teorema de Gödel. Hay un sistema, pero este sistema se desliza. No tiene fin, es “mareantemente holárquico”. Pero el hecho de que el contexto se deslice, no significa que no se puedan establecer significados, que la verdad no exista, o que los contextos no se vayan a mantener el tiempo suficiente como para ser capaces de demostrar ni un solo punto. Muchos post-estructuralistas post-modernos no solo han descubierto el espacio holónico, sino que se han perdido en él.


Douglas Hofstadter. Mosaico. Punya.
Douglas Hofstadter. Mosaico. Punya.
Con los artículos hasta ahora publicados, podemos decir que finaliza el frontispicio o pórtico de este blog de Biofilosofía. Corresponde ahora entrar en materia con más rigor y contundencia y, por ende, con mayor profundidad. Nunca he negado y las páginas que siguen lo atestiguan, que buena parte de esta mi biofilosofía que presento, viene inspirada por la obra de Ken Wilber. Wilber es un maestro, un iniciador, un pionero que, pese a su genialidad, debe ser para el público culto europeo, matizado, completado e incluso podado de cierta literatura que no haría sino alejarle, o al menos, y eso es lo importante, alejar o desacreditar sus ideas de ese o ante, público continental. Mi modesto, si lo consideramos desde un punto de vista intelectual, y a la vez arriesgado intento, es rescatar el mejor Wilber, matizarlo, completarlo y adaptarlo a una intelectualidad europea que vive profundos momentos de crisis, disgregación y enfrentamiento.

Wilber enuncia unos veinte principios básicos agrupados en doce categorías que él considera pautas o tendencias comunes que operan en los tres dominios de la evolución: fisiosfera, biosfera y noosfera. Estas tendencias dan cohesión al universo de manera que éste constituye un pluralismo emergente entrelazado por patrones comunes, los patrones de conexión. De estos patrones o principios, abordaremos hoy tan sólo el primero que da título al artículo. He de advertir que estos patrones funcionan perfectamente en el lenguaje del naturalismo objetivo, el lenguaje del “ello”, el neutro en tercera persona. Wilber, cuidadosamente, ha modelado estos principios en un nivel y grado de abstracción compatible con los lenguajes del “ello” (naturalismo objetivo o esfera de lo verdadero), del “yo” (estética o esfera de lo bello) y del “nosotros” (ética o esfera de lo bueno) de forma que la síntesis pueda continuar sin violencia hacia dominios en los que, previamente, la Teoría Dinámica de Sistemas había realizado un reduccionismo estricto en términos que le son propios: naturalistas y objetivantes. Este es el aspecto, advierto desde ahora, más vulnerable de todo el entramado filosófico wilberiano y, tal vez el que supone para mi el mayor reto que, afortunadamente para mi, no tendré que abordar por ahora.

Ya hemos dicho anteriormente, que no hay cosas ni procesos, únicamente holones y que no existe límite ni hacia arriba ni hacia abajo o, expresado matemáticamente, límite superior o inferior.

Ni totalidad, ni partes

Como la realidad no esta compuesta de totalidades y tampoco de partes porque sólo hay totalidades/partes, este planteamiento elimina de raíz la discusión tradicional entre el atomismo -todas las cosas están fundamentalmente aisladas y las totalidades individuales interactúan solo por azar- y el holismo -todas las cosas son meras hebras o partes de la red o del todo mayor-. Estos dos planteamientos son totalmente incorrectos ya que no hay ni totalidades ni partes. Únicamente hay totalidades/partes.

Si somos sutiles, veremos que estamos eliminando el dilema entre los materialistas y los idealistas. La realidad no está compuesta de quarks o de hadrones interdependientes, o de intercambio subatómico; pero tampoco lo está de ideas, símbolos o pensamientos. Esta compuesta de holones.

Wilber nos introduce en un viejísimo y hermoso cuento de origen oriental, que narra la visita de un rey a un viejo sabio al que desea realizar algunas consultas y también probarle. De esta guisa le pregunta: “¿por qué la Tierra no se cae?” El viejo sabio le contesta: “la Tierra se sostiene sobre un león”. El rey, lógicamente, vuelve a la carga: “¿sobre que se sostiene el león que propones?”. “El león se sostiene sobre un elefante,” responde el viejo. Pero la respuesta no satisface al rey que insiste: “¿sobre que se sostiene el elefante?”. “El elefante se sostiene sobre una tortuga”. Y vuelve a la carga el rey: “¿sobre que se sostiene...?”. Cansado, el viejo responde: “puede detenerse ahí Majestad, todo es un infinito conjunto de tortugas hacia abajo”. O todo holones hacia abajo.

Releyendo el precioso libro de Hofstadter, “Gödel, Escher, Bach, un eterno y grácil bucle”, se plantea en el capítulo V la cuestión de la recursividad. Hofstadter, al referirse a la amplitud de éste concepto, introduce un lenguaje que nos es familiar, sin que él conociese previamente la terminología de Wilber. Así habla de relatos dentro de relatos, partículas dentro de partículas, matuskas dentro de matuskas, incluso comentarios entre paréntesis dentro de comentarios entre paréntesis; estos son tan sólo algunos elementos de la recursividad.

Para aclarar más fehacientemente el concepto de recursividad debemos involucrar a los llamados conjuntos recursivamente enumerables o abreviadamente, r.e. Que un conjunto sea r.e. significa que pueda ser generado a partir de unos puntos de partida que denominamos axiomas mediante la aplicación reiterada de reglas de inferencia. Así el conjunto crece y crece, y sus nuevos elementos se van componiendo, de algún modo, con los elementos anteriores, en algo que Hofstadter describe muy bellamente: en una suerte de “bola de nieve matemática”.

Bola de nieve

Esa es la esencia de la recursividad: la definición de algo en función de versiones más simples de ello mismo, en lugar de hacerlo explícitamente. Los números de Fibonacci y los números de Lucas, son ejemplos perfectos de conjuntos r.e.: a partir de dos elementos, y gracias a la aplicación de una regla recursiva, echan a rodar una bola de nieve formada por infinitos conjuntos (es sólo por convención por lo que llamamos r.e. a un conjunto cuyo complementario es también recursivo y recursivamente enumerable).

La enumeración recursiva constituye un proceso donde surgen elementos nuevos a partir de elementos anteriores, por la acción de reglas establecidas. Parece que en estos procesos se dan muchas sorpresas, por ejemplo la impredictibilidad de la llamada secuencia Q. Es posible suponer que las secuencias recursivamente definidas de tal tipo posean la cualidad intrínseca de asumir un comportamiento cada vez más complejo, de suerte que cuanto más se avanza, menor es la predictibilidad.

Esta clase de suposición, si se profundiza un poco en ella, sugiere que los sistemas recursivos, adecuadamente complicados, son lo bastante poderosos como para evadirse de cualquier molde prefijado ¿Y esto no es uno de los atributos que definen la inteligencia? En vez de considerar únicamente programas integrados por procedimientos que apelan recursivamente a sí mismos ¿por qué no trabajar con procedimientos realmente refinados, mediante la creación de programas que puedan modificarse a sí mismos? Es decir, programas que ejerzan su acción sobre programas, extendiéndolos, mejorándolos, generalizándolos, reordenándolos, etc. Es probable que esta forma de “recursividad entrelazada” sea uno de los elementos sustanciales de la inteligencia.

La recursividad es un tema de primer orden, si no “el tema” por excelencia. Me explico: examinemos una forma en la que el mundo entero aparece construido a partir de la recursividad. Esta afirmación se relaciona con la existencia de las partículas elementales: electrones, protones, neutrones y los diminutos quanta de la radiación electromagnética llamados fotones. Veremos que estas partículas están –de una manera que sólo puede ser establecida por la mecánica cuántica relativista- incluidas unas dentro de las otras, de una manera que sólo puede ser descrita recursivamente.

Partículas desnudas

Si las partículas no interactuasen entre sí, las cosas serían muy simples. A las partículas exentas de interacción se las denomina “desnudas” y se las trata como creaciones meramente hipotéticas: no existen.

Ahora bien, cuando las partículas son “puestas en marcha”, se entrelazan entre sí recíprocamente, vinculándose. Se dice de las partículas que han sido “normalizadas”. Lo que ocurre es que cualesquiera de estas partículas, considerada individualmente, no puede definirse si no lo es en referencia a todas las demás partículas. La definición de éstas, a su vez, depende de su relación con las anteriores, etc., y así giro a giro, en un circuito sin final.

Mediante un extenso e ingenioso razonamiento que debe leerse en su precioso libro, que implica además la utilización de los diagramas de Feynman, Hofstadter concluye que la cuestión esencial respecto de una partícula material subatómica –una partícula renormalizada- comprende:

1. Una partícula desnuda.

2. Un enorme amasijo de partículas virtuales enrolladas entre sí, inseparablemente, formando una trama recursiva. La existencia de una partícula real implica por lo tanto la existencia de muchas otras, contenidas en la nube virtual que la rodea a medida que se desplaza. Y cada una de las partículas virtuales de la nube arrastra, evidentemente, su propia nube virtual, burbujas dentro de otras burbujas -holones dentro de holones, diríamos nosotros- y así sucesivamente, “ad infinitum”.

Paradojas lógicas y Teorema de Tarski

Para muchos, una paradoja es algo que a primera vista parece ser falso pero que en realidad es cierto; o que parece ser cierto pero que en rigor es falso; o sencillamente que encierra en sí mismo contradicciones. Los conceptos de certeza o falsedad en matemáticas y aún el de contradicción, dependen del grado de desarrollo de la matemática en un momento dado; parodiando a Hamlet puede decirse que «lo que una vez fue paradoja, ya no lo es, pero puede volver a serlo».

Este hecho también se da en las ciencias experimentales y conduce inicialmente a un cuestionamiento del concepto de «rigor científico» que se maneja en cada época. Uno de los aspectos más interesantes de la matemática estriba en que sus más difíciles paradojas encuentran un camino para originar las más bellas y profundas teorías; Kasner y Newman sostienen: «El testamento de la ciencia es un flujo continuo, de tal manera que la herejía del pasado es el evangelio del presente y el fundamento del mañana” (Kasner, et al., 1979). A menudo se llega a paradojas cuando se contradice el denominado principio del tercero excluido (Kleiner et al., 1994), que afirma lo siguiente: cualquier enunciado proposicional es verdadero o es falso, pero no se pueden dar ambas cosas simultáneamente.

Al tratar de aplicar a conjuntos infinitos el hecho de que: Si es posible emparejar todos los elementos de un conjunto con todos los pertenecientes a otro, entonces, ambos conjuntos tienen el mismo número de elementos puso a los matemáticos ante algunos hechos que eran inexplicables en su época y que fueron considerados como paradojas.

Entre las paradojas lógicas o matemáticas, están las debidas a los denominados conjuntos paradójicos. Un conjunto paradójico, es aquel que el admitir su existencia conduce a paradojas.

La paradoja de Cantor

El primer ejemplo de un conjunto de este tipo fue dado el 28 de marzo de 1897 por el matemático italiano Cesare Burali-Forti (1861-1931) quien la presentó en un encuentro del Círculo Matemático di Palermo. En pocas palabras la paradoja es la siguiente: Se sabe en teoría intuitiva de conjuntos, que todo conjunto bien ordenado tiene un número ordinal; en particular, como el conjunto de todos los ordinales es bien ordenado, entonces debe tener un ordinal, digamos S, pero el conjunto formado por todos los ordinales agregándole S, tiene ordinal S + 1, que es mayor que S, por lo tanto no puede ser el número ordinal del conjunto de todos los ordinales ya que S y S +1, no cumplen la ley de tricotomía.

Un conjunto paradójico es el de la denominada paradoja de Cantor. En 1899, en una carta que envió Cantor a Dedekind, observa que no puede hablarse del “conjunto de todos los conjuntos”, ya que si Q fuese este conjunto entonces el conjunto P (Q) de todos los subconjuntos de Q sería un elemento de Q, es decir:

P (Q) pertenece a Q y también P (Q) es un subconjunto de Q.

Entonces existe m tal que 2 (expo m) más o menos m, lo cual es una contradicción.

Después del surgimiento del Axioma de Regularidad en la Teoría de Conjuntos (1917) puede emplearse el siguiente argumento:

Como P (Q) pertenece a Q y Q pertenece a P (Q), entonces Q pertenece aQ, lo cual contradice el Axioma de Regularidad.

El lógico alemán Gottlob Frege (1848-1925) consideraba: “los matemáticos deben de hacer frente a la posibilidad de encontrar una contradicción que convierta el edificio completo en ruinas. Por esta razón me he sentido obligado a volver a los fundamentos lógicos generales de la ciencia...”. Es así como se dedicó durante un cuarto de siglo a construir la fundamentación lógica del análisis; con tal fin elaboró un sistema formal que intentaba servir como fundamento de las matemáticas.

Este sistema se sostenía en varios principios dos de los cuales son los siguientes:

1. Principio de Extensionalidad: dos propiedades son equivalentes si son aplicables a los mismos individuos.
2. Principio de Abstracción: Toda propiedad define un conjunto.

Sus ideas fueron plasmadas en dos extensos volúmenes. En 1902 ya había publicado el primero y el segundo estaba en la imprenta listo para ser publicado, cuando recibió una carta del joven matemático inglés Bertrand Russell (1872-1870) en la que le planteaba la siguiente inquietud:

Si x es, por ejemplo, el conjunto de los conjuntos que no son cucharas, x pertenece a x, pero si x es el conjunto de todas las cucharas, evidentemente x no es una cuchara y por lo tanto x no pertenece a x.

Sea el siguiente conjunto:

P = (x/ x pertenece a x).

Si P pertenece a P implica a P pertenece a P, lo cual es una contradicción. Si P pertenece a P implica a P pertenece a P, lo cual también es una contradicción.

Esta paradoja que presentó Russell, convertía en contradictoria las bases mismas de la obra científica de Frege.

En un gesto de gallardía y de humildad científica, Frege escribió una nota a pie de página al final del segundo volumen que comenzaba diciendo: “Difícilmente puede encontrarse un científico con algo más indeseable que notar que ceden los fundamentos de una obra que acaba de terminar. En esa situación me encuentro al recibir una carta del señor Bertrand Russell cuando el trabajo estaba casi en imprenta”.

Principio falso

Realmente lo que demuestra la paradoja de Russell es que el principio de abstracción es falso, y es este aspecto el que hace contradictorio el sistema de Frege, aunque la forma como construyó el análisis no lo fue.

La causa de muchas de estas paradojas, como señalaban Russell y Whitehead, radica en la definición de un objeto en términos de una clase que contiene como elemento al objeto que se está definiendo. Tales definiciones se llaman impredicativas y aparecen de manera especial en teoría de conjuntos.

Como afirman Kasner y Newmann: «Quizás la mayor de todas las paradojas es que haya paradojas en la matemática” (Kasner, 1979). Afortunadamente para esta ciencia, las paradojas siempre han estado presentes en su quehacer, ellas se han convertido en un verdadero reto, fuente de inspiración y creación, que le ha permitido adquirir no sólo un alto grado de desarrollo, sino también la ha obligado a cambiar sus conceptos de rigor y precisión, ¡bienvenidas sean pues las paradojas!

A continuación mencionaremos el teorema de Alfred Tarski huyendo de las complejidades de la notación lógico-matemática que conlleva, verbalizándolo en la medida de lo posible. En su trabajo, Tarski se propone llegar a una definición satisfactoria de la noción del término "verdad". Ésta definición sería materialmente adecuada y formalmente correcta. Pero desde un principio, Tarski advierte que el problema, debido a su generalidad, no puede considerarse de una forma inequívoca. La adecuación material serviría para deshacerse de la ambigüedad; mientras que la corrección formal, requerirá de una descripción de la estructura formal del lenguaje en el cual se dará la definición de verdad. Desde este punto, la definición no se podría aplicar al lenguaje natural, ya que éste no es formal

Tarski se propone aplicar el término "verdad" sólo a enunciados, y no a proposiciones; debido a la ambigüedad de la definición de estas últimas. Esto lleva a relacionar a la noción de "verdad", así como a un enunciado, a un lenguaje específico.

Concepto ambiguo

En cuanto al significado del término "verdad", es claro que es extremadamente ambiguo. Tarski cita la definición de Aristóteles de "verdad": "El decir de lo que es que no es, o de lo que no es que es, es falso; mientras que el decide lo que es que es, o de lo que no es que no es, es verdadero". Adapta esta definición a terminología moderna como: "La verdad de un enunciado consiste en su concordancia con (correspondencia con) la realidad". Aquí podríamos objetar un problema de percepción: no es posible demostrar con la mente qué es la realidad, ya que podemos definir a la realidad como "aquello que perciben nuestros sentidos". Y la validez de nuestros sentidos sólo es probable empíricamente.

También en estas definiciones hay un problema de contexto. Algo puede cambiar su valor de verdad al cambiar de contexto. Y en el fondo de todo, se esconde una metafísica, en la cual la noción de "verdad" debe estar basada. Y, usando el teorema de la incompletitud de Gödel, podemos demostrar que esta verdad no podrá demostrar a la metafísica que la propone (no se puede encontrar la verdad de la metafísica). Estos son sólo algunos de los problemas que presentan estas definiciones de verdad, que aunque Tarski no discute ninguna, es claro que estas no son definiciones satisfactorias de verdad.

Para obtener la adecuación, Tarski distingue primero entre los nombres de los enunciados, y los enunciados en sí, para evitar autoreferencias. Pero como demostró Gödel, las autoreferencias siempre estarán ahí.

Lenguaje formal

La concepción de "verdad" de Tarski es semántica. Esta última trata de "ciertas" relaciones entre las expresiones de un lenguaje, y los objetos a los cuales se refieren esas expresiones. Algunas de estas relaciones pueden ser: designación, satisfacción y definición. Pero el término "verdad" no establece una relación entre expresiones y objetos. Expresa una propiedad de las expresiones (en este caso, enunciados). Aunque, Tarski mismo indica que la semántica no resuelve todos los problemas de una definición de verdad.

Para evitar paradojas y antinomias, Tarski decide definir su concepto de "verdad" sobre un lenguaje "especificado exactamente" (formal). Esto es, que se caractericen sin ambigüedades las palabras y expresiones que se vayan a considerar con sentido. Para esto requiere de axiomas, reglas de inferencia, y teoremas.

Aunque sea un lenguaje formal, gracias a Gödel hemos visto que no es posible desterrar a las paradojas. Entonces, ¿por qué no tratar de comprenderlas? Desde aquí los intentos de Tarski pierden toda esperanza.
Principalmente, Tarski describe a las causas que provocan la inconsistencia de los lenguajes cerrados:

1. Hemos asumido que el lenguaje contiene tanto a las expresiones, como a los nombres de las expresiones. Por consiguiente, es directamente autoreferencial.

2. Hemos asumido que en el lenguaje rigen las leyes ordinarias de la lógica.

Tarski califica de "superfluo" el querer cambiar la lógica ("suponiendo que sea posible"), para poder resolver el problema por el punto dos. La lógica depende directamente de sus axiomas. En el caso de la aristotélica, estos son: "algo sólo puede ser verdadero ó falso, pero no otra cosa, ni las dos al mismo tiempo". Al cambiar los axiomas, se cambia la lógica. Así se crearon las lógicas paraconsistentes. En las lógicas paraconsistentes, se admite que se pueda llegar a una conclusión a base de premisas contradictorias.

Problemas lógicos

Por lo tanto, las paradojas, al comprenderse, dejan de ser contradictorias. Y podemos decir además, que una lógica paraconsistente, es completa e incompleta al mismo tiempo. El problema de la definición de "verdad", así como todos los "problemas" que son implicaciones de paradojas, son problemas esencialmente lógicos. Si es un problema lógico, ¿por qué tratar de formalizar al lenguaje natural, cuando de todos modos si fuese formal habría paradojas? Eso, es ponerle a la filosofía zapatos que no le quedan. Si la lógica no contiene al lenguaje, los más adecuado sería desarrollar una lógica que lo contenga, y no mutilar al lenguaje para que entre a golpe de “teoremazo”.

Pero bueno, para Tarski seamos superfluos, y sigamos con su exposición, la cual se dirige a atacar el problema por el punto 1. Esto es, prohibir que un lenguaje se describa a sí mismo. ¡Pero un lenguaje sin autoreferencia no es lenguaje! ¡Todas las limitaciones impuestas! En fin, para lograr esto, Tarski propone un lenguaje-objeto, el cual básicamente se referirá solamente a describir objetos, y un meta-lenguaje, el cual tendrá una mayor jerarquía, y podrá decir si un enunciado del lenguaje-objeto es verdadero o falso. Pero entonces, ¿cómo puedo obtener la verdad de una frase del meta-lenguaje? ¿Con un meta-meta-lenguaje, y así creo meta-lenguajes ad infinitum?

Para dar su definición de "verdad", Tarksi emplea el término semántico de satisfacción. Entonces, define que "un enunciado es verdadero si es satisfecho por todos los objetos, y falso en otro caso". Podemos decir que su definición es satisfactoria, después de todas las limitaciones que puso antes de plantearla. Es satisfactoria, pero no es muy útil. Es satisfactoria solamente para lenguajes teóricos especialmente diseñados para que cumplan con esa definición. No es aplicable al lenguaje natural, al científico, al filosófico, y a muchos lenguajes formales.

¿Por qué no, para no meterse en problemas, los filósofos hicieron como Newton? Cuando a éste le preguntaron, que por qué no definía movimiento, tiempo y materia, dijo que no veía el caso, ya que eran "bien conocidos de todos". Es decir, ¿cómo podemos pretender definir un concepto en el que se basa nuestro lenguaje, como el de verdad, usando conceptos que se basan en el concepto que queremos definir, queriendo expulsar a la autoreferencialidad? La autoreferencia es la única vía para intentar una definición.

Pero el objeto de una definición es el de unificar y delimitar conceptos. Y en estos casos, en el de definiciones de conceptos generales (o primarios), las definiciones mismas no logran ni unificar ni delimitar lo que tratan de definir, ya que hay muchas definiciones para un concepto. Sería iluso aspirar a una definición completa sin que ésta fuese infinita. Pero es claro que las definiciones, aunque incompletas, como la de Tarski, delimitan parcialmente lo que tratan de definir. ¿Cómo describir algo que se usa para describir a las cosas? Es debido a esto que no comentaremos acerca de las críticas hechas al trabajo de Tarski, y las respuestas de éste.

Saber pensar

En cuanto a los comentarios finales de Tarski, en los cuales responde a los pragmáticos que cuestionan la aplicación del trabajo matemático, se darán a continuación algunas opiniones personales. Personalmente, he tenido la misma experiencia con mis alumnos, cuando cuestionan la aplicación de algún ejercicio mental que les propongo. La aplicación (o la finalidad) no es directa, ya que afecta al pensamiento en el cual se desarrollan las aplicaciones. Es decir, la teoría "sin aplicaciones", afecta al pensamiento. Enseña a la gente a pensar y a ejercitar la mente. No se pueden crear aplicaciones si uno no sabe pensar.

De ninguna manera el trabajo de Tarski carece de importancia; más bien todo lo contrario. Alcanza lo que Tarksi se propuso: hacer una definición parcial y limitada de "verdad" en un sistema formal cerrado. No será práctica, pero indudablemente define mejor la noción de "verdad". No es necesario saber qué significan las palabras para usarlas. Manejamos un automóvil sin saber nada de mecánica. Utilizamos una computadora sin saber algo de electrónica. Pensamos sin saber cómo, amamos sin saber qué es el amor, y vivimos sin saber qué es la vida. Pero es necesario por lo menos tener una idea. Y Tarski da una muy buena idea de qué podemos entender por "verdad".

El Teorema de Gödel y su interpretación filosófica

Para abordar con éxito y sobre todo con la posibilidad de ser comprendido por muchos, voy a abordar el trascendental Teorema de Incompletitud (1931) ha proporcionado a Kurt Gödel una fama legendaria: es considerado "el descubridor de la verdad matemática más significativa de este siglo". Marca un hito en la historia de la lógica matemática. Y para hacerlo proclamo ya que voy a recurrir a los magníficos trabajos de Guillermina Díaz Muñoz y a sus múltiples trabajos que ponen en íntimo contacto la matemática de Gödel y a la filosofía de Xavier Zubiri, homenajeando de paso a este ilustrísimo pensador español inmerecidamente olvidado y reconociendo los importantes trabajos de Díaz Muñoz ante un público menos especializado en filosofía zubiriana.

Sin duda podría haber introducido el tema de Gödel por otros derroteros pues hay múltiples pero en las presentes circunstancias de injusto olvido de Zubiri y papanatismo generalizado, reivindico así a un pensador español universal y a una importante filósofa de nuestros días. Iré pues muy pegado a los textos de Díaz Muñoz para que el relato mantenga toda su riqueza originaria.

El alcance filosófico del Teorema de Gödel ha sido profundo. Supone el cuestionamiento de las distintas filosofías de la matemática de finales del s. XIX y principios del s. XX: el logicismo de Russell, el formalismo de Hilbert y el intuicionismo de Brouwer. Como dicen Nagel y Newman: "provocó una nueva valoración, todavía en trance de desarrollo, de una extendida filosofía de la matemática y de la filosofía del conocimiento en general".
Gödel, como examinaremos, inicia el giro del "apriorismo-idealismo" del Positivismo Lógico al "realismo" de la nueva filosofía de la matemática.

Creemos que la exigencia, planteada por los resultados de Gödel, de una nueva filosofía, no-dogmática, de la matemática (y del conocimiento, en general), tiene, su máximo cumplimiento en dos autores: Lakatos y Zubiri. Sus respectivas interpretaciones del Teorema de Gödel, tanto el principio de conservación de la falibilidad o de la sofisticación de Lakatos y la anterioridad de la realidad sobre la verdad de Zubiri, constituyen el eje de toda su filosofía matemática y del conocimiento. Sus posturas son dos alternativas a la crisis gödeliana del fundamento matemático. Mientras que Lakatos sustituye la tarea de la fundamentación por la tarea del avance matemático, Zubiri pretende también, como veremos, proporcionar una fundamentación no-dogmática de la matemática. Su propuesta es un nuevo tipo de Constructivismo.

Consistencia y completitud

La aportación de Gödel está en el contexto del planteamiento que Hilbert hace de los sistemas formales. Hilbert ha presentado como requisitos y problemas fundamentales de un sistema formal matemático dos aspectos: la consistencia y la completitud. Un sistema formal es completo si cada sentencia expresable con su lenguaje formal es decidible a partir de sus axiomas. Partiendo de sus axiomas y aplicando las reglas lógicas, podemos llegar a la conclusión de A o no-A. Y, por otra parte, un sistema formal es consistente si no puede deducirse dentro del sistema A y no-A. Pues bien, los resultados de Gödel resuelven estas dos cuestiones de modo negativo.

Ya en 1930, Gödel en su artículo: Algunos resultados meta-matemáticos sobre completitud y consistencia, muestra, respecto a un sistema formal, S, resultante de unir a los axiomas de Peano la lógica de Principia Mathematica, los siguientes teoremas:

I. El teorema de la incompletitud del sistema S.

"El sistema S no es completo, es decir, en él hay sentencias j (que pueden efectivamente ser indicadas), tales que ni j ni no j son deducibles y, en especial, hay problemas indecidibles con la sencilla estructura existe x Fx, donde x varía sobre los números naturales y F es una propiedad (incluso decidible) de los números naturales".
Es un resultado definitivo, de tal modo que aunque se añadan nuevos axiomas, el sistema seguirá teniendo fórmulas nuevas indecidibles.

II. El teorema de la imposibilidad de la prueba de la consistencia en S.

"Incluso si admitimos todos los medios lógicos de Principia Mathematica (...) en la metamatemática, no hay ninguna prueba de consistencia para el sistema S (y aún menos la hay si restringimos de alguna manera los medios de prueba)".

En 1931, Gödel da las pruebas de sus descubrimientos en el citado artículo, Sobre sentencias formalmente indecidibles de principia mathematica y sistemas afines. En éste plantea que el desarrollo de la matemática ha exigido la plena formalización de ésta; dos ejemplos de gran perfección son el sistema de Principia Mathematica y la teoría axiomática de conjuntos de Zermelo-Fraenkel (y su complementación por parte de J. von Neumann). Sin embargo, muestra que no hay ningún sistema formal matemático, con un número finito de axiomas, que sea completo.

Proposición indecidible

Este resultado no se ve modificado por el hecho de que introduzcamos entre los axiomas aquél que nos permita derivar la proposición que resultaba ser indecidible, porque si bien del nuevo sistema ésta se deduciría, surgiría otra proposición que igualmente sería indecidible y así sucesivamente. Por ello es un resultado esencial en los sistemas formales que incluyan la aritmética.

Dice Gödel: "Estos dos sistemas son tan amplios que todos los métodos usados hoy día en la matemática pueden ser formalizados en ellos, es decir, pueden ser reducidos a unos pocos axiomas y reglas de inferencia. Resulta por tanto natural la conjetura de que estos axiomas y reglas basten para decidir todas las cuestiones matemáticas que puedan ser formuladas en dichos sistemas. En lo que sigue se muestra que esto no es así, sino que, por el contrario, en ambos sistemas hay problemas relativamente simples de la teoría de los números naturales que no pueden ser decididos con sus axiomas (y reglas)"

Una consecuencia de los resultados de incompletitud es la relativa a la prueba de la consistencia del sistema P. Es imposible obtener una prueba finitista de consistencia (en los términos planteados por los formalistas) para un sistema formal que contenga formalizados todos los modos finitos de prueba. La consistencia es una de las fórmulas indecidibles en los sistemas incompletos.

Dice Gödel: "Sea K una clase recursiva primitiva y consistente cualquiera de FORMULAS. Entonces ocurre que la SENTENCIA que dice que K es consistente no es K-DEDUCIBLE. En especial, la consistencia de P no es deducible en P, suponiendo que P sea consistente (en caso contrario, naturalmente, toda fórmula sería deducible).

La repercusión del trabajo de Gödel, dentro del área de la fundamentación matemática, es difícil de exagerar. Sin embargo, resulta decepcionante —y en primer lugar lo sería para el propio autor que concentró toda su energía y entusiasmo intelectual en este campo, convencido de su relevancia en la totalidad matemática— observar que su impacto en la practica de los matemáticos es insignificante.

Como dice Hao Wang: "IA [el Teorema de incompletitud de la Aritmética] ha tenido en conjunto poca influencia sobre la práctica matemática. Naturalmente, si (algún sistema formal de) la aritmética hubiera resultado ser completo (y, por ende, decidible), la investigación en teoría de números habría adoptado una forma totalmente distinta"

Y, un poco más adelante, señala que su impacto ha sido mayor en la tecnología actual, rama que no interesó directamente a Gödel. "Curiosamente, ha tenido más impacto sobre las cuestiones conceptuales que tienen que ver con los computadores y la mecanización, cuestiones que son una preocupación central en la tecnología actual"

Repercusiones del Teorema de Gödel

El Teorema de Gödel ha revolucionado la filosofía de la matemática, mostrando su inadecuación e insuficiencia para explicar el fundamento de la matemática y comprender su naturaleza. Veamos, brevemente, su repercusión en cada una de las "escuelas" de fundamentación de la matemática de principios de siglo.

a) El Teorema de incompletitud significa para el logicismo de Russell y Whitehead el fracaso de su intento de construir un sistema lógico que permita incluir la aritmética. Pone de manifiesto que la verdad matemática es de amplitud mayor que la verdad lógica, y, por tanto la irreductibilidad de la matemática a la lógica.

W. y M. Kneale (1961) señalan el desafío del resultado gödeliano a la identificación de matemática y lógica de Russell: "Desde Gödel, parece razonable responder que la lógica no se extiende más allá de la teoría de la cuantificación. Cuando decimos que la aritmética y, con ella, todos los llamados cálculos funcionales de orden superior, así como todas las versiones de la teoría de conjuntos, son esencialmente incompletos, estamos efectivamente admitiendo que esas teorías envuelven alguna noción, o más de una, de la que no cabe ofrecer una exhaustiva caracterización mediante el establecimiento de una serie de reglas de inferencia: y ésta parece constituir una buena razón para excluirlas del dominio de la lógica..."

b) Respecto al formalismo de Hilbert, Gödel demostró los límites internos de los sistemas formales. La matemática es inagotable desde cualquier sistema formal, siempre habrá verdades matemáticas indecidibles dentro de éstos. El método axiomático es de fecundidad limitada. Las afirmaciones aritméticas son irreductibles a las afirmaciones de un sistema formalizado (tanto si sus axiomas son lógicos como si son una sistematización de axiomas lógicos y aritméticos).

Como señala Morris Kline: "El fenómeno de la incompletitud constituye un importante defecto porque entonces el sistema formal no es adecuado para demostrar todas las afirmaciones que podrían serlo correctamente (sin contradicción) dentro del sistema"

c) Estos resultados también son decisivos para el intuicionismo de Brouwer. Aunque de algún modo ya habían sido vistos por éste —razón por la que se extrañaba de la gran importancia que se les había dado—, sin embargo, el mérito de Gödel está en haber construido unas pruebas formales claras para mostrar la existencia concreta de proposiciones indecidibles a partir del sistema formal que incluye la aritmética elemental.

Del mismo modo probó que la consistencia no puede demostrarse dentro del sistema. Por tanto, respecto del intuicionismo, "...el trabajo les hizo ver de qué modo el uso apropiado de métodos formales podía llevar a conclusiones precisas que ellos sólo podían ver en parte y de forma imprecisa".

d) Los resultados de Gödel tienen también una profunda repercusión en la primera filosofía objetivo-ideal de la matemática de Zubiri. Los siguientes términos expresan el Teorema de Gödel tal y como lo recoge nuestro filósofo: "Lo postulado tiene propiedades que no son deducibles de los postulados ni pueden ser lógicamente refutadas por ellos."
Y también, "Jamás podrá demostrarse positivamente la no contradicción de un verdadero sistema de notas o conceptos objetivos"

Ciencia viva

El planteamiento anterior nos presenta la matemática de principios del s. XX como una ciencia viva, que no puede avanzar sin plantearse el problema de sus principios o fundamentos. Y en esta "aventura, en la que les acompañan con emoción el intelecto entero", se encuentran de una forma sorprendente K. Gödel y X. Zubiri.

Experiencia que éste refleja en sus palabras: "Una ciencia que se halla en la situación de no poder avanzar, sin tener que retrotraerse a sus principios, es una ciencia que vive en todo instante de ellos. Es ciencia viva, y no simplemente oficio. Esto es, es ciencia con espíritu. Y cuando una ciencia vive, es decir, tiene espíritu, se encuentran en ella, ya lo hemos visto, el científico y el filósofo. Como que filosofía no es sino espíritu, vida intelectual"

Matemática y Filosofía, en el s. XX, quedan maravillosamente unidas en las figuras de Gödel y Zubiri. Ambos son prototipo de hombre intelectual: en ellos convive el diálogo matemática-filosofía de manera inseparable; si bien Zubiri es filósofo y está atento a los resultados matemáticos, y Gödel es, en primera línea, matemático-lógico y tiene un puesto justificado en la filosofía, sobre todo, en la filosofía de la matemática. Pero tanto uno como otro tienen una gran capacidad para combinar los resultados de la ciencia y de la filosofía. Y han coincidido en una empresa común: la fundamentación matemática.

Esta adquiere mayor relieve considerada una a la luz de la otra. La genialidad de Gödel está en su aportación matemática y lógica, su filosofía es un barrunto. Por el contrario, la de Zubiri está en su filosofía, la cual se apoya en las aportaciones matemáticas. Del mismo modo que se ha unido el nombre de Gödel al de Einstein, se puede unir a ambos un tercero: Zubiri. Física, matemática-lógica y filosofía no pueden marchar separadas como muestra la complementariedad de las aportaciones en sus respectivos campos.

La aportación de Gödel y la de Zubiri son dos hitos en la fundamentación de la matemática. De forma pública en 1952, se reconoció la importancia de K. Gödel. Los resultados obtenidos por éste han revolucionado la filosofía de la matemática, desde la luz que arrojan, las distintas escuelas de filosofía de la matemática: logicismo, intuicionismo y formalismo, resultan inadecuadas. Y, en general, ha revolucionado la filosofía tanto en su aspecto epistemológico como ontológico.

En concreto, la honda repercusión que tiene en Zubiri se advierte de inmediato por las numerosas veces que el Teorema de Gödel aparece mencionado en su obra. No sabemos, por falta de datos, en qué momento, entre 1931 (fecha del descubrimiento) y 1946 (fecha de la intervención de Zubiri en la Universidad de Princeton), Zubiri tuvo conocimiento exacto del descubrimiento de Gödel. Creemos que por primera vez, en los escritos publicados, lo menciona en el curso oral de 1953-1954, "El decurso vital", en el Problema del hombre, recogido en "Sobre el Hombre".

Zubiri, quizá como ningún otro filósofo, ha sabido sacar todas las consecuencias de estos resultados de lógica y matemática, de tal manera que su filosofía no sería la misma si no hubiera contado con ellos. Así puede constatarse con toda claridad que la filosofía de Zubiri se refuerza con los resultados de Gödel y éstos, a su vez, se interpretan fácilmente desde la filosofía de Zubiri.

Filosofía matemática original

La nueva filosofía de la matemática, elaborada en concordancia con los resultados de Gödel, es también sumamente original. Su descubrimiento filosófico capital es que la inteligencia matemática es sentiente. La revolución que resulta de la aportación de Zubiri es que la inteligencia concipiente se funda en la inteligencia sentiente y el ser en la realidad, y no al contrario, como se ha mantenido en la tradición filosófica. De ahí la necesidad de elaborar una filosofía sentiente de la matemática donde queden fundamentadas las filosofías concipientes de la misma

La filosofía de la matemática es afín en Gödel y Zubiri; ambos consideran la matemática como ciencia de la realidad. Si hemos visto que el abandono del objetivismo y el giro realista en Zubiri es debido, en gran parte, a la influencia de Gödel, es fácil suponer que los resultados matemáticos de éste influyen en primer lugar en su propia filosofía matemática. En efecto, Gödel mantiene un "realismo matemático"; critica la concepción matemática como sintaxis, tal y como defienden sus maestros Hahn, Schlick, Carnap; rechaza el convencionalismo en matemáticas por ser una interpretación insatisfactoria.

Afirma: "Pero, a pesar de su lejanía de la experiencia sensible, tenemos algo parecido a una percepción de los objetos de la teoría de conjuntos, como se puede ver por el hecho de que los axiomas mismos nos fuerzan a aceptarlos como verdaderos. No veo ninguna razón por la cual debamos tener menos confianza en este tipo de percepción, es decir, en la intuición matemática, que en la percepción sensible, que nos induce a construir teorías físicas y a esperar que futuras percepciones sensibles concuerden con ellas y, además, a creer que estas cuestiones no decidibles por el momento tengan significado y puedan ser decididas en el futuro".

Ya en 1930, Gödel en la Discusión sobre la fundamentación de la matemática en la cual participaron Hahn, Carnap, von Neumann, Scholz, Heyting, y Reidemeister, debatía las posturas clásicas del logicismo, formalismo e intuicionismo; y planteaba que la verdad y la consistencia no son equivalentes.

"Supuesta la consistencia de la matemática clásica, uno puede incluso ofrecer ejemplos de enunciados (del mismo tipo que los de Goldbach o Fermat) que son verdaderos en cuanto a su contenido, pero no son deducibles en el sistema formal de la matemática clásica. Por tanto, si añadimos la negación de un tal enunciado a los axiomas de la matemática clásica, obtenemos un sistema consistente, en el que es deducible un enunciado falso en cuanto a su contenido".

Ni nominalismo ni convencionalismo

Gödel se aparta, pues, del nominalismo y convencionalismo. En 1938, en La consistencia del axioma de elección y la hipótesis generalizada del continuo prueba que si los axiomas de la teoría de conjuntos son consistentes, también lo será el resultado de agregarles el axioma de elección y la hipótesis generalizada del continuo de Cantor, para ello se basa en el modelo de conjuntos constructibles; y esto unido al resultado de Cohen en 1963, mostrará la independencia de dichos axiomas. Sin embargo, Gödel no admite que esta independencia se justifique desde una postura convencionalista o nominalista.

En definitiva, ambos descubrimientos matemático (Gödel) y filosófico (Zubiri) se complementan, se iluminan mutuamente. Y la aportación común de la fundamentación de la matemática: realismo matemático y una inteligencia no-lógica de la matemática, es una flecha que atraviesa la fundamentación del conocimiento mismo. La vía de formalización y logificación de la matemática fracasa rotundamente ante la realidad de proposiciones verdaderas indecidibles en un sistema formal. La realidad matemática se resiste a ser deducida de un mero sistema finito de axiomas a través de unas reglas lógicas.

"La resistencia que las cosas ofrecen posibilita y fuerza al hombre a entenderse a sí mismo, a darse cuenta de ‘dónde está’. Así es como, al entrar en su presente, las cosas le dejan al hombre debatiéndose con su pasado. Y en este proceso, según sea la índole del choque, así es también el tipo de posibilidades que al hombre presente se le convierten en problema. No todo choque representa un momento de idéntica gravedad"

Al vernos forzados a entender las verdades matemáticas no como intuiciones ni como conceptos, la insuficiencia de nuestro concepto de inteligencia matemática se acusa con mayor gravedad. Esta es una dimensión del problema, la otra —respectiva a ésta— es la insuficiencia de nuestro concepto de objeto matemático que no es ni objeto-cósmico ni objeto-ideal. El choque con las verdades matemáticas no demostrables ni refutables en un sistema formal es la conmoción de la vía de la logificación de la matemática. Zubiri va a alumbrar una nueva noción de inteligencia y de realidad, que la matemática no puede proporcionarse a sí misma, sino sólo sugerir y esto no de forma unívoca; siempre hay que hacer una opción entre posibilidades, de ahí el carácter limitado de cada una de ellas.

Las posibilidades que el pasado otorga a Zubiri para fundamentar la matemática según las tres escuelas de filosofía de la matemática son la vía de la intuición y la vía lógico-formal. Si las examinamos a fondo, vemos que no son dos concepciones radicalmente opuestas sino que parten de una misma concepción de la inteligencia matemática: se trata de inteligencia sensible o concipiente, según la cual hay sentidos e inteligencia, y la inteligencia concibe lo que los sentidos le proporcionan. Hay una dualidad radical tanto si damos prioridad a la intuición como si se la damos al concepto. Zubiri ensaya otra vía: inteligencia sentiente.

Hemos visto que Zubiri cuando escribe su tesis doctoral en 1921 mantiene una concepción logicista-formal de la matemática, de acuerdo con la crisis de la intuición. A partir de 1931, los resultados de Gödel y su interpretación le han de llevar a unos planteamientos filosóficos nuevos. Va a suponer la conmoción de la Filosofía logicista de la matemática y la exigencia de una filosofía sentiente de la matemática. De tal manera marca un hito en la evolución del pensamiento de Zubiri que cabe hablar de la concepción "objetivista-ideal" de la matemática anterior a dicho teorema y la concepción ‘realista’ posterior al mismo.

Matemática inviable

La matemática, a la luz del descubrimiento de Gödel, resulta inviable como una secuencia de proposiciones verdaderas, puesto que hay algunas que no son "deducibles" del sistema de postulados y definiciones. La vía de formalización y logificación resulta una vía muerta. No es suficiente la vía lógica para acercarnos a las verdades matemáticas porque verdad no es demostrabilidad. Este es el nuevo reto de la filosofía zubiriana: fundamentar la nueva matemática. Para esta tarea no es adecuada ni la vía intuitiva ni la vía formal y lógica. ¿Qué nos queda? Si la crisis de la intuición nos condujo a la formalización y logificación de la matemática, ¿a dónde nos conducirá la conmoción de la formalización y la logificación de la matemática?

Gödel muestra en 1932, también en Sobre la teoría de números y la aritmética intuicionista que la matemática clásica es traducible a la matemática intuicionista, de este modo si ésta es consistente aquélla también lo es, según lo cual no resulta más arriesgada la matemática clásica que la intuicionista. Para Zubiri ni la inteligencia lógica ni la inteligencia intuitiva son adecuadas para la fundamentación de la matemática.

Esta situación intelectual de la fundamentación de la matemática a partir de Gödel le deja a Zubiri debatiéndose con la noción misma de inteligencia. Hacemos hincapié en esta idea porque, como Zubiri hace notar, no todas las crisis representan la misma gravedad. El choque es ahora más profundo incluso que el descubrimiento de las geometrías no-euclídeas. Éste alejó a la matemática de las ciencias empíricas asimilándola a la lógica; pero mientras se mantuviera la demarcación logicista entre ciencias empíricas y ciencias formales, no había unificación de la noción de inteligencia y de la estructura del saber. El Teorema de Gödel cuestiona esta demarcación en términos "concipientes", y ello nos lleva a un planteamiento radical de qué es inteligencia.

Por todo lo dicho, creemos que puede confirmarse nuestra hipótesis: los problemas filosóficos de la intelección sentiente y de la ‘formalidad’ de la realidad se forjan, al menos en parte, ante la necesidad de fundamentar la matemática y de interpretar los resultados del teorema de Gödel. Este horizonte es determinante para "engendrar" su primera concepción de estos problemas concretos; los desarrollos ulteriores deben, en muchos aspectos, más a las sugerencias de la biología, de la física y de otras ciencias.

En concordancia con Gödel, Zubiri elabora su filosofía de la realidad, entendiendo la realidad de un modo que viene determinado, sin duda, por sus resultados matemáticos. Es la etapa metafísica. Dejamos para más adelante el realismo de la matemática, basta decir ahora que rechaza la reducción de la matemática a la lógica. La influencia de Gödel en este giro zubiriano del objetivismo al realismo matemático se justifica también por el análisis comparado de los datos cronológicos respectivos.

“La insuficiencia de la lógica para aprehender la realidad matemática es resultado fundamental del teorema de Gödel, que, además de una nueva filosofía matemática, sugiere una nueva valoración del conocimiento y de la intelección en general”.

La logificación de la matemática y la idealidad-objetividad de su objeto han sido los dos errores de la tradición formalista y logicista de la matemática (y del primer Zubiri), y el choque con los resultados de Gödel nos llevan a "inteligización" de la lógica matemática y a la reificación de su objeto (filosofía del segundo Zubiri).

Zubiri interpreta toda la tradición filosófica europea haciendo uso de la misma clave que ha experimentado en el campo de la matemática: la logificación de la intelección matemática (la lógica funda la matemática) y la entificación de la realidad matemática (el objeto de la matemática es un ser ideal) se han estrellado, dejando al matemático y al filósofo cuestionándose el problema mismo de la inteligencia. Generalizando, nos dice Zubiri que la vía emprendida desde los griegos es la logificación de la intelección y respectivamente la entificación de la realidad.

Revolución filosófica

La revolución matemática nos conduce, en gran parte, a la revolución filosófica. La filosofía de Zubiri supone una inversión en el orden de la fundamentación de la tradición: el logos no funda la inteligencia, ni el ser funda la realidad sino, por el contrario, es la inteligencia quien funda el logos y la realidad quien funda el ser. Es lo que denominamos la revolución zubiriana, que es, en gran medida, la extensión filosófica de la revolución gödeliana y tiene justo el signo inverso a la que se opera en Kant bajo la denominación de "revolución copernicana". El principio último del conocimiento es la realidad. Como veremos, se trata de un realismo trascendental.

"No se puede entificar la realidad, sino que por el contrario hay que reificar el ser... No se puede logificar la intelección, sino justamente al revés: hay que inteligizar el logos." Esta es la idea central de todo el pensamiento de Zubiri y vemos el sorprendente isomorfismo entre la intelección matemática y la intelección en general.

La hipótesis de trabajo de Guillermina Díaz es que Zubiri se dirige a la matemática contemporánea para que le sugiera una visión más profunda de la inteligencia. Y este es el gran problema de la filosofía: "El problema de la filosofía no es sino el problema mismo de la inteligencia". Así pues, la matemática gödeliana es un presupuesto ineludible de la Filosofía de la realidad y de la "noología" de Zubiri.

La suma total de todas las totalidades/partes, no es una totalidad en si misma

Pero hacia arriba, también todo esta compuesto de “tortugas”. Las paradojas y los teoremas enunciados y comentados, han colocado a las matemáticas en un universo irreversible, eternamente en expansión y sin límite superior. A eso conduce precisamente la conclusión del lógico-matemático austriaco, naturalizado norteamericano, e íntimo de Einstein.

La totalidad de los conjuntos no puede ser el final de un proceso generativo bien definido, porque si lo fuera, podríamos tomar todo lo generado hasta entonces como un gran conjunto y continuar generando universos aun mayores. La totalidad de los conjuntos u holones matemáticos es una totalidad absoluta o “no condicionada”, que por esa razón no puede ser entendida adecuadamente por la mente, ya que el objeto de una concepción normal siempre puede ser incorporado a una totalidad más inclusiva. Recuérdese que el mundo de las ideas platónico no tenía dimensiones.

Además, los conjuntos están dispuestos en una jerarquía transfinita lo que significa una holarquía que continua hacia arriba por siempre, y debe continuar hacia arriba para siempre, “transfinitamente” porque en caso contrario las matemáticas llegarían a una contradicción que las haría detenerse. Incluso el mundo matemático observa una dirección temporal y su flecha temporal es indefinidamente, transfinitamente holárquica.

Estos conceptos son importantes también para la filosofía y en particular para muchos de los paradigmas de la comercial, camelística y socio- conformista New Age, que actualmente proclama el holismo sin saber muy bien lo que dice. Transfinito, significa que la suma total de las totalidades/partes en el universo no es una totalidad en sí misma, porque en el momento en que lo fuera esa totalidad sería una parte de la del momento siguiente que a su vez es solo una parte de la siguiente y así ad infinitum.

Siempre habrá una totalidad/parte más inclusiva hasta llegar al límite, que por cierto nadie sabe donde se halla y que algunos sitúan con evidente pretensión metafísica fuera del universo/universos de los que hemos hablado, y por ende del tiempo y el espacio. Sin entrar a elucidar una cuestión tan complicada, reunidas las flechas del tiempo como ya hemos visto, creo que cometeríamos un grave error si estableciésemos para ella una dirección –en cálculo vectorial, trayectoria- que fuese lineal. Nosotros la intuimos mas como una espiral –dinámica espiral- a modo de solenoide circular de manera que el llamado infinito hacia arriba y el infinito hacia abajo convergen en un único infinito –en realidad infinitos puntos- de un círculo, eso si infinito, donde cada retorno –eterno retorno nietzscheano- se represente por las vueltas de la espiral.

Contra la totalidad y el totalitarismo

Abordamos ahora una cuestión esencial: el totalitarismo desde el ecologismo. Evitar una totalidad dominante y globalitária es importante ante la aparición de un concepto muy peligroso y muy bién enmascarado, sobre todo por la tentación permanente de utilizarlo con fines ideológicos, lo que quiere decir que alguien puede querer convertirnos en meras partes de la versión particular de su “todo” y en meros hilos de su red a la vez que quedemos totalmente sometidos a su visión y poder.

A estos holístas, les gusta ingeniar utopías sociales y en este sentido nos preocupan sobre todo los ecologistas profundos y determinados ecofilósofos rechazan la industrialización y buena parte de la agricultura y muchos aspectos positivos que conlleva el progreso tecnocientífico. Si tienen razón o no es discutible, pero creo que al pretender abarcar el todo, rechazan gran parte de la existencia y de la propia evolución.

En otras palabras, como no hay nada a lo que se pueda llamar totalidad última, quienes la proponen han de proporcionarle un contenido que, al no poderse basar en la realidad, tiene que sustentarse en una determinada ideología. Y si como antes decíamos somos hebras de su “supuestamente maravillosa” red, parece sumamente razonable que nos propongan -por no decir impongan-, un programa social totalizador. No esta por demás indicar, que teóricos tan opuestos como Habermas o Foucault, han visto en estos programas totalizadores el principal enemigo moderno del mundo de la vida y la libertad.

Por todas estas razones rechazamos, el concepto de la totalidad y entendemos que el concepto de todo -que es suma de totalidades/partes, y no es en sí mismo una totalidad, ya que automáticamente nuestro propio pensamiento añade siempre un holón más, y así indefinidamente- es un imposible porque nunca hay un todo, sino una serie sin fin de totalidades/partes y así transfinitamente.

La vuelta al Kósmos griego

Los pitagóricos introdujeron el término Kósmos, que habitual e irreflexivamente traducimos como cosmos, para significar la naturaleza estructurada o proceso de todos los dominios de la existencia, desde la materia hasta las matemáticas o hasta las divinidades. No para describir el universo físico, que es su plana y unidimensional acepción actual, el cosmos con “c” y con minúscula.

Nos gustaría volver a introducir este término Kosmos. Él contiene al cosmos -o fisiosfera-, al bios -o biosfera-, y al nous -o noosfera-, donde ninguno de estos niveles es más fundamental que los demás, sino pura armonía de ascenso y descenso, por un mismo sendero, en equilibrio perfecto.

Podemos resumirlo así: el Kosmos esta compuesto de holones, de arriba abajo y de abajo a arriba, transfinitamente, circularmente.

La filosofía post-moderna o trans-moderna es anti-totalitaria y anti-globalitaria. Es abierta.

Nos parece pertinente proponer un ejemplo que tiene un origen tal vez provocador y sorprendente. Del post-estructuralismo postmoderno, grupo al que se suelen asociar nombres como Derrida, Foucault, Lyotard y, retrocediendo hacia el pasado, autores como Bataille y Nietzsche, que han sido enemigos de cualquier tipo de teoría sistemática o gran narrativa, podía esperarse que elevasen obstinadas objeciones a la teoría general holárquica. Pero si examinamos muy de cerca su trabajo, vemos que está sutilmente dirigido precisamente por el concepto de holones dentro de otros holones, etc.; o de textos dentro de textos, o de contextos dentro de otros contextos, y así sucesivamente. Y es este juego deslizante de textos dentro de textos, es el que constituye la “plataforma móvil” desde la que lanzan sus ataques.

Consideremos un texto de George Bataille: “cada elemento aislable del universo aparece siempre como una partícula que puede entrar en la composición de un todo que la trasciende. El ser se encuentra únicamente en la forma de totalidad compuesta de partículas cuya autonomía relativa se mantiene. Estos dos principios -simultáneamente totalidad y parcialidad- dominan la incierta presencia de un ser ipse, que desde la distancia nunca deja de ponerlo todo en cuestión” (La cita viene tomada del artículo Lo Sagrado en Vision of Excess. Selected Writing, 1927-1939).

Todo es puesto en cuestión, porque todo es un contexto dentro de otro contexto, eternamente. Y los post-estructuralistas posmodernos son conocidos por ponerlo todo en cuestión.

Otra cita del mismo autor y artículo:“con el miedo extremo que se convierte imperativamente en una demanda de universalidad, arrastrado hasta el vértigo por el movimiento que lo compone, el ser ipse, que se presenta como universal es sólo un desafío a la difusa inmensidad que escapa de su precaria violencia, la negación trágica de todo lo que no es su propia fortuna de fantasma desconcertado. Pero como hombre, este ser cae en los meandros del conocimiento de los demás humanos que absorben su sustancia para reducirla a un componente que va más allá de la violenta locura de su autonomía en la noche total del mundo”.

La cuestión no es que Bataille no tuviera ningún tipo de sistema, sino que éste era deslizante: holones dentro de holones. André Bretón, importante líder de los surrealistas de aquel momento, lanzó un contraataque en términos que aún resuenan en los críticos modernos de la postmodernidad: “la desgracia del señor Bataille es la siguiente: razona abiertamente como alguien que tiene una mosca parada en la nariz, lo que le asemeja más a los muertos que a los vivos, pero aun razona; intenta compartir sus obsesiones con la ayuda del pequeño mecanismo que todavía no tiene completamente estropeado: este mismo suceso prueba que, diga lo que diga, no puede oponerse a cualquier sistema como si fuera una bestia sin pensamiento”.

Sistema holárquico

En ciertos sentidos, ambos aspectos son correctos. Hay un sistema, pero este sistema se desliza. No tiene fin, es “mareantemente holárquico”. En su obra “Sobre la deconstruccion”, el pensador americano Jonathan Culler, uno de los mejores intérpretes de sistema deconstuctivo de Jacques Derrida, utiliza esta idea y le permite señalar que el filósofo francés no niega la verdad per se sino que insiste en que esta y el significado, están ligados a un contexto -a riesgo de ser pesados, recordamos que cada contexto es un todo que a su vez es parte de otro, que a su vez...

Culler afirma: “uno podría, por tanto, identificar la deconstruccion con los principios gemelos de la determinación contextual del significado y la infinita extensibilidad del contexto”.

La obra de Jacques Derrida es amplia y destacaríamos de él, obras como “La escritura y la diferencia”, “La diseminación”, “De la gramatología”, “Posiciones”, “La tarjeta postal” y más recientemente, “Espectros en Marx” y “Políticas de amistad”.

En la filosofía de Derrida se utiliza un método llamado deconstruccion. Mediante él, se inicia una investigación fundamental sobre el carácter de la tradición metafísica occidental y sus fundamentos. A simple vista, los resultados de dicha investigación parecen revelar una tradición llena de aporías lógicas y paradojas. Un buen ejemplo es el que a continuación enunciamos, aplicado a la filosofía de Rousseau.

Rousseau afirma, en cierto momento, que sólo debería escucharse la voz de la naturaleza. Esta naturaleza constituye una plenitud a la que no puede añadirse o sustraerse nada. Pero nos advierte del hecho que la naturaleza a veces tiene carencias, como ocurre cuando una madre no tiene suficiente leche para nutrir el niño que amamanta. Estas carencias pueden considerarse algo bastante corriente en la naturaleza, y constituyen una de sus características más significativas.

De modo que, a juicio de Rousseau, la naturaleza también tiene carencias, nos dice Derrida en su “De la Gramatología”. La carencia pone en peligro esa autosuficiencia, es decir, la identidad, o como prefiere decir Derrida, la autopresencia de la propia naturaleza. Esta sólo puede preservar su autosuficiencia si se cubre esa carencia. Sin embargo, de acuerdo con la lógica de la identidad, si la naturaleza requiere un complemento no puede ser autosuficiente -idéntica a sí misma-, porque carencia y autosuficiencia son opuestas.

El no-origen

La base de una identidad puede consistir en una u otra, pero no en ambas, si es que se quiere evitar una contradicción. Este ejemplo no es una excepción. La impureza de esta identidad o la destrucción de la autopresencia, son realmente inevitables. Porque en términos generales, en cualquier orden aparentemente sencillo, existe como condición de posibilidad, un no-origen. Los seres humanos necesitan la mediación de la conciencia o el espejo del lenguaje para conocerse a sí mismos y conocer el mundo.

Pero esa mediación del espejo, esas impurezas, tienen que quedar excluidas del proceso de conocimiento; lo hacen posible, pero no están incluidas en él. O, si la están, como en la filosofía de los fenomenólogos, pasan a equivaler, también ellas -conciencia, subjetividad, lenguaje- a una especie de presencia idéntica a sí misma.

El propósito de la deconstruccion no es solo demostrar que las leyes del pensamiento, desde el punto de vista filosófico presentan carencias. Más bién, la tendencia que se observa en la obra de Derrida es la preocupación por producir efectos, abrir el campo filosófico para que pueda seguir siendo él, el espacio de la creatividad y la invención.

Bien, tortugas todo el recorrido hacia arriba y hacia abajo. Lo que la decontrucción cuestiona es la de encontrar un lugar último de descanso, ya sea en la totalidad, en la parcialidad o en cualquier lugar intermedio. Cada vez que alguien encuentra la interpretación final o fundamental de un texto -o de la vida, de la historia o del kósmos- siempre esta a mano la deconstruccion para decir que el contexto total - o interpretación holística - no existe porque es parte de otro texto, infinitamente, para siempre. Culler lo expresa así: “el contexto total (holismo definitivo) es imposible de denominar tanto como principio como en la práctica. El significado esta ligado al contexto, pero este es ilimitado”. Tortugas transfinitas, diríamos nosotros.

En su obra, El discurso filosófico de la modernidad, Jürgen Habermas, que generalmente discrepa con las posiciones de Bataille y Derrida, está, sin embargo de acuerdo con ellos en un punto muy concreto.

Él lo expresa así: “por principio estas variaciones de contexto que cambian el significado no pueden ser detenidas porque los contextos no pueden ser agotados, es decir, no pueden ser determinados teóricamente de una vez por todas”.

El hecho de que el contexto se deslice, no significa que no se puedan establecer significados, que la verdad no exista, o que los contextos no se vayan a mantener el tiempo suficiente como para ser capaces de demostrar ni un solo punto. Muchos post-estructuralistas post-modernos no solo han descubierto el espacio holónico, sino que se han perdido en él.

En cuanto a nuestro viaje, solo debemos señalar que si hay sistema pero que es deslizante: el Kósmos es un Todo sin fin y el Todo esta compuesto por holones.
Javier Del Arco
Lunes, 15 de Mayo 2006
Facebook Twitter LinkedIn Google Meneame Viadeo Pinterest

22votos

El Tesoro de la alfombra mágica

La realidad no esta compuesta de cosas o de procesos, ni de átomos ni de quarks. No está compuesta de totalidades ni tampoco de partes. Más bien esta compuesta de totalidades/partes, es decir, de holones. Arthur Koestler acuño el término holón para referirse a aquello que, siendo una totalidad en un contexto, es simultáneamente una parte en otro contexto.



Ken Wilber
Ken Wilber
Va a hacer diez años que llevo dándole vueltas a un sistema cuya paternidad no es del todo mía, ya que en puridad su gestador es el sabio –no encuentro otro término más preciso para definirlo- norteamericano Ken Wilber, cuya propuesta más acabada se remonta a 1995, cuando apareció plasmada en el volumen I de la obra Sex, ecology, spirituality: the sprit of evolution, dividida a su vez en dos libros.

A este primer volumen deberían haberle seguido otros dos pero, pese a que después se han publicado varias obras de éste autor, ninguna ha alcanzado la relevancia de lo que debería haber sido su opus magnum, esa es la verdad.

La obra de Wilber es de difícil recepción para el público académico europeo y, para ser presentada a éste, necesita una formalización, una criba y cierta actualización y reformulación ya que resulta excesivamente heterodoxo, a veces muy dogmático y poco riguroso, y no siempre bebe en las fuentes más puras y originarias de los autores que comenta; esto ocurre nada menos con Platón en filosofía y con la Teoría de la Evolución en biología que son interpretados tan libérrimamente que ciertas afirmaciones –contracciones conceptuales, trazos inacabados, piruetas filosóficas, simplificaciones excesivas…- inducen a confusión.

Sin embargo negar la influencia decisiva de Wilber en el trasfondo de mi obra contendría por mi parte un doble pecado: el de la estupidez y el del desagradecimiento, ambos, sobre todo el primero, imperdonables. En este blog de Biofilosofía pretendo rescatar lo mejor del Wilber menos esotérico y más riguroso y, a partir de unas ideas centrales, construir una teoría maciza y aceptable que de una cierta respuesta a algunas de las cuestiones centrales que hoy afectan gravemente a nuestra Tierra Patria como diría Edgar Morin.

Holones y contexto

Realizada esta aclaración, enlacemos con el articulo anterior, aún a riesgo de repetirnos –no me preocupa nada repetirme en filosofía si consigo apuntalar bien un concepto subordinando la elegancia a la eficacia comprensiva- y volvamos con la cuestión de la jerarquía.

¿Qué significa realmente la palabra jerarquía? Procede del griego por unión de los términos hierós y archo. Hierós, el prefijo, significa sagrado, separado; archo, el sufijo, se refiere al gobierno o autoridad. El poder religioso y el político estuvieron unidos siempre en la historia del llamado “creciente fértil” y esta característica impregnó, primero a los griegos -tras la expansión alejandrina- y luego a los romanos, después de sus conquistas orientales.

El cristianismo fue, de entre todas las religiones mistéricas que florecían en el siglo IV, la única que perduró -asociada al poder tras Constantino I- hasta nuestros días. Por esa vía se produjo el entrelazamiento entre lo religioso y lo político, de modo que la gestión de la cosa pública quedó situada en Occidente –hasta bien entrado el siglo XVIII- en la esfera del hierós, de lo sagrado, de lo separado que se solapaba con la esfera del archo, el gobierno, la autoridad.

La jerarquía quedaba, en la macroesfera de lo social, desvirtuada y desprestigiada por la asociación del poder y la religión que otorgaba al gobernante poderes absolutos, por lo tanto tiránicos y, por ende, se generaba una corrupción absoluta propia de todo régimen totalitario. Martineau señalaba lúcidamente en 1851 que “un planteamiento jerárquico podía degenerar fácilmente en otro despótico”.

Estas cuestiones relacionadas con la tiranía, la opresión y la muerte, que parecían haberse solucionado parcialmente en Occidente tras la II Guerra Mundial y, sobre todo tras la caída del Muro de Berlín, subsisten en la mayor parte del Mundo con la excepción de la Unión Europea de los veinticinco, alguno de sus países limítrofes como Suiza o Noruega, ciertos países de la Commonwhealt –especialmente Canadá, Australia y Nueva Zelanda- y con alguna reserva los Estados Unidos y, de manera intermitente e incompleta, algunos países Iberoamericanos.

Jerarquía y religión

Pero el término jerarquía, tal y como se emplea hoy en día en el ámbito de las ciencias, sobre todo en psicología, biología evolucionista y teoría de sistemas, nada tiene que ver con la religión ni con la política y mucho menos con sus espurios ayuntamientos. Una jerarquía, expresada en términos científicos, es una escala de órdenes de sucesos de acuerdo a su capacidad holística.

En cualquier secuencia de desarrollos, lo que es totalidad en un estadío se hace parte de un todo mayor en el estadío siguiente. Una letra es parte de una palabra completa, que es parte de una frase completa, que es a su vez parte de un párrafo completo, y así sucesivamente.

En el caso de las ciencias biológicas Howard Gardner, en su obra Quest for mind, lo explica del siguiente modo:

Cualquier cambio en un organismo afectará a todas las partes; no se puede alterar ningún aspecto de una cierta estructura sin que afecte a su totalidad; cada totalidad contiene partes y es a su vez parte de una totalidad mayor.

Para el lenguaje Roman Jakobson establece lo siguiente: El fonema es una combinación de rasgos distintivos; esta compuesto por diversas unidades indicadoras y puede ser incorporado a unidades más amplias como sílabas o palabras. Es simultáneamente un todo compuesto de partes que se incluye en totalidades más amplias.

Parte de un todo

Arthur Koestler acuño el término holón para referirse a aquello que, siendo una totalidad en un contexto, es simultáneamente una parte en otro contexto. Si consideramos la frase “el relinchar de los caballos”, la palabra relinchar es una totalidad en relación a cada una de sus letras consideradas individualmente consideradas, pero una parte en relación con la frase que la contiene.

El todo –o contexto- puede determinar el significado o función de la parte. Veamos un ejemplo muy claro: el significado de una palabra, Vg., banco, es muy diferente en el contexto “en el jardín ese es mi banco” que en este otro contexto: “hice la transferencia desde mi banco”. Consecuentemente, la totalidad es más que la suma de sus partes y esa totalidad puede influir y determinar en muchos casos la función de estas.

Una jerarquía cualquiera, está formada por un orden de holones creciente que representan un aumento de totalidad y capacidad integradora: la serie átomos, moléculas, células…constituye un ejemplo de jerarquía natural; la jerarquía es un concepto central en la teoría de sistemas.

Ser parte de un todo mayor significa que ese todo proporciona algún principio –como el pegamento que antes aludíamos- que no se encuentra en las partes aisladas, y ese principio permite varias cosas: que las partes se unan, se conecten, posean propiedades comunes y emerjan nuevas cualidades ausentes en las partes.

La jerarquía, vista así, es un factor que da sentido ya que convierte las acumulaciones en totalidades y los fragmentos inconexos en redes de interconexión. Cuando decimos que el todo es mayor que la suma de sus partes, este “mayor” significa jerarquía.

No significa dominación totalitaria: significa una más alta o más profunda comunidad –y esta es una de las justificaciones del comunitarismo de McYntire aunque él no lo haya expresado así- que reúne las hebras aisladas en una red real.

Jerarquía y totalidad son términos contiguos. Para las ciencias biológicas, Gardner dice: Un organismo biológico es visto como una totalidad cuyas partes están integradas en un todo jerárquico.

Para la lengua, Jakobson manifiesta que ésta es: Simultáneamente una totalidad compuesta de partes y ella misma una parte incluida en un todo mayor.

Para inmediatamente concluir: Jerarquía, entonces, es el principio estructural fundamental.

Figuras dentro de figuras

También es la razón por la que las jerarquías se representan a menudo como una serie de círculos concéntricos, o esferas también concéntricas, o bien “figuras dentro de figuras”. El esquema general de niveles no debe ser contemplado como una serie de estratos geológicos o como si se tratase de los peldaños de una escalera.
Complejas interrelaciones

Estas imágenes no hacen justicia a las complejas interrelaciones existentes en el mundo real, que son mucho más parecidas a las halladas en un juego de cajas chinas o en una serie de esferas concéntricas, ya que un nivel dado puede contener otros niveles dentro de él.

Tampoco las jerarquías son lineales. Los estadíos del crecimiento no son casuales ni aleatorios, sino que se rigen por algún tipo de pauta, que no es ni lineal, ni rígida, ni unidireccional. Estos procesos son interdependientes y complejamente interactivos. Los términos “nivel”, “escala” o “estrato” son meras metáforas.

La jerarquía es asimétrica porque los procesos no ocurren a la inversa. Las bellotas crecen hasta convertirse en encinas pero no al revés; el cigoto humano se desarrolla hasta convertirse en un nasciturus pero el conjunto ya formado y a punto de ser alumbrado, no puede iniciar el recorrido inverso que le devuelva al estado de cigoto.

En lingüística primero hay letras, luego palabras, después frases, pero no al revés Y este “no al revés” constituye una inevitable jerarquía, categoría u orden asimétrico de totalidades crecientes. Todas las secuencias del desarrollo evolutivo proceden por jerarquización, tanto a nivel orgánico como si retrata del desarrollo cognitivo.

En este último, observamos que la conciencia se desarrolla desde imágenes simples que representan un día o un suceso, hasta símbolos y conceptos que representan grupos enteros o clases de cosas y sucesos, hasta postular leyes que integran y organizan numerosas clases y grupos de cosas en redes complejas.

En el desarrollo moral encontramos un razonamiento que va desde el sujeto aislado hasta el grupo o tribu de sujetos relacionados, y después hasta toda una red de grupos más allá de cualquier elemento aislado.

Redes jerárquicas

Estas redes jerárquicas se despliegan necesariamente de manera secuencial o por niveles. Primero son los átomos, luego las moléculas, para después aparecer las células, y después órganos, los tejidos, los sistemas y, con posterioridad, los organismos complejos. La aparición de estas redes no es simultánea. El crecimiento tiene lugar por etapas, y estas están escalonadas en orden lógico y cronológico.

Las estructuras más holísticas o relacionales aparecen en una fase posterior del desarrollo porque han de esperar la emergencia de las partes capaces de integrar o unificar, de la misma forma que las frases completas sólo surgen después de que lo han hecho las palabras completas.

Algunas jerarquías implican un tipo de red o redes de control. Veamos: los niveles inferiores –niveles menos holísticos-, pueden influenciar a los niveles superiores –o más holísticos-, a través de un proceso llamado “causación ascendente”.

Pero los niveles superiores, asimismo, pueden influir y de hecho controlar a los inferiores, la llamada “causación descendente”. Ejemplo: si decidimos mover el brazo, todos sus átomos, moléculas y células se moverán con él; este es un caso de causación descendente.

Heterarquía

Los elementos de un determinado nivel, situado en un contexto jerárquico, operan por heterarquía, es decir que en ese nivel ninguno de esos elementos parece ser más importante y, cada uno contribuye de manera más o menos equivalente al buen funcionamiento de la totalidad del nivel (el llamado “bootstrapping”).

Una totalidad de orden superior T1 del que otra totalidad T2 sea una parte, puede ejercer una influencia definitiva sobre cada uno de sus componentes. Ejemplo: Cuando decidimos mover un brazo, nuestro cerebro/mente, una organización relacional u holística de orden superior, ejerce su influencia sobre las células de dicho brazo que son totalidades de orden menor, pero no al revés: una célula de un brazo no puede decidir por si sola mover el brazo, de la misma manera que la cola no mueve al perro. De lo dicho se deduce: dentro de cada nivel, heterarquía; entre niveles, jerarquía.

En cualquier secuencia de desarrollo o crecimiento, a medida que surge un estadío u holón más amplio, este incluye las capacidades, patrones y mecanismos de funcionamiento de los holones situados en niveles inferiores. Entonces, en ese nuevo nivel, se producen nuevas propiedades que lo amplifican.

En este sentido y, recalcamos, sólo en ese sentido, se puede decir que el nuevo holón es bien más elevado o bien más profundo. Altitud y profundidad implican la dimensión vertical de integración que no se encuentra en una nueva expansión horizontal. Los organismos incluyen células, que incluyen moléculas, que incluyen átomos, pero no al revés.

Así, cualquiera que sea la importancia del valor del estadío previo, el nuevo estadío lo tiene incorporado en su propia formación, y además tiene “algo más” –más capacidad de integración, por ejemplo-, y “ese algo más” significa más valor en relación al estadío previo. Sería Aristóteles quien habría introducido estas nociones en Occidente, mientras que en Oriente lo habrían hecho Shankara y Lao Tse.

Por todo ello, Koestler, después de darse cuenta de que todas las jerarquías están compuestas de holones o grados crecientes de totalidad, señaló que tras todas estas consideraciones, el término científico más correcto para designar una jerarquía natural o social no sometida a patología alguna, es el de holarquía.

La teoría holónica y los principios de conectividad

A continuación vamos a sistematizar en un conjunto de conclusiones o principios básicos lo que podríamos llamar las “pautas de la existencia”, “tendencias de la evolución”, “leyes de la forma” o “propensiones de manifestación”. Estos principios básicos operan en los tres dominios de la evolución y por lo tanto, son tendencias que hacen que este universo -uni-versum, una vez-, o lo que es lo mismo, un pluralismo emergente entrelazado todo él por patrones comunes que denominaremos a partir de ahora leyes de conexión o mejor aún, patrones de conectividad.

Hemos dudado mucho en utilizar el término ley, patrón o hábito estable del universo. Para los alcances de lo que ahora vamos a examinar, nos conformamos con que sea esto último. Utilizaremos el término principio, que nos parece menos altisonante, y comenzaremos por decir que los que vienen a continuación, están extraídos de las ciencias evolutivas y sistémicas modernas, pero haciendo hincapié en que no que no se limitan a dichas ciencias y que van más allá de ellas.

Inicialmente, el problema con que nos encontraremos para destacar los principios comunes existentes en los tres dominios de la evolución, proviene de que estos se presentan en el lenguaje del naturalismo objetivo -el lenguaje de “ello”, el neutro en tercera persona-, y fracasan estrepitosamente cuando son aplicados a los dominios descritos solamente en el lenguaje del “yo” –estética- o del “nosotros” –ética-. Cada uno de los intentos que hemos considerado en orden “a hacer un sistema unificado”, padece de esta minusvalía.

Por lo tanto, siendo muy cuidadosos y a veces pesados y reiterativos, hemos llevado estos principios a un nivel y tipo de abstracción que nos parece compatible con los lenguajes del “ello”, del “yo” y del “nosotros” -o lo verdadero, lo bello y lo bueno, expresión que tomo de Bertrand Rusell ya que, divertido como siempre, decía que lo verdadero era lo suyo, lo bueno era lo de Spinoza y lo bello lo reservaba para Plotino- de forma que la síntesis pueda continuar suavemente hacía dominios en los que, en presentaciones anteriores la teoría de sistemas, se procedía a realizar un agresivo reduccionismo en sus propios términos naturalistas y objetivantes.

Realidad de holones

La realidad no esta compuesta de cosas o de procesos; no esta compuesta ni de átomos ni de quarks; no esta compuesta de totalidades ni tampoco de partes. Más bien esta compuesta de totalidades/partes, es decir, de holones.

Esto es verdad para partículas, átomos, células, individuos, símbolos, ideas,... Todos ellos pueden ser entendidos no como cosas o como procesos, y tampoco como totalidades ni como partes, sino como totalidades/partes, simultáneamente. Así, los intentos habituales de estudio y clasificación tanto si son atomistas como holísticos, están fuera de lugar.

Antes de que un átomo sea un átomo, es conceptualmente un holón y lo mismo ocurre en los siguientes estadíos evolutivos. Todos ellos son totalidades que existen dentro de otras totalidades y de esta forma, en primer lugar y sobre todo, son totalidades/partes mucho antes de que sus “características particulares” puedan ser analizadas por nosotros.

De la misma manera ocurre con la realidad que podría estar compuesta de procesos y no de cosas. El intento de decidir si las unidades básicas de la realidad son cosas o procesos están fuera de lugar, porque sea como fuere, son holones y centrarnos en uno u otro de estos aspectos hace que nos desviemos del tema central. Evidentemente, existen cosas y procesos pero todos y cada uno de ellos son holones.

Por tanto, podemos examinar lo que los holones tienen de común entre sí. Esto nos libera del vano intento de encontrar procesos o entidades comunes en cada nivel y en cada dominio de la existencia, porque ese análisis nunca dará resultado: siempre lleva al reduccionismo y no a una verdadera síntesis.

Si decimos que el universo está compuesto de quarks, privilegiamos a un dominio en particular. Igualmente, en otro extremo del espectro, decir que el universo está compuesto de símbolos por es todo lo que conocemos, también supone privilegiar a otro dominio concreto.

Hasta la literatura

Pero decir que el universo está compuesto de holones no privilegia ningún dominio, ni implica que un nivel específico sea más fundamental. Por ejemplo la literatura -que no la letra escrita en un papel en cuanto tinta conformada- no está compuesta de partículas subatómicas; pero tanto la literatura como las partículas subatómicas están compuesta por holones.

Empezando con la noción de holón y procediendo por medio de una combinación de razonamientos a priori y de pruebas a posteriori, podemos intentar discernir lo que todos los holones conocidos parecen tener en común.

Estas conclusiones se van refinando y revisando al examinar cada uno de los dominios, desde la biología celular hasta las estructuras físicas disipativas, desde la evolución cósmica hasta el crecimiento psicológico, desde los dominios autopoiéticos hasta la fabricación de programas de ordenador, desde la estructura del lenguaje hasta las réplicas del ADN.

Como todos estos dominios operan con holones, podemos intentar discernir lo que estos holones tienen en común cuando interactúan, cuales son sus leyes, hábitos o tendencias. Vamos pues a ello en las próximas notas.
Javier Del Arco
Miércoles, 26 de Abril 2006
Facebook Twitter LinkedIn Google Meneame Viadeo Pinterest

1 2 3 4 5


Editado por
Javier Del Arco
Ardiel Martinez
Javier del Arco Carabias es Dr. en Filosofía y Licenciado en Ciencias Biológicas. Ha sido profesor extraordinario en la ETSIT de la UPM en los Masteres de Inteligencia Ambiental y también en el de Accesibilidad y diseño para todos. Ha publicado más de doscientos artículos en revistas especializadas sobre Filosofía de la Ciencia y la Tecnología con especial énfasis en la rama de la tecno-ética que estudia la relación entre las TIC y los Colectivos vulnerables.






RSS ATOM RSS comment PODCAST Mobile

Noticias de Filosofía