Herramientas personales
En la EC encontrarás artículos autorizados
sobre la fe católica
Jueves, 28 de marzo de 2024

Diferencia entre revisiones de «La constante universal de la Ecología»

De Enciclopedia Católica

Saltar a: navegación, buscar
(GEOMETRÍA Y ECOLOGÍA)
(GEOMETRÍA Y ECOLOGÍA)
Línea 708: Línea 708:
  
 
[[Archivo:Trenza.jpg|700px|thumb|center|]]
 
[[Archivo:Trenza.jpg|700px|thumb|center|]]
 
 
 
 
 
 
 
 
 
 
  
  
Línea 733: Línea 723:
 
Por ejemplo, todos creemos, al inicio de nuestros esfuerzos para entender la geometría, que para pasar de tres dimensiones a más, lo lógico es intentar imaginar un híper-cubo de cuatro dimensiones (4d) -en el que las caras de los cubos sean cubos, así como las caras de un cubo normal (3d) son planos (2d)- y es que es verdad que así debe ser. Las dificultades reales son que para entender el espacio-tiempo (4d) las dimensiones no son del mismo tipo –espaciales- sino que la cuarta dimensión –el tiempo- es de otro tipo. En matemáticas, esto se abrevia diciendo que la 4ª coordenada es contra-variante -mientras que las 1ª, 2ª y 3ª se denominan co-variantes- y es lo que hace la diferencia. Se dice que la métrica es la que cambia, no el espacio, lo que lo hace más difícil de entender pero posible de abstraer porque al final, lo que se está construyendo es movimiento, pero como si fuera espacio inmóvil.
 
Por ejemplo, todos creemos, al inicio de nuestros esfuerzos para entender la geometría, que para pasar de tres dimensiones a más, lo lógico es intentar imaginar un híper-cubo de cuatro dimensiones (4d) -en el que las caras de los cubos sean cubos, así como las caras de un cubo normal (3d) son planos (2d)- y es que es verdad que así debe ser. Las dificultades reales son que para entender el espacio-tiempo (4d) las dimensiones no son del mismo tipo –espaciales- sino que la cuarta dimensión –el tiempo- es de otro tipo. En matemáticas, esto se abrevia diciendo que la 4ª coordenada es contra-variante -mientras que las 1ª, 2ª y 3ª se denominan co-variantes- y es lo que hace la diferencia. Se dice que la métrica es la que cambia, no el espacio, lo que lo hace más difícil de entender pero posible de abstraer porque al final, lo que se está construyendo es movimiento, pero como si fuera espacio inmóvil.
  
Si todas las coordenadas fueran co-variantes la métrica sería del tipo:
+
[[Archivo:Cuater.jpg|700px|thumb|center|]
d^2=x^2+y^2+z^2+t^2
+
d es la longitud que va del origen de coordenadas al punto (x,y,z,t)
+
 
+
en cambio, si solo x,y,z son co-variantes, pero t la coordenada del tiempo es contra-variante; sería del tipo:
+
d^2=x^2+y^2+z^2+〖ict〗^2
+
d es una métrica compleja. La parte real corresponde al punto de coordenadas (x,y,z) y la compleja a ct
+
  
 
Eso es lo increíble. Los cuaternios de Hamilton proveen a la física de una herramienta matemática que ya es mucho más que geometría: es el movimiento mismo, pero hecho geometría. Polo dice que el movimiento no se mueve, lo que se mueve es el móvil y que Aristóteles lo dijo equívocamente, pero que eso era lo que quería decir cuando habla del motor inmóvil .
 
Eso es lo increíble. Los cuaternios de Hamilton proveen a la física de una herramienta matemática que ya es mucho más que geometría: es el movimiento mismo, pero hecho geometría. Polo dice que el movimiento no se mueve, lo que se mueve es el móvil y que Aristóteles lo dijo equívocamente, pero que eso era lo que quería decir cuando habla del motor inmóvil .

Revisión de 07:12 11 ene 2018

Creacion.jpg

Contenido

Hemos aprendido de Benedicto XVI que la intervención humana en el universo altera la experiencia. Polo opina lo mismo aunque Polo sugiere que Aristóteles quiso decir eso mismo, pero su época no le dio la altura histórica de que las ciencias gozan; justamente debido a Aristóteles (redescubierto entre los siglos VIII y XII d.C.).

La coincidencia que nos orienta mejor, es que Polo propone un método (el abandono del límite mental) que explica por qué ese desarrollo tan exitoso y, a la vez, el fracaso de las ciencias (teorema de indecidibilidad: Gödel) en el S XX (respecto al cual, Benedicto XVI ya no escribió porque superó a sus encuentros ciencia-teología, debido al estancamiento de las ciencias que originó ese mismo fracaso).

Es más, Polo se dedica a estudiar ese fracaso desde lo que llama “presencia mental” -que es el límite de lo mental humano, pero a la vez, lo que le permite vivir como pensante y no como solo un animal más, en el universo material-. Polo afirma que esa presencia es la salvaguarda del alma, lo que la mantiene viva con cuerpo material, que se separará –del cuerpo- después de la muerte.

Esta nueva manera de explicar la vida y la muerte humanas, que se puede leer en muchos de los libros de Polo, la hemos abordado desde lo que es la vida misma: la posesión del fin –dice Polo-. Pero hay que agregar que esa posesión del fin –para el caso humano- puede ocurrir de muchos modos. Los más claros son la vida del cuerpo y la vida pensante.

Creemos que así como Polo profundiza en la vida del cuerpo y con ello se ha podido desarrollar todo un libro -como éste- que describa cómo puede ser esa vida y, además, llegar a descubrir medidas para dominarla -como se viene dominando la técnica de lo físico- pero ahora, sabiendo que ese dominio es limitado y hasta dónde se puede ejercer; es preciso explorar y profundizar en el dominio de lo pensante y que en esto … en esto, estamos en pañales.

No es que haya que pedir con humildad nuevas revelaciones porque eso -ya se sabe- es innecesario, aunque a veces ocurra y ayude a quienes necesitan aquello. Sino que se trata de saber cómo podemos ser pensantes -en un modo de ascenso progresivo- por la escalera de lo pensante para que sirva de provecho espiritual.

No hay duda de que ese aspecto del auto-dominio humano es el más importante y hay que lograrlo con mucho esfuerzo, que es lo propio de la universitas. También creemos que gracias al método poliano, esto ya se viene haciendo y destaca el IEFLP (Instituto de Estudio Filosóficos de Leonardo Polo).

En cambio, hay un espacio del dominio de lo físico-vital como el que se muestra en este libro, al que también se puede llegar gracias a Polo; pero que puede quedar en el olvido (por lo necesario y espiritualmente urgido que está el mundo actual del más deseable desarrollo pensante mencionado más arriba).

Este espacio es deducible -en directo- de las matemáticas polianas, y se intenta mostrar todas sus aristas (aunque esto nunca se podría asegurar, porque el teorema de Gödel lo demuestra), para motivar que los jóvenes de las universidades sigan en la búsqueda del dominio de lo físico-vital; pues vienen días en que se podrían sentir extraviados y sin brújula que los oriente, debido a lo indecidible que puede llegar a ser la técnica si no se dispone de información como esta. Para ellos es este libro. En el encontrarán la mejor explicación de esa maravilla que es la ciencia, y dónde leer más. Que hay que aprender que solo entendiendo y profundizando en el estudio del Creador, se llega a entender correctamente su creación.  

La constante universal de la Ecología

PRIMERA PARTE

Capítulo 1.- Presentación

Antecedentes

El autor ha escrito un libro llamado “La Constante Universal de la Economía” el año 2013, re-editado el año 2014; y antes, también realizó otra investigación: “Teoría para evaluar la Constante Característica de los Sistemas Informáticos” que ganó el premio anual de investigación – 1995, de la PUCP , categoría docentes (era la primera vez que se otorgaba este premio por dicha Institución), donde había cursado sus estudios de pre-grado y fue docente, llegando a jefe de Ing. Industrial en 1981. Antes había sido jefe del Área de Producción en Ing. Mecánica (1978), por haber egresado también de dicha especialidad en 1975. De aquí su permanente interés y actualización en temas técnicos, lo que no obsta para que haya cursado una especialización en Filosofía Moral en Chile y el Programa Doctoral en Filosofía de la Acción Directiva (IESE - UNAV) 1992-93

Desde que entró a la PUCP (a los 16 años, en 1970), ya mostraba su interés por los números, en los negocios -o en el área que se apliquen y como se apliquen- pues, pensaba … los números son números y no se equivocó .

La constante es una repetición de lo mismo para diversos contextos de la vida humana, que aunque no lo es, en parte sí lo es (como los números). Insistir en ello tiene una razón de fondo que creemos que puede servir a lo que pretenden los premios Razón Abierta de la Universidad Francisco de Vitoria. La constante es fruto de los desarrollos científicos de los siglos anteriores a su descubrimiento para la física por Max Planck, a quien A. Einstein elogiara del siguiente modo: “En el templo de la ciencia hay muchos tabernáculos y muy distintos entre sí son por cierto quienes a ellos acuden acuciados por motivos bien diversos. Muchos obtienen de la ciencia un gozoso sentimiento de poderío y superioridad intelectual; la ciencia es su deporte favorito y en ella buscan experiencias vívidas y la satisfacción de sus ambiciones. En ese mismo templo, habrá otros que ofrecerán los productos de sus cerebros para sacrificarlos con propósitos utilitarios. Si un ángel del Señor llegara para arrojar del templo a todos los que pertenecen a esas dos categorías quedarían solo unos pocos hombres tanto del tiempo presente como del pasado. Nuestro homenajeado, Max Planck, sería uno de ellos …” .

El desarrollo para la física de dicha constante se queda corto. Aparte de que tiene coherencia que su aplicación inmediata sea para la física, hay otras serias implicaciones. Una de ellas es para la vida misma. Pero quizá la más difícil de vislumbrar es la de la informática que por esa razón, el autor la aplicó primero. El otro campo de aplicación también difícil de visualizar cómo, es el de la economía; pero las relaciones que existen entre información y transacciones monetarias, cada día más notorias, no lo eran tanto hace unos años.

Sin embargo, el campo más obvio de aplicación: LA VIDA MISMA, es el más difícil de realizar. Y es que los movimientos intrínsecos -como los que la vida lleva consigo- son inmanentes, pero lo más interior a la vida misma es la asimilación de otros cuerpos físicos que tienen sus movimientos propios (intrínsecos, como acabo de decir), y esto es lo que ha mostrado el profesor Leonardo Polo (a quien me referiré a partir de aquí sólo como Polo).

El autor se apoya totalmente en el método del “abandono del límite mental”, como Polo lo llamaba. Tanto así, que si en algún improbable momento histórico, por alguna razón, alguien mostrara que -dicho método- está en desacuerdo con alguna parte de la doctrina católica, es casi seguro que debería estar en desacuerdo con este trabajo.

Para que se entienda mejor, refiero unas conversaciones que tuvo Polo en la Universidad de La Sabana (Bogotá – Colombia en set-1993): “Tengo unas pequeñas páginas sobre esto […] ahí se habla un poco de que el hombre esencializa el universo. El universo tiene una distinción real essentia-esse, pero esa distinción essentia-esse no es una imposibilidad de esencialización del ser en cuanto que ser, sino que la esencialización del acto del ser del universo en cuanto que ser es distinto de él. En cambio, en tanto que el acto de ser del universo es enfocado desde el hombre, en tanto que el hombre lo conoce, entonces ese acto de ser, ese esse es esencializado. El acto de ser en cuanto que acto de ser es esencializado. Lo que el universo no puede hacer, esencializarse a sí mismo, para esencializarse tiene que distinguirse de la esencia, el hombre en cuanto que lo conoce lo esencializa. “Y entonces paralelamente puede decirse: si el ser del hombre es trascendentalmente distinto del ser del universo y en esa trascendentalización es donde está la libertad radical; si el ser del hombre es realmente distinto de la esencia humana, entonces ¿la libertad en qué orden está?; ¿está sólo en el orden de la esencia o, está en el orden del esse humano? Si está en el orden del esse humano, y como el esse humano es la persona humana, si Cristo no tiene persona humana puesto que es Persona divina, pero no se puede hablar de persona humana en Cristo, Cristo entonces no tiene libertad trascendental humana. Tiene una esencia humana, pero sin lo radical del hombre, sin el ser. Si sólo asume la naturaleza, pues entonces no es un hombre completo…. si se le da mucha importancia a la persona humana, –como parece que hace la Teología hoy en día- … Bueno, o como hago yo llevando ese problema al orden trascendental. “Esa luz humana es personal también; es decir, las operaciones humanas pertenecerán a la esencia, pero lo que Aristóteles llama intelecto agente hay que ponerlo como persona. Hay que interpretarlo como persona. Me parece que es la única salida, además no me parece que no sea tomista. Bueno, Tomás dice que es una facultad; y además, una facultad es una potencia activa, a diferencia de la inteligencia que es una potencia pasiva. La solución es muy bonita pero yo creo que no se puede decir que el intelecto agente es una facultad, pues las facultades aunque sean potencias activas, son facultades y el intelecto agente es intellectus ut actus, es del orden del acto” .

Son ejemplos de cómo la fe puede iluminar certeramente la razón humana para aplicar principios que nos superan y sólo pueden ser entendidos si se toma en cuenta lo revelado.

A la meta que iremos poco a poco llegando cabe destacar, desde ahora, que Polo -entre otras conclusiones de importancia trascendental- manifiesta que las ideas platónicas son símbolos de actos [intelectuales] que la experiencia intelectual ilumina desde el vértice de la sindéresis (que él llama ver-yo). Y las noticias son esa iluminación para cuando se trata de símbolos de actos virtuosos (y desde el vértice de querer-yo). E insisto en que creo que ese es el aporte de este documento a lo que pretende Razón Abierta con estos concursos. Más adelante se irá explicando con más detalle esto, al hablar de la razón de ser de las universidades. Esto es una constante en todo el libro pues de ello surge la motivación a escribirlo.

Como se viene afirmando, la dificultad para encontrar la constante de la ecología, reside en la parte alimenticia de la cadena trófica. Es que no se trata sólo de energía (física) que es parte de la alimentación (y es más fácilmente identificable en la física por ello), sino se trata de magnitudes más elaboradas que la energía, con sus propios matices, como es por ejemplo la masa (Kg) del alimento en cuestión. Y, por otro lado pero dentro del mismo tema, está el peso (Kg) del que asimila esa energía.

Algo de orden: cuando en este escrito me refiera a energía, se trata de una entidad -llamada magnitud en física- que se mide (en vatios p.ej.) y con ello, es numérica. No se trata de la energía como acto de pensar o sea, de la práxis teleía a que se refieren normalmente los filósofos como el lector. Se especifica esto, porque puede prestarse a confusión. Se hará especial énfasis en las referencias a los actos de ser, de pensar, etc. (al revés de lo que es común en filosofía). Es de esperar que a más de uno conforte esta precisión.

Aunque todo se puede referir a la masa (algunos incluso creyeron que el alma humana tenía masa), este hecho trae consigo una revisión de casi toda la historia humana. Desde la aparición de los primeros seres vivos sobre la tierra, hasta la comprobación experimental de que la masa se debe al así llamado Bosón de Higgs (año 2013). Por eso mismo, lo que se va a exponer creemos que traerá consigo una explicación más certera de lo que está pasando con la universidad actual. Además, ya Polo había dado charlas y tenido tertulias en diversos países, para comunicar ese punto de vista .

Una visión innovada de la Historia Universitaria

Como ya se advirtió, el hilo conductor de la constante es la historia de la cultura humana. Pero la cultura tiene muchas aristas de todo tipo. Su evolución podría describirse por datación histórica (en años o siglos a.C. o d.C.), por épocas (religiosas o no) y/o de otros variados modos posibles.

Vamos a emplear en el presente libro, para la narración histórico-cultural, el hilo conductor del progreso científico, en su respectivo marco científico-medial, cuando sea necesario. Por ejemplo, se dice que Cristóbal Colón descubrió que la tierra era redonda pero ya Platón lo decía y Eratóstenes (S III a.C.) realizó sus mediciones basado en esa certeza.

Serían preferibles otras formas de hacerlo. Por ejemplo, por encima de todo está, indudablemente; la Creación divina del universo. Los tres Primeros Principios son: el Origen, el universo y la Causalidad Trascendental (que no son los llamados metafísicos, anteriores a Polo, aunque él siempre intentara asimilarlos por su parecido lingüístico -o histórico- por ejemplo): “ … El acto de ser del universo es un primer principio al que llamo persistencia, y al que describo como comienzo que ni cesa ni es seguido. Es el primer principio de no contradicción. Llamo al acto de ser divino Origen: es el primer principio de identidad. La vigencia entre estos dos primeros principios es el tercer primer principio, al que llamo principio de causalidad trascendental (no predicamental). Según él, se advierte la dependencia de la persistencia respecto del Origen .”

Pero creemos que, en parte, es esa la cohibición que llevó a las universidades a retroceder ante lo que iban descubriendo e intentaban profundizar. Polo, al contrario, intentó hacerlo y por eso no llegó a aterrizar lo que vio hasta el nivel, así llamado, de las ciencias (para no caer en el mismo foso). Tuvo que explicar primero muchas cosas –relativas a las artes- que consideró estaban poco firmes en terrenos más importantes y elevados que las ciencias.

Así se entiende que, previamente, Polo advierta sobre la necesidad de apelar al hábito tomista de los primeros principios. Él dice: “ … Ahora expondré sucintamente los cuatro grandes campos temáticos abiertos por el abandono del límite mental . Para advertir la existencia extramental, el límite mental se abandona acudiendo a un acto, que es el hábito de los primeros principios. Desde luego, el hábito de los primeros principios es una noción contenida en la filosofía tomista, que lo considera acertadamente un hábito innato. Sin embargo, hay que añadir, por un lado, que el conocimiento de los primeros principios es habitual y no objetivo; y por otro lado, que el hábito citado es un acto intelectual superior a cualquier operación y, por tanto, una de las dimensiones del abandono del límite mental. Conviene subrayar esta observación, porque la filosofía tradicional no admite la superioridad del conocimiento habitual sobre el objetivo, sino que sostiene que el conocimiento objetivo es más claro que el habitual. Por esta razón, el abandono del límite mental es ajeno al planteamiento tradicional .

Porque Polo se ve exigido a reivindicar históricamente a los clásicos -gracias a su método, del abandono- re-dotando a la filosofía del ser humano con el perfeccionamiento debido a los hábitos. Como él mismo comenta: “A mi modo de ver, la afectividad se parece, siguiendo la terminología clásica, a los hábitos. En sentido propio, los hábitos son perfeccionamientos intrínsecos de la inteligencia o de la voluntad. Los hábitos de la voluntad se han estudiado más que los intelectuales. De estos últimos en la filosofía tradicional se habla de una manera más bien tímida; en la filosofía moderna la noción de hábito cae en el olvido. “Según Aristóteles, el hábito (hexis) tiene pluralidad de sentidos. Se admite una hexis corpórea, distinta de los hábitos adquiridos de las facultades superiores, cuyo antecedente son las operaciones inmanentes de la inteligencia y voluntad. La hexis corpórea, según el Estagirita, es una categoría del cuerpo humano: hábito como categoría. En cambio, los hábitos en sentido propio son cualidades adquiridas al ejercer las operaciones de la voluntad y de la inteligencia. Los hábitos intelectuales están subordinados, tanto en Aristóteles como en Tomás de Aquino, al conocimiento objetivo, que se considera más claro. En cambio, el habitual, siguiendo a Agustín de Hipona, lo entienden como una memoria, un “thesaurus” conservado en la facultad, al que la inteligencia puede recurrir para volver a ejercer sus operaciones. Esta versión de los hábitos está vigente tanto en los pensadores cristianos como en los islámicos hasta Duns Escoto, el cual reduce bastante su importancia. “En la filosofía moderna se habla menos de los hábitos: prescinde de los intelectuales, y de los morales tratan los ilustrados ingleses hasta Adam Smith, que todavía habla de virtudes y vicios, pero dándoles una importancia sobre todo funcional. En rigor, su gran obra, La riqueza de las naciones, depende de una interpretación de los hábitos morales muy pesimista. Esta versión que considera que los hábitos morales son escasos y, por otra parte, frecuentemente sustituidos por vicios, arranca de Hume. “Conviene aludir aquí a los hábitos porque los sentimientos son su análogo inferior, unos cuasi-hábitos, que informan de la situación de la facultad. Los hábitos en sentido propio no se limitan a eso, sino que perfeccionan intrínsecamente la facultad, y la hacen capaz de ejercer nuevas operaciones aumentando la capacidad intelectual o volitiva: son estrictamente perfectivos. “El carácter perfectivo de los hábitos es reconocido por la tradición, pero no su superioridad sobre el conocimiento objetivo. Con todo, a mi modo de ver, el conocimiento habitual es superior al conocimiento objetivo. Además, cabe distinguir dos tipos de hábitos: los hábitos adquiridos, que son los más estudiados en la tradición, y los innatos, que es un tema medieval extraordinariamente importante. Un antecedente de la noción de hábito innato está en Aristóteles, cuando en el libro Gamma, el IV de la Metafísica, trata del principio de no contradicción, que no es propiamente un acto de la inteligencia, sino que más bien radica en el intelecto agente. “Los afectos son un tema difícil de estudiar, por lo que, para aclarar el asunto, es pertinente recurrir a ejemplos. Conviene insistir hoy en este tema, porque en la filosofía y en la psicología actuales los afectos, aunque confundidos con los sentimientos, adquieren gran importancia. Así como los hábitos son un asunto prácticamente desaparecido, la afectividad está de moda, aunque frecuentemente no se distingue de los sentimientos. Esa confusión es uno de los defectos que tiene la teoría del conocimiento de algunos autores modernos. En parecida confusión se incurre a veces en la predicación religiosa” .

Esto es: Polo descubre que conocer -si se abandona el límite mental- permite acceder -conociéndolos- a niveles cognoscitivos superiores insospechados. Que vale la pena hacerlo. ” […] ninguna operación se conoce a sí misma (sino al objeto que posee), de manera que ni siquiera cabe saber que se conoce con operaciones si un acto superior no las manifiesta. Por eso […] propongo al respecto lo que llamo axioma de la jerarquía. Cuando se trata del conocimiento o de otras dimensiones de lo inmaterial creado, la distinción más propia o más correcta es la distinción de grado, jerárquica, y no la simple distinción numérica. Se trata de distinciones entre lo superior y lo inferior. Pues bien, insisto, el conocimiento operativo es el conocimiento inferior. Por encima de él existen otros niveles o modos de conocer: otros tipos de actos cognoscitivos, de los cuales podemos destacar dos: el conocimiento habitual -considero que es un conocimiento en acto, aunque no actual, superior al conocimiento operativo-, y el conocimiento como acto de ser: como esse hominis. En Dios el acto de conocer se convierte con el Ser Originario. En cambio, no es admisible que el acto de ser humano sea originario …

Después de exponer esto Polo seguirá, en el tomo I de su Antropología Trascendental, con la exposición de las otras tres dimensiones del abandono del límite mental. Volveremos sobre ese tema. Por ahora, seguiré adentrando al lector en el objeto de este documento.

Será bueno recordar que las ciencias y las artes iniciaron su vida en los cuadrívium y los trívium, llegando al siglo XIII con el fin de profundizar en los que se llamarían universales (Polo propondrá que los trascendentales metafísicos sean ampliados a trascendentales meta-humanos a mediados del S XX). De donde los centros culturales que emergieron para ello, se llamarían UNIVERS(IDADES)ITAS .

El afán de búsqueda universitaria de las verdades más altas, se ha trastocado, como se denuncia en Nuestra Misión Hoy, de la Universidad Francisco de Vitoria: “Porque es más que una escuela profesional, la Universidad no puede eludir la cuestión de la verdad y, por tanto, no puede dejar de plantearse el sentido de las cosas. La Universidad no debe autolimitarse al descubrimiento de conocimientos y técnicas útiles, ni tampoco puede olvidar que la aplicación de los conocimientos no es neutral con respecto al hombre, ni los medios para obtenerlos son indiferentes. Más bien debe tener siempre presente que el cometido de la técnica es hacer posible que se realice el proyecto en que consiste la vida humana (Ortega y Gasset, 1982 [1939]: 54) y que la profesión o la tarea a realizar son simplemente el marco de posibilidades para realizar una auténtica obra personal” .

Pero cabe una explicación a la autolimitación mencionada en el párrafo anterior: al dedicarse las primeras y mejores universidades a ese saber superior (Trivium), se hizo a un lado el afianzamiento del “segundo nivel” (Cuadrivium) que se volvió algo así como un nivel “inferior” de desarrollo universitario.

Sin embargo, se progresó en el conocimiento de la verdad, propio del nivel superior, en base a la adaptación de fundamentos sólidos pero dirigidos hacia el nivel que venimos definiendo como “segundo”-aunque genuino- de su época.

La adaptación estuvo hecha por verdaderas lumbreras de esos siglos entre las que se destaca como sabemos, el de Aquino. Y así llegaron los grandes descubrimientos teológicos, pero también los científicos y en particular, a los que queremos referirnos ahora, que son los saberes utilitarios. Saberes que estuvieron mucho tiempo reñidos incluso con las escrituras, según creían algunos, llegando a extremos nunca antes vistos en la historia.

Solo valga como ejemplo los años en que la inquisición, amparándose en una falsa caridad, legalizó crueles y dudosas acciones superficialmente juzgadas, que más eran fruto de lo que querían los reyes y ciudadanos (políticos de turno) de su tiempo. No tenían ni siquiera las bases suficientes para asegurar que sus decisiones eran correctas.

Y, volviendo al tema, otro gran ejemplo como es el de los nuevos dominios descubiertos a fines del S XV, culminó llamando América al abultado cúmulo de planos cartográficos que tuvo el obligado y bien remunerado trabajo que Américo Vespucio se vio destinado a desarrollar para su registro definitivo.

Era lógico requisito previo, que el ordenamiento geodésico, que solo podía ser a través de longitudes y latitudes, estuviera muy bien fundamentado. Sólo mentes muy privilegiadas como Copérnico -basado en los libros de Ptolomeo- afrontaron, como expertos en la geometría de su tiempo, esos retos.

Antes que ellos, Eratóstenes (S III a.C.) hizo lo mismo, pero para las latitudes. Fue él quien determinó el radio de la tierra para lo que empleó la unidad de longitud de su época, que era el estadio. Pero sentó las bases para este tipo de mediciones, que servirían a los navegantes en sus travesías horarias, requiriendo más el uso de la longitud que la latitud y teniendo, al mismo tiempo, todo tipo de complicaciones adicionales como las que se encontraron para el caso de los husos horarios.

Finalmente, toda esa evolución culminó a fines del S XX con los sistemas GPS, accesibles a cualquier móvil. Pero nos pone en autos de que antes de ellos, a los griegos me refiero, los Pitagóricos ya habían llegado a desarrollos de la geometría; como para aplicarla desde la construcción hasta la música.

Para esto es que nos apoyaremos en el método de Polo (o poliano como llamamos, a ese método, sus discípulos). Porque no se trata solo de diferenciar lo físico de lo humano, sino más que nada de precisar sus características propias. Cómo es que dentro de lo humano existen distintos niveles. Y además, cómo es que cada nivel lo hace específicamente suyo.

Y también, dentro de lo humano, se debe aclarar lo que corresponde y separa las ciencias y artes. Y primero, si existe uno o son varios los saberes primeros: las filosofías primeras. Por ello, Polo precisará que en el inicio de su método, está el encuentro de los trascendentales humanos y cómo es que tienen que ser distintos a los trascendentales metafísicos.

En resumen y adelantándonos un poco a las conclusiones, el abandono del límite mental, nos va a permitir aclarar en realidad tres cosas:

Que el modo de estudiar y desarrollar la Verdad, escapó a los métodos con que se realizó. Fue así que sus conclusiones, aunque sólidas y realmente importantes; además de representar un desarrollo veraz y notable en su tiempo, fue como “rebajado” de su verdadero nivel.

Que ése es el modo en que debió desarrollarse el estudio a nivel utilitario y práctico como lo viene demostrando el enconado y progresivo avance de la técnica, que prácticamente desplazó a la Verdad entre los estudiantes y profesores universitarios, y

Que se debe “elevar” el nivel de las asignaturas que se dedican al estudio de las Verdades más profundas, aprovechando que el método poliano ubica claramente cuál es su nivel y qué se debe corregir para ello.


Por ejemplo, el estudio de las causas vale para el universo físico y prepara la metafísica; pero somos personas y las ciencias que verdaderamente nos toca desarrollar son las de las humanidades y las meta-humanidades . También las primeras porque tenemos cuerpos, pero las más importantes son las segundas. Por ello Polo recomienda su método, para detectar estas realidades.

Tal es así que el Curso de Teoría del Conocimiento (CTC) se perfila muy bien por el lado de la física. Polo previene muchas veces de cómo se da una metafísica “prematura” a lo largo de los siglos: sobre todo a partir de Descartes. Aunque también reconoce que los nominalistas son los primeros en desvirtuar la metafísica, sin desearlo explícitamente. No es que los anteriores filósofos no llegaran a hacer verdadera metafísica, sino que ésta se desvirtúa (se hace prematura: la metafísica). Polo insistirá, a través de sus escritos, en que la cultura y la historia de la filosofía siempre deben criticarse in melius, es decir, tratando de rescatar el aporte de los filósofos anteriores, según su época.

Es indudable que cada uno tiene que profundizar en su propio campo profesional. Pero ello se facilita al darse cuenta que los esfuerzos cognoscitivos que, cada uno, tiene que realizar; pueden llegar a ser muy costosos. Creo que es ahí donde aparece, en todo su esplendor, la innovación poliana, al facilitarnos entender mejor -aprehendiendo- lo realizado por quienes han profundizado antes que nosotros en nuestras propias ramas profesionales. El mismo Polo nos sugirió -y lo decía además con el ejemplo- que profundizar debe hacerse in melius; y aquello no obsta para que se repita, constantemente, en su novedad.

Descubrir donde radica el cambio

Desde la perspectiva cultural, los desarrollos se inician con las guerras ya que en ellas se implementan las innovaciones. De hecho, fueron los griegos quienes antes que ninguna otra cultura lograron aprovechar la técnica para afianzar su dominio tanto marítimo como terrestre.

Parece que Tales de Mileto, quien vivió durante el S VII a.C.; hizo los primeros aportes a la filosofía, matemática y actuó como legislador en Mileto. No se conserva ningún texto suyo pero es un hecho su notable influencia en la forja de una cultura griega, que pasa a nosotros como “cultura occidental”.

En su Comentario y citando a Eudemo, Proclo afirma que Tales estableció cuatro teoremas. Euclides es del S III a.C. pero el teorema de Tales es mencionado en los elementos de Euclides y afirma que no hay ningún libro escrito por Tales.

Aristóteles cuenta en su Política (I, 11, 1259a) cómo una vez que, habiéndosele reprochado a Tales su pobreza y su falta de preocupación por los asuntos materiales, y luego de haber previsto, gracias a sus conocimientos astronómicos, que habría una próspera cosecha de aceitunas la siguiente temporada, compró durante el invierno todas las prensas de aceite de Mileto y Quíos para alquilarlas luego, al llegar la época de la recolección, acumulando una gran fortuna y mostrando así que los filósofos pueden ser ricos si lo desean, pero que su ambición es bien distinta.

Pitágoras no es reconocido como filósofo pero era indudablemente filósofo, poeta, religioso, espiritualista y muchas cosas más en el S VI a. C. Es el que pone las bases para que los griegos desarrollen una arquitectura, maquinaria, buques de gran calado (para su época), y hasta música con fines culturales. En el trirreme se estrena en la historia la versión de tres triángulos rectángulos extendidos tipo construcción de dos pisos con balcón en voladizo.

No creemos que sea una digresión del autor, reclamar para estos grandes genios de Grecia los derechos de autor en cuanto a secretos de guerra se refiere. Es lógico que sus descubrimientos fueran utilizados para efectos guerreros, explícitamente. Y que además, fueran guardados en el más absoluto secreto, por el poder implícito en sus técnicas.

No parece casualidad que Grecia ostentara a partir del S IV un gran poder bélico, pero sobre todo, estratégico. Las reglas para construir barcos de gran calado como el trirreme se basan en reglas de la geometría (sólo para concebirlo), la física (para sus poleas y grandes dimensiones) y los instrumentos musicales que daban calidad de gobierno sobre los vencidos.

La más famosa batalla naval de la Antigüedad en que los trirremes se utilizaron, fue la de Salamina (480 a.C.) donde se enfrentaron los griegos contra los persas, siendo numéricamente muy superiores estos últimos. Los historiadores coinciden que si los griegos hubieran sido derrotados en Salamina, la consiguiente conquista persa de Grecia habría truncado para siempre la que será llamada la civilización occidental. La filosofía, las ciencias, las artes y la democracia, hundieron sus raíces en esta época de innovaciones.

Tampoco parece casual que desde allí nos lleguen los sofistas y posteriormente, los grandes filósofos socráticos cuyo testamentario es nada menos que Aristóteles. Además de los genios como Arquímedes (ley de la palanca) o Euclides (con sus elementos) ambos ya en el S. III a.C.; que logran transferir sus descubrimientos al Imperio Romano, éste sin duda los apreciaba y supo anexarse las ideas que innovaban tipos de armas para sus incursiones bélicas, como lo hacían antes los griegos con música y leyes.

Polo descubre una realidad que explica in melius (como ya he anticipado) los errores antiguos. Desde Aristóteles hasta los estructuralistas y/o filósofos del lenguaje actuales. Pasa primero por los neoplatónicos, escolásticos, nominalistas, modernos, llega hasta los contemporáneos pero los explica y actualiza -según su método del abandono- a todos. Pido disculpas por no remitirme a citar lo que los expertos en la antropología poliana ya hacen, y seguirán haciendo, en ese terreno muy suyo; a quienes no tengo nada que agregar y más bien, mucho que agradecer.

Dicho lo anterior, continúo con una cita de un discípulo de Polo, el profesor Juan García: “el resultado final, en cambio, es llamativamente sorprendente, […] la diferencia cielo-tierra de Aristóteles en cierto modo se invierte. Ya que Polo distingue lo circular -que es presensible, aunque concebible- de lo luminoso, capaz de enviar especie impresa y que está directamente ordenado al fin; lo circular no es ya lo más alto y perfecto del universo, sino que ahora es lo inferior; y lo más inmediatamente sensible, en cambio, es ahora lo superior: por abstraíble, o directamente vinculado a la posesión cognoscitiva del fin. Esta inversión justifica que en la tierra aparezca y se despliegue la vida, que es la realidad física más alta; y la más cercana al conocimiento, la que lo ejerce .

Proseguimos ahora presentando una nueva cita del profesor Polo, la que presidirá las exposiciones de los temas siguientes por referirse directamente al tema vital que nos ocupa: “Por encima del movimiento circular aparece el tiempo de la vida corpórea, que describo con la palabra sincronización. La sincronía es el tiempo peculiar de una pluralidad de eficiencias organizadas. Las eficiencias sincronizadas son causas eficientes concausales con formas más complejas que las hilemórficas […] En la filosofía tradicional se las denomina almas” .

Para comprender mejor el tiempo de la vida corpórea, quizá valga la pena un antecedente histórico. No hace mucho (nos referimos a la época de los pensadores modernos y, en particular, a los llamados científicos del S XIX - 1850) todavía se creía que el espacio y el tiempo eran “independientes” entre sí, es decir, que no tenían ninguna relación intrínseca. Era lógico que pensaran así porque también pensaban que nada podía escapar al transcurso del tiempo que es lo único que, si no los usamos, se pierde para siempre.

Pero Riemann descubrió la matemática tensorial 4-dimensional, que aprovechó Maxwell para sus ecuaciones y Minkowsky para formular el continuo espacio-tiempo . Era impensable que el tiempo pudiera “dilatarse” o “contraerse” según se recorra más rápido o más lentamente el espacio en que ocurra algún tipo de movimiento. Polo no solo nos ayuda a entender cómo puede ser que esto ocurra desde la física misma del universo, sino que descubre que la vida es la forma más adecuada para entenderlo porque se sintió obligado a dar una respuesta, que en un solo golpe del pensamiento (su método del abandono del límite mental) aclaró varios problemas de la física-matemática (ejemplo: teorema de indecidibilidad de Gödel) , la metafísica, la biología, etc., etc.; gracias a sus distintas versiones del tiempo físico, humano y además: meta-humano .

Lo diferente está en que Polo logra darse cuenta que la continuidad geométrica -como límite en el cálculo funcional- es imposible en la realidad, pero desde la perspectiva antropológica. Y da razones distintas, pero equivalentes a las que la mecánica quántica ya ha comprobado -los quanta de acción mínimos- que habían desencadenado un derrotero sin salida a comienzos del S XX (aporía, en sus más intrincados términos): la imposibilidad de que el electrón esté dando vueltas alrededor del núcleo sin perder energía física. Y aparte, la matemática se encontraba con otra terrible aporía: la insospechable existencia de la indecidibilidad de Gödel.

Desde los griegos hasta los modernos, se realizaron una serie de descubrimientos; todos aparentemente dispersos. Pero estaban muy vinculados por el cálculo, que se descubriría -en algunos casos- muchos siglos después. Álgebra, geometría, los sistemas de números que no explicaban la irracionalidad de los radicales pitagóricos, el descubrimiento de los logaritmos por Napier, etc.; fueron incorporados y utilizados por Euler, Bernoulli, Gauss, Hamilton, Lagrange, Riemann, Stokes y Maxwell entre otros. Así sus variadas expresiones, logro de la física-matemática, llegaron a la expansión técnica que conocemos hoy.

Como todos sabemos, el mundo cambió notoriamente al descubrirse el cálculo infinitesimal por Leibnitz y/o Newton (1670). Este inicio se puede datar en Descartes (1630) con su invento de las coordenadas para visualizar las curvas geométricas. Fue la clave para el desarrollo del mundo contemporáneo y origen de la técnica llamada cálculo, tal como ahora se conoce y domina, aunque también hay logros últimos que parecen fábula.

Continuando, progreso que no se detuvo sino al contrario, se aceleró; con el apogeo de la variable compleja para las soluciones de todos los problemas difíciles y que parecían vitales (en su sentido biológico) a los que se llegó, al entender la tierra como planeta fértil, pero también gran máquina, acogedora en sus formas luminosas, físicas y biológicas. La solución a cómo es que se realizan los movimientos vitales, se pensó que llegaría por ese camino. Sin embargo, hoy vemos cómo la medicina quedó convertida en algo que se parece más a una ingeniería que a un arte, como la definió Hipócrates .

La solución vendría por el camino inverso, es decir, desde las vertientes filosóficas y además, como debía ser, de la más humana de ellas: la de la Antropología Trascendental. El modo de llegar a lo pequeño no es continuo sino a saltos (quánticos), pero además, siendo matemático el poder para tecnificar el universo incluso artísticamente (orientados al uso de artefactos o útiles); la comunicación entre seres pensantes es lo más radical y esto, no puede ser más que algo personal. La gota de aceite puede dividirse hasta el infinito solo en la mente: las generalidades dan lugar a la divisibilidad hasta el límite que uno pueda pensar. Pero la realidad es átoma (bosones de Higgs).

No se puede llegar a dividir -hasta el infinito- una gota de aceite, porque hay un límite quántico. Más bien, existe un gran obstáculo como lo demuestra Gödel. Lo que se puede hacer es estudiar la propagación como hábito judicial (que es radicalmente discreta) y Polo dice que debe ser lo que los clásicos llamaban hábito de ciencia. El hábito es personal, eso quiere decir que sólo alguien que piensa puede editar lo singular. Lo general no puede resolver movimientos vitales, porque deja de ser universal al vincularlo con reglas que valen en general. Los “casos” a los que se aplica una regla general los va describiendo cada persona, y lo hacemos a través de juicios accidentales (predicamentos).

Polo nos ayuda precisando que estos juicios pueden ser científicos o morales, pero ambos son singulares. Son de dos tipos irreductibles entre sí. Los juicios morales correctos nos hacen buenos hombres, y los juicios científicos o artísticos nos permiten construir artefactos que nos hacen científicos o artistas. Somos, sin lugar a dudas, y es algo que Polo repite con insistencia en la mayoría de sus libros: perfeccionadores (científicos o artistas) perfectibles (más dignos como humanos).

Ya nadie se acuerda de la regla de cálculo, pero sin ese sistema u otros similares que aparecieron en todo el S XIX y se perfeccionaron en el S XX, las calculadoras y sistemas digitales hubieran sido impracticables.

Es más, nunca llegaron las reglas de cálculo por ejemplo, para economistas. Fueron diseñadas para cálculos científicos y de ingeniería, suplantando a las conocidas tablas anteriores. Algunos economistas usaban la regla de cálculo pero para operaciones complejas de funciones llamadas trascendentes, es decir, para números con infinitas combinaciones entre sí.

Todos los procesos humanos están contra-relacionados por el tiempo. Para que haya crecimiento, auges, caídas, etc.; tiene que haber, o faltar, sincronismo. Todos esos procesos pueden estar co-relacionados positiva o negativamente en cuanto a sus mediciones numéricas pero pasa, como en todos los sistemas coordenados, que también hay las contra-relaciones temporales, y estas son más restrictivas. En otras palabras, el sincronismo puede ser la diferencia entre lo posible y lo factible.

Para producir algo, es indispensable la coordinación (sincronismo), y si no se da, no hay producto. Los sistemas más grandes absorben los más pequeños, pero los pequeños dependen de la estabilidad de los grandes. Y así, todo es temporal. Pueden crecer al comienzo, dependiendo de los otros procesos, y disminuir después y viceversa. Y todo tiene que ver con todo: sistemas les decía Polo. Pero la clave es que haya sincronismo para que no desaparezcan. Eso ya se ha estudiado bastante bien gracias a la contra-varianza del tiempo que sincroniza todo lo que es factible.

Los índices de estabilidad y curvas de inestabilidad se han estudiado para espacios de estado . Lo que falta hacer es algo así como ampliar el sincronismo a copias, propias. Como hace el ADN en el caso de los seres vivos. Los organismos están vivos, y su vitalidad hay que enfocarla mediante números que son su “ADN sistémico”. De lo que se trata es de que las asimilaciones de ese ADN, adaptándose a su entorno, les permitan crecer o al menos “alimentarse” sincrónicamente. Esto último no se sabe cómo hacerlo hoy. Por ello, este es uno de los objetivos del presente libro. Esto se tratará con detalle en la segunda parte.

Capítulo 2.- La Vida

Fundamentos de la vida

Inicio este importante tema citando a Polo:

“La vida es la posesión del fin”

Una certera definición: así de simple y al mismo tiempo, así de profunda porque, como veremos más adelante, los fines pueden ser muchos pero esto, los antiguos no lo sabían y los modernos empezaron a entreverlo, aunque solo superficialmente, como también iremos viendo.

Como en casi todos los campos del ser y conocer, Aristóteles se perennizó como testamentario de Grecia. Sin embargo, hemos visto que su filosofía -realista- clásica fue -rescatada- y también desplazada, por las artes y ciencias modernas -que generaron el famoso problema de los “universales”- en la alta edad media. Los nominalistas y la época renacentista que llegaban -florecientes- al inicio de la modernidad, despertaron ese gran interés por la técnica que así, desplazó la primacía de la filosofía hasta nuestros días. Pero las aporías con que se toparon Gödel y Heisenberg, ya habiendo entrado el S XX, motivaron otras búsquedas que vienen siendo desarrolladas hoy en día.

“La ciencia ha tenido que cambiar. No puede aceptar la noción de fuerza, porque ésta equivale a la noción de condición inicial. Ha tenido que tomar la noción de energía, la cual ya no es sólo una mera fuerza, sino la forma intrínsecamente añadida a la fuerza, con lo que ésta, insisto, ya no es meramente fuerza”

No hay principio de esa física que permanezca en este S XXI. No hay modo de disculpar las paradojas y contradicciones que vienen emergiendo constantemente por habernos refugiado durante mucho tiempo en esos principios que dieron lugar a un sueño análogo al de Nabucodonosor, y la estatua de los pies de barro.

Y se responde a la interpretación de ese sueño, con unas sugerentes palabras de nuestro querido Papa Emérito, Benedicto XVI: “El jansenista Saint-Cyran pronunció una vez estas hermosas palabras: La fe está constituida por una serie de contrarios unidos por la gracia; con ello dio expresión en el campo de la teología a la idea que hoy en la física se llama ley de la integridad del pensar científico-natural. El físico moderno está convencido de que no podemos expresar las realidades dadas, por ejemplo la estructura de la luz o de la materia, en una forma de experiencia o en una forma de expresión; cada expresión nuestra sólo revela un único aspecto entre muchos que no podemos relacionar con los demás” .

Como veremos casi de inmediato, este modo de expresión en Benedicto XVI obedece a su realidad histórico-teológica, que ya nos va ubicando mejor en los problemas que se han tejido en los últimos dos siglos. Es lógico que él intente aproximarse a la ciencia, validándola como capacidad de convocatoria para nuevas analogías a niveles más elevados. “Sin poder encontrar un concepto que los abarque, ambas cosas .por ejemplo, la estructura de los corpúsculos y las ondas. debemos considerarlas como anticipación del todo en su unidad, a la que no tenemos acceso dada la limitación de nuestro campo visual. Lo que sucede en el campo de la física como consecuencia de nuestra limitación vale también, y con mucha más razón, para las realidades espirituales y para Dios. También aquí podemos considerar la cosa desde un punto de vista, y comprender un aspecto determinado de la misma que parece contradecir otros, pero que, junto con otros, remite al todo que no podemos ni comprender ni expresar. Sólo mediante rodeos, viendo y expresando diversos aspectos al parecer contradictorios, podemos orientarnos hacia la verdad que nunca se nos manifiesta en toda su grandeza” .

Así, Benedicto XVI eleva su propia filosofía-teológica a una visión que indudablemente influyó en la antropología poliana, que venía desarrollándose por esos días : “El principio conceptual de la física moderna puede presentarnos una ayuda más preciosa que la filosofía aristotélica. La física nos dice que no podemos hablar de la estructura de la materia sino cuando convergen diversos principios, y que el resultado de la investigación de la naturaleza depende del diverso lugar que ocupe el observador. ¿Qué nos impide afirmar, partiendo de este dato, que en el problema de Dios no debemos proceder aristotélicamente en busca de un último concepto que comprenda el todo, sino que debemos entenderlo mediante una multiplicidad de aspectos que dependen del lugar que ocupe el observador, y que nunca podemos considerar juntos, sino yuxtaponerlos sin pronunciar nunca la última palabra sobre ellos? Aquí radica la acción recíproca y escondida de la fe y del pensar moderno. Así piensa la física moderna superando el sistema de la lógica aristotélica; pero esta forma de pensar es también obra de la nueva dimensión que ha abierto la teología cristiana, y de la necesidad que siente de pensar en complementariedad” .

Como veremos después, Polo coincide en esa revisión del realismo aristotélico, separando el concepto de la generalización; pero desde otra perspectiva -que ya vamos transmitiendo- y es su método del abandono (del límite mental), que se decanta en una revisión del movimiento circular aristotélico, llega también a un análogo de la función de onda : “Voy a referirme también, aunque brevemente, a dos ideas de la física que pueden servirnos de ayuda. E. Schrödinger ha definido la estructura de la materia como paquetes de ondas; así ha ideado un ser no sustancial, sino puramente actual, cuya aparente sustancialidad en realidad sólo resulta de los movimientos de las ondas superpuestas. En el campo de la materia esta opinión es discutible tanto física como, sobre todo, filosóficamente; pero nos ha proporcionado una interesante imagen para la actualitas divina, para el absoluto ser-acto de Dios. La imagen nos dice que el ser denso, Dios, consiste en una multiplicidad de relaciones que no son sustancias, sino como ondas, y esa multiplicidad forma toda la plenitud del ser. Más adelante volveremos sobre esta idea que ya pensó san Agustín cuando concibió la existencia como puro acto” .

Polo coincide con Benedicto XVI (y Schrödinger) en que el observador forma parte del experimento : “Una segunda alusión a las ciencias naturales puede ayudarnos a comprender. Sabemos hoy día que en el experimento el observador entra en el experimento físico y que esa es la única forma de experimentar algo físicamente. Esto quiere decir que en la física no se da la objetividad pura, que desde el punto de partida, la respuesta de la naturaleza depende del problema que se le ponga. En la respuesta hay siempre parte del problema y del que lo plantea; en ella se refleja no sólo la naturaleza en sí, en su pura objetividad, sino también parte del sujeto humano. También esto puede aplicarse al problema de Dios. No se da el puro observador. No se da la objetividad pura. “Cuanto más alto humanamente está el objeto y cuanto más entra y compromete el propio observador, en menos posible la pura distancia, la pura objetividad. Si la respuesta es objetivamente imparcial, si la expresión supera finalmente los prejuicios de los inocentes y se explica como científica, el locutor se ha engañado a sí mismo. Al hombre no se le concede objetividad. No puede poner problemas ni experimentar nada. Por eso la realidad Dios sólo aparece a quien entra en el experimento de Dios, en la fe. Quien entra, experimenta. Sólo quien coopera en el experimento, pregunta y quien pregunta, recibe respuesta. “Pascal expresó estas ideas en su famoso argumento de las apuestas con una claridad sorprendente y con una incisión que llega a los límites de lo insoportable. La discusión con su colega ateo llega por fin a un punto en el que éste admite que tiene que decidir. Pero quiere evitar el salto, quiere poseer una claridad obtenida mediante cálculos […] “Aquí sucede lo mismo que en la física, aunque en mayor grado. Quien entra en el experimento de la fe recibe una respuesta que refleja a Dios y a los propios problemas, y que al reflejarse el yo, nos enseña algo sobre Dios. También las fórmulas dogmáticas .por ejemplo, una essentie, tres personae reflejan lo humano; en nuestro caso, al hombre de la tardía edad antigua que pregunta y experimenta con las categorías de la filosofía de la antigüedad. Pero sigamos más adelante; nuestra posibilidad de preguntar y experimentar depende de que Dios quiso entrar en el experimento como hombre. Al reflejarse este hombre único podemos experimentar algo más que el simple hombre; en él, que es hombre y Dios, se ha mostrado humanamente y ha querido que el hombre fuese el lugar donde se le vea” .

Como decíamos en el acápite anterior, la explicación llegó desde la cúspide antropológica de la filosofía-teología. Polo es filósofo, pero su método se viene desarrollando en ámbitos que son también teológicos. Polo va siempre reafirmando sus avances en consonancia con la fe, como se dijo desde el principio. Y aquello no obsta para que dé, al mismo tiempo, grandes consejos a científicos y artistas; quienes se ven forzados primero a entenderlo, y luego quedan invitados a aplicarlo a su campo de acción personal. Por ello, Polo pregunta: “¿Qué es lo que distingue un planteamiento filosófico (teológico ) de un planteamiento científico–positivo?”

Y responde contundentemente: “La diferencia está en que la ciencia moderna no acepta el carácter primordial, pierde el carácter primordial de las formas, de lo que desde los griegos se llama forma. La ciencia moderna no es una ciencia de causas formales […] La filosofía clásica está convencida justamente de lo contrario, de que la forma es principio […] Esta convicción está expresada de una manera muy neta en una frase de Tomás de Aquino: ‘forma dat esse’, la forma da el ser, la forma confiere el ser” .

Es decir, Polo revive para nosotros lo que él ha deducido que fue un gran avance medieval. Lamentablemente los modernos no lograrán recuperarse de las “pérdidas” que ocurren en esta gran partida del pensamiento que se jugó en los SS XIII y XIV: “Corresponden a este segundo momento cuatro figuras filosóficas de primer orden. Abarca la segunda mitad del siglo XIII y el primer tercio del siglo XIV. Este momento supera al ateniense por el número de pensadores, y también por la dificultad de la situación. Porque, aunque los filósofos del área de Atenas se encuentran sin duda en el marco de una cierta crisis, en el momento culminante del medievo hay temblores profundos […]. “Son unos setenta y cinco años, un tiempo tan corto como el ateniense; también en un área pequeña, cuyo centro es la Universidad de París […] la modernidad está ya pensada en este momento; sobre todo por los pensadores franciscanos: Escoto y Ockham, franciscanos y del área inglesa. Tomás de Aquino y Eckhart son dominicos. De Eckhart depende la línea reflexivo especulativa alemana. Otra destacada época filosófica, a saber, el siglo XVII, desde Galileo y Descartes hasta Leibniz, sólo se entiende bien, a mi juicio, como un primer intento de resolver las dificultades del Bajo Medievo” .

Un gran filósofo (como decía Polo) que cae en la noción de la fuerza hilo-érgica moderna es Hegel: “Hegel dice: la verdad es el todo. Ese todo es el absoluto primero, es el proceso, y ese proceso tiene una fuerza […]. Según este planteamiento (que lo suelo denominar el planteamiento de la fuerza espontánea, y que se inicia en el siglo XIV, sin que la filosofía moderna haya podido superarlo) lo radical es la fuerza […]. La filosofía clásica nunca ha dicho esto. Lo que dice es que ‘forma dat esse’. No hay materia sin forma […]. La forma es el protagonista fundamental, y sin ella no hay fuerza alguna”

El avance moderno lo resume Polo del siguiente modo (y resume lo que piensa de algunos filósofos modernos): “ … Hegel y también Kant son subsidiarios -y al mismo tiempo canales- por donde nos llega la energía teórica -y más tarde especulativa- acumulada en el período medieval, el cual, por su parte, sirve de conexión entre el momento ateniense y el momento idealista: por eso me parece tan importante: estudiar lo que en él pasó es esclarecedor. Allí está dicho casi todo y, conociéndolo, queda uno curado de la petulancia ridícula, y sin embargo tan frecuente, de creer que actualmente se piensan cosas "ex novo", por primera vez” .

Llegamos así a una conclusión poliana que nos servirá de gran fundamento para los desarrollos que a continuación se mencionarán. Vale de refuerzo recordar que tanto el microscopio como sus aplicaciones genéticas, confirmaron que la herencia (en base a las publicaciones por Mendel en 1865) se encerraba en los cromosomas de sus padres. Descubrimiento publicado alrededor de 1941 (año de su primera experimentación). La unión de los gametos (fecundación) permitía generar experimentalmente para animales y por primera vez, la descendencia prevista: La idea de una fuerza informe es una contradicción […]. Pero en la situación actual de la ciencia, esto es algo, por así decirlo, aceptado.[…] Ahora lo que se emplea es la noción de energía, que añade a la fuerza la configuración intrínseca. Se está de nuevo en el planteamiento clásico. A lo que más se parece es a un pitagorismo. […] Un ejemplo claro es el código genético, que es el responsable de los caracteres del viviente. […] hay que decir que el ser viviente está configurado en su origen mismo, que sin esa configuración que es el código genético, no hay tal ser vivo. No hay ninguna génesis sin forma. No hay nada informe. Esto está más de moda, está más claro, en informática. ¿Cuál es la clave de la informática? Es precisamente la noción de informe, mensaje. ¿Qué es el mensaje? Pues una forma como una casa. […] La unidad biopsíquica del viviente es la unidad de una forma con una materia. Un animal está configurado o no existe …” .

La historia de la ciencia, como explicación de lo físico, se detuvo ante el concepto de fuerza, y ello ocurrió durante los siglos XVIII a XXI. Los diagramas de fuerza estáticos y los movimientos físicos fueron explicados desde los diagramas de cuerpo libre y las fuerzas de atracción o repulsión. Se explicaba cómo se atraían los astros pero no por qué se atraían, lo mismo para lo eléctrico y lo magnético sin lograr, hasta ahora, explicar cosas, muy básicas, como que la carga elemental unitaria es siempre la misma sin importar el recipiente.

Sin embargo, otros fenómenos de la física no quedaban aclarados suficientemente. Era inexplicable que en el átomo los electrones giraran alrededor del núcleo sin disipar energía de algún tipo. Hoy, ya se sabe que no disipan energía cuando se mantienen en la llamada órbita, que no es que se vea, sino que es un modo de decir que se mantienen en un estado estable. Es que está moviéndose pero no se sabe cómo porque no se puede ver . Sea como sea, lo importante es que se genera energía luminosa cuando pasa de una órbita (es decir, un conjunto de números quánticos, lo que se llama estado quántico) a otra.

Todos estos hechos físicos quedaban sin explicar y ahora hay otros nuevos (debido al nacimiento en el S XX de la mecánica quántica) que siguen quedando sin explicación a pesar de haberse explicado los anteriores.

Y otra vez, hay que decirlo, no es casualidad que S. Hawkins escribió “Una breve Historia del Tiempo” como resumen más representativo de la historia de las físicas quántica y clásica. El tiempo será también para Polo la clave de su antropología. Pero además, lo será porque parte de actos cognoscitivos que articulan el tiempo, como es el caso de los procesos abstractivos. Cabe citar que Polo, cuando estudia a Nietzsche, se inspira en él para su terminología en los sentidos del tiempo físico y humano .

Paul Adrien Maurice Dirac que realizó aportaciones como la Teoría de Transformaciones para la mecánica cuántica y la función  que lleva su nombre; también creó un formalismo de muchos cuerpos para la mecánica cuántica que permitía que cada partícula tuviera su propio tiempo. Fue un gran físico-matemático pero queremos destacar aquí que la llamada Física de Causas por Polo, manifiesta esa realidad (la de que cada partícula tiene su tiempo) del tiempo, que no fluye como creían los modernos. También en física relativista se usa el concepto de tiempo propio para un sistema físico con relojes, pero es más que eso: “ …lo que sí puede admitirse es que el tiempo no es único, o bien que el retraso no es igual en los distintos movimientos, e incluso que no significa lo mismo para el movimiento continuo y el circular …

En resumen, es un hecho notable que la mecánica quántica haya destronado a la clásica, que contribuyó meritoriamente con sus aportes, más matemáticos que físicos. Pero al pasar lo mismo con la propia matemática (teorema de Gödel) como ya se ha advertido, había que buscar respuestas desde más arriba: “ … cómo es y de qué tipo es la causalidad formal […] Las causas no se pueden definir, sólo nos podemos acercar […]. Intentar explicar con sólo condiciones iniciales es lo mismo que no explicar con causas formales. Las causas formales no son condiciones iniciales, porque condición inicial es aquello que actúa de antes a después según la irreversibilidad en la línea del tiempo. Ese es un tipo de causalidad, pero no es la formal. La forma no causa de antes a después; ¡absolutamente imposible! puesto que la hemos definido como prius–determinante–actual, y eso es la exclusión del tiempo” . “La causa formal no causa de acuerdo con el tiempo, sino que causa verticalmente. Por ejemplo, la noción de evolución está apelando a condiciones iniciales, aceptando que el único sentido de la causalidad es el que va de antes a después. Si decimos que no hay causa sin temporalidad, entonces ocurre que toda explicación hay que buscarla en el pasado. Pero la causa formal no está en el pasado, sino que es actual […] es la causa formal la que determina a la otra causalidad –la que puede ejercerse de antes a después–. No excluye que existan prius temporales de antes a después, pero lo que sí excluye es que ese sea el único sentido de la causalidad. Necesitamos una explicación suficiente, pero ésta no es posible si no consideramos todos los sentidos de la realidad” .

Por otra parte, muchas constantes cambian de expresión numérica cuando se innova con otra teoría como la del bosón de Higgs, para su medición. Y no es que no tengan un valor, ni que no sea el mismo que según otra teoría, sino que los artefactos usados para medirlas son hipótesis que llegan a ellas por caminos distintos: “ … los números pensados son hipotéticamente físicos, aproximadamente físicos, pero no son exactamente los números físicos” .

Esto hay que entenderlo bien. Porque si las constantes se deben a razonamientos clásicos, los artefactos se construyen en base a esos modelos razonados y aplicados. Por ejemplo, en el cambio clásico-quántico se mantuvo la constante de Boltzmann (k) porque fue gracias a ella que Planck afianzó su modelo quántico en setiembre de 1900. Sin embargo, ahora que se revisan las otras constantes clásicas, manteniendo el valor de k, se obtienen otros valores. Pero la fuente del cambio está más en los artefactos que en la naturaleza misma. Somos los seres humanos los que hacemos diversas hipótesis y usamos distintos artefactos. Antes, cuando no existían dos modelos: clásico y quántico, esto no podía pasar. Pero ahora … es distinto.

Un destacado discípulo de Polo, afirma: “La tesis, es que el fin del universo es ser conocido por el hombre. […] Cuando he expuesto esta tesis (especialmente en mi prólogo al libro de Polo El orden predicamental) la he expuesto más que como doctrina de Polo como opinión mía; pero no porque así lo piense, sino para no arrojar más problemas a la comprensión de la física de causas de Polo, bastante difícil de suyo. En todo caso, ahora es el momento de aclarar este extremo: porque no sólo pienso que, nuclearmente, es una tesis poliana; sino que además, ahora sospecho que -lejos de dificultar- facilita la comprensión del tomo IV del Curso de teoría del conocimiento de Polo” .

La aparición de distribuciones estadísticas verifican estos comportamientos co-contra-variantes, en las -así llamadas- estadísticas de Einstein o Fermi. Permiten estudiar los procesos temporales co-contra-variantes que simulan las asimilaciones vitales, midiendo si son factibles o no. Reconozco que no es algo fácil de hacer -aparece el esplendor del complejo espacio-tiempo- pero hay que hacerlo dada la situación vital que nos rodea.

Maxwell coronó el cálculo de la invariancia de la velocidad de la luz en cualquier marco de referencia, a través de razonamientos puramente matemáticos, suponiendo que la luz era un fenómeno electromagnético “puro”. Su predicción se hizo antes de que Hertz (1890) descubriera las ondas de radio. Redujo la óptica a un fenómeno electromagnético más.

Sin embargo, es factible encontrar artículos, en ciertas revistas, de que la velocidad de la luz es un número “trucado” por ciertos interesados y cosas por el estilo. También se puede leer que restricciones económicas no permiten avances de la física, como ocurrió con el bosón de Higgs. Y no faltan versiones como que el que descubrió la relatividad no fue Einstein, y otras cosas más que quien no sabe, podría ir en deriva.

Las argumentaciones que aquí estoy exponiendo no tienen otro norte que asegurar, a quien lea lo que aquí se escribe, que ya ha habido intentos y re-intentos de cambiar o, por lo menos, exponer ciertas especulaciones históricas de hechos que parecen consumados y en realidad no lo están.

Solo como una confirmación adicional de que existen -y existieron- especulaciones masivas y prematuras, recordemos que cuando éramos niños (allá por los años 50) existían marcianos y venusianos y jupiterianos, etc., etc. Al cabo de solo 10 años estas expectativas cayeron por tierra y hoy se busca vida, -ni siquiera de seres pensantes, sino solo vida- a cientos y/o miles de años-luz de la tierra y no parece haberla.

El conocimiento y las sustancias

Algo que nos queda pendiente es por qué y cómo se abandona el límite mental. La respuesta está sin duda, en las restricciones que se impusieron los antiguos, los medievales y los modernos por limitarse a trabajar con lo que ellos creían que debían ser las sustancias. Es algo que nos llevará -sutilmente- al código genético mismo: “La propuesta de continuar el planteamiento antiguo de la temática intelectual hasta llevarlo a nuestra altura histórica, está justificada por la indicada cortedad de su desarrollo tradicional, y por las razones a que obedece, a saber, su base sustancialista y su preferencia por el conocimiento objetivo. Estimo que es conveniente elevar el lumen intellectus hasta el nivel de la persona. Con ello se deja de lado el sustancialismo. Por otra parte, el procedimiento para alcanzar esa elevación se cifra en una nueva consideración del conocimiento objetivo. La prestigiosa claridad que le concede la filosofía tradicional es matizada si se detecta su valor actual como límite mental. Así se rectifica la vieja apreciación de los hábitos adquiridos, y se abre una nueva temática en tanto que la detectación del límite mental posee valor metódico” .

Polo se explica más claramente, para excusarse de no seguir a Aristóteles en este punto. Es fielmente tomista pero reconoce que Tomás de Aquino se autolimita al definir la persona como sustancia en varias de sus obras: “La filosofía tomista se centra todavía en el estudio del hombre como sustancia y naturaleza. Aunque Tomás de Aquino desborda la perspectiva griega en metafísica, no extiende sus hallazgos al ser humano. Por eso entiende el paso de lo natural a lo sobrenatural según un cambio de la atención. La sustancia como fundamento de las operaciones naturales no está unificada con la consideración del hombre como criatura elevada … ”.

De aquí que se vuelva necesario ampliar el horizonte del gran descubrimiento tomista (la distinción esencia-acto de ser) para llegar más ampliamente a la diferencia radical entre lo físico y el ser humano: “ … la noción de sustancia ofrece dos dificultades. La primera de ellas arranca de la dualidad enérgeia-entelécheia: ¿lo primero es el puro acto intelectual, o la sustancia? Es claro que la sustancia, como acto, es enteléquica. La oscilación aristotélica es insoluble en sus propios términos. Sin embargo, aquí es más relevante una segunda dificultad. La primalidad de la sustancia es compatible con dos modelos ontológicos ya mencionados: el endológico y el analógico; pero es externa al modelo dialógico. “Es claro, por tanto, que la noción de persona no equivale a la noción de sustancia. Esta observación abre paso a la pregunta sobre la suficiencia de la consideración griega de la profundidad de lo radical. Lo definitivamente radical no es la ousía, sino la persona. Naturalmente, la persona no sería un nuevo campo temático si se asimilara a la sustancia. Pero dicha asimilación es incorrecta. Por consiguiente, la persona es una ampliación de la filosofía en lo más propiamente suyo: la consideración de lo radical” .

Si se entiende que la persona se eleva muy por encima del nivel de la sustancia está entendido todo. Pero los escolásticos no continúan en la línea iniciada por el maestro, y la deriva final ya ha sido mencionada antes.

Vale la pena iniciar ahora el proceso histórico obligado para no re-caer en lo que Hayek llamó arrogancia y Polo llama petulancia. Creo que quien mejor lo ha expuesto es un discípulo de Polo, Juan García, de quien ya he ubicado unas citas antes. En el prólogo del libro sobre cómo conocemos lo físico, afirma: “… he querido esbozar, brevemente, estas correlaciones aproxi¬madas: — sustancia-bicausalidad-universalidad-circunferencia-concepto — naturaleza-tricausalidad-analogía-luz-juicio — y esencia-tetracausalidad-orden-universo-fundamento. De la doctrina poliana del universo físico me parece muy sobresaliente su recuperación del sentido físico de la forma circular y de la luz, esos dos grandes niveles apuntados que vienen a corresponderse con el concepto y el juicio” .

Una vez revisado y entendido cómo sea que la persona no es (es mejor así: ampliar el marco referencial filosófico) una sustancia, podemos pasar a tomar lista de los cuatro modos de abandonar el límite mental:

  • Lo meta-físico (primeros Principios)
  • Lo físico (las cuatro causas)
  • Lo meta-humano (la Libertad personal)
  • Lo humano (el Yo: la sindéresis).

Desde el punto de vista de las distinciones tomistas acto de ser – esencia, podemos dar una correspondencia para los cuatro modos del abandono como sigue:

  • La Persistencia (acto de ser del universo)
  • Las cuatro causas (esencia del universo)
  • La Libertad personal (acto de ser humano)
  • La sindéresis (esencia humana).

Porque Polo propone que en la ruta para abarcar con más posibilidades lo que sea la libertad humana, se pasa por entender y ampliar los trascendentales meta-físicos (que son cuatro: el ser, el bien, la verdad y la belleza) a otra gama de trascendentales (que son también cuatro: co-ser, libertad, sabiduría y amor), cosa que debió hacerse hace mucho tiempo para evitar así las digresiones medievales y modernas que tanto han complicado estudiar nuestra existencia después de ellos.

La ampliación del enfoque de los trascendentales hasta los trascendentales humanos exigía renunciar al enfoque del hombre como sustancia. En todo caso su cuerpo físico podría serlo, pero se dificulta entender su libertad así. Polo dice que el humano es además. Sólo el Verbo es verbo. El ser humano es adverbio, por eso no es por sí mismo sino que es … además. (Jugaba con las palabras porque sabía que era propio de seres inteligentes hacerlo y que nos entretuviéramos con ello. Es que nos sobre-valoraba pues es difícil entenderlo así, a esos niveles).

Para entender cómo llegó a esta conclusión vale la pena leer su libro Antropología Trascendental que consta de dos tomos. El primero fue para lo meta-humano y el segundo para lo humano. Es lógico que tuvo que explicar mejor los dos primeros modos (el físico y el meta-físico) para explicar el tercero (lo meta-humano) por lo que se recomienda dicha lectura.

Pero no nos explayemos más en estos temas que, como dije antes, los polianos ya desarrollan; porque están inmersos (los temas) en lo que se llama antropología trascendental. Pero ello no obsta para aclarar -ahora sí con todo detalle- y gracias a esos desarrollos, que lo que las ciencias han culminado en todos estos siglos -desde la aparición de las universidades- es la importancia que tiene saber más sobre la luz: “El acto de ver es luz, el acto de oír es luz, el acto de oler también es luz; todo conocimiento es luz. La gran metáfora es la luz. ¿Por qué la luz es metáfora del conocimiento? ¿Por qué la luz es más que metáfora? Lo que realmente es luz es el conocimiento, y la luz física es una forma secundaria de conocimiento, una forma impropia de luz. Me gustaría detenerme en este asunto y hacerles una metafísica de la luz, como lo hicieron los neoplatónicos, que físicamente no es muy válida, pero que desde el punto de vista del conocimiento, sí lo es .

Cuando escribe esto, ya en sus últimos años de vida, Polo no sabía -como ya se sabe ahora- que el Bosón de Higgs era el responsable del contenido másico (materia) en el universo. Pero se da cuenta que tiene que ser así: “Les haré primero una observación. La luz es lo más veloz del mundo físico, lo cual es claro a partir de Einstein, que dice que no existe una velocidad física mayor a la de la luz. O sea, la velocidad mayor posible es 300.000 km/seg. Y por eso se dice que la luz se propaga en línea recta. Depende de lo que entendamos por recta. Si entendemos por recta la recta ‘vista’, es decir, una distancia entre dos puntos, la más corta entre ellos, entonces se puede decir: si el espacio físico no es así, la luz no podrá recorrer el espacio físico según esa rectitud. Pero la rectitud es intrínseca a la recta si la recta es la velocidad máxima. Pues si la luz es la velocidad máxima, es lo que menos tarda en recorrer esa distancia. Pues esa luz está en línea recta temporalmente, aunque espacialmente no haya líneas rectas. “Platón en el Sofista dice una cosa diferente: ¿qué es una recta? Una recta no es una distancia. Porque distancia, es extensión, y recta es cualidad. Las cualidades de suyo no son medibles, entonces: ¿qué es la rectitud? Platón dice lo siguiente, recto es aquello que mirado en escorzo (ya ha puesto el ojo, el ver) se reduce a un punto. Esta es la definición proyectiva de recta. El punto es la negación de la distancia; así es como define Hegel la recta, como negación del espacio. Pues si la luz es lo recto, es inespacial. La luz, después de Einstein –aunque pertenezca al mundo material– no se puede decir que sea espacial. El punto no se puede decir que sea espacial. “Desde el punto de vista del espacio, entre el ver y lo visto no media más que un punto, luego nada, está anulado. Lo mismo que la recta como cualidad es la negación de la distancia, a lo que se reduce perspectivamente. Pero la perspectiva es visual, no tiene sentido más que en la vista. Bueno, pues hagamos ahora lo mismo con el tiempo. La luz intemporal es aquella que en el tiempo se reduce al instante. Eso sería la ‘recta temporal’, aquella que en un tiempo perspectivo, dilatado, un tiempo cogido en su misma línea, se reduce a un punto, a la simultaneidad, al háma. Decía Aristóteles: yo veo ahora, el ahora lo pongo yo; el tiempo visto no tiene ahora, el ahora lo pone el alma. Esto es una aproximación a lo que sucede entre el ver y lo visto .

Para Polo es muy importante esta asimilación del conocer a la luz, que así, lo hace posible. No es tanto porque así se explica cómo conocemos, sino que por encima de ello está que, para explicar cómo se entiende mejor a Aristóteles y a los que vinieron después; ir conociendo, se parece mucho a cómo se propaga la luz. Esto lo veremos casi de inmediato, pero ahora insistiré en que para conocer se requiere la luz y la luz, experimentalmente, se fue conociendo a lo largo de los siglos. Este progreso es coincidente con el de cómo conocemos y no es casualidad. Pero Polo nos recuerda que son cosas distintas en terrenos distintos. La luz es física y el conocer es mental. “Entre el ver y lo visto tenemos una anulación del tiempo y del espacio. Pero esa anulación no son la nada del espacio y del tiempo, sino que son justamente la absolutización de la luz: la luz absoluta, la luz que no vaga por el mundo, la luz que está concentrada toda en sí misma. Cuando la luz está concentrada toda ella en sí misma, entonces es una luz en perspectiva. Esa luz en perspectiva es como la recta en la negación del espacio, y en la negación del tiempo. Por una consideración de la rectitud nos podemos ir aproximando a la comprensión. Sobre esto se han escrito muchas páginas. Entre el ver y lo visto no hay nada, entre el ver y lo visto está el ver, que es luz. No es la nada. Lo inespacial y lo intemporal lo decimos negativamente, no hay espacio ni tiempo, y al quitar ambos nos quedamos con su absolutización: con lo que tienen de absoluto, de no-distendido, de no–relativo. Por eso el conocimiento a lo que más se parece es a la eternidad (como la luz). Dios es luz. Dice San Juan: luz de luz; una luz reduplicada, una luz que está en ella misma y que se ilumina por dentro, por así decirlo, un dentro que es el dentro de la luz. Por ahí llegaríamos a la inteligibilidad, a lo puramente inteligible .”

He aquí la necesidad de proponer un segundo terreno de conocimiento, que no es el filosófico del que no ha hablado Polo i.e. el más alto de los conocimientos humanos; sino el conocer lo físico, pero desde una altura mayor que los de los últimos siglos. Es que la llamada ciencia física, tuvo un desarrollo que provino de ese saber filosófico que, al aplicarse, en lugar de difractarse según la distinción [ser : acto-de-ser] tomista en lo físico y lo humano (ya dicho antes); se cayó en el intento idealista de explicar el ser a partir de la verdad y, con ello, lo humano decayó y lo físico no se entendió bien.

Las limitaciones del conocimiento físico se manifestaron con el advenimiento de la quántica, como ya se ha advertido. Viene al caso ahora destacar que la constancia de la velocidad de la luz la derivó James C. Maxwell en la década 1840-50, en sus famosas ecuaciones resumiendo todo el electromagnetismo en un cuerpo consistente de identidades matemáticas. Hasta hoy se siguen efectuando descubrimientos y averiguaciones de la física gracias a nuevos planteamientos que giran o versan sobre sus ecuaciones. Sin duda esto seguirá y es una prueba más de que la luz tiene esa gran característica: su propagación.

Propagación luminosa

Un gran tema que se desarrolla a lo largo de todo el S XX y que sin lugar a dudas subyace contemporáneamente en el método poliano es que todo tiene que ver con todo. La base de este enfoque radica en la propagación, que es su fuente y sirve de inspiración, por lo que la noción de sistema forma parte de las mismas instituciones como propone Polo: “la complejidad humana es teóricamente inagotable, el enfoque sistémico ha de permanecer siempre abierto y preparado para incluir los nuevos factores que aún no se han descubierto. Esta condición no suele respetarse debido al influjo de Hegel, que consagró la idea de sistema cerrado, y de cuyo influjo la sociología aún no ha logrado sustraerse en sus investigaciones. Así se pierde la fecundidad heurística del método propuesto y se suspende al final su sentido teleológico, que es, por cierto, propio del planteamiento de la sociología clásica. Es patente que el hombre no alcanza su fin último en la historia. De aquí que el sistema cerrado lleve consigo una precipitada culminación de la historia humana y, paralelamente, una identificación de la historia sagrada con la profana, inaceptable para el pensamiento católico. ”

Hubo una época que va desde los años 30 del S XX, hasta los años 80 del mismo siglo; en que se inició una verdadera carrera por clasificar los sistemas. El sentido de “todo tiene que ver con todo” lo inicio Bertalanffy con su Teoría General de Sistemas. Al final la carrera terminó cuando el profesor Pérez López los clasificó sólo como: 1) sistemas estables, 2) ultra-estables (que aprenden positivamente) y 3) libres (que pueden tener aprendizaje negativo) .

Hay que entender que nuestra herencia cultural humana a comienzos del S XX, se corresponde con la intención de clasificar todo; ya que terminado el “siglo de las luces” que se caracterizó por saberlo todo a base de investigaciones, el S XIX tuvo como consecuencia lógica describir las características de los organismos (Bertalanffy era biólogo) para re-producirlos o mejorarlos en la medida que se fueran conociendo mejor. Como se ha dicho antes, si todo parte de una mecánica o condiciones iniciales, todo se reduce a reconocerlas y aplicarlas a otros contextos en la medida que sea posible y necesario.

Pero ya más entrado el S XX, en 1900 comprueba Planck que el universo es quántico y en 1918 Heisemberg descubre al mundo la existencia de un “principio de incertidumbre” (del que nos hablaba Benedicto XVI más arriba), removiendo todos los fundamentos hasta entonces “seguros” para esa mentalidad de progreso indefinido. Así llega la bomba atómica que nos obliga a re-pensar todas las guerras … y la contaminación global que nos exige re-examinar las “condiciones finales” (estableciendo nuevos modelos completamente anti-newtonianos).

Y, como la culpa de todo la tiene la constancia de la luz, no de su composición sino de su velocidad, que también era muy rápida; la primera reacción es negar su medición e invariancia a costa de delatarse como poco cultos en temas físico-matemáticos, como ya se mencionó.

El universo no sólo no es como lo pensaban los iluminados y sus descendientes, sino que además de todo esto, el año 2016 se constata la existencia de ondas gravitacionales (gravitones) que obedecen a partículas que, según Einstein, nunca se podría comprobar si existen por las dimensiones siderales que involucra su medición. Pero las sondas espaciales ya han llegado muy lejos, y con instrumentación adecuada fue posible involucrar a dos de estas sondas, que estaban a millones de Km de distancia, para detectar su movimiento sincronizado.

Aquí vale hacer un parón, porque dichas ondas parece que pasaron antes que las de la luz y por eso la luz tiene la restricción de viajar siempre a una velocidad invariante. Esto amerita un cambio de tema momentáneo, como decimos; porque ni Lucifer podría haber sospechado que la luz (su dominio existencial) tenía superiores (la jerarquía es propia del espíritu) como Miguel o Rafael, que convivían escondidos y salieron a defender a los que podían condenarse con Satán (cambió de nombre por su falta de profundidad en conocimientos). Ellos dejaron de mantenerse ocultos porque el momento lo requería, pero parece ser que se mantenían así, porque estaban revestidos de una ascética humidad .

Terminamos el parón, que creímos oportuno, recordando al lector que justamente el haberse quedado en la técnica, fruto de los desarrollos medievales y consecuente declive moderno; evitó que las universidades suban y/o se mantuvieran en el nivel que les correspondió desde el principio cuando intentaron realmente estudiar y encontrar la Verdad.

Después veremos cómo se hace evidente la conclusión de que la propagación luminosa es solo la sombra de una propagación muy superior, que no es ni siquiera física (sino espiritual y con ello, jerárquica), pero se requería conocerla a fondo para superarla con otros medios que no son físicos pero son análogos, y llevaron a muchos anacoretas a retirarse de las “propagaciones” de este mundo, para elevarse a las de otro que existe y ya deseaban conocer, antes de morir, porque así lo entendían y era indispensable ese retiro -pensaban- para poder llegar hasta ellos.

Muchos lograron conocer ese tipo de propagaciones, pero no sabían que eran análogas a las de la luz porque ni siquiera se sabía cómo era la luz. Ahora se sabe más, pero tampoco se sabe todo. Y como estamos viendo, parece que hay otro tipo de propagaciones -físicas incluso- que desconocemos.

Todo el universo físico y la creación espiritual, parece que canta una misma canción y no la conocemos (es más elevado oír que cantar). Gran ejemplo de la más alta sincronía, que pasamos a estudiar enseguida. Es que, como la música, la coexistencia exige las relaciones cuantitativas (hasta logarítmicas: Bach S XVIII; calculadas gracias a Napier S XVI) para una sinfonía que tiene que ser celestial y hasta ahora, inexplicablemente técnica. Encima de todo esto, hay millones de formas de conseguir esos sonidos (una por cada uno de los seres existentes, creados) que lo hacen más interesante. Todo empezó cuando Pitágoras asimilo un triángulo rectángulo a las longitudes generadoras de dichos sonidos. Ya no se trata de tiempo, ni de espacio; sino de ciclos (espacio-tiempo), como veremos.

Biofísica y sus causas

Es tan prolijo el método del abandono del límite que, para estudiar lo vivo, hay que centrarse en lo físico. Me refiero a que hay manifestaciones de vidas tan amplias y distintas, que por ahora, nos referiremos solo al modo de vida física. La vida espiritual se mencionará específicamente cuando sea el caso. Por ejemplo, pensar es un acto propio de la vida humana al que no estudiamos con atención ahora. Nos fijamos solo lo bío-físico. Hay vivientes como los ángeles y otros que no poseen cuerpo y por ello no vienen al caso en este escrito. Tampoco estudiamos el conocimiento humano pero nos referiremos a él en lo que le atañe, con la mejor compatibilidad deseable.

Porque pensar nos sirve para estudiar de la vida física. Es el punto de partida del método poliano. Justamente pensando es que llegamos a entender la vida física y, el método del abandono del límite es mental. Y las aristas en que hay que montarlo son tantas que conviene restringirlas a la vida física, sólo para este escrito (salvo mención explícita de otros tipos de vida, como ya se ha dicho).

Por ello, cito a Juan García que explica cómo es aquello con rigurosa claridad: “… como el fin del universo es ser conocido por el hombre, el sentido de la razón, globalmente considerado, es éste: devolver lo abstracto -el fin poseído- a su realidad extramental, causal. En mi opinión, y para resumir a Polo, ello exige de sus dos actos centrales -concepto y juicio- estos dos pasos básicos: 1) la fase conceptual de la razón y, 2) la fase judicativa de la razón. “ […] se distinguen materia primera y segunda. La materia primera es aquella cuyas formas son elementales; y cuya explicación es conceptual. La segunda está ya formalizada, por lo que sustenta nuevas formas compuestas, complejas, mixtas; y su explicación es ya judicativa. ”

Para empezar y así se entienda esto mejor, vale aclarar que el movimiento circular poliano es original suyo. Sin embargo, ya desde Aristóteles se hablaba de él. Por poner un ejemplo, es como el paso del agua de mar a vapor, del vapor a nubes, de nubes a lluvia, de lluvia a ríos y de ríos a agua de mar; y así se repite el ciclo. Así, a esto, se le puede llamar círculo del agua. Para continuar avanzando en este artículo vale el ejemplo y es como hay que entender el movimiento circular poliano: “La heurística poliana de la física aristotélica rectifica esta deriva representativa: convirtiendo el concepto no a la experiencia sensible, sino al ser, a los principios inteligibles de la realidad que son las causas predicamentales (y luego los primeros principios: física y metafísica). “Pero, [los elementos] por ser átomos, son incapaces de actuar, entonces sólo materialmente pueden ser principios de las sustancias compuestas, las que sí actúan ya sobre nuestra sensibilidad […] y también son incapaces de padecer. Por ambas razones los elementos son inestables: una vez generados, no se mantienen por sí mismos; y, ante cualquier eficiencia recibida, se corrompen; y entonces sus formas se desplazan. Remiten pues a otra realidad que los explica, porque es su causa: el movimiento continuo, cinético. “ […] los movimientos continuos entre los elementos remiten a su causa, que es el movimiento circular: un movimiento discontinuo, que se interrumpe cuando se producen los movimientos que causan los términos del universal, y reaparece elongándose hasta éstos cuando se renuevan. El movimiento circular, un movimiento entre los términos, es un efecto del fin: para ordenar los elementos” .

Vale la siguiente aclaración. Estamos acostumbrados a ver la sustancia como fuente de la bi-tri-causalidad. Donde Polo nos “complica” pero para entender mejor el ser del elemento -en calidad y cantidad- es que conviene establecer, como estatuto para el pensamiento humano, y para el mismo elemento; otra tricausalidad (y otra causa eficiente) que también es para ese elemento -pero no es la causa eficiente tradicional- y lo llama porque así le corresponde: movimiento circular, pero para otra forma (no entera, dice Polo) y otro sentido de la causa material (pero en la misma materia del elemento en cuestión): “ […] sólo ese movimiento integra esta pluralidad . Con una forma de unidad (la analogía) …” .

Aparece un concepto conocido pero que hay que re-pensar, la comunicación de lo informado o sea, conocer: “Para que la información del exterior llegue al hombre, y el universo cumpla su fin, no sólo es precisa la materialidad exterior de las sustancias elementales, y los movimientos que exige; sino también otras dos cosas: - la composición de las sustancias categoriales, que se forman a partir de los elementos; - y su actividad para transmitir al hombre la información. Ambos extremos remiten al mismo tema: la comunicación” .

Es el concepto más importante que precede físicamente a lo que más nos interesa, LA VIDA DE LOS VIVIENTES: “La comunicación de formas se requiere entonces, ante todo, para constituir sustancias compuestas a partir de los elementos: son las sustancias categoriales. Ello ocurre cuando, además de causar los movimientos continuos, y a su través los términos, el movimiento circular se les comunica, les comunica la forma -la nueva forma compleja, no la inferior- de ser efecto físico. Entonces, la forma circular no se interrumpe al causar movimientos, sino que se propaga; y es captada por los términos efectuados, cuando concausa con el fin, para formar la sustancia compuesta; o bien, si -en esa concausalidad- es captada por los movimientos, entonces se forma un viviente” .

Esta propagación es la luz, la luz física; la que ha sido re-descubierta a fines del S XIX y aplicada de múltiples modos durante todo el S XX, dando lugar a los excesos materiales y los defectos espirituales que tenemos hoy: “- Y la comunicación de formas se requiere también después para desplegar, concausando también con el fin, los accidentes de esas sustancias y vivos, que constituyen su naturaleza propia. Sin este despliegue de su naturaleza, los seres del universo no podrían comunicar entre sí, ni por tanto trasladar información al hombre. Pues este tema de la comunicación, que -como decimos- está en el fondo de la realidad física de las categorías, es justamente la luz física: pues la luz es la pura comunicación formal, la que permite la transmisión y generación de formas complejas” .

Hemos llegado así al concepto de propagación vital. Y ha sido posible mejorar nuestra comprensión de la vida -que ya sabíamos que es movimiento (desde Aristóteles con seguridad)- entendiendo el movimiento desde otras fuentes innovadoras de cómo puede ser y cómo conviene compatibilizarlos con nuestras mentes; para llegar más lejos, como veremos en un acápite posterior.

Hay que rescatar desde ahora que la vida es la captación de movimientos continuos desde el viviente, es decir, la vida es intrínseca al viviente y por ello, interioriza los movimientos de otros vivientes, haciéndolos suyos; captándolos y propagándolos para sí.

Iniciamos, además, la comprensión que es misión de este escrito. La vida se parece mucho a la propagación luminosa, algo muy difícil de entender hasta hace poco (comienzos del S XX). Se sabe más de la luz, pero debe haber cosas que aún no sabemos, como es de esperar del conocimiento humano (que es infinito). Pero es un conocer mejor lo físico material, que está por debajo del conocer lo inmaterial (pero ambos se ejercen a través de juicios: científicos y morales). Y eso es lo que llamábamos al inicio, rebaja del conocer más alto, por quedarse en el regalismo de lo utilitario propio de los siglos modernos y contemporáneos. Se conoció más, y mejor, porque al estudiar los universales se vieron obligados a empezar por la creación material, que era “muy buena”. Pero explicar el conocimiento desde esa perspectiva, se quedaba a medio camino.

Solo cuando nos diéramos cuenta del error en el que se había caído (1950, es la fecha que Polo revela como decisiva para su método) podíamos “subir” para caer en la cuenta de esas limitaciones de los métodos anteriores. Y además, se encontró una forma de seguir “subiendo” por la escalera (analogía que el mismo Polo proponía) sin tirarla, para explicar las realidades del conocimiento desde más arriba. A eso se dedicó y elaboró la gama de trascendentales humanos que ya se ha expuesto.

Repetimos que esos niveles más altos se vienen estudiando por los polianos de muchas universidades del mundo actual. Aquí daremos una idea de qué hacen y cómo lo hacen, más adelante en lo que llamaremos “tercera conclusión” es decir, la más alta. En este escrito, nos acercamos con más precisión al estudio de la vida que, como estamos comunicando, pertenece a la creación material, al movimiento intrínseco: “la luz es la tetracausalidad completa […]. El propagarse de la luz deriva directamente de la persistencia del orden, es decir, del acto de ser del universo; y no es, como el movimiento circular, un efecto del fin (para ordenar, indirectamente, los elementos). La propagación, entonces, es una elevación de la inicial forma de ser efecto físico […] esta elevación se reitera sucesivamente -es su misma propagación- conforme las sustancias que captan la luz son cada vez más complejas. Así se explica eso que Polo llama deriva creciente: una cada vez mayor intervención de la causa final en el universo. Ella da razón de la progresivamente mayor organización del cosmos, y de la evolución ascendente de la vida: son una ampliación de la medida en que interviene la causa final, una progresivamente mayor ordenación al fin […] parece que lo más perfecto en el universo es el lenguaje, la comunicación animal; y no sólo el organismo humano, o su cerebro …”.

Quizá la mejor expresión de las limitaciones que tiene este nivel, que hemos llamado segundo desde el comienzo (el de los juicios físicos, y en parte, metafísicos), queda bien entendida en el capítulo de La Lógica Deductiva de su Curso de Teoría del Conocimiento, que resumiremos brevemente diciendo que en este escrito, se aporta lo que se considera de interés para el primer nivel; desde una perspectiva más “científica” en cuanto a explicar más los logros técnicos actuales y cómo tienen que ver con ello. Polo explica muy bien cómo se “rebaja el nivel” judicial del lenguaje (filosófico-teológico) bajando así al nivel de las proposiciones formales que no son aún conversiones al fantasma pero nos permiten conocer más .

En el contexto físico-causal que venimos desarrollando, las palabras de la lógica formal, deben ser palabras que desde su nivel referencial (la física de causas) representen lo físico a que deseamos referirnos. Una vez contextualizadas, dichas palabras o términos del lenguaje, ya pueden llevarse a juicios humanos.

Y es el momento de precisar -todavía más- algo que es tan complejo que ha llevado siglos metodologizarlo. Los juicios no son todos del nivel más alto. Los hay de los dos niveles que venimos hablando. Los que se refieren al nivel más elevado, que veremos con más detalle en la tercera conclusión, como ya se advirtió; son juicios de naturaleza moral, es decir, están en el terreno de la ética. En ese nivel todas las palabras fallan. Sólo se pueden emitir frases por analogía pues lo que se describe es de un contexto espiritual, bueno o malo, son juicios morales. Polo llamó símbolo (noticia) a la descripción de acciones en ese nivel, que desde el interior de cada persona intenta describir sus virtudes (o vicios).

Los juicios a que nos referimos en el segundo nivel, son juicios factibles (ideas) de ser expresados con palabras porque se refieren a sucesos o eventos materiales. Pueden estar o no, errados. Pero es algo constatable. Por ejemplo, el teorema de indecidibilidad de Gödel (el que tiene en jaque a la matemática) es algo totalmente teórico, pero se refiere a un lenguaje físico, es decir, de hechos con que practicamos artes o ciencias que se plasman en algo físico o en palabras humanas (que son realidades también físicas pues se emiten con aire y viajan en el aire). Y lo que se siente dentro de un ser humano al contemplar ese arte o esa ciencia, escapa al terreno moral. Es neutral en ese sentido. Otra cosa son las acciones morales o viciosas que puedan derivarse después. Eso es del primer nivel y no es solo un error (mala idea) sino un acto heroico (virtuoso) o vicioso.

Es como bailar. Se emite la música y se escucha, pero la acción de ponerse a bailar ya es decisión interior al ser humano que desee hacerlo. Y de cómo lo haga se desprenden dos actos: 1) el de si baila mal o bien, que puede ser considerado como error o acierto y; 2) la actitud de quien baila que puede llevar a provocar actos interiores honestos o no, para sí y para los que lo observan.

Por eso Polo llamó noticias a los símbolos (palabras o mitos) que describen actos virtuosos y “hay que descifrarlos” decía. Y llamó símbolos ideales a los que describen actos que remiten a las artes o a las ciencias, es decir, a los universales.

Por eso creemos que estas precisiones entre niveles de estudio de los universales, admiten una re-elaboración de los perfiles universitarios (currícula) que remita no solo a los trívium o cuadrívium, pues ya se ve que amerita una revisión más actual y exhaustiva. La división anterior (que ahora se entiende mejor como ciencias y artes) debe revisarse para los niveles que aquí estamos llamando segundo y primero, es decir, deben ajustarse las ciencias y artes a su segundo nivel.

Y deben ampliarse las éticas respectivas del primer nivel. Por ejemplo, en Stella Matutina SAC de Lima, Perú; se ha visto muy apropiado distinguir los niveles de antropología y ética, entre otros programas; de modo que los niños, adolescentes y adultos -empresarios o no- puedan corregir sus actuaciones poco virtuosas y/o viciosas de modo coherente con sus aptitudes y sus aspiraciones.

Es muy necesaria esta revisión -y ahora nos empezamos a centrar como se ha dicho, en el segundo nivel (el inferior de los dos superiores )- y damos un claro ejemplo. Para estudiar algo tan importante como es la vida misma, la biología se quedó corta desde, y a pesar de, Aristóteles: “Polo quiere que no se confunda la comunicación de la propagación a lo separado [como luego diremos, la recepción de la luz] con la influencia del mundo astral en la generación admitida por Aristóteles; porque la propagación como estatuto primario de la luz y su superioridad al movimiento circular no son temas aristotélicos; y, ciertamente, la exégesis poliana rectifica a fondo el planteamiento del estagirita. Pero justo eso es lo que decimos: en lugar de representaciones sensibles, el valor inteligible de los conceptos y juicios. Mediante él descubrimos la propagación de la luz por encima del movimiento circular; y la propagación de la luz es la analogía explícita. Luego la analogía es la clave de la prosecución racional, pues sin ella no se puede pasar del concepto al juicio, es decir, explicitar el implícito que guarda el abstracto” .

Continuaré con otra cita del profesor U. Ferrer, pero ahora para que entendamos mejor a qué se refiere Polo, cuando habla de viviente y concausalidad : “Mientras la materia es susceptible de distintas conformaciones, la vida se identifica con el ser vivo. Por tanto, la vida no es tenida por el viviente, pero tampoco es, en el sentido contrario –como sucede con la materia–, el sujeto de un tener subsiguiente, sino que la vida es el mismo ser del viviente. ‘La vida es de antemano el viviente y no existe ninguna vida que se pose sobre un trozo de realidad antecedente’ (CTC-IV/1, 255) ”.

Desde la concausalidad, se elevan tres órdenes o tipos de seres distintos: “De aquí derivan los tres órdenes […]: 1º, la finalidad como concausalidad real y a la vez intrínseca al viviente, y no como un mero estado fijado por el observador; 2º, la finalidad interna hace manifiesto al viviente como naturaleza tendencialmente definida, que subyace -aunque en cada caso de modo diferente- tanto a los comportamientos propositivos del animal como a los fines conscientemente pro-puestos y procurados por el hombre; 3º, la distinción entre el principio y sus operaciones en el viviente humano instaura la prioridad de la praxis sobre la acción transitiva o poiética, en terminología aristotélica, y en menor medida en los otros vivientes. “En el nivel vegetativo, al no haber diferenciación orgánica, tampoco hay propiamente operaciones, sino sólo funciones que terminan en un pragma añadido. Sin embargo, su condición viviente se advierte en la apropiación o asunción de las funciones, que hacen posible la manifestación de la vida como un brotar. ‘En vez de la simultaneidad entre la praxis y el objeto, (en la vida vegetativa) hay que advertir el mantenerse de la función. La perfección de la función estriba en asumir una kínesis para el mantenimiento de la función misma; en el nivel vegetativo la sustancia y la naturaleza se corresponden sin mediación de facultades’ (CTC-IV/1, 262). La función mínima es la nutrición, cuyo punto de partida y medio es el alimento externo al viviente. En cambio, el crecimiento acontece en su interior y se muestra hacia fuera. De estas dos manifestaciones la vida en crecimiento es la que domina la asimilación trófica, haciendo de ella algo distinto del mero almacenamiento de otras sustancias e incorporándolas a la sustancia viviente. La inmanencia del viviente se impone sobre el componente cinético inicial y lo cambia de signo, ya que el término no queda ajeno, como en el movimiento transitivo, sino que es de-sustancializado y, de ajeno que era, se vuelve parte del viviente. Lo propio de la nutrición como movimiento vital es la conversión de la kínesis en praxis, o eliminación de la passio de la acción cinética. La materia deja de formar parte del compuesto sustancial para hacerse energía vital. “En la vida sensitiva el movimiento se canaliza en facultades orgánicas, las cuales ejercen operaciones terminadas en sí mismas y discontinuas: el ver tiene lo visto y sigue viendo. El factor unificante de esta diversidad es aquí la naturaleza, que cumple un papel mediador entre las operaciones bajo la doble forma de tendencia global, que lleva a que las operaciones se continúen en la medida en que no la saturan, y de sentimiento, que mide la mayor o menor adecuación de la operación con la facultad. La tendencia no es simple espontaneidad, sino que se actualiza e incrementa con el conocimiento poseído en pretérito perfecto. ‘Como continuo potencial, la tendencia es el crecimiento orgánico que no llega a ser una facultad (la tendencia no es un sobrante formal). Por eso se dice que sigue como posibilidad a los perfectos de los sentidos’ (CTC-IV/1, 285). Y el sentimiento informa a través de su tonalidad afectiva gradual de la correspondencia del conocimiento sensorial con el fin de la naturaleza sensible. ‘El sentimiento tiene un valor informativo para el viviente: registra la valoración de una operación en orden a su facultad con vistas a su ejercicio (los sentimientos son lejanamente semejantes a los hábitos)’ (CTC-IV/1, 283)” .

Terminamos con esta cita también del profesor U. Ferrer: “Por fin, es propio del hombre la distinción entre el principio y la actividad vital, entre él mismo como viviente y la vida como manifestación esencial. ‘Según mi propuesta, el vivir humano está en el nivel esencial: es la manifestación del viviente humano. El animal no es además como viviente ... El animal se agota en vivir sin que quepa decir que además es viviente. Por tanto, en antropología es válida la fórmula vita viventibus es essentia’ (AT/2, 13). El hombre no simplemente se realiza con sus movimientos vitales, sino que refiere la vida a él mismo como sujeto idéntico y se incrementa como sujeto para quien el transcurso vital, lejos de ser un devenir accidental, es su manifestación esencial. El hombre no es un sustrato que permaneciera incólume a su peripecia vital, sino el principio que se expresa en ella, como vida que se añade a la vida orgánica recibida de sus padres. A la vez que no se identifica con los actos y tendencias en los que vive, tampoco los tiene como meramente sobrevenidos, más bien constituyen la esencia que le es inseparable y en los que expresa como yo. L. Polo lo expone en los términos de que el hombre co-existe como acto de ser, o existe además, ante todo con los actos vitales que como yo lleva a cabo” .

Con esta larga cita quiero destacar la realidad no objetiva (para Polo lo objetivo es lo pensado, es decir que en este sentido se refiere a lo no pensable) de la vida y así, la casi obligación de tomar partido a partir de otra perspectiva, también real –pero distinta realidad- que explique cómo se impone a la concausalidad constituyéndola desde sí misma, desde la vida en sí; no desde la cosa o la materia como venían haciendo los modernos.

Estas y otras precisiones sobre la vida, deben hacerse para entender su complejidad con más precisión y lo difícil que resulta cuando medra el bagaje moderno y actual de la biología y, según su caso, de la medicina o ciencia veterinaria. Desde la ecología, lo que nos interesará es qué se puede, y cómo se puede, medir. Porque lo ecológico se manifiesta no solo como vida, sino como cadenas de vida y de procesos vitales que se inter-relacionan incluso con la materia inerte: para alimentarse o para adaptarse. Y la matemática que facilite estas mediciones tiene que poder adaptarse, según el caso. ¿Será esto posible? Polo nos da la sugerencia, sin haberlo programado intencionalmente, a través de sus comunicaciones orales y escritas.

Sincronismo y vida

La cibernética se menciona en todos los artículos de Polo que tienen que ver con la vida biológica. Incluso para la ética, pero ahora nos fijaremos más en los aspectos biofísicos. Es así como conectaremos las causas con la vida biológica. También en los adelantos técnicos-quánticos de la materia, ocurre esto: es así como conectamos con la teoría de sistemas.

Tendremos así que hablar de sincronía inter-sistémica. Pero también se deberá aplicar a la intra-sistémica. Tenemos suerte de que Polo tocara estos temas en una conferencia que quedó registrada por la Universidad de Navarra, Facultad de Medicina-Edificio de Ciencias Biológicas .

Polo es el primero que habla de una cosmología que no es solo física, sino que incluye la vida. Esto no es poco y, por ello, hace una diferencia: por ejemplo entre luz como energía recibida y visión. En el primer caso, se dice que el medio recibe un fotón (fenómeno que recibe el nombre de dispersión en física) y en el segundo, se dice que el viviente ve. Polo dice que hay un vuelco que denomina “cambio de signo” vital. De luz dispersada a luz receptora hay un cambio de realidad: de movimiento extrínseco a movimiento intrínseco. Se van precisando así estas expresiones a medida que continuemos desarrollando este escrito.

Es diferente dispersar la luz como sistema de partículas, que recibirla y absorberla para generar su propio alimento: como lo hace por ejemplo, una planta. Polo denomina a esta diferencia cambio de signo vital, esto es lo decisivo.

Algo que interesa enfatizar ahora es que la velocidad de la luz, por ser insuperable y la misma para todos los sistemas en que se propaga, tiene una gran característica: “La luz me pone en situación actual lo que está lejos […] anula el espacio […] pero no anula el tiempo […]. La superación física absoluta del espacio y el tiempo sería la pura actualidad física del mundo. Esa actualidad física no existe. El mundo es estrictamente actual –o sin potencia sólo como objetividad- en esto se distinguen la luz física y la cognoscitiva: en si su actualidad anula el espacio, o además el tiempo. […] Aquella unidad formal que supera el espacio, aunque no el tiempo, es la luz …” .

Es así como la tetracausalidad luminosa, propagándose por analogía (hábito judicial: ciencia) se ejecuta a través de tricausa-lidades, o como decíamos del movimiento circular: “Que el movimiento circular se comunique, o que la unidad formal –la razón formal de efecto físico- se comunique y así se amplíe, es decir, se propague (y eso es la luz física: el movimiento circular no puede ser retenido por aquello que causa, y la luz sí: por eso se habla de propagación), comporta lo siguiente:

1) que nuevas formas aparecen, efectos de esa comunicación (eso es la propagación de la luz); pero éstas no son ya formas plasmadas en la materia, ni desgranadas en el movimiento continuo, sino formas añadidas: el efecto formal de la luz, su propagación; formas tales que capacitan a sus receptores para la continuación de la comunicación, es decir, para devolver la comunicación –ahora ya en concausalidad con el fin-. “Estos receptores de la comunicación son: o bien los términos hilemórficos (a), o bien los movimientos continuos (b): a) y por tanto las formas añadidas se componen con las formas preexistentes (que son las formas universales de las taleidades); son su unidad formal. Así pueden aparecer sustancias compuestas, no sólo elementales. Correlativamente, la causa material de las sustancias categoriales, dice Polo, es la materia dispuesta. La causa material dispuesta es la unificación de dos causas “in qua”; lo que sucede cuando ocurre que a dos ceses –de movimientos continuos- corresponda un solo término: la coincidencia de ceses permite vislumbrar la noción de cuerpo mixto; b) Y en su caso formas con eficiencia intrínseca, que son las operaciones vitales: movimientos intrínsecos a una forma, no sólo extrínsecos a ella (los movimientos continuos, en cambio, son extrínsecos por transitivos: porque desgranan la forma y cesan cuando la plasman en el término). “La causa material de las sustancias vivas es la materia fundida: la causa material que llamo fundida es la unificación de la causa “ex qua” y la “in qua”; con esa fusión, la sustancia categorial excluye de sí la causa eficiente extrínseca. “En ambos caso, se trata de la comunicación de formas, pues eso es la luz: la propagación de la unidad formal. Y, en efecto, la propagación permite que una forma sea recibida por otra; [en cambio] la circunferencia no es recibida por las taleidades. La comunicación de formas es un requisito tanto para su composición, como para la vida.

2) pero además, estas nuevas formas no son efectos del fin, como lo es la forma circular del movimiento discontinuo, sino más bien de la comunicación de éste, de la ampliación que se consigue con su propagación. No son efectos del fin, porque constituyen una analítica directa del ser. “Como si dijéramos el “efecto formal” de la unidad al propagarse es su ampliación; así se torna explícita la analogía real. Pero esa ampliación exige ser recibida, es decir, demanda que el receptor sea capaz de devolución; y por eso la captación de la luz no se denomina propiamente efecto formal, sino potencia de causa: se trata de una nueva causa formal que puede llamarse no efecto formal sino potencia de causa, en atención a que la ordenación inmediatamente recibida es emitida. Si la unidad formal se comunica, se propaga; eso es la luz física. Mediante ella se amplía la medida en que puede intervenir el fin: ya no sólo según el movimiento circular, sino según la recepción de la luz” .

Es importante entender la conformación de los cuerpos materiales para pasar a conceptos inherentes a la realimentación, como vemos a continuación: “Aristóteles propone una teoría de los niveles de potencias vitales. Las inferiores son estructuras formales orgánicas. ¿Qué relación guarda una potencia formal, una facultad, con su órgano? Según Aristóteles, el órgano de un ser vivo es un mixto, una mezcla estable, hoy diríamos un equilibrio químico. Mixto significa una combinación de elementos corpóreos con una cierta unidad que cuando se pretende romper reacciona […] noción de estímulo y respuesta” .

La aparición de nuevas formas es de gran importancia para entender lo que es una facultad, no solo vale para las facultades humanas sino las de todos los seres vivos: “Para que una forma tenga que ver intrínsecamente con un fin es necesario que se determine, esto es, que de antemano la forma esté afectada de indeterminación, ella misma, como forma. Es lo que Aristóteles llama facultad vital -potencia vital-, cuyo nivel más alto es la inteligencia” . “La distinción de determinaciones dentro de la indeterminación es la determinación práxica de una forma, esto es, una posesión del fin que no agota la posibilidad […] la cual es probable respecto de la indeterminación. La realización de esa probabilidad es la acción práxica, o sea, la relación en acto de la potencia con el fin” .

Cuando ocurre el cambio de signo vital, es decir, cuando se trata de un cuerpo vivo, se está asegurando que absorbe, no solo cuerpos materiales sino movimientos de cuerpos extrínsecos a él. El cuerpo vivo lo hace para alimentarse, crecer y/o reproducirse: “ … la recepción del movimiento circular, o la propagación de la luz, ya no es lo diferencial de la vida; sino la comunicación de la unidad formal que permite la complejidad de lo físico: la ampliación de la medida en que el fin puede intervenir. La vida, en cambio, tiene de diferencial una intensificación de la recepción y devolución, porque los receptores de la unidad formal no son sólo los términos, sino los movimientos continuos: la diferencia entre los mixtos y los organismos reside en que éstos últimos son capaces de captar no sólo otros términos, sino también movimientos continuos; es decir, causas eficientes extrínsecas que, al ser captadas, pasan a ser intrínsecas” . “… noción de mensaje: secuencia informática de actualizaciones práxicas. Aristóteles no piensa el lenguaje cuantitativamente, pero puede entenderse así con la sola restricción de que la cuantificación no sea exacta, atendiendo a que los segmentos de probabilidad no son equivalentes e implican cierta novedad […] la potencia vital pasa al acto en virtud de un mensaje, es decir, estableciendo una probabilidad de actuación, que es su propia determinación práxica. […] La información no es una fuerza necesaria, sino que se determina según la región de probabilidad que tiene en el mensaje. “El código genético puede tener una estructura semejante a la de una potencia activable, es decir, estar constituido por un conjunto de determinaciones informáticas que de entrada están en potencia y que se actualizan por partes, ya que la ordenación de todas las determinaciones posibles del código ha de ser diferencial. El organismo no es una unidad homogénea. En el planteamiento aristotélico el crecimiento orgánico es la reproducción diferencial” .

La diferencia entre movimientos físicos extrínsecos (kínesis) e intrínsecos (praxis) viene de Aristóteles. Su aplicación a los sistemas realimentados se entiende y asimila a los seres vivos empezando por los niveles sensibles, y escala hasta la cumbre, que es la libertad: “por ser distintas las praxis de las kínesis, las modificaciones de unas y otras lo son también. El salto de un estado de equilibrio a otro no puede reducirse a una moción, pues la kínesis es un continuo y la praxis un discontinuo […]. Para explicar las conexiones no continuas se necesita la noción de retroalimentación. “La realimentación más alta para Aristóteles es lo que llama hábito —hexis—, cuyo análogo en el nivel sensible son los sentimientos. Los hábitos perfeccionan la potencia haciendo posible el crecimiento de la posesión del fin, o sea, la posesión de fines superiores. Por eso los hábitos aseguran los estados de equilibrio evitando la degradación de la actividad. Así pues, los hábitos son estados de la libertad. De acuerdo con este enfoque, la libertad comparece por encima de la eficiencia como poder sobre la probabilidad” .

También hay diferencia entre realimentaciones sensibles y físicas pero no son kínesis, sino sincrónicas. Polo prefiere llamar a este tipo de realimentación, sentimientos: “El hábito vital como realimentación se ocupa exclusivamente de la modificación de la potencia vital, de manera que sus estados de equilibrio son cambiados consistentemente. “Las facultades orgánicas no son susceptibles de hábitos, por lo que su autocontrol ha de entenderse de otra manera. Ante todo, como tono sentimental. El sentimiento informa sobre el equilibrio de la actividad, por lo que es positivo y negativo —alegre o triste—, de manera que sin ser una praxis de ninguna manera se reduce a kínesis. A mi modo de ver, el sentimiento es cuestión de intensidad, o mejor, de densidad. Estas palabras indican la unificación de la probabilidad. “El hábito es superior a la praxis porque es la aparición de la libertad; el sentimiento no llega a tanto, pero indica la no indiferencia que he denominado probabilidad práxica. Por eso llamo intensidad al tipo de unidad que le corresponde. Aquí añadiré una glosa directa de esta noción: la densificación de la probabilidad es la sincronía” .

Como antes hemos dicho, existe un tipo de sistemas que aprenden siempre positivamente. Así comienza el escalamiento que va auto modificándose según sea la facultad, potencia o el alto más elevado del ser, su libertad:

“El hábito vital como realimentación se ocupa exclusivamente de la modificación de la potencia vital, de manera que sus estados de equilibrio son cambiados consistentemente. Esto significa que el objetivo, el fin es también la modificación de la facultad. Por tanto, la inteligencia es dual-final, es decir, se finaliza a sí misma en orden a su fin, de manera que dicho fin no se alcanza sin el crecimiento de la potencia. Y esto para Aristóteles es la libertad: ser libre significa ser dueño de sí, causa para sí. La forma funciona como causa final cuando su referencia al fin es, a la vez, una referencia a su estatuto potencial en cuanto perfeccionable. 

“Éste es el último sentido que tiene la noción de realimentación, por encima de lo que se puede hacer con una máquina” .

Cuando Polo utiliza el término probabilidad, se refiere a la combinatoria de posibilidades que van emergiendo de la facultad o potencia en cuestión. Esta redefinición matemática a cómo deben entenderse las secuencias posteriores a la respuesta a un estímulo se entenderá en la segunda parte con toda claridad. Es el modo en que se eleva lo numérico de manera decidible : “Las facultades orgánicas no son susceptibles de hábitos, por lo que su autocontrol ha de entenderse de otra manera. Ante todo, como tono sentimental. El sentimiento informa sobre el equilibrio de la actividad, por lo que es positivo y negativo — alegre o triste —, de manera que sin ser una praxis de ninguna manera se reduce a kínesis. A mi modo de ver, el sentimiento es cuestión de intensidad, o mejor, de densidad. Estas palabras indican la unificación de la probabilidad. “El hábito es superior a la praxis porque es la aparición de la libertad; el sentimiento no llega a tanto, pero indica la no indiferencia que he denominado probabilidad práxica. Por eso llamo intensidad al tipo de unidad que le corresponde. Aquí añadiré una glosa directa de esta noción: la densificación de la probabilidad es la sincronía” .

Hemos llegado por fin a la necesidad del concepto de sincronía y cómo lo explica el mismo Polo (me refiero a la sincronía vital como se ha expuesto aquí). Es que los tipos de vida se adscriben a los tipos de sincronía. Por eso transcribimos al pie de la letra lo que dice Polo sobre ello. Hay muchas definiciones y acepciones de la sincronía: en ingeniería, en medicina, en química, en física …; depende de qué tema se esté discutiendo. La sincronía poliana se ubica en la conceptualización de sistemas que ya habíamos comentado desde el inicio, es decir, la referida a la vida:

“… un cuerpo vivo es un todo complejo cuyos elementos son todos pertinentes. Desde este punto de vista, el sistema no es tratable analíticamente. 

“La teoría de sistemas se aplica sobre todo en ecología y en sociología. A mi entender, han de evitarse dos posturas extremas: Primero: suponer que cualquier sistema es autosuficiente. Segundo: no admitir los sistemas reales. “El primer error conduce a no percibir la diferencia esencial entre tipos de sistemas; por ejemplo, sistemas homeostáticos o cerrados -que no aprenden-, los sistemas abiertos -que mejoran al interactuar con otros-, y los libres -que son los estrictamente cibernéticos: susceptibles de aprendizaje positivo o negativo-. “La omisión de estas distinciones explica el segundo error, el cual surge precisamente de la univocidad con que se usa la noción de sistema, lo que lleva también a considerar la homeostasis, que es el sistema más pobre, como cumbre de la teoría. “Ahora bien, admitir que existen sistemas reales no obliga a sostener que se conocen exhaustivamente, sino tan sólo a la esperanza racional en la congruencia de los factores no admitidos u omitidos. “La dimensión heurística de este método estriba en que, al formar parte de sistemas, los factores son relevantes; de manera que descubrir su carácter sistémico equivale a desvelar su importancia real, con la que se enriquece la comprensión de los factores anteriormente advertidos” .

La objetivación mental, es decir, la abstracción escapa completamente a la sincronía. Es actual. Es articulación temporal dice Polo. La articulación del tiempo salvaguarda la distinción de la esencia del hombre respecto de la esencia y el acto de ser extramentales, los cuales a su vez se distinguen como antes (esencia) y después (persistencia). Al articular el tiempo según la presencia, la distinción real del antes y después queda fuera : “En rigor, la noción de sistema es eminentemente crítica: deshace los reduccionismos de la interpretación analítica de la realidad. Obviamente, esta crítica no es negativa, y se malbarata si se desconoce la diferencia entre los sistemas”. “La unidad de la praxis intelectual se caracteriza como simultaneidad o actualidad — posesión del fin en presente —; la praxis sensible es una unificación intensa, sincrónica, que no alcanza a ser actual, es decir, la presencia mental. Un alto ejemplo de sincronía es el espacio imaginado. Otro ejemplo bastante claro puede ser la composición del objeto visual. A esta cuestión corresponde la distinción, propuesta por la psicología clásica, entre sensibles propios y comunes, que se dan coimplicados. “El racionalismo inaugural de la psicología moderna pretende deshacer dicha complicación. Asimismo, pretende que la infinitud del espacio euclídeo comporta actualidad; no cae en la cuenta de que un espacio actual es incompatible con el tiempo. La larga polémica sobre el carácter euclídeo del espacio real abierta con la crítica platónico-aristotélica a Parménides se abrevia al distinguir actualidad y sincronía. “La neurología actual, por el contrario, extiende la noción de sincronía hasta el nivel celular. Sólo son estables las sinapsis entre neuronas que descargan a la vez porque sólo así están interconectadas. Los científicos hablan de este asunto, sobre todo, a partir de las investigaciones del psicólogo Donald Hebb” .

SEGUNDA PARTE

Capítulo 1.- Las Matemáticas de la Ecología

  • Matemáticas de la Vida
  • El logos y la Matemática
  • Logos y dinámica vital

Matemáticas de la vida

Es innegable que del espacio reticular cartesiano se llega a la isotropía del espacio newtoniano, pero aun de modo euclídeo; es decir, la línea recta surge como la figura natural más simple de ese espacio. Así fue como la cultura occidental prosiguió a la geometría euclideana cuando ya Platón, implícitamente, superaba -a Pitágoras- al definir la recta como “aquello que cuando se mira en escorzo, se ve como un punto” .

Pero cuando se profundizó históricamente para llegar más allá, es decir, buscando leyes que se cumplan siempre en cualquier tipo de espacio, euclídeo o no; se llegó a nuevas leyes, más generales para espacios curvilíneos donde la figura más natural no es la recta.

Es más, la correlación físico-matemática que siempre existió, favoreciendo a la física en su liderazgo como arte-ciencia; llevó a los científicos a experimentar y comprobar que las leyes de la mecánica hasta entonces inexorablemente válidas, dejaban de serlo a nivel quántico. Se repensó completamente la naturaleza física y los experimentos llevaron a nuevos paradigmas. Estos espacios eran ya imposibles de imaginar, como realidades incluso superiores al espacio-tiempo (que ya cuesta imaginar).

Es así que de la misma matemática -al modo de geometría- que había servido de fundamento para enunciar y demostrar esas leyes inexorables -convertida al efecto, en lógica deductiva-, se tradujo en establecer logros que llevaron a más de un resultado paradójico como el teorema de la indecidibilidad de Gödel, ya mediando el S XX.

La salida de este hoyo se ha logrado gracias al movimiento circular poliano, que nos eleva para llegar más alto. Nos permitirá prever incluso, por primera vez, algunas reglas matemáticas que pueden ser útiles para medir la actividad ecológica. El movimiento circular poliano, emerge de su método del abandono del límite mental.

Es que en el S XIX, ya ocurrían desarrollos que buscaban el final del progreso lógico-matemático que venía ejerciéndose con éxito desde el S XVII. Es más, se diría que todo el progreso que viene en los siglos posteriores se inició allí, en el S XIX. El secreto radica en que supieron utilizar el método dialógico. Se sabe más si nos hacemos preguntas pertinentes.

¿En qué se diferencian 5kg, 5m, 5euros o 5 lt? Salta a la vista que en la unidad de medida (kg, m, euro , lt). Pero … ¿por qué otros casos, como el de la vida, no se vinculan a su propia realidad como se hizo antes (S XIX), en los otros casos ? Es más, cabe preguntarse primero ¿se pueden medir? La pregunta es difícil pero quizá por ello, emerge espontáneamente. El autor siempre había tenido esta inquietud. Le costaba pensar que si para sumar se usan las mismas reglas del cálculo que en la física, el sustento y referente básico fuera diferente para otros casos, de otras ciencias.

En esta línea, al estudiar a fondo los números aplicados a realidades físicas, se hace necesario consolidar todo el cuerpo de conocimientos referidos a los números que no son matemáticas puras sino totalmente aplicadas a la realidad material. Con el avance que se dio entre mediados y fines del S XIX, la generación de espacios métricos quedó completamente definida, sin resquicios; que permitieron el abordaje de la relatividad (gracias al descubrimiento de la constancia de la velocidad de la luz por Maxwell) y la quántica.

Impresiona mucho que sólo recientemente, en 1959 (más de 100 años después) Debreau definiera un espacio para la economía matemática. Ahora, el autor acaba de re-definir ese espacio mediante otra métrica más adecuada para explicar todos los “fenómenos” de la economía. El nuevo espacio se basa fundamentalmente en el de Debreau, pero imaginado para aplicaciones más complejas. Es porque ya se sabía cómo completar el espacio matemático de la física de modo inexorable, y eso es lo que se expone en ese libro, con validez para todos los posibles números vitales. Pero el sustento es poliano y es lo que se reafirmará en este libro para la ecología.

Cuando se profundiza en la teoría del conocimiento del profesor Polo, uno se da cuenta de que la matemática tiene que ser la misma siempre, pero los conceptos y proposiciones son análogos. Es más, si se aspira a ser una autoridad en esos temas , hay que profundizar en los contenidos humanos que vinculan la vida a los contextos psico-sociales y ecológicos en que está inmersa. Al final la profundidad del pensamiento poliano-matemático, permite dar referentes muy sólidos.

Si hay algo que se pueda asegurar, es que la ciencia está en los científicos y no es algo que se pueda concretar con una respuesta hablada . El mundo sigue especializándose cada vez más en todo. Hay caminos y métodos poco convencionales, pero también se recurre a los convencionales. Animan a ello los que son considerados expertos, y es bueno buscarlos tanto en el entorno cercano como en el lejano.

Se llega a intuir, al trabajar con números, que otras ciencias deben tener leyes -como que ya existen muchas y muy variadas, según las ciencias- llámense como se llamen, según su caso. Hay que estudiarlas más a fondo de lo que se acostumbra y los expertos son conscientes de aquello. Hay que trabajar con ellos, asistir (y presentar ponencias) a congresos, charlas, conferencias, etc.; para empaparse de los temas relacionados. En el caso de ciencias de la vida, facilita haber profundizado en temas de física teórica. Pero la biología exige trabajar de otro modo con los números. Ello exigió de nuestra parte una revisión exhaustiva de otras materias, como es el caso de la estadística aplicada. Era lógico, encontrar coincidencias completas de desarrollos matemáticos conocidos, como los que se emplean en estadística para verificar hipótesis de laboratorio.

También se hace evidentemente lógico, que haya que tocar temas propios de las ingenierías. Además, hay que saber trabajar con aplicativos computacionales, lo que requiere experiencia con máquinas -en general- y estadística práctica o aplicada. Son temas importantes y difíciles, pero anima saberse apañado por un gran método -el de Polo- que sustenta tantas coincidencias.

Existe una máxima de gobierno que bien puede analogarse a lo operativo: si la bondad de los hombres está en los hombres buenos , si esto vale para los juicios morales de primer nivel (como venimos diciendo), entonces debe ser análogo que: la ciencia de los hombres está en los científicos; cosa que vale para los juicios científicos -los de segundo nivel-. Este último colofón es la tesis que resume este libro, pero hay que dar pasos de dificultad histórico-técnica antes de llegar a ella, que casi obligaban a ponerle el título que lleva.

Esa última parte, la de la ciencia, del colofón; era del todo original. Pero coincide en gran parte con la expresión de Polo, que afirmaba que el ser humano es el perfeccionador perfectible. Acá nos fijaremos más en lo perfeccionador o científico (menos elevado) que en lo perfectible o moral (lo más alto); pero ello no obsta para afirmar que perfeccionar (trabajar, crear) sea muy importante y sirva incluso para más perfectibilidad. Esto nadie lo dice claramente así para los hábitos, sino sólo para las virtudes . La diferencia entre hábito y virtud está en que la virtud es moral. Es también hábito, pero es tan importante por sí sola que fue “bautizada” con un nombre especial: virtud. Hay muchas otras diferencias, pero valga ésta, para el caso. Hasta hace muy poco (1950) los hábitos morales eran tan hábitos como los científicos, aunque todos llamábamos virtudes a los primeros.

Una de las primeras conclusiones, que ya es una novedad; es que la matemática (como se entiende desde la perspectiva poliana) se puede aplicar -analogadamente- a otras realidades numéricas, es decir, que los números son números siempre; pero los conceptos que se analogan a los juicios de cada realidad son otros.

Polo nos hace ver cómo tuvo que habérselas con las historias -la de cada ciencia- sumergidas en otra historia -la de la sociedad humana-. Y es que las personas -que somos fines en sí- utilizamos los medios históricos al uso de cada época (la cultura), pero esos medios han sido -históricamente también- convertidos a fines en sí mismos. Es un modo de hacer que la historia se transforme en motor en lugar de ser “movida”, algo común en los modernos que terminaron en tal confusión que el profesor Polo tuvo que estudiarla a fondo. Gracias a Polo tenemos más claridad de discernimiento en estos temas tan importantes

Es tan cierto que ha ocurrido esta transformación de medios en fines, como se deja ver en las tres partes de Filosofía y Economía último libro presentado en vida de Polo; que es muy buen referente de cómo ocurrió en ese caso (el de la ciencia económica). Las explicaciones que se dan son de índole socio-política o moral, más que en un marco puramente económico. Y es que esas explicaciones son más importantes, qué duda cabe; sólo que terminan por reflejarse en lo económico. Y cómo se reflejan lleva incluso a dar leyes que las rigen. Y esas leyes tienen expresión matemática, pero sólo se encuentra la explicación de esos vínculos en la filosofía del profesor Polo: “Al carácter no fundante del logos responde el teorema de Gödel, según el cual, si se demuestra la consistencia de la matemática, eo ipso ésta es inconsistente. Este teorema formula una notable paradoja que equivale a la imposibilidad de autorreferencia: también los objetos del logos son intencionales, o no susceptibles de certeza representacionista (de acuerdo con el citado teorema, pretender esa certeza destruye la matemática). Como se anotó, al versar sobre lo judicoide, la base no da lugar a un logos que sea ‘fundamentoide’…” .

¿Cómo puede ser que tanto reyes como lacayos (y esclavos) se hayan dejado manipular por los medios o la cultura, que es lo que estos representan a través de los siglos; si se trata de medios y no de fines en sí mismos? Y además es cuantitativo, es decir, su nivel de medio es tan bajo que sorprende tal influencia. Sólo la aclaración que da el profesor Polo con su Teoría del Conocimiento fundamenta de modo claro, aunque no sea tan sencillo como uno desearía, los entresijos que no pudieron descubrirse antes.

Algo similar ocurre para la vida. La medicina que viene siendo una ingeniería como ya se dijo; pero la vida, por estar tan relacionada con las causas, sobre todo la final, desencadena una co-relación en las formas que tiene su propia matemática vital. El universo se manifiesta aquí con lo que Polo llamó el cambio de signo vital, el que ya hemos desarrollado suficientemente en la primera parte del libro.  

El logos y la matemátiva

Es posible entender, razonando con los nuevos términos que introduce Polo -para las matemáticas- tales excesos históricos. Tales nuevos términos son: los Conceptoides y Judicoides.

Así, como antes vimos, Polo partió de la abstracción hacia las operaciones cognoscitivas que llevan al concepto y posteriormente, al juicio. Pero hay otro modo de proseguir, desde la abstracción, que llama prosecución generalizante: “La primera operación es la abstracción. De la abstracción salen dos líneas prosecutivas: una es aquélla en la que se obtienen ideas generales, las operaciones generalizantes. Otra línea [la que ya hemos visto como concepto y juicio] es la de las operaciones explicitantes, o las operaciones racionales, que son aquéllas con las que se conoce mejor la realidad abstracta. Conocer mejor la realidad abstracta es justamente conocer sus principios. Pues bien, estas dos líneas prosecutivas son divergentes” .

Continúo citando a Polo: “La inferioridad [de la idea general] respecto del concepto o del juicio lleva consigo, asimismo, que el objeto del logos no puede llamarse concepto o concebido, ni juicio o juzgado. En su lugar, hablo de conceptoide y judicoide” . Se refiere con esto a que en la segunda línea prosecutiva, cabe una alusión referencial con lo real, con el concepto y con el juicio de que se trate el asunto.

Antes, ha dicho: “la idea general es una regla ajustada por compensación con los particulares: esto es lo objetivado en cada nivel de la prosecución generalizante. Ahora, desde la iluminación por las compensaciones racionales, hay que ‘llevar’ la regla hasta los particulares. Llamaré a este llevar elevación al logos. Es claro que, de acuerdo con tal elevación, los particulares dejan de serlo y la regla pasa a ser pura relación” (léase a continuación).

Sea por ejemplo una moneda, la idea general puede ser su aspecto cilíndrico (otras ideas generales serán otras notas propias de tal moneda). La compensación racional se da cuando afirmo que esa moneda, con tales y cuales características, tiene ése aspecto y que por asemejarse, varias de ellas juntas aumentan mi capacidad de compra: puedo “sumarlas”.

Polo afirma: “la conversión de la idea general en relación es superior a aquella (a la idea general) […]. La idea general es regla respecto de determinaciones particulares, pero no en su mismo nivel [es algo común a todas esas determinaciones]. Es el logos el que objetiva la relación como idea general en ese nivel; y, entonces, sí importa cuántas sean esas determinaciones […] el uno universal [la unidad como moneda y sus otras características que la identifican como moneda en el ejemplo anterior] no es un número, pero su versión intencional sobre los objetos de la otra línea prosecutiva permite conocer los números” .

Y continúa más adelante: “la unidad en muchos conceptual [concepto de moneda] ilumina la idea general en tanto que regla [valor monetario para comprar], con lo cual ésta es entendida en los particulares: logos. Este objeto es más elevado que la compensación de lo general y lo particular” .

A las prosecuciones del primer tipo Polo las llamó racionales y a las del segundo tipo: generales. Esto debe destacarse porque las primeras siguen elevándose hasta llegar a lo que Polo llamó fundamento (un primer principio: o persistencia), que da lugar a las proposiciones lógicas, conocidas y usadas en los silogismos de la lógica formal: “el fundamento (objetivado como base) es intencional sobre la compensación judicativa, que es la proposición” .

Con ello restablece y aclara por qué ha venido ‘funcionando’ tan bien el método de lógica deductiva proposicional para las matemáticas. Para los modernos, al no hacer patente tal distinción entre ideas y conceptos, se consolidaban sólo las ideas, desapareciendo la temática racional: “así consolidadas ya no versan sobre las ideas generales, y se extrapolan (de esta manera aparece lo que suelo llamar metafísica prematura )”.

Esa extrapolación se ha dado en todos los campos del saber, e incluye a la política. Unas veces como enunciados, otras como leyes o reglas habladas o escritas, otras como “dichos” (casi siempre, populares), etc. Tiene implicaciones económicas, legales y muy humanas, explicitándose o no, como números. Esta nueva versión de cómo funciona el logos no llega a primeros principios como el fundamento, y menos a los otros dos ; que juntos, son -ahora sí- metafísica pura. Y explica con naturalidad humana cómo entender, la realidad del fundamento; ya que siempre estamos por encima de ella. Al final, la conclusión -ya se dijo antes- es que esencializamos el fundamento y no al revés.

De aquí en adelante, las citas serán casi todas de libros de Polo y se intentará, además, que formen parte de un discurso que se intentará ajustar ágilmente a la redacción del autor; pero vale la pena que sea expuesto con el rigor que da la redacción original. Esto dará más seguridad al lector y evitará interpretaciones equívocas del autor. Se intentará no perder agilidad en la lectura por ello. La adaptación de los escritos originales polianos, en este modo de continuidad, demuestra la elevación de que se habla desde el principio de este libro, porque la antropología -vista así- es una filosofía primera, lo que también es un descubrimiento contemporáneo.

A partir del número se está en posesión de un nuevo objeto : “la matemática se empobrece al entenderla como ciencia de la cantidad; la matemática es la ciencia de las formas que son puros objetos” … “El número de ninguna manera es empírico, sino una pura propiedad relacional que se parece mucho al universal (por eso lo suelo llamar conceptoide)” , pero “El número se distingue del cálculo” … “volver a lo empírico es pensable por un retorno desde el número a la idea general. Sólo con ideas generales el cálculo es impensable” … “también los objetos del logos son intencionales respecto de las ideas generales: dicha intencionalidad es el cálculo” … “El número en cuanto que tal es átomo, pues una propiedad relacional no tiene partes. El 2 es todos los 2 y el 3 es todos los 3. En este sentido, no cabe sumarlos” … “si la noción de número puede aclararse llamándolo conceptoide, el cálculo podría llamarse generaloide” … “El cálculo es un cierto descenso desde el logos” … “ese descenso tiene un inverso, cierto ascenso, según el cual el logos prescinde de la particularización del número inherente al cálculo y asume sus resultados reponiendo para ellos la condición de número o pensándolos de acuerdo con ella ”. Todas estas citas aclaran cómo el número tiene que ver con los conceptos y los cálculos que le permiten “ascender” en su propia línea de objetos para consolidar nuestro conocimiento de lo vital como matemática (en algo que se mide) de modo certero y real.

Será justamente la matemática del movimiento la que nos permitirá detectar lo que falta o lo que sobra a los movimientos vitales siguiendo a Polo en CTC IV tomo 2 Lección quinta, párrafo 5 nota 89 “el número físico es el éxito de la concausalidad; el éxito de la concausalidad es lo contrario del ens per accidens”. Es decir, que toda la actividad dinámica, a la que se unen las actividades alimenticias, reproductivas, etc.; que son las que hacen posible la vida de un ser del universo, tienen como referente la concausalidad cuádruple esencial del universo físico. La unidad de orden se va haciendo “visible” a nuestro entendimiento gracias al éxito matemático-hipotético de nuestros números pensados.

“Aunque el número no es una explicitación, es el descubrimiento de un aspecto de la concausalidad que sin él ni siquiera se sospecharía […] la segunda operación del logos se ejerce desde la iluminación de la primera operación del logos por la compensación judicativa. El logos es la operatividad unificante y, por ello, para proseguir no requiere hábitos; o, lo que es igual, el logos es una unificación operativa, no habitual […]. El juicio es la explicitación de la concausalidad entera, implícita en el concepto, y su compensación, la conexión predicativa. Por tanto, el juicio objetivo -la proposición- aclara lo que de conexión tiene el objeto del logos. […] La aclaración desde la compensación judicativa es lo que se llama función: cualesquiera que sean los cuantos, hay relación determinada con cuantos”.

Continuaré citando palabras de Polo: “ … la segunda operación del logos objetiva además que hay relación de cuantos siempre, o cuantos sean. Con otras palabras, siempre hay cuantos, es decir, hay relación pura para ‘todas’ las relaciones puras; o bien, la relación también lo es de relaciones. Si hacia abajo la especie abrevia el género [gramos], hacia arriba, en el judicoide, el género es sustituido por la relación de relaciones […] Mientras que el objeto del primer nivel del logos es la aproximación de la idea general al concepto (cabe llamarlo ‘conceptoide’), el del segundo nivel es la aproximación del conceptoide al juicio (cabe llamarlo ‘judicoide’). Dicha aproximación es una prosecución del logos que no alcanza el nivel de las operaciones racionales. Por eso, las conexiones racionales son más firmes que las del logos, en tanto que consolidadas por la base ”.

Logos y dinámica vital

Un ejemplo más que típico de utilización de judicoides para las actividades vitales, es el de alimentarse, ingerir calorías (que ya es una función, pero primero es un concepto). Y todavía más: la derivada (operación de cálculo) de lo ingerido (que también es una función, pero apunta a otro concepto muy útil) -llamada por ello, requerimiento (vital)- tiene inacabables usos en los cálculos de equilibrio y otros, que articulan casi toda la ecología. El concepto de requerimiento es físico porque se refiere a la cantidad mínima de algún insumo comestible: por ejemplo las calorías necesarias para sobrevivir. Las llamadas unidades de la magnitud (conceptoide –en el ejemplo, requerimiento- es el éxito de tal tri-causalidad) o un número matemático representativo, es decir [cal/gr], son el descenso (que permite la suma) del conceptoide, elevado a requerimiento (judicoide) que queremos medir en forma numérica.

Subiendo en la noción de judicoide dice Polo: “la aclaración desde el juicio abre la cuestión de la infinitud de los cuantos, pues las funciones son relaciones entre cuantos cualesquiera. Con todo, no sabemos si siempre hay funciones, lo que pone en peligro la compensación […] la ausencia de fundamento en el logos impide que la noción de judicoide desemboque siempre en el cálculo: es posible que la conexión de propiedades relacionales las haga incalculables, es decir, que se trate de relaciones no convergentes, o algoritmos no resumibles […] Este es el peligro: la dispersión de los objetos del logos” . “La analogía es la clave de la prosecución racional, pues sin ella no se puede pasar del concepto al juicio … la analogía declara insuficiente la explicitación conceptual …”. Proseguir se requiere para pasar del cálculo (“ … que es inferior al nivel de los números, aunque superior cuando se generaliza como número sujeto de cálculo: negativo, racional, real, imaginario, …; generando nuevos y propios objetos …” ) al 2do nivel del logos.

Continúo citando a Polo: “ … el descubrimiento de los números es un indicio de la superioridad de la mente humana sobre lo físico, referido precisamente a lo físico [vital …] se muestra en las intenciones hipotéticas, las cuales, por otra parte, invitan al hombre a aportar, mediante su acción práctica, mejoras en el orden del universo” . Coincide que al estudiar la propagación de la luz física desde la hipótesis mental (Polo llama a la propagación de la luz: hábito conceptual ) que es numérica, la física avanzó -gracias a la matemática- a partir del concepto de velocidad absoluta de la luz (relatividad); para llegar a entender la materia, la luz y hasta las “antiguas” fuerzas como partículas elementales (mecánica quántica). Es que reflejan la propagación de lo unitario (unidad de la analogía en lenguaje de Polo). Antes, ya se había avanzado matemáticamente, sobre la base de un principio llamado de Mínima Acción (PMA ), que reducía todo a la magnitud que se llamó acción. Después coincidió que el quantum elemental, también tenía las unidades de la acción mínima.

Por eso parece que Polo fomentó que se progresara en conocer más su fundamentación de las matemáticas, desde el origen del conocimiento, por la “soltura” que da para pasar a otros referentes de las mediciones matemáticas. “Comer” calorías tiene que referirse a métodos matemáticos de valoración (en números), pero también puede sustentarse -ya se ve- en conceptos distintos a los físicos.

Insisto citando a Polo: “Las operaciones unificantes no se consuman ni tampoco sus objetos. Lo que se piensa con ellas es la no consumación. Si se consumaran, no se ejercería más que una operación. Si se ejercen varias, sus objetos no pueden estar aislados entre sí, pues es inadmisible la idea de una unificación plural desunificada. Por ello, repito, las operaciones unificantes han de ejercerse de modo que el objeto [gr] de la primera apele al de la siguiente [cal/gr]. Y esto es lo que llamo no consumación: la operación siguiente ha de ratificar el objeto anterior como no consumación. El logos es una unificación plurioperativa. Pero por ser unificación, los objetos de esas operaciones no pueden aislarse: es preciso, por así decir, que no haya solución de continuidad entre el objeto de una operación y el de la siguiente. Por tanto, el objeto de la segunda operación [judicoide, requerimiento mínimo: cal/gr] ha de ratificar el de la primera [conceptoide, gr] y no desmentirlo, es decir, no puede ser una respuesta a la pregunta por la totalidad de los números. Lo que he llamado apelación objetiva no se confunde con esa pregunta. La ratificación aludida tiene lugar de modo “continuativo”, o sea, la operación siguiente encuentra más números, pero no “todos” (noción de sistema de ecuaciones sin solución, [números imaginarios por ejemplo])” .

Otra cosa es que nuestra esencia, humana; supera los números pensados pero con todo, siempre debe cumplirse el orden tetracausal. Me explico con un ejemplo. Si me anima comer más motivado por el sabor, supero el “mínimo requerimiento” de calorías necesarias. Con todo, el producto es físico y eso implica una unidad de orden (causa final) que se cumplirá aunque la ingesta se haya generado gracias a una preparación cariñosa, fuera de su contexto bio-físico (motivación intrínseca-extrínseca). Eso devendrá posteriormente en consecuencias sobrealimenticias, tal vez dentro de varios días. Por eso los dietistas incorporan cada vez más los requerimientos “equilibrados” a las comidas. Pero lo que se puede incorporar al número (serán las calorías o gramos) es lo que tiene que ver con lo físico (la comida), como calorías, aunque supere -como acto esencial humano- a una medición (el sabor). En todo caso, puede estudiarse la causa eficiente físico-humana (extrínseca-intrínseca ) pero hay que saber cómo incorporarla a la dieta, y así, puede ocurrir que terminemos destrozando la salud. Hay muchos ejemplos en la ecología de esto que estamos diciendo.

Afortunadamente, la manipulación conceptoidal ya ha tenido el éxito numérico predicho por Polo en la concausalidad para la física, pasando a la relatividad y a la quántica. Y todo ello gracias al conceptoide “magnitud”: la unidad de medida: sea Kg, Km, euro, lt, o cualquier otro caso. La gran unificación se viene realizando por el PMA (Principio de Mínima Acción). Esto es lo previsto por Polo: quedando establecido el itinerario matemático para los judicoides básicos, cualesquiera que éstos sean.

La física de causas (denominada así por Polo) corrobora que debía ser así, pues escalar a las proposiciones “judiciales” parte de los conceptoides y exige a todos ellos ser analogables a lo que se llama magnitud -lo que se está contemplando aquí- (sólo así pueden ser logos humano realizable físicamente, es decir, números); como ocurre con los bienes y servicios (economía), la sub-alimentación (medicina) o una dieta equilibrada (biofísica). Estos últimos son ejemplos de la intervención humana que puede mejorar o empeorar -con sus hábitos- la naturaleza.

Las interacciones (desde el alimento hasta la excreción que produce) son la base [fundamento] de la ecología. Pero la rapidez con que se dan puede variar mucho: desde una interacción luminosa, a la velocidad de la luz, hasta la selectividad de una especie que puede demorar muchos años (que podrían llegar a ser siglos, aunque la adaptabilidad generacional ya implique una o varias interacciones). “Ciertamente, la noción de especie es superada por la propagación. […] La génesis de la unidad formal es su propagación, la luz como condición de la biopoyesis: el paso de los cuerpos mixtos a los seres vivos (lo que se suele llamar biopoyesis).[…] Ese paso tiene lugar […] si los receptores no son sólo los términos, sino también los movimientos continuos” . A pesar de que para la física de causas nos hemos situado en la perspectiva del logos -para interacciones en gramos, por ejemplo- a los seres humanos nos anima más la metalógica de la libertad (la esperanza, en el lenguaje antropológico del profesor Polo). Toda interacción natural requiere la disponibilidad primero. Así, se sube hasta decisiones de gobierno (libres esencialmente pero antes, libres trascendentalmente) que topan al movimiento circular (efecto formal, que por ser una analogía muy novedosa, puede asimilarse a lo que en ecología es sistémico-artístico) de modo que se fuerza un sincronismo real (que es la ecología: coordinación de acciones humanas formando “equipo” con la naturaleza ), pero que se descubre desde el objeto matemático que los relaciona (calorías: energía): un conceptoide en lenguaje poliano. En palabras más “tradicionales”: me refiero a que hábitos como el de ciencia se anclan -por decirlo así- en la inteligencia, mientras que las virtudes se anclan en la voluntad . Estas últimas son más importantes: como es el caso de la prudencia para dirigir. Pero históricamente, a la sociedad de su tiempo, no le interesó tanto su sustento teórico, a pesar de ser tan necesarias en el proceso decisorio. Sólo profundizaron en cómo saber usarlas y saber por qué se usan, pero no profundizar en su sustento antropológico.

La Geometría de la Ecología

  • Logos y Ecología
  • Geometría y Ecología
  • Sincronía, Vida y Ecología

Logos y ecología

El medio ecológico por excelencia es la vida. Cuando hay vida, se facilitan todos los medios que uno requiera para seguir viviendo. Porque la vida misma, es el medio para vivir. Aunque todos los requerimientos pudieran expresarse en gramos para la vida; el medio debe facilitar los requerimientos -calorías- es decir, energía, para seguir viviendo, porque su falta puede llevar a que la vida desaparezca. En rigor la vida es también un medio (muy elevado), pero sólo las personas pueden ser fines, como ya se ha advertido.

La alimentación es el caso más representativo de los medios-fin, aunque crecer y reproducirse sean más altos: si no se come, se muere. La vida es el fin de la alimentación. Pero al mismo tiempo, los alimentos pueden ser seres vivos, porque igual sirven de medios para el fin que es vivir. Porque, a su vez, los gramos de alimentación se convierte en gramos del ser vivo, que para que siga viviendo lo hace su propia vida (que es su fin). Esa conversión en vida ya no se puede medir solo como gramos o energía, porque dejó de ser medio (aunque pueda ser alimento para otra vida que la requiera para seguir viviendo). Sólo la puede medir alguien que tenga una vida más elevada, que esté por encima de la vida física: vida cognoscitiva-física: ser humano. “La propagación de la luz comporta una ampliación de la medida en que puede intervenir la causa final […] la noción de especie es superada por la propagación […] la propagación impide que todo en el cosmos sea necesario, o efecto del fin. Necesario sólo es el orden, directo o mediado […]” .

Y, para que se entienda mejor, vuelvo a reponer una cita anterior de Juan García que redondea con claridad este punto: “el resultado final, en cambio, es llamativamente sorprendente, […] la diferencia cielo-tierra de Aristóteles en cierto modo se invierte. Ya que Polo distingue lo circular –que es presensible, aunque concebible- de lo luminoso, capaz de enviar especie impresa y que está directamente ordenado al fin; lo circular no es ya lo más alto y perfecto del universo, sino que ahora es lo inferior; y lo más inmediatamente sensible, en cambio, es ahora lo superior: por abstraíble, o directamente vinculado a la posesión cognoscitiva del fin. Esta inversión justifica que en la tierra aparezca y se despliegue la vida, que es la realidad física más alta; y la más cercana al conocimiento, la que lo ejerce .

Es como si los escritos clásicos y bíblicos se renovaran con más fuerza. Pues el hombre vuelve a ser así, el centro del universo, debido a la posesión cognoscitiva. A diferencia de los seres espirituales, el ser humano está insertado en medio del universo físico para perfeccionarlo, perfeccionándose.

Esta es la tesis, al final. Ya se ve que es muy compleja. Hay una conversión gramos-vida que debe evaluarla alguien que pueda hacerlo. Para eso, la vida viene de la propagación y es propagación -luminosa- como hemos visto en la primera parte. Solo alguien que pueda estudiar y asimilar la naturaleza de la luz y sus propiedades físicas, como hemos venido haciendo antes, puede entender que la concausalidad está como “encerrada” en esa naturaleza luminosa. “ …las taleidades, las formas mínimas universales, dependen del fin” . “Entendida desde la causa final, la analogía explícita es la tetracausalidad que mide su influjo; y, por esto, al comunicarse, ocurren las tricausalidades que cumplen el orden, a las que proporciona el modo o la medida de cumplirlo” .

Para que el uso de los recursos vitales sean informados a otras instancias, y no ocurran fenómenos desequilibrantes como envenenamientos, epidemias, etc.; el ser humano es un sistema realimentado. Interacciona con el universo de un modo que es cuali-cuantitativo: en el lenguaje poliano, se llaman inhesiones: de cualidad-cantidad-relación; de modo que estas tienen que ver con, y se puede elevar hasta, el nivel de judicoides.

Así se asciende hasta la capacidad cuantitativa, la forma que se transforma en objeto matemático. Aquí aparecen dos tipos de problemas: 1) cómo conecta lo micro interactivo a los grandes conglomerados vitales (especies, biopoyesis, etc.) y, 2) cómo se cuantifican, ordenándolas; las distintas interacciones de un mismo requerimiento -si hay casos, casi siempre es así- en que intervienen muchas especies y actividades que se coordinan en el tiempo y hay que cuantificar proposicionalmente.

Es aquí donde entramos a considerar los números , desde un nivel superior al acostumbrado. Estudiaremos ahora cómo es que las interacciones vitales -como cantidades en gramos- pueden ser ajustadas a nociones propias de la biología y además, queremos saber cuál puede ser su judicoide (al hablar de requerimiento ya hemos llegado a la –energía mínima requerida- o cantidad en cal/gr como judicoide de cantidad, pero ahora voy a pasar a interacciones vitales pensadas por seres humanos). Me apoyaré en lo que Polo afirma de un predicamento . Y lo estudia desde esa perspectiva (como consolidación de inhesión).

Por otro lado, el peso de un individuo (en gramos, o primer nivel de logos: conceptoide) es lo radical, totalmente medible. Ahora entramos en lo humano, y ayudará mucho saber que el requerimiento (calorías/gramo: judicoide) también es un artefacto humano. Esto es, sirve para muchos individuos, es algo así como un artefacto de artefactos. Antiguamente se recurría al “experto” pero ahora, que existen balanzas, basta asignar un peso: que servirá de referente. Veremos también que por ese solapamiento de contextos, macro/micro, hay distintos números o expresiones de la energía: calorías, electrón-voltios, etc.; que no se deben al mismo tipo de fuente (termodinámica, mecánica, electromagnetismo, etc.). Es así que los distintos predicamentos (consolidados y unificados como judicoides) se “convierten” entre sí. A cambio, las categorías reales o inhesiones son, biofísica y realmente, muy distintas.

Ahora es cuando servirá la precisión que hicimos al inicio respecto a la palabra energía. Nos referimos acá, con ese término, a lo que representan las calorías -o cualquier requerimiento- de un ser vivo. De aquí que todo tenga que ver con la luz. Un poco de calorías -en gramos- puede incluir millones de fotones (la bomba atómica es un ejemplo de ello) de luz. Y eso es lo que decíamos que se viene asegurando con los descubrimientos como el Bosón de Higgs.

La conversión de todo lo que sea que interviene al vivir, como fuente de energía; hace que sean judicoides, y por ello son fuente de error al medir solo aproximadamente la energía como requerimiento, pues no es la misma vida (y sabemos que se puede sobrevivir con menos, hasta su límite inferior que no sabemos con seguridad cuál sea. Pero es un hecho consumado que la cantidad de energía es un número. Y no es algo subjetivo porque, gracias a las reglas conocidas de la física-matemática, ya se han jerarquizado los niveles numéricos que se ajustan mejor a las compensaciones (energía) requeridas.

Otro término de gran interés para la ciencia, es el de entropía. La entropía física es la clave de los procesos que pueden ocurrir o no en nuestro universo. La entropía siempre aumenta en los procesos espontáneos. La vida no es uno de esos procesos. El que hemos llamado cambio de signo vital, lo introduce Polo para entender, en el universo, algo que no haría espontáneamente. Es la esencialización del universo o arte -de la que venimos hablando desde la primera página de este escrito- y solo el hombre puede realizar, con sus hábitos, como es el caso de los artefactos.

La aplicación que haremos del principio de la entropía es matemática, y se verá en la tercera parte de este escrito; pero el concepto de entropía es aplicado -desde Aristóteles- para explicar el origen del orden o desorden, no solo paran los procesos físicos sino incluso para los humanos. Se entenderá como judicoide porque es lo que más nos interesará después: cómo medir la entropía para el caso de los sistemas vivos de un modo comparable.

Porque nunca debe olvidarse que los judicoides son antes que nada, juicios de un científico, que para el caso de la entropía, se llamaba Rudolf Clausius y en 1850, investigó la reversibilidad de los procesos acuñando dicho término que en los más de 50 años subsiguientes se desarrolló como el judicoide de que estamos hablando. Esto quiere decir, que se establecieron formulaciones matemáticas de la entropía y, fue una novedad de esa época, que en 1888 Boltzmann le diera un giro estadístico y con ello, un judicoide distinto; pero al final se correlacionaron ambas expresiones -matemáticamente- como veremos en la tercera parte.

Afortunadamente el término entropía se viene aplicando con éxito en el contexto físico-químico. En realidad es solo físico, ya que la química es una ciencia que se ocupa de estados moleculares macro, lo que hay que ajustar convenientemente como se decía al entrar en estos problemas de conglomerados, el que hemos llamado 1) de los problemas anteriores. El 2) lo veremos después, al estudiar la contra-varianza.  

GEOMETRÍA Y ECOLOGÍA

Vamos a.jpg
Geometrya y ecologia 1.jpg
Explica 1.jpg


Parece que para continuar expresando lo que queremos transmitir, es mejor que usemos gráficas que nos ayuden a ver con más claridad estos principios y sus aplicaciones. Es lo que han hecho los conocidos sabios -antes que nosotros- y es lo que haremos, siguiendo su prudencia demostrativa.

Porque cabe insistir en que no estamos trabajando ya con silogismos lógico-formales, sino con judicoides. La matemática de los números seguirá brindando sus resultados cada vez más profundos e impecablemente logrados, como hasta ahora, pero las aplicaciones biofísicas se demuestran con la física de causas, por ello no se pueden comprobar mas que con juicios -y sus respectivos judicoides- de científicos que los han comprobado antes que nosotros.

Ahora desarrollaremos el mismo fenómeno descrito en la figura 1, pero para tres dimensiones en lugar de dos. Ya no es solo un círculo descrito por un vector que gira sino que al desplazarse, por un contorno cilíndrico (es decir, que sale de la página que estamos viendo hacia el lector) se forma una helicoide (lo que más se le parece sería un sacacorchos).

Dicho de otro modo, si se mira un cable por el que viaja una corriente eléctrica, en escorzo; se ve el círculo de la izquierda. Y uno puede preguntarse ¿a qué viene tanta explicación de la figura? Pues bien mirado se trata nada menos que de que es el modo en que se propaga la luz. Hay muchos matices más, pero es un modo de describir algo tan complejo que vamos a dejar así por ahora lo que ya es muy complicado decir. Iremos poco a poco más lejos, pero por ahora lo dicho vale para saber que la luz se propaga así y punto.

Continuaremos diciendo que cuando la corriente eléctrica viaja a través de cables por las laderas de un cerro o bajo el agua, la forma que se ve -si se mira ahora, de costado- es (figura 1) la de la derecha. Lo que pasa es que los cables son cilindros -por los que viaja la corriente- de modo que si se hiciera un corte plano / longitudinal, por la mitad y siguiendo el eje de dicho cilindro, la proyección de la señal que viaja por el cilindro se vería como una curva senoidal.

¿Es así como viaja la luz? No se puede asegurar tal cosa, porque como se viene repitiendo desde el inicio de este libro, las formas y su geometría siguen a judicoides mentales-humanos que son unificaciones -del logos- entre juicios (humanos-no morales, a los que hemos llamado, de segundo nivel; porque los morales son los de primer nivel) e ideas-generales. Cada número es un “caso” de esa unificación, y cada función de muchos números (forma geométrica) es el judicoide correspondiente. Por tanto, lo que estamos haciendo es ampliando el n-dimensional espacio típico co-variante de la geometría tradicional, a un nuevo espacio, dotado de otras métricas 3–dimensional-co-variante + 1-dimensional-contra-variante ; que lo hace más idóneo para geometrizar la propagación de la luz, que es movimiento. Pero la propagación de la luz es real, no se parece en nada a la imaginada por nosotros. Lo que se puede asemejar algo, son los judicoides y sus formas, en esta nueva geometría.

Los judicoides son ideados por mentes humanas para crear artefactos que midan la propagación, y han ido acercándose a formas que explican mejor cómo puede ser que viaje la luz. Hay muchos fenómenos que a lo largo de los siglos, vienen dejando claro que el mejor modo de entenderla es el que se ha propuesto arriba. Electricidad, magnetismo, polarización, quantos, bosones, quiralidad, etc., etc., etc.; han ido decantando esa imagen de la luz a lo largo de muchos siglos; pero sobre todo en los últimos dos siglos, la más útil, ha sido la de campo electromagnético que viaja como si fuera un cilindro que se proyecta circularmente cuando se mira en escorzo, y como senoide si se proyecta en un plano que pasa por su eje, visto de costado; que es como la que se muestra la derecha en la figura 1.

Sigue siendo geometría, pero es una nueva geometría. Y no es que no se pueda imaginar, sino al contrario, no nos habíamos dado cuenta de que conviene forzar -mucho más- el desarrollo de nuestra imaginación, cuando se trata de lo corpóreo.

Avanzando un poco más en lo que sea la luz, el campo electromagnético que lleva la energía (judicoide) luminosa (como hipótesis física), está imaginado por dos curvas senoidales, que viajan juntas y son perpendiculares entre sí, en el espacio que describen al propagarse, pero desfasadas 90º (es decir, que el máximo del campo eléctrico ocurre en su propia proyección senoidal cuando la proyección senoidal del campo magnético es mínima y viceversa) pero eso, en matemáticas, se llama función cosenoidal. Estas funciones ya las había descubierto Pitágoras, pero fue Maxwell en 1848 el que las aplicó a la luz. Sus descubrimientos fueron confirmados por Hertz, como se ha advertido antes.

Insistiremos siempre en que la descripción que estamos haciendo se refiere a judicoides. La naturaleza física de la luz no es ésta, sino la concausalidad cuádruple, que es otra cosa. Pero la descripción matemática, que se refiere a las formas, es esa que hemos dado y que es histórica. Es decir, la luz no se agota en esa descripción, ni en las que puedan darse desde otras referencias que den lugar a otros -o a más elaborados judicoides- sino que los juicios que emitan los científicos de la luz desarrollarán nuevos judicoides, o profundizarán los que ya conocemos.

La explicación que nos interesa es esa porque nos llevará, al igual que a los que nos han precedido, a encontrar mejores modos de expresar con números las hipótesis que podemos hacer sobre la vida corporal-física. Esta formulación dinámica, porque se da en el espacio-tiempo vital, nos permite crear artefactos que tengan en cuenta los errores que se cometen cuando no se miden bien las consecuencias de intervenir en experimentos que afectan los sistemas ecológicos.

Así, podemos regresar a la figura 1, y convertirla en el cilindro de la figura 2, con el fin de ir avanzando más en lo que es la vida “geométrica”; es decir, con las limitaciones judicoides a los que la cultura humana nos compromete [130] .

Figura 2.jpg


Es que antes de pasar a la tercera parte de este escrito, vale recordar que los cromosomas son como cadenas de doble hélice extremadamente compactas. En la figura 2 se muestra una de las dos hélices -que se pueden ampliar en la imaginación como si fuera una escalera caracol- pero servirá para la exposición que sigue verla así, para centrarnos mejor.

131.jpg

Acá hay que tener en cuenta un fenómeno muy interesante. Es que cada cilindro de luz (visible) puede medir entre 4000 y 7000 angstroms (una extraña unidad de longitud llamada así como homenaje al sabio sueco) que mide nada menos que un 1 antecedido de 9 ceros. Si multiplicamos el Nº de cilindros (ciclos) por la longitud de onda (lamba en angstroms) nos dará el valor c. Este simple resultado, nos servirá mucho en la tercera parte.

Las explicaciones que hemos dado elevan la idea de una luz que viaja como conceptoide cilíndrico que hemos utilizado para imaginarla, como imagen de su propagación. Pero hay otros conceptoides igualmente interesantes como las matemáticas de los campos que nos ayudan a medir sus judicoides respectivos: longitud de onda, frecuencia, velocidad, etc. Matemáticamente todos, muy intensamente estudiados.

Las cargas eléctricas también se desplazan por los cables con este tipo de estructura gráfica, al igual que todo en el universo. Pero lo que coincide es que, en medio de todo, la electricidad es lo que más se asemeja a la luz, pero a “gran escala” (quánticamente, las dimensiones son increíblemente pequeñas, del orden de diez a la menos 24 –cuadrillésima- parte de un milímetro).

Ahora, para llegar a los cromosomas, vamos a imaginar un ciclo (cilindro) pero en lugar de hacerlo con una sola hélice que rodea al cilindro, vamos a imaginar un manojo de sogas que se unen y rodean al cilindro, como esas sogas que están compuestas de varias hebras. En la figura 2, si queremos ir de abajo hacia arriba (izquierda a derecha) por el manojo (escalera) helicoidal que rodea el cilindro, nos vemos forzados a ir girando siempre en sentido anti horario (se llama levógiro a este sentido del giro).

Si se insiste en seguir subiendo -poniendo uno tras otro, más y más cilindros (o sea, más ciclos)- las sogas se hacen más largas. Y si hacemos fuerza para trenzar, siempre en sentido levógiro, estas sogas, como intentando juntar más los cilindros; llegará un momento en que las sogas se “arquearán” en forma de herradura (se llama pandeo a esta deformación) dejando de formar un largo cilindro para volverse algo parecido a un cromosoma.


Trenza.jpg


Esta forma es la más apropiada para la propagación, pues no solo es cilíndrica sino que, para encerrarse en el menor espacio posible, la curvatura cilíndrica se va contorneando cada vez más ampliamente. Los cilindros se agigantan. Para mantener cerca al siguiente ciclo, el modo de “arquearse” en cilindros mayores es lo que favorecerá más -o menos- la propagación. También lo será para el cáncer, pero se supone que evitarlo es parte de un buen funcionamiento, que es para lo que existen los cromosomas, y la luz lo prevé. Es otro modo de encontrar la causa final, como si fuera previa a todo el montaje complejo que vamos descubriendo cada vez más intensa y concertadamente.

Si se siguen ampliando -como si fueran cilindros- los solapamientos y traslapes celulares, se adivina rápidamente que nos encontraremos los tejidos musculares y todos los otros que deseemos estudiar.

Así nos “elevamos” a juicios superiores, como son los de la quiralidad celular. Se está estudiando ya, con mucha fuerza, que la alimentación ácida favorece la degeneración celular (cáncer) ; y que la solución es eliminar la alimentación dextrógira. Otra aplicación inmediata es que los invernaderos deberían irradiarse con luz polarizada levógira. Esto último aún no se hace, pero se propone gracias a Polo.

Son dos conclusiones que deben su explicación a la física de causas de Polo.

Creemos conveniente refrescar que la geometría fue la que propulsó el desarrollo del cálculo . Hamilton fue uno de sus propulsores, como se ha dicho antes, al hablar del PMA (1843). Este gran físico resolvía problemas de geometría híper-espacial utilizando matemáticas y razonaba teoremas con geometría. Para nosotros es fuente de inspiración la utilización de sus cuaternios.

Por ejemplo, todos creemos, al inicio de nuestros esfuerzos para entender la geometría, que para pasar de tres dimensiones a más, lo lógico es intentar imaginar un híper-cubo de cuatro dimensiones (4d) -en el que las caras de los cubos sean cubos, así como las caras de un cubo normal (3d) son planos (2d)- y es que es verdad que así debe ser. Las dificultades reales son que para entender el espacio-tiempo (4d) las dimensiones no son del mismo tipo –espaciales- sino que la cuarta dimensión –el tiempo- es de otro tipo. En matemáticas, esto se abrevia diciendo que la 4ª coordenada es contra-variante -mientras que las 1ª, 2ª y 3ª se denominan co-variantes- y es lo que hace la diferencia. Se dice que la métrica es la que cambia, no el espacio, lo que lo hace más difícil de entender pero posible de abstraer porque al final, lo que se está construyendo es movimiento, pero como si fuera espacio inmóvil.

[[Archivo:Cuater.jpg|700px|thumb|center|]

Eso es lo increíble. Los cuaternios de Hamilton proveen a la física de una herramienta matemática que ya es mucho más que geometría: es el movimiento mismo, pero hecho geometría. Polo dice que el movimiento no se mueve, lo que se mueve es el móvil y que Aristóteles lo dijo equívocamente, pero que eso era lo que quería decir cuando habla del motor inmóvil .

Después ya en 1900, Lorentz aplicará las matemáticas de los giros espacio-temporales (cuaternios de Hamilton) a las rotaciones de coordenadas que mantienen las formas en el espacio-tiempo relativista; es decir, movimientos hechos “formas” geométricas en el híper-espacio, que permitirán el estudio de las propagaciones luminosas relativistas (consideran la invariancia de la velocidad de la luz). En 1907 Minkowsky hará lo mismo que Lorentz pero ya con la convicción de que el espacio-tiempo ha desplazado -para siempre- a las coordenadas del espacio y el tiempo como se concebían antes de Maxwell.

Por su lado, la mecánica quántica de Planck, hará intervenir a Hamilton a través de la distribución de Gibbs que tendremos oportunidad de conocer, matemáticamente expresada en la tercera parte del libro. Sin embargo, el Hamiltoniano como se conoce hoy en día se perdió durante ese tiempo para reaparecer -en 1927- con la ecuación de Schrödinger.

Cabe agregar que, como la luz no tiene preferencia, se hace imprescindible una matemática en la que los giros de los ejes de referencia sean fácilmente manipulables, pues lo que importa para las estructuras de tipo código genético, es que se puedan co-contra-referenciarse, numérica, cualitativa, y necesariamente; a partir de coordenadas locales. Esto lo logró Riemann en 1854. Así se pueden hipotetizar (judicoides) como cilindros geométricos. Las estructuras 4-dimensionales son contra-relacionadas, válidas como hipotetizaciones de tipo híper-cilíndricas. Son las soluciones tipo senoidales-cosenoidales para 3 y 4 dimensiones.

Al final de todo ese progreso físico-matemático de los siglos XVII a XIX, llegó el giro ”puro” o spin del electrón, la clave para los llamados números quánticos. No hubiese sido posible, sin el desarrollo del cálculo previo al S XIX, elaborar una base tan sólida para la matemática quántica. Fue Ricci, ya en el S XX quien publicó y abordó con eficacia la idea de tensor contra-variante, llegando a la simplicidad que tiene ahora.

Sincroníaa vida y ecología

Volviendo a los temas que nos ocupan, el 1) se refiere a los temas de orden-desorden que fue referido siempre al concepto de entropía, como ya se ha dicho. Como se dejado ver, no es un tema fácil de abordar pero su expresión -a través de judicoides- será vista mediante fórmulas matemáticas en la tercera parte de este libro.

Sin embargo, el origen de este concepto es la cibernética, que tiene que ver tanto con la vida que asciende casi hasta el nivel de persona, es decir, traspasando cuatro tipos de fines que tenemos los seres humanos: 1) materiales o físicos (cuerpo por ejemplo), 2) operativos (hábitos profesionales: artes y ciencias o como decíamos al principio, los universales), 3) morales (virtudes) y, 4) esenciales (logros de nuestra libertad esencial). Hay fines superiores o personales (trascendentales) que son de orden superior a la cibernética y escapan a ella.

Como también hemos advertido, nos centraremos en los fines del tipo 1) y 2), pero ello no obsta para que saquemos las conclusiones que nos propusimos desde el comienzo, a saber: que las universidades intentaron fines del tipo 3) y 4), pero se quedaron rápidamente cortas, en los fines 1) y 2) porque lo útil para reyes y estados oscilaba en estos niveles. Pero haberlo intentado -saber más sobre los fines 3) y 4)- permitió esos otros desarrollos. Hay que dar gracias por ello.

Después haremos observaciones al respecto de esos niveles más altos. Porque lo que nos interesa es la ecología y los niveles vitales que le competen son los 1) y 2). Y hemos dicho que todo empieza por la entropía y la contra-varianza (sincronía), como problemas a estudiar.

El estudio de la entropía se ha iniciado por el lado de la propagación, pero -aunque se ha intentado evitar- es imposible no toparse con la propagación de la luz; que es casi la vida misma al ser el origen de la concausalidad cuádruple.

Y por tratarse de sistemas orgánicos, se hizo inevitable hablar de contravarianza. Es que el aprendizaje de la sincronía pasa por el de las híper-referencias espaciales, como se ha visto, y nacen de modo natural, desde la propagación.

Era lógico que la vida sea tan difícil de aprehender. No es para menos, se trata de algo que hasta ahora se nos escapa siempre, como el agua entre los dedos. Pero lo que prima es un segundo resultado ya casi axiomático: los movimientos espaciales vitales son 4-dimensionales y la 4ª coordenada es el tiempo.

Sería un segundo axioma porque el primero es que la vida posee su propio fin. Pero insistimos en que, para los humanos, no es posible axiomatizar hasta la infinitud y por ello, nos vemos obligados a aceptar los juicios que los genios han definido antes, y por eso los usamos pero como desarrollos previos (pero el que desee puede considerarlos axiomas).

Para eso empezaremos a profundizar sobre el concepto de sincronía (figura 1). Volvamos a dicha figura pero con una nueva perspectiva. Ya no como propagación, sino que ahora nos fijamos en que cada vuelta (regreso a la posición inicial del radio vector en el círculo de la izquierda) forma un ciclo. Es un concepto muy importante para la vida. Desde nacer y morir, hasta respirar. Es interesante que toda nuestra vida está llena de ciclos.

Algunos ciclos no se notan -o más bien subyacen a los que se notan- como el caso de estar vivo mientras que el pulso es de 80 pulsaciones por minuto. Se visualiza como gráfica circular, en la figura 1: se puede dividir en 80 arcos iguales el círculo (ciclo), en que R mide 1 (pulsación).

Cabe recordar que estamos representando -con este modo de graficar- a números complejos (cuaternios de Hamilton), no así, a los antiguos vectores espaciales. Son radio vectores que giran y por ello se denominan fasores.

Pero hay otros casos, que pueden ser totalmente irregulares porque no siempre las ocurrencias son iguales: por ejemplo en las taquicardias (los pulsos no son siempre parejos o son de más de una pulsación). En estos casos, aunque el radio vector (que también se denomina, a veces, fasor) no mide siempre lo mismo y por lo tanto ya no es un círculo sino una figura con radio vector más largo o más corto, aunque siga centrado en O.

La sincronía se da cuando hay coincidencia simultánea entre dos o más círculos (el mismo eje X pero distinto centro: que podemos denominar O1, O2, etc.) de modo que el ángulo formado por los arcos, de círculos distintos, miden  y . Este hecho se muestra en la figura 3 como sigue:











FIGURA 3

En esa figura 3, se reflejan tres tiempos sincronizados t, t y t -con letras griegas- (para distinguirlos de los subíndices de los ciclos a que pertenecen), y destacar así que los tiempos deben ajustar la sincronía. No tienen por qué ser estos tres sino que sirven de ejemplo para los efectos geométricos que estamos ahora considerando.

Estas figuras y sus explicaciones son un pálido reflejo de la sincronía real, pero la representan en imágenes (judicoides) que unifican conceptos e ideas generales. Cabe repetir, que son el fruto de cientos de años de progreso científico. Ellos no sabían que algún día se “quebraría” este progreso lineal, porque llegaría la indecidibilidad (Gödel) a que dio lugar ese mismo progreso. Pero existen estos judicoides gracias a ellos.

Recordemos que lo que nos ocupa es la propagación de la luz. Que ella es la clave en la física de causas y la intentamos aprehender desde algún judicoide básico que nos permita una construcción de sistemas muy complejos, como son los que tienen vida.

Como también se ha advertido, llegaremos a construir las permutas de que habla Polo -en su física de causas- a través de los conceptos de entropía y los judicoides de la llamada mecánica quántica. Y que esta mecánica se superpone -pero a veces incluso dirige- a la llamada mecánica clásica. No son dos explicaciones de algo que, se suponía, sólo puede tener una explicación que la fundamente; sino que son judicoides -muy profundos- porque cada uno tiene su fundamentación científica (porque viene de las mentes de científicos).

La parte quántica de los judicoides básicos, viene acto seguido, en la tercera parte y es muy estadística -combinatoria- porque los espacios de referencia son co-contra-variantes y más generales, incluso, que el de los cuaternios; pero ya han sido muy estudiados y con los fasores (figuras 1, 2 y3) serán rápidamente aprehensibles, como veremos.

Pero podemos adelantar que el judicoide conclusivo de esos casos, será que la entropía aumenta siempre en el universo o segunda ley de la termodinámica; que se viene convirtiendo en una ley general para la vida.

Cuando a principios del S XIX se intentó resolver todo a base de leyes como la conservación de la energía (que es la primera ley de la termodinámica), se intentó a su vez inventar la máquina perpetua. Era consecuente pensar que si todo se resuelve en energía, tiene que haber una forma básica de energía que permita re-convertirse en las otras. La matemáticas (judicoides) que definían las “formas geométricas” para la energía lo sustentaban sin dudas (el “trabajo mecánico” o fuerza x distancia, que así se llamaba).

Estando en ello, y trabajando para llegar a los resultados que se preveían; Joule y otros como Carnot encontraron el segundo principio -un nuevo judicoide- que se llamó entropía. Así terminó ese esfuerzo que tantos frutos sigue dando. La conclusión fue que no podía existir tal máquina porque la entropía siempre aumenta y eso lleva a la “muerte térmica” del universo … algún día. Hoy en día, desde la perspectiva quántica, eso tampoco se puede asegurar. Pero dio grandes frutos como han sido los sistemas de refrigeración que tanta falta hacían. Insistimos en que en la tercera parte, todo esto se precisará mejor.

Una sincronía obliga a intervenir, a su modo, a la causa final. Su complejidad puede significar una reducción de la entropía . La entropía cero no puede lograr nada , en cambio, una cierta cantidad de entropía humana (la llamada organización), puede incluso reducir la entropía del entorno o evitar que sea mayor (por ejemplo, descontaminar). La hipotetización sincrónica como judicoide vital “luminoso”, es la combinatoria que lo compensa .

Lo circunstancial es que efectuar una hipotetización correcta, requiere aplicar una matemática conocida por la física pero que, hasta ahora, es desconocida la gran utilidad que tiene como representatividad de los movimientos vitales, además de los físicos tradicionales. Un ejemplo: si ingresa un alimento a un organismo, ya está influyendo en la vida de todo el organismo y su entorno; pero medir cómo sea que ocurre aquello –insisto- requiere mucha elaboración teórica y práctica. Lo que se hace ahora requiere esperar a que ocurran los procesos vitales positivos y/o negativos (puede ser veneno).

La sincronía es necesaria para producir bienes y/o servicios y su falta, es análoga a la muerte del cuerpo, porque acaba una organización. Si no la hubiera (la sincronía), no habría eficacia y el organismo terminaría por la imposibilidad que se establezca la propagación. Así aparece la matemática contravariante . La coordenada contravariante nos servirá para sincronizar (que no quiere decir que no sirva para otras cosas más, porque se trata nada menos que del tiempo). Pero el sincronismo ya exige una relación (categoría) y una cualidad (también categoría) que aporta lo más difícil en la biofísica: la cantidad sincronizada (la inclusión de la causa material aportada en las notas, por lo menos, para la vida de las naturalezas).

Al ser el juicio la analogía comunicada, el hábito será lo que se explicita, la inhesión: cómo se realiza la comunicación. Esto es la sincronía para el caso de la persistencia. Pero también es la sincronía “forzada” para el caso de pluralidades humanas. Es que la estructura matemática más avanzada es el tensor mixto y aunque la libertad no se puede incluir nunca, se compensan sincronismos de libertades por el judicoide: tensor + entropía.

Es así como se ve que la ampliación humana de formas (ordenadas) por la concausa final, está justificada por la probabilidad como distribución (la combinatoria típica de la quántica). Y la incertidumbre como proposición, también fue formalizada como judicoide a partir del S XX.

Nosotros, en la empresa en que laboro y dirijo, hemos detectado que la normalización estadística (base importante de los cálculos en la psicología) tal como se hace hoy por hoy, tiene defectos numéricos insalvables. No sólo por lo anterior, sino por otras distorsiones que generan las comparaciones referenciadas. Venimos haciendo algunas aplicaciones en instituciones peruanas, todavía no en el extranjero debido a la falta de tiempo ; y las distorsiones reales no detectadas han llegado a ser muy grandes (desde 8 a 57%: es decir, que llega a ser más de la mitad del baremo correspondiente).

Todo lo anterior emerge de la naturaleza contravariante del judicoide para la economía procesual-vital de todos los sistemas. Las funciones que satisfacen las condiciones de Euler-Lagrange en la dinámica vital, se representan por fasores de segundo orden (son funciones de números complejos, que corresponden a los tensores mixtos). Aunque no se formulen los procesos vitales en un espacio-tiempo como suele hacerse en física (ahora, porque antes de Minkowsky no era ni siquiera pensable hacerlo), las respuestas obligan “secuencias” (cadenas) ecológicas. Si falla la sincronización, se truncan dichos procesos: faltarían recursos, aparecerían tiempos “muertos”, etc. Justamente la llamada Investigación Operativa nació para esos fines, pero se concretó bajo la modalidad de programación lineal debido al exceso de herramientas covariantes disponibles en ese entonces. Hoy en día, ya se utiliza el cálculo contravariante que soluciona en casi un solo paso ese tipo de problemas . Nuestro sistema debe ser probablemente uno de los primeros de este tipo para toda índole de procesos vitales, y lo estamos logrando, gracias al esfuerzo motivador de Polo y los polianos.

En lo anterior y para lo que sigue, tengo el deber de agradecer a los grandes (gigantes es más preciso, creo yo) discípulos de Polo el habernos facilitado recibir las enseñanzas del maestro. Por ejemplo, cito a Juan José Padial que a su vez cita a I. Falgueras y que a mí me han hecho posible escribir esto. También reconozco que leer a J.F. Sellés (Antropología para Inconformes) me llevó a comprender más la Antropología Trascendental de Polo, y que la edición por Juan García de numerosos artículos de Polo fue gran herencia de sus enseñanzas. Hay tantos a quien citar que sería de nunca acabar … como es la amistad que me brindara, en su momento, otro gran discípulo: Fernando Haya.

El profesor Polo corrobora: “ … no es lo mismo una causa material no dispuesta que una dispuesta y otra organizable. Los números más difíciles, más complicados, número físico digo, se corresponderán con la materia dispuesta y con la organizable … ” . Y como si quisiera corroborarlo más, afirma: “ … La inestabilidad está dentro del universal en cambio, el tiempo está fuera …” . Lo que no hace sino confirmar que las variables del espacio físico (covariantes) son de una cualidad -y también cantidad- distinta a la variable tiempo (contravariante). Ese hecho conlleva una operación matemática completamente nueva, que escapa a todas las conocidas. Al final se reduce a lo que se conoce como número complejo, pero es mucho más, desde la perspectiva tensorial. Conduce -sin ser casualidad- al sincronismo entre las partes (vectores de la base en espacios matemáticos) porque las sincroniza en el tiempo. Será, sin duda, el fundamento cuantitativo de la biofísica, una ampliación no efímera.

Una cita que pinta de cuerpo entero cómo se enlazan lo cualitativo y lo cuantitativo en el sincronismo para, finalmente, elevarse debidamente al juicio y corresponderse en su judicoide es: “la inhesión de las partes de la cantidad y de la pluralidad eficiente en la cualidad, es la pluralidad de comienzos y retrasos, los cuales por ser hechos propios por el análisis formal físico son su tiempo interno” .

Sin embargo, todos los avances cuantitativos de la bio-física, ya sea para sus conceptos clave como vida, proceso, etc.; u otros, han derivado a tensores del tipo covariante. El tiempo es estudiado como una variable muy especial, pero se “covariariza” para poder integrarlo a las formulaciones típicas (ojo que no se está diciendo que eso facilite entenderlas). La contravarianza se estudia como caso teórico pero se aplica a la producción como si el tiempo fuera una más de las variables covariantes, no con la precisión contravariante propia de la variable-tiempo. Por eso, se hace inapreciable el llamado “ciclo vital” a consecuencia de ese error. En ese contexto no existe sincronismo, sino entradas y salidas “de turno”, que llevadas a una gráfica del tiempo vs vida, no son más que quiebres caprichosos a los que hay que estudiar con “otros métodos más complicados” pero que siguen siendo covariantes.

Y la solución está en que los judicoides -procesos- son tensores mixtos (co-contra-variantes) que generan sus propios ciclos internos. Pero al ser sus expresiones matemáticas por números complejos (del tipo a+bi) no pueden ser reales (porque no son los llamados números reales, que son los únicos que pueden ser aplicados directamente a la realidad física ). Así, la física se ha desarrollado más (relatividad, quántica, hipercuerdas, etc.) sólo por haber incorporado el tiempo como variable contravariante. No fue fácil. Esa incorporación demoró dos siglos, pero fue poco a poco desplazando a la física “moderna”, para consolidarse ya como física contemporánea. El pronóstico de Polo asegura que los números son hipotéticos respecto a la realidad, pero ya se sabe, por otros dominios científicos que utilizan la matemática, que el itinerario a su progreso lleva al sincronismo y éste, manifestado como tensores co-contra-variantes (mixtos).

Coincide, además, que al ser -los sistemas ecológicos- muy dinámicos, y no sólo por ellos mismos, sino más que nada por el desarrollo de las comunicaciones ; se sincronizarán cada vez más sistemas a las cadenas ecológicas que escapaban a la actividad humana .

Esta matemática es sólo una ayuda para lograr un mejor ajuste con la ecología, a la hora de producir artefactos. Desde la perspectiva vital, el monitoreo es requisito para lograr los objetivos . Según JAPL, la prudencia es la virtud básica del directivo . Para Polo la prudencia reside en la voluntad pero requiere de la inteligencia (voluntas ut ratio). Ambas visiones son cualitativas y aunque son el comienzo de todo lo humano, son también el respaldo de algo más, que tiene que ser cuantitativo, pues la vida es algo físico . Es donde hemos empezado a llegar: que siendo la realidad, física (no matemática) existe un judicoide, es decir, un logos de segundo nivel para la vida como ya se ha indicado.

Quien estudia completamente, ambos tipos de hábito, con gran profundidad es la Antropología Trascendental (AT) de Leonardo Polo (Polo). Pero entenderla bien requiere otra profundización previa: la de su Teoría del Conocimiento. Dicha teoría no es fácil porque justamente recupera, para el futuro, la noción de hábito que había ido olvidándose en la edad moderna. Quien tenga una formación en filosofía sabe que tiene que renunciar a lo que creía haber “avanzado” al enterrar esas “viejas” nociones .

Interactuar con lo físico lleva al sincronismo como expresión máxima de cabal conocimiento de ese tipo de interacciones. Pero interactuar con los hábitos o las virtudes de las personas, es mucho más que lo físico. Aquí las matemáticas pueden servir en el nivel operativo y para ciertos casos, que serán muy probablemente, los que requieren sincronizar algo. Sin embargo, los hábitos son requeridos para producir artefactos y, al final, se asimilan a los sistemas vitales. Toda esa concausalidad será exitosa en la medida de que los conceptoides y judicoides se ajusten a la realidad de que se trate. Pero la parte humana está fuera. Es superior a ese tipo de análisis (de las causas resumidas en números). Incluso el concepto objetivo que es previo al conceptoide, ya es producto de la mente humana, aunque parezca más real que la realidad misma; por lo que no es que sea pensado por un sincronismo, sino que dado un sistema vital (sincronizado por su cadena ecológica), el número ajustado a ese sincronismo, es producto de una mente que lo pensó así y que está por encima de lo que hay que sincronizar, aunque, por tal perfección, parezca al revés.

El profesor J. Padial afirma: “La conexión precisa entre objeto y acción es el peculiar problema que ha de afrontar cualquier teoría de la acción. Según Polo ‘la acción no es el pensamiento, ni sustituible por él como actividad. Sin embargo, el objeto está, es transferido a la acción en el modo de su configuración misma’. Acción y pensamiento son dos tipos de actividades distintas. El pensamiento es praxis teleia, acción perfecta que posee su fin en su ejercicio. La acción es kinética, es un proceso; se desarrolla en el tiempo. Sin embargo la acción conlleva una impronta humana ya en su misma raíz, y es el objeto. En virtud del 'pro' la acción de pro-ducir sugiere un tránsito según el cual lo que estaba antes oculto pasa ahora a estar a la vista. En este sentido, el producto es lo expuesto o sacado delante, y el producir un explicitar o desplegar lo que antes estaba implícito . Así, la acción humana es el tránsito por el que se inserta una idea, un objeto intelectual en el tiempo, o el dotar de efectividad a una idea ”. La producción conjunta, como grupo humano que se dedica a ello, sólo es posible gracias a la acción directiva (los que saben qué y cómo producir) y otros que se les unen.

Continua Padial: “ … Los medios son como son y, por tanto, susceptibles de legalidad; pero no son autónomos porque no constituyen un orbe cerrado . Lo hecho, lo producido, el término de la acción poiética humana no se independiza completamente del hombre, sino que es tenido por él en el modo que Polo denomina adscripción corpórea. Ante todo se trata de una adscripción a la acción humana. La acción humana suscita productos, no es independiente de ellos, y viceversa los productos no son independientes del actuar del hombre”.

Padial continúa en la siguiente página: "Si no fuera por la idea, el producto no sería producto ni, por consiguiente, el productor sería productor, pues gracias a la idea el producto puede ser reconocido como tal, esto es, como lo mismo que había sido proyectado y querido. Lo mismo, lo constante, lo inalterable que mantiene la unidad del proceso [vital] es la idea o lo pensado … en este sentido el límite mental posibilita las acciones productivas … se invierte la preeminencia heideggeriana de la praxis sobre la teoría " .

Sigue Padial citando a Falgueras: “ … El hombre está así, instalado en un mundo que conoce aspectualmente, pero bien entendido que lo hace en cuanto ser corpóreo. La referencia intrínseca del yo al mundo nace de nuestra condición corporal: Como ser corpóreo, su inteligencia objetiva la esencia del mundo. El hombre, al entender los procesos físicos, los dota de algo que éstos no tienen, a saber: de presencia mental. La presencia es unilateral, es decir, sólo existe en la mente o inteligencia, pero allí totaliza los procesos físicos y se exime a sí misma de la necesidad de aquéllos: todo lo que entendemos en presencia queda convertido en objeto al que no afecta ni el tiempo ni el azar ni la necesidad físicos [biológicos]" . […] Desde las ideas, atemporales y exentas de efectividad, cabe volver a lo físico a que se refieren por el descubrimiento intelectual de posibilidades. Es claro que estas posibilidades son nuevas objetivaciones, y que no tienen un primario estatuto físico, sino objetivo. Por eso Polo las denomina posibilidades factivas. De este modo, el objeto poseído intelectualmente se comunica a la acción, a la que configura …” .

Se deja ver cómo las posibilidades factivas y los artefactos, son logros de las operaciones unificantes (conceptoides-judicoides) exitosas gracias a los números matemáticos y las funciones. Pero también está incoándose el éxito de la acción como cadena y resultado conjunto, es decir, sincrónico; aunque no se diga explícitamente, pero por defecto del lenguaje ecológico actual, como es el caso del judicoide “tiempo-contravariante” que hemos expuesto.

Es destacable que Feynman que ha estudiado la física desde una perspectiva contextual histórica, se vea forzado a finalizar con dos capítulos sobre la visión: los ojos y los colores (que tienen mucho que ver con el sincronismo natural y el sobrante formal), su descripción física del universo . Y el autor, con sus escritos intenta que la intervención humana en la naturaleza sea más justa : que busque dignificar a cada persona, no sólo a quien decide maximizar su utilidad. Pérez López llamaba a todo esto último eficacia, atractividad y unidad: las tres a la vez (para la acción humana directiva) .

Polo lo dice así: “Voy a exponer mi opinión, que ha aparecido desperdigada. ¿Se puede hablar de concepto, juicio y silogismo práctico? Dicho de otro modo, ¿con qué actos se conocen los bienes ? Ya he dicho que esos actos son suscitados en tanto que querer-yo redunda o repercute a favor de ver-yo. Hay muchos bienes mediales coordinables, o mejor, realmente interintencio-nales. Heidegger se refiere a esto con la noción de totalidad -Ganzheit- mundanal práctica. Prefiero la palabra plexo: los medios no son cosas separadas, aisladas, sino que forman plexo. Por eso, la razón práctica no conoce cada medio intencional-mente; más que de un concepto universal se trata de una comprensión. Comprender significa aquí engolfarse en el plexo destacando o discerniendo la pluralidad de medios de acuerdo con la inter-intencionalidad que le es inherente -el martillo remite al clavo-; se comprende que el martillo como cosa aislada no cumple los requisitos del uso”.

“ […] A su vez, el silogismo práctico por antonomasia no es la estructura lógica premisas-conclusión: no es conclusivo, sino determinativo o ponderante, esto es, una concreción mirada desde otra; por eso la cuestión de la universalidad del término medio le es ajena. Cabe compararlo con una definición ceñida a la diferencia específica captada ante todo en el género -que, por tanto, no es un género lógico- y que se intenta captar en otro: una cuestión de índole, de ralea, como el padre conoce la legitimidad del hijo al reconocerse en él. Es la vigilancia de la sindéresis sobre el plexo medial en cuanto que moralmente bueno; es la promoción valorante de la determinación práctica más que una crítica basada en la sospecha. Aquí se enclava la prudencia, en especial su imperio ”.

Finalmente, el Polo afirma que la justicia es más alta que la prudencia porque versa sobre los fines, mientras que la prudencia versa sobre los medios . En el caso de la sociedad humana, los fines son las personas que la conforman, en cambio la sociedad misma (donde se dan las intervenciones ecológicas) es el medio: correlativo a la cultura.

El sincronismo ecológico-humano funcionará solo si se mide correctamente, gracias a lo numérico (conceptoides y judicoides). Por eso, medir bien logra sincronismos para superar con éxito lo físico y el cambio de signo biológico, que escapan a lo numérico y con ello, a los métodos arti-ficiales. Pero lo numérico no domina al hombre sino que lo ampara porque su dominio (conceptoide-judicoide) es intelectual.

El ser humano puede eco-ajustarse, según cómo lo logre; uniéndose a un proceso ecológico o a una cadena sincronizada, gracias a sus virtudes morales y hábitos productivos; pero este nivel de comparecencia con el entorno escapa al nivel de medio. Es más, por ser un fin en sí mismo, el uso y sus otras virtudes lo hacen capaz de llegar al nivel de los primeros principios. Por eso puede crear artefactos, pero porque somete los acontecimientos o se auto somete a ellos; estando por encima de los artefactos que produce, incluido el dinero y sus conceptoides y judicoides; que, repito, no es poca cosa.

Cito al profesor Argandoña, desde su blog personal en la conclusión que escribió por un comentario del 19-12-2013: “Para el trabajador o el directivo, lo que aparece, en primer lugar, es la evidencia de que, con frecuencia, el trabajo no contribuye a hacer más humana la vida del trabajador; al principio le ofreció la satisfacción de sus necesidades materiales, a costa, quizás, de elementos intangibles, como la satisfacción, las relaciones sociales, el sentido de su tarea o su inclusión en una sociedad más amplia, pero también esos elementos han fallado con frecuencia. Y esto no es sino el reflejo de lo que pasa en la sociedad en su conjunto: la conciencia creciente de que las dimensiones económicas y materiales no son suficientes para hacer la vida y la sociedad más humanas”. Es análogo a lo que viene preocupando, por auto-ajustarse sin bases firmes a los procesos ecológicos naturales.

Se debe rehuir acumular medios ecológicos (sería como acumular dinero, donde se entiende mejor, dado que es el medio dominante). Tal dominio sería no-síncrono, como el caso de un cuerpo deforme (al que le faltará salud pronto). El estado es incapaz de evitarlo por ser otro medio. Socialmente, se estaría construyendo una civilización mostrenca. Un ejemplo actual es la contaminación absurda en que nos hallamos inmersos, a pesar de que sabemos cómo tratar los desechos para que eso no ocurra pero “los costos son altos” y sin embargo, mucha gente hábil y laboriosa se queda desocupada (siendo ellos los verdaderos fines sociales ). El origen de este problema se encuentra fuera del campo medial, no se puede medir con dinero porque afecta a las personas que van a venir después, que son fines en sí mismas y no se puede prever qué libertades serán.

TERCERA PARTE

Capítulo 1.- Conceptos básicos

  • Preliminares
  • Medición, Cálculo y Operadores
  • Principio de Mínima Acción
  • El espacio de fases económico

Preliminares

La incertidumbre ya es un final en la historia de las ciencias de la medida. Los que creen que es una etapa más en la historia de las ciencias se equivocan. No se puede lograr más con las ciencias. En todo caso, sí se requería un progreso, pero procede de la perspectiva humanista, es decir, había un túnel para salir y no proviene de las mismas ciencias, esto ya es una conclusión definitiva. Esto resume lo que se ha visto en la 1ª parte.

También la noción de entropía era fundamental -se pensaba- para establecer la dirección del tiempo en los fenómenos. La idea de orden y desorden era sugerida por este concepto. Sin embargo, la temporalidad de las distribuciones estadístico-maxwellianas no es manifiesta, y eso a pesar que la canonicidad de ellas es transparente en todo su estudio.

En esa ilación de ideas, el hecho de que el "aumento de entropía" sea obligatorio nos lleva a la palabra irreversibilidad. Los padres de la termodinámica plantearon la medición de la entropía sobre bases energéticas. Boltzmann le dio un giro estadístico y además encontró la equivalencia teórica explícita. Esto especifica lo central de la 2ª parte.

Estos hechos, se pensaba, caían dentro de los esquemas de las estructuras disipativas e irreversibilidad; forzando el intelecto humano a explicaciones nuevas de ciertos fenómenos básicos de la naturaleza. Pero como hemos visto ya, no es así. Esas nuevas explicaciones se desplomaban con la llegada del espacio-tiempo de Minkowsky. La estructura de números complejos es análoga a una estructura contra-variante del espacio que lo convierte en este nuevo espacio-tiempo. No es una dimensión espacial más, sino una nueva estructura que surge por la naturaleza de la propagación de la luz, que viaja a una velocidad fija y además no puede ser superada por ningún cuerpo material.

Si se grafica la velocidad en los ejes espacio-tiempo, se genera una figura del tipo:







El punto (x1,t1) y el punto (x2,t2) se unen por una recta L porque la velocidad es constante, para simplificar. Porque lo que queremos aclarar ahora es qué significa contra-variante. Para eso se ha colocado un eje x1 inclinado con respecto al eje x. lo que ocurre es que, por ser un límite la velocidad de la luz, c, como se sabe (ver 1ª parte), el eje x1 es insuperable. No pueden haber referencias “instantáneas” como es el caso del eje x. Así como la recta L representa una velocidad, el eje x1 inclinado refleja el límite c insuperable. Se obtiene una nueva recta Lc que se muestra en trazo grueso para identificarla mejor.

Eso que hemos hecho para una dimensión x, se amplía a las tres dimensiones estándar del espacio humano, y se obtienen los cuaternios de Hamilton. Así explicado es fácil de entender, pero las rotaciones tridimensionales contra-variantes son mucho más difíciles de generalizar que esto que hemos dicho. Tenemos mucho que agradecer a esos genios de los siglos XIX y XX, que nos facilitaron tecnificarnos para vivir más cómodamente en el siglo XXI.

La mecánica quántica ha resuelto desde sus fundamentos las razones de la irreversibilidad. Esto se expone después detenidamente. Pero ahora, en términos coloquiales, se llamará la atención sobre la naturaleza estadística de los fenómenos y que la renuncia de la física al determinismo, no reside en los fenómenos macro.

Se deja ver que las más avanzadas teorías sobre los aspectos en apariencia más predecibles de nuestro mundo, han llegado a ciertas conclusiones que sustentan lo que se expone y se concluye en este libro. Se exponen estas teorías desde el punto de vista de lo que significa medir y cómo debe aplicarse tal acción humana en las organizaciones de modo coherente a las mediciones ecológicas .

Hemos visto que todas las teorías para explicar la naturaleza inanimada (el universo material) están basadas en líneas de pensamiento que no están directamente ligadas a la naturaleza en sí. La teoría permite deducir las conclusiones a que llega, sin necesidad de sustentarse en mediciones reales . Lo único importante es cómo se está midiendo y que el tiempo está pasando.

Esta generalización se viene realizando en otros campos. En particular, en la medición de los fenómenos psicológicos y sociales, y todavía más a fondo, en los ecológicos; se utilizan la estadística y las matemáticas cada día más . La teoría ha permitido a ciertas estructuras matemáticas muy modernas "colarse" por la puerta grande del pensamiento.

Un ejemplo de esta evolución directamente relacionada con estas líneas se da en economía y empieza recién a fines del siglo pasado, como se comenta en el libro del autor -ya mencionado- sobre economía . Cournot y Jevons , coincidentemente (éste último) con Menger y Walras, heredan la estructura de pensamiento determinista que es inmediatamente aprovechada por los políticos "de turno" para sus planteamientos electorales. La consistencia aparente de estas formulaciones son inderrumbables. Pero las cosas son de otra manera, y cuando más se proponen desarrollos matemáticos adaptables a la economía, aparecen los nuevos modelos en las ciencias exactas, que le dan un impulso nuevo sin haber culminado felizmente el anterior.

Ya se ha mencionado algo de esto para los casos en que la investigación operativa interviene utilizando, desarrollando y aplicando matemáticas, que como hemos visto, están muy ligadas a unos desarrollos del pensamiento humano en campos vinculados. Las razones de tal limitación son históricas fundamentalmente. La incorporación de los modelos numéricos a la empresa, fue algo apresurada por las presiones ecológicas y sociales de su momento. Hasta ahora lo siguen siendo.

Pero las intervenciones humanas son por naturaleza más complejas, y en esa complejidad hay que considerar una probable aparición de efectos perversos en los resultados globales. Por eso, hay que aplicar la noción de entropía que, al significar un orden-desorden, se ve forzada a incluir el entorno de un sistema como parte de su estudio. Lo que ocurre es que si se enfoca sólo una parte del sistema -que es la que se desea estudiar- esa parte es, por decirlo de alguna manera, la parte que se analiza; y con ello, se deja la complejidad en el entorno, pero no se debe desechar. Por ese motivo, la entropía permite aplicaciones a "tendencias" y sistemas abiertos, que tanto se identifican con una verdadera teoría antropológica.

Los nuevos ordenamientos aparecen en el término independiente de la ecuación de balance, que no quiere decir que sea independiente, sino que no entra en el análisis de las variables en estudio, pero permite estudios de sensibilidad a variables no-relevantes al orden inicial. Esto estaría prohibido en una formulación numérica tradicional.

Esta doble función de la entropía: complejidad e irreversibilidad, es quizá la que la hace tan conocida en el lenguaje de otros dominios apartados de la física, pero es en ésta donde más se ha desarrollado. Pero como se observaba anteriormente, hay razones. Y quizá la menos importante, pero la más firme, sea la que se está dando en estas líneas.

Para lograr frutos de esta innovación en las ciencias vitales, se aplicará a la tecnología ecológica, que tiene forma de tecno-estructura (infraestructura física + procedimientos de uso ) procesual vertical, que obliga -a su vez- a re-enfocar la horizontalidad de los procedimientos administrativos. Los flujos de los procesos ecológicos son medidos en energía (ergios) o masa (Kg) generalmente. Aunque la importancia personal de la ecología nunca puede ser medida -lo que es muy cierto, y no deja de estar incluido aquí- veremos cómo es posible medirla en sus propios esfuerzos (el llamado costo en economía), y sus variables agregadas para un contexto macro. Ya se dijo algo al respecto e irá aclarándose a medida que avancemos.

Poniendo punto final a la exposición introductoria a esta 3ª parte, se debe observar que la teoría que se sustenta obedece a un principio ecológico, de mínima acción, como se le suele llamar y ya se ha mencionado. Fue propuesto por Hamilton y está en las bases mismas de toda la física-matemática actual . Es en base a este principio que se logró desarrollar en forma paralela la mecánica y la quántica, por lo que se piensa que es un principio unificador aunque no sea sólo geométrico como lo deseaba Einstein (y seguramente Platón). Se origina en una abstracción humanista que ha sido observada por todos los genios antiguos y modernos, pero sus desarrollos matemáticos se han ido consolidando recién a partir de los dos últimos siglos (como ya se ha indicado): la naturaleza no desperdicia nada. De esto ya se ha hablado más que suficiente en la 1ª y 2ª partes.

Medición, Cálculo y Operadores

Cuando se intenta medir una magnitud cualquiera, la teoría antropológica nos asegura que las medidas más apropiadas pueden ser de tres tipos. Si se trata de una medición de naturaleza material estamos en metros, kilos, etc. Si se mide algo relativo a lo que tiene vida pero no libre, estaríamos midiendo su capacidad olfativa, visual, etc. Pero si se trata de los seres humanos deberíamos medir sus hábitos, afectos, etc.

La precisión matemática según la magnitud en cuestión (parsecs, leguas o nanómetros), ya se sabe que tiene un límite (como es el caso de mediciones precisas y pequeñas que poseen una limitación intrínseca en el caso de la física). Recuérdese lo que nos decía Benedicto XVI al principio de este libro.

En el caso de las primeras magnitudes, las materiales; existen "patrones" de referencia que -a pesar de haber evolucionado- son admitidos por todos. Como ejemplo hemos venido tomando el caso de la longitud.

Para las segundas mediciones, las de las capacidades animales (las que no son taxativas, es decir, no son como peso, talla, rapidez, etc.) se pueden dar tendencias deseadas o no deseables (como la visión del águila u otras por el estilo, entre las deseables) y su medición debe realizarse en una escala ordinal, numéricamente ordenada pero sin magnitud de referencia, es decir, representando a las evaluaciones: "es mejor que" o "es peor que" como p.ej., la vista del águila es mejor que 13, en una escala de 0 a 20, y la del murciélago peor que 4 en la misma escala .

Finalmente, para las capacidades afectivas o humanas valdría la misma escala ordinal que para las capacidades animales sólo que quien las mide, es decir, quien pone la escala de 0 a 20 en el ejemplo anterior para la visión, tiene que ser alguien superior al ser humano, lo que complica aún más la situación.

En la exposición que sigue, vamos a revisar cómo ha evolucionado y en qué situación se encuentra la medición de magnitudes del primer tipo o materiales. Las magnitudes de este tipo han sido -y son- las más estudiadas, y no varía su modo de comportarse ante estímulos; por ello, ha sido posible experimentar repetidas veces sucesos con el fin de encontrar las "leyes" que las rigen. Pero su medición ya ha sido tratada ampliamente en toda la primera parte de este libro.

Para las magnitudes de segundo tipo, se han dado las pautas básicas en la segunda parte de este libro. Pero reconocemos que hay mucho que avanzar y desarrollar, ya que una cosa es la vida, el movimiento, y otra las capacidades de los cuerpos animados. Sin embargo, se reconocen avances de la biofísica en esta dirección. Los últimos avances desde la perspectiva del genoma, ya apuntan a procesos relativos a mejoras facultativas. Acá las vinculamos a la propagación de la luz como judicoide (véase la 2ª parte).

Las magnitudes del tercer tipo, mencionadas antes, son mucho más difíciles de definir porque no es fácil repetir sucesos sin variar su regla de decisión, ya que los sistemas de este tipo aprenden y varían su respuesta ante el mismo estímulo. Tenemos la esperanza de que nuestro libro ayude a descubrir algún día magnitudes más adecuadas para medir las reglas que rigen tales sistemas.

Rehilando al inicio de este acápite nuestro emprendimiento epistemológico, vemos ahora más claro que las magnitudes miden la respuesta consensuada (todavía piénsese en una referencia de medida unitaria) de un sistema, en las unidades propias de esa magnitud: p.ej., metros para longitud.

Podemos, por ello, sentirnos orgullosos de ser los primeros en dar una definición concreta en la historia de las mediciones vitales, son nada menos que la magnitud de medida de los esfuerzos vitales para sus movimientos intrínsecos. En concreto, queremos decir lo siguiente: cuando asignamos un valor a una de estas medidas, p.ej. 5 calorías, la unidad de medida (calorías) es la magnitud de que aquí hablamos.

Pero no se piense que tal definición es obvia. La historia de las definiciones de requerimientos vitales y la cantidad de teorías que existen al respecto en el primer y segundo siglos de vida de la ciencia biológica (estamos en los albores de su tercer siglo de vida) lo demuestran. Para todos los que han intentado definirlo, el requerimiento llega a tener propiedades fisiológicas y hasta psicológicas; que sólo se pueden comprender desde una nueva faceta del ser humano: el hecho ecológico diría un positivista. Otros dirían que es una referencia relativa, ordinal, que queda definida en todos sus aspectos cuando se fijan las otras referencias: algo así como un metro o pulgada estándar .

Se acostumbra asignar muchas funciones a las magnitudes. En épocas antiguas, algunas llegaron a tener un valor intrínseco (moneda p.ej.). Es cierto que las calorías pueden provenir por muchos medios, pero también es cierto que muchos alimentos muy nutritivos nunca son aprovechados. Resumiendo, aunque una magnitud tenga una representación material como movimiento o cualquier otra magnitud para nutrir a un sistema (o medio) ecológico, sirve para medir una característica del valor intrínseco de su propio movimiento: el valor que tiene como requerimiento energético.

En eso se parece al dinero, en que no refleja la exactitud numérica que debe tener para cada uno, cada familia, cada empresa, cada grupo social, etc. Y ello se debe a que ser medio, lo relativiza mucho al mismo movimiento. Y es que algo análogo ocurre en la vida, que depende mucho de cómo se gestione la propia vida (del “esfuerzo” vital que un individuo de una cadena ecológica realice).

Cuando se refleja una medición ecológica en base a unidades relativas, por consenso, la perspectiva que puede tener una ecología tarde o temprano dependerá de qué tan bien o tan mal se haya definido ese estándar . Y es difícil llegar más allá de lo que es posible estandarizar y estudiar concensuadamente. Por ello, hay que partir de otros fundamentos.

Aunque los seres humanos somos sociales, no se requiere haber definido el metro patrón para que existan las longitudes. Cuando se abstraen los estándares -como la longitud, que se lleva a una o más dimensiones en el caso del metro- es mejor interiorizarlos profundamente; esto es, entender cómo se convierten en unos patrones de medida fidedignos. Dicho de otro modo: ¿qué es lo que significa una magnitud? ¿cómo es que su propia definición la hace más útil y realista con los usos actuales y universales de la magnitud correspondiente a esa abstracción?

Esas son preguntas que ya han obtenido respuesta en la historia de la teoría de la medida. Aquí, en esta publicación, vamos a decir cómo; y aunque sea patético, vamos a dar algunas fórmulas matemáticas que seguramente parecerán aburridas para algunos lectores, pero no lo son. Intentaremos minimizar esa dosis.

Dado que la energía ecológica es intercambiable como luz que se propaga (aunque este intercambio nunca se realice o esté mal evaluado ) obedecen al primer tipo de sistemas reales, es decir, sistemas materiales o del primer tipo de los que mencionábamos al inicio de este acápite. Son sistemas que nunca cambian su regla de decisión. Las reglas de intercambio de dichos emisores-receptores deben ser invariantes dinámicos -para que haya comunicación - incluso desde la perspectiva y reglas de subsistemas ecológicos distintos a los sistemas que los emiten, o que los recepcionan .

También dijimos que para ese primer tipo de sistemas las magnitudes han ido evolucionando en la historia. Es lógico que el propio concepto de magnitud haya evolucionado, desde los estándares iniciales, hasta incluir grados de abstracción muy profundos e innovadores; tanto, que se puede decir que de esa evolución es fruto el estado actual de las ciencias exactas, hecho ya descrito en la 1ª y 2ª partes.

La Ecología como ciencia, tiene que poseer características que la han evolucionado desde sus orígenes, como ya se advirtió; pero estas bases requieren elementos de medición dignos de confianza a todos los sistemas vinculados. Esto, todavía no se ha dado. Las claves para la medición de invariantes en los sistemas ecológicos creemos que las damos, por primera vez, en esta publicación. Por ello, partimos de fundamentos que pueden parecer extraños a su contexto (por ser muy matemáticos); sin embargo, sabiendo que deben serlo (por lo mostrado en las 1ª y 2ª partes) trataremos de hacerlo de un modo que nos parezca familiar, a los ecologistas actuales.

Para medir y efectuar cálculos en ecología se acostumbra trabajar con curvas y estadísticos n-dimensionales que se llaman matrices e intentan ser los elementos matemáticos a los que ya se echa mano para resolver ciertos problemas de la ecología, la estadística social, la biología médica, etc.; pero los verdaderos constructs matemáticos de que hay que ayudarse en una teoría científica válida para las mediciones ecológicas, son elaborados desde ellos como la contra-co-varianza. No obstante, ya venimos viendo que esto no quiere decir que sean inmanejables.


Estas estructuras matemáticas son muy nuevas para los ecologistas (y también para quienes las usan en las ciencias hoy en día, porque al inicio del siglo XX se pensó que era una estrategia metodológica transitoria para salirle al paso a las incoherencias de las teorías anteriores) pero enfrentaremos el gran reto de hacerlas directamente asimilables con los conceptos tradicionalmente usados por ellos.


El primer paso al abandonar las técnicas tradicionales, repetimos que con el fin de llegar a invariantes sistémicos, será una evolución del sistema usual de coordenadas que utilizan todas las ciencias. Es algo así como lo que se hizo en economía y sobre el que históricamente Debreu construyó su famosa tesis, que le valiera para el premio Nobel de 1983. En ese sistema coordenado, en los ejes se refleja la cantidad de input aportado a una ecología pero la métrica corresponde a la "suma" de las cantidades aportadas.


Como veremos, nuestro nuevo sistema considera también un tipo de coordenadas, de las que hay que partir para tener un sistema completo de unidades de referencia; pero la métrica "suma" -sin dejar de ser válida para ciertos casos- no ofrece las ventajas operativas que sí conceden otras métricas más útiles (esto último se aclarará más adelante todavía, en este capítulo).


El concepto fundamental para las mediciones, es la cantidad de esfuerzo. En todo sistema ecológico se mide el esfuerzo para alimentarse de algo (input) o para excretarlo (output). Todavía no nos fijamos en lo que se llama proceso, es decir, si hay correlación entre lo que entra y lo que sale para evitar déficits (que en este caso sería la falta de sincronismo (la muerte del organismo).


Éstas, las energías luminosas (como propagaciones emitida o recibida) varían en el tiempo acumulándose (ver fig. 1), sea como entrada o como salida, del sistema. Para aclararnos, solo consideramos, primero; una de ellas. Si pensamos en el input, lo que entra al sistema entra a un organismo, que es el referente inicial (algunos lo llaman línea de base). Eso -lo que entra- se añade al referente inicial. La forma en que ocurra esto ya es harina de otro costal, es decir, ese esfuerzo depende de cada organismo; pero podemos medir el input antes de ser procesado y medirlo en calorías, gramos, o en lo que convenga medirlo.


Nos valemos de referencias -para distinguirlas- como son dos tiempos distintos. Vale decir, t1 y t2. La cantidad de input q puede ser variable en el tiempo, y eso se denota como q(t) que, por durar un pequeño tiempo dt, es una cantidad fija en ese lapso pequeño de tiempo, y será por ello dq = qt ×dt (no se muestra por claridad, para destacar que qt es la ordenada de la curva q(t) que, en el momento t, mide qt) en la parte de la izquierda de la figura 1.


Lo que ingresa, se va acumulando (también sale, pero de eso nos preocuparemos después) y, en el momento t1, tenemos una cantidad de input acumulada qa1 (ahora véase la parte derecha de la figura 1) y, en el momento t2, una cantidad de input acumulada qa2; por lo que la cantidad ingresada -entre esos dos momentos- será qa2-qa1.










Figura 1.- Ejemplo de Medición de input en un Sistema Ecológico


Las referencias anteriores están dadas por las coordenadas t y q. La abscisa t es en general única y se refiere al tiempo. Sin embargo, la ordenada q puede referirse a varios inputs: s. La descripción de las coordenadas de un sistema ecológico queda definida por (q1, q2, q3, ... , qs) que es un vector; y al vector del espacio s-dimensional q que las representa se le llama vector posición (ver fig. 2).

Pero en nuestra búsqueda de invariantes ecológicos, tenemos que echar mano de lo que -geométricamente hablando- nos permita medir de modo que dicha medición sea coherentemente equivalente para todos los sistemas ecológicos existentes. El valor final de intercambio será, tal vez, otro. Queremos que sea un invariante digno de confianza, pues ello es de indudable interés para todos.

Para ello, antes nos interesará la derivada del vector input (con respecto al tiempo): dq/dt = q ̇; a la que llamaremos flujo o ritmo de input ecológico y denotaremos por q ̇ = (q ̇1, q ̇2, q ̇3, …, q ̇s). Ya se sabe, según las ciencias exactas, que si un sistema tiene N subsistemas, hace falta dar N * s valores iniciales de las coordenadas y N * s valores iniciales de estos flujos, para dejar completamente determinado el sistema. Las coordenadas q se llaman coordenadas generalizadas de posición, por referir varias componentes y no sólo una. Las q ̇ se llaman coordenadas de flujo generalizadas.


qk-1

t2

t1 q(t) d/dt q(t) = q ̇(t)

qk q ̇(t)

q2


q1

qs

Espacio s-dimensional Productividad


Figura 2.- Espacio para Medición de Output (s-dimensional) en un Sistema Ecológico


La experiencia en otros campos de aplicación de teorías dinámicas muestra que es suficiente dar cantidades de input y flujos generalizados para dejar completamente determinado el estado del sistema . Aunque ya se ha advertido que la exactitud es imposible en la teoría dinámica actual (véase cita J. Ratzinger 1ª parte) obviamos, por ahora, aquello; para entender primero cómo se llega a la expresión de un invariante de medición.

Una trayectoria en el espacio generalizado quedaría definida por la vinculación entre los niveles (posición), flujos y una ecuación, que los relacione entre sí, -con las que llamamos aceleraciones (o sea, cambios en los flujos). Cómo sea posible obtenerlas se mostrará más abajo. Por ahora nos quedamos con que así sería posible un seguimiento continuo, a los niveles de input, durante una trayectoria temporal de recepción (por ahora, supondremos que podríamos determinar con la exactitud máxima que es propia en el consenso actual).

Pero surge otra dificultad que hasta ahora hemos dejado pasar desapercibida ex-profeso. Nos hemos limitado al número que está asociado al evento ecológico; sin embargo, existen otros modos de referenciar los bienes ecológicos físicos reales que son propagados. No se trata sólo de cuánto input existe sino que lo que existe disponible tiene una referencia (gramos, libras, etc.) -una referencia diferente-. Es decir, no sólo interesa el número sino la unidad de medida base: gramos, calorías, euros, dólares, etc. Al conjunto que se obtiene: número + unidad de medida se le llama magnitud, y en consecuencia, la cantidad numérica (medida vinculada) varía, obviamente, según sea la unidad de medida de referencia.

La vinculación requerida entre una cantidad y su magnitud (la parte de la ecología que se vincula a lo que se mide) ha tenido varias maneras de enfocarse a través de la historia de las matemáticas, y ha generado estructuras matemáticas difíciles de entender para los no-matemáticos. Ya nos hemos detenido en saber mayores detalles de cómo se construyen tales estructuras, incluso hemos dejamos establecido que se les llama operadores o tensores y han logrado reflejar toda la estructura deseada por los más exigentes formalistas de las ciencias exactas .

Por ahora, es suficiente intuir por qué son tan útiles. Los operadores sirven para manifestar, matematizando, los múltiples posibles efectos -en todas las dimensiones de output- de las múltiples posibles causas -en todas las dimensiones de input-. Es decir, una perturbación de una o más dimensiones (que ocurre por alguna razón, la que sea que se dé), queda descrita en todas sus dimensiones gracias a los operadores. En particular, permiten estudiar la propagación en el tiempo de todas las mediciones ecológicas que se nos ocurran -que pueden ser en las mismas u otras dimensiones-. Esto es lo que hace a los operadores muy versátiles, pues no se pierde linearidad y se asimila, de modo natural, la no-linearidad posible de cada dimensión que pueda estar involucrada en los cálculos.

Por ejemplo, cuando se ingiere input por una ecología, la forma en que se haga depende de cada organismo; pero lo hace indirectamente también en otras dimensiones, como la ingestión de un medicamento (que tiene efectos secundarios). Es lo que hoy se conoce y se estudia a través de las correlaciones y tiene mucho que ver con arreglos matriciales, por ejemplo. Pero la teoría de que hablamos va más allá. Estas correlaciones no son sólo entre números reales sino también complejos , es decir, que tienen parte real y parte imaginaria , de un nuevo tipo: a + bi (donde i es la raíz cuadrada de –1: ). También son arreglos matriciales pero pueden ser covariantes (en las dimensiones análogas) o contravariantes (en la dimensión del tiempo); es decir, pueden ser tensores mixtos. A estos ya los hemos conocido en la 2ª parte.

Estudiaremos más sobre estos entes matemáticos después, en un contexto más idóneo (cap.2.2). Veremos que son arreglos numéricos más generales que aquellos de los que dispondría la teoría ecológica actual. Incluso nos simplifican los cálculos de futuros contaminantes (esto es algo que se deduce más allá de los límites de este documento, pero también avanzaremos en ello), además de darnos más exactitud en la medición de las magnitudes ecológicas, y decirnos cuáles son las más útiles. Es cierto que la abstracción conceptual es muy elevada, pero es peor dejar que se “esfumen” inputs y/o outputs debido a una defectuosa prevención .

Principio de Mínima Acción

Ahora, vamos a centrar nuestra atención en un aspecto ecológico de la naturaleza. Esta, minimiza sus recursos para actuar (un físico diría que el gasto de energía -o costo de una acción de la naturaleza- es mínimo) y, veremos a continuación, que es la característica básica de donde se deducen todas las leyes de la materia (sistemas materiales). Es decir, al final, la ecología está inscrita en la deducción de las leyes naturales, por lo que viene siendo el principio unificador …

Acontece lo que afirmábamos, de que la salida a los problemas de la ecuación general de campos o teoría generalizada de las ciencias ya no proviene de las ciencias exactas mismas, sino de aspectos más humanos o humanizantes de las ciencias, como es un principio de mínimo input-output de algo (que no sabemos todavía, con rigor, qué es; pero desentrañaremos su formulación). Tampoco es que ya estén resueltos los problemas ecológicos con ese principio. Lo que asegurábamos es que si hay una solución, no puede provenir de las ciencias -como lo demostraremos más adelante- sino que tiene que ser de otro tipo, como es el Principio de Mínima Acción. En este caso, se trata de un principio operativo -hábito del tipo arte, ciencia- pero todavía no del nivel más elevado de nuestra esencia humana, es decir, todavía no de lo que es de gobierno (ético, moral) humano.

El caso moral ya se ha tocado directamente al hablar de la justicia en el libro La Constante de la Economía, pero -supuesto aquello- ahora nos regimos por una intención operativa: se trata de que el “esfuerzo” en ingerir inputs -propagados en el entorno y de algún modo, disponibles para una ecología- sea coherente con las restricciones que impone el propio organismo y, al mismo tiempo, sea mínimo.

La idea es que no se nos escape ningún input ni output (como ocurría antes también en la física, donde se escapaba energía y no era posible calcularla en forma explícita) y eso implica generalizar algo tan complejo como el teorema de Stokes, por ejemplo . Por eso debe ser que la aplicación de este principio llegó después de mediar el siglo XX. Madurar las magnitudes de la física a raíz de un principio ecológico, que los economistas todavía no habían interiorizado, fue más lento de lo que debió ser. Todavía, hoy en día, no se hallan elaboraciones como las del tiempo-espacio, es decir, de la forma contravariante-covariante (tensorial) ni en economía. Pero las vamos a mostrar aquí porque es un principio -rector de la vida- que no se está aprovechando y es inexplicable. Es que el tiempo no es un recurso como los demás: transcurre siempre, y se pierde si no se utiliza.

Este principio se contextualiza todavía en términos de energía, campos, densidad de materia, etc.; que no escapan al discurso cuantitativo que les es propio en física, por eso permite llegar discursivamente a todas las magnitudes y explicar todos los sucesos físicos. Eso no significa tampoco que no sea el atajo a su solución, sino que todavía no se ha logrado culminar su desarrollo por este camino (falta mucho por hacer). En esta comunicación se sugiere que las consecuencias de su aplicación son tan expectantes -como lo será para la ecología a partir de esta investigación- que los seres humanos preferiríamos no saber más al respecto (ej. la descontaminación), por las implicaciones que se derivan -en términos de esfuerzo real- para todos los campos de la Acción Humana.

Este principio aplicado a la Mecánica (que fue la primera aplicación de su primer desarrollo, por Hamilton) dio lugar al descubrimiento de la Función de Lagrange (o Lagrangiano, distinto del Multiplicador del mismo nombre ). El mismo principio aplicado al electromagnetismo permite deducir las ecuaciones de Maxwell, etc. Además, ayuda a progresar en el terreno que lleva a entender mejor los fundamentos de la relatividad y quántica, como veremos a continuación.

La función de Lagrange y las ecuaciones de Maxwell han sido siempre relaciones básicas a las que hay que acudir para resolver cualquier problema particular en física. Es destacable que la aplicación de un principio ecológico permita deducirlas sin más base que el de definir las coordenadas generalizadas respectivas, aunque se requiere una fuerte dosis de ingenio y experiencia con objetos matemáticos y físicos. Todas las propiedades de que gozan estas ecuaciones y objetos, en física, son deducciones básicas del Principio de Mínima Acción.

No desarrollaremos estas expresiones matemáticas, como se acostumbra hacer en la presentación de este principio, porque casi todos los libros de física lo hacen de un modo sobresaliente que aquí -aunque aportan- nos pueden distraer. Sí haremos apreciación conceptual de las deducciones cuando aporten al tema que tratemos, porque son conclusiones que toma mucho tiempo derivar. El concepto de sistema es la clave.

La primera tentación cuantitativa que emerge de las ecuaciones de la trayectoria de un sistema es cómo anticipar resultados en base a las condiciones iniciales. Supuesto que sea posible medir con exactitud los volúmenes y las productividades generalizadas, y además pudiéramos efectuar un seguimiento de la trayectoria según el Principio de Mínima Acción, anticiparíamos para s coordenadas, 2s-1 valores futuros posibles (porque la variable tiempo está explícitamente pre-definida por nosotros) que surgen de las condiciones dinámicas pre-impuestas al inicio. Pero no todos los valores futuros desempeñan un papel importante (esto se obtiene de la experiencia en las ciencias). Entre ellas hay algunas integrativas (clásicamente se les llamaba conservativas ya que se aplicaban a sistemas cerrados) porque mantienen su valor en todo momento y se demuestra que están relacionadas a propiedades del entorno, para la dinámica que es posible para esos objetos (como se verá con detalle en el capítulo 4).

Dichos valores se asocian a las magnitudes más importantes de la dinámica del sistema, cumpliendo además la condición de ser aditivas facilitando su manejo y brindando señales cuantitativas del sistema. La experiencia de las ciencias con estas magnitudes ha sido imponente.

Pasemos a describir las magnitudes relacionadas a las características más obvias de la dinámica ecológica: el tiempo y el espacio de outputs (o su equivalente de inputs). Hay una magnitud cuantitativa especialmente importante, que pareció no ser natural incluso para las ciencias; pero fue adquiriendo relevancia al extremo de convertirse en la magnitud básica de la actual Mecánica Quántica. En Ecología, nos permitirá innovar gracias a un concepto original, que llamaremos coherencia ecológica porque permite encontrar la correspondencia de requerimientos unitarios entre diferentes sistemas ecológicos (incluyendo relaciones micro-macro). Será la última que definiremos, siguiendo un orden de aprendizaje. Previamente debemos entender otras magnitudes básicas.

Otra característica adicional de estas magnitudes es que sirvieron para conectar las matemáticas tradicionales, que se aplicaban en la llamada conceptualización clásica, con las nuevas estructuras de la matemática actual. Su importancia ha sido siempre percibida, pero la ampliación de su uso a otros dominios cuantitativos se amplía todavía más, con este libro. En ecología la interpretación es menos directa porque la unidad energética es una magnitud realizable numéricamente en muchos recursos. Eso complica las adaptaciones, por ejemplo, dinámicas. Hay otros campos como la psicología, sociología, etc.; que no miden directa ni usualmente, acumulados; aunque éste pueda ser algún caso, que sería muy particular. Los emprendimientos que logren aplicar principios obvios (como es para la ecología minimizar los inputs) serán más llevaderos (dentro de la complejidad ya estudiada), para quienes deseen más exactitud, gracias a modelos como éste. Al menos eso aseguramos.

De todos los posibles invariantes (piénsese, por ahora, en valores numéricos que permanecen constantes en el tiempo) dinámicos, el más básico es el que se sintetiza en un sólo número, es decir, un escalar. Después vienen los vectores (como la producción q), luego las matrices … y así sucesivamente. En el capítulo siguiente veremos que hay otros modos, estadísticos, de abordar de otra manera este escalamiento cuantitativo y dimensional de complejidad. Ya que también los operadores difieren notoriamente, cuando se debe pasar de la continuidad clásica, a la quantización estadística posmoderna. Esto se suma a (y asume) la aparición de conjuntos fractales, discontinuos y/o no uniformes en los recursos y en el tiempo.

El primer ejemplo es el caso de un escalar. Es el caso de la conocida magnitud energía, de la que ya hemos hablado mucho por su relevancia en la propagación de la luz. Esta magnitud se deduce de la uniformidad del tiempo, es decir, de la propiedad que tiene de ser siempre el mismo para todos. Ya veremos que esta aparente isocronía de los sistemas falla no sólo en la física relativista sino también en el caso de la vida. En ciertos sistemas ecológicos ocurrirán también fenómenos singulares que hoy no podemos vislumbrar, por deficiencias conceptuales, que esta visión dinámica de dichos sistemas subsanará.

La expresión matemática típica para esta magnitud de los sistemas ecológicos sería:



Esta magnitud invariante en toda dinámica, se identificará con el esfuerzo (costo por recepción de la propagación, como energía o alimento) real debido a una recepción ecológica . La magnitud de que estamos hablando tiene una correspondencia dinámica entre los sistemas ecológicos, de modo que se hace posible agregar y desagregar subsistemas e individuos. Tiene además otra característica de tipo interno, análoga, que estudiaremos después. En general se identifica con la forma, medible, de la recepción; a la que llamaremos a veces requerimiento y otras, alimento (dependiendo de si se trata de lo necesario o de lo ingerido, se identificará por el contexto o se hará explícito el caso).

La “fórmula” anterior, muestra que la magnitud esfuerzo es fundamentalmente la suma de dos términos diferentes: la parte dinámica o cinética (kínesis), y la parte potencial que depende sólo de las coordenadas del objeto ecológico, con respecto a otros objetos, en el sistema ecológico de referencia . La constante ma que allí figura, asegura que la magnitud medida es consistente con el sistema de unidades que se elija (algo así como definir una medida patrón). Dicha constante se llama masa en la física . Para nosotros es perfectamente compatible con conceptos que reflejen la persistencia sincrónico-ecológica de algo en el tiempo (lo que sería una inercia ecológica), como puede ser lo disponible en una ecología, o su capacidad para emitir energía, o las leyes para hacerlo ...

Es muy importante entender la forma de esta magnitud pues representa el esfuerzo que realiza el sistema (input o output o ambos) en una ecología. La falta explícita de la variable tiempo en la ecuación de la energía, nos asegura su aditividad no sólo para ecologías cerradas sino también cuando interaccionan con otras ecologías cuyos valores transaccionales varíen con el tiempo. La aditividad es una consecuencia inmediata de la aplicación de la función de Lagrange a todos los sistemas y a las características de esta magnitud.

La naturaleza invariante de la energía en el tiempo, pone de manifiesto la existencia de números físicos (que mencionamos en la 1ª parte) con ciertas propiedades “relacionales”. Estas son sus “formas” persistentes y universales, finalizadas solo por el conocimiento humano, una de ellas es la vida misma; y vale por ello, para los sistemas ecológicos.

Como segundo ejemplo tenemos el caso de la magnitud que se deduce de la uniformidad del espacio coordenado. Es el caso de la otra magnitud, también muy conocida, llamada impulso. Esta propiedad ha evolucionado incluso en su denominación (antes se llamaba cantidad de movimiento) porque cada vez ha sido más útil considerarla para resolver dificultades de tipo matemático. Lo único que hay que tener en cuenta -para distinguirla en la ecología de referencia- es que se corresponde con los flujos (es esencialmente dinámica, por decirlo de alguna manera), a diferencia de la anterior, que se corresponde más con los volúmenes de input o output.


Lo que ocurre con esta magnitud -que también es integrativa (macro) en toda dinámica- es que es una magnitud vectorial, es decir, que retiene sus características aditivas para todas las coordenadas en la ecología de referencia. Se le podría haber llamado, para entenderla mejor, flujo ecológico. Por eso es más completa para medir en ecología, porque no sólo se fija en que el esfuerzo sea realizable para el sistema, que es el caso anterior de la energía; sino que hace explícito también el caso de diferentes inputs y/o outputs de una ecología cuando existen interacciones con el entorno, cosa que con la energía -como gran total- es imposible de desagregar. Es justo lo que hace diferente a un escalar de un vector. Pero así, tiene mucho sentido.


Y hacemos una intelección: por primera vez hablamos de desagregar de modo explícito, es decir, ingresamos en el territorio de los subsistemas sin haber terminado con el de los sistemas de una ecología. Actualmente no ocurre así porque la cuantificación de eventos de índole numérica, se lleva por totales contabilizados (no por unidad de input o output) dado que es muy difícil llevarla así; pero esto, como veremos, es lo que nos limita en exactitud, parece difícil -caro de realizar- por no haber profundizado más. Justo es esta dificultad la que revela su naturaleza dinámica .


La expresión matemática típica para esta magnitud de los sistemas ecológicos es la siguiente:




La aditividad también está asegurada para el caso de cualquier ecología, no sólo cerrada sino además abierta, es decir, cuando interacciona con otras ecologías. La aditividad lleva a la consecuencia inmediata de que la ecología global no tiene que ser cerrada , aunque no existan seres humanos fuera del contexto ecológico terrenal. El sistema de energías queda relacionado con el flujo a través de la constante ma.

También pueden entenderse, a partir de esta magnitud, los juegos de suma cero (estudiados últimamente por la economía) según el principio de acción y reacción teniendo a la vista la interacción entre dos sistemas ecológicos que pudieran considerarse cerrados.

Así como la magnitud energía representa el esfuerzo real para conseguir un alimento, el impulso representa cómo fluye ese alimento y -en base a la relación (2)- podemos concluir que el flujo como "agregado" de varios inputs es la suma de los flujos parciales . Esta afirmación precisa mejor nuestra intuitiva idea de que más importante es una ecología que genera más output con menos input. En realidad lo que permite compararlas es: cuánto output más obtenemos en el mismo lapso de tiempo. Eso es posible porque ambas son magnitudes.

El espacio de fases ecológico

Otra característica peculiar del modelo, es que las descripciones del estado de un sistema ecológico exige dar simultáneamente el producto qi y q ̇i (productividad), para dejar determinada su evolución futura. Se simplifica enormemente esta descripción completa del sistema, cuando los flujos se sustituyen por los impulsos (mi q ̇i) .

Todas estas deducciones y uso de herramientas gráficas no son pura invención ni simples analogías. La matemática subyacente está exigida por el hecho de que el discurso utiliza números, para ser preciso. Se exige como requisito que sean válidas estas leyes o reglas para los sistemas que están involucrados en los intercambios.


qs ms q ̇(t)



q(t) m q ̇(t)

q2 m2 q ̇2


q1 m1 q ̇1

Figura 3.- Descripciones del Estado de un Sistema


Hay una transformación conocida para esta descripción de los sistemas -matemática- llamada transformación de Legendre, y ofrece grandes facilidades descriptivas hasta tal punto, que las ecuaciones de los sistemas en este espacio ecológico (puramente teórico-matemático) se llaman formas canónicas. También fue elaborada por Hamilton esta formulación.

A un punto de este espacio lo llamaremos punto fase, y la trayectoria que describe en ese espacio la llamaremos trayectoria fase. Consideremos un sistema macro. A una parte pequeña de este sistema pero lo suficientemente grande como para seguir siendo macro, la llamaremos subsistema ecológico.

No hay que asustarse por hacer in-imaginables los sistemas en esta representación espacial. Nuestra mente solo da para tres dimensiones (las físicas) y la prueba es que el tiempo -como imagen- se nos escapó durante miles de años. Tiene gran utilidad para los cálculos complicados, así que su imaginabilidad pasa a segundo plano.











Capítulo 2.- Ecología quántica

Naturaleza Estadística de las Mediciones Ecológicas

La operación matemática que emerge naturalmente desde el estudio de las unidades individuales y las interacciones ecológicas (que se aplica a la energía, el impulso y otra que veremos más adelante: que llamaremos coherencia ecológica según hemos anticipado) es la probabilidad de que las interacciones ocurran una -o varias- y en uno -o más- sistemas ecológicos. Es una nueva operación matemática, distinta y más complicada que las anteriores que se refiere a simples números o vectores. Incluye, casi siempre, arreglos bastante extensos de números relacionados por algún vínculo común (por ejemplo, se usa para el movimiento físico en el caso de sistemas físicos). Antes se pensaba en la probabilidad como un simple número. Hoy, ya se sabe que representa más que eso, como se viene advirtiendo desde la 2ª parte .

Además, no podemos ya hablar de medir, con certeza absoluta, ninguna magnitud. Al estar el universo ecológico de magnitudes (regido, además, por reglas del físico) repleto por estructuras dinámicas, interactuar en cualquiera de tales sistemas -como es el caso de efectuar una medición- distorsiona inevitablemente la medición misma (volvemos a las citas del Cardenal Ratzinger de la 1ª parte). Aunque la interacción sea de una entidad muy pequeña con una muy grande, podrá minimizarse su efecto pero no puede negarse su existencia . La interacción, si intervienen seres humanos, llega a influir notoriamente más por no ser sólo natural .

En un contexto ecológico, emerge algo similar cuando, al evaluar una magnitud ecológica cualquiera (p.ej. energía, impulso o coherencia -aún no definida, se hará en el próximo capítulo- de una ecología, que son las magnitudes más importantes, dinámicamente hablando ), el sistema de medida (instituto estadístico, ministerio, superintendencia, etc.) requiere p.ej. -para funcionar, aunque sea pequeña- una inversión que influirá en la magnitud que se está midiendo: si se está midiendo una ecología nacional, las interacciones para medirla influirán en dicha ecología. Aparece una incertidumbre de fondo que no puede eliminarse. Este hecho irá cobrando cada vez más trascendencia no sólo para los fenómenos de la naturaleza, como ya se ha descrito y comprobado en los dos últimos siglos, sino para todos los objetos numéricos que concurren en el tiempo; lo cual es más que coherente con nuestras ecologías. Y Benedicto XVI nos reconforta con sus comentarios -al máximo nivel- el de la teología de la persona.

La magnitud que vamos a llamar coherencia ecológica es la magnitud que tiene más amplia cobertura -por su generalidad- para las mediciones dinámicas. Es lógico pues, que la probabilidad de encontrar -en una entidad de una ecología- un valor para esta magnitud, exija aprender conceptos previos, requisito para entender bien la definición de dicha magnitud. Sabemos de la teoría de operadores que éstos, son combinaciones lineales de unos operadores básicos (que incluso se les llama base de generación del espacio de operadores, llamados vectores, muy conocidos y utilizados en estadística -el caso más general- en donde llegan a ser números complejos) y la expresión matemática que rige es:



Donde las funciones n (también llamadas funciones propias) expresan la estructura básica del espacio de operadores, siendo ellas mismas operadores (es decir, que al aplicarse sobre cualquier entidad ecológica "rotan" dicha entidad -en el espacio de n dimensiones, por ellas generado- según lo expresa dicha base). La expresión anterior también se suele enunciar diciendo: cualquier estado de una entidad ecológica puede representarse por una combinación lineal de los estados básicos de la ecología. Lo que no obsta para que en cada estado base puedan existir circunstancias no-lineales, sólo afirmamos y forzamos que los operadores sean lineales a través de las funciones , porque nos interesa su propiedad aditiva (lo que emerge en forma natural, cuando totalizamos nuestras cuentas). Por otro lado, los coeficientes an tampoco tienen que ser números reales, son -en general- números complejos donde, insistimos, la parte compleja refleja la estructura temporal de forma no necesariamente explícita. Esta no-explicitación fuerza generalizaciones de los teoremas de Gauss y Stokes como pronto veremos.

De la igualdad (3) se deduce inmediatamente la superposición de estados cuando se les asigna este contenido explícito de medición de magnitudes. Pero más importante es un hecho -que se deriva directamente de dicha igualdad- notable: los estados de un sistema global que constara de dos subsistemas ecológicos independientes pueden describirse por el producto de sus operadores particulares, esto es:



Siendo este último resultado tan importante que nos permite afirmar lo siguiente: la probabilidad de obtener la magnitud de un estado de un sistema compuesto por dos subsistemas independientes, es el producto de las probabilidades de la magnitud de estado de los dos subsistemas por separado. Además tales probabilidades no pueden ser otras que los cuadrados de los coeficientes an en (4), pues como se sabe, deben sumar 1 –pues es el caso de todos los estados posibles- y debe anularse si no existe el término correspondiente an para el estado dado.

Esta expresión de la probabilidad de un estado, y de las magnitudes de estado de los sistemas; ha dado muy buenos resultados en el estudio de los fenómenos de la naturaleza; como se constata en los avances más recientes del uso de materiales por el llamado Estado del Bienestar. La razón es obvia: las propiedades numéricas de los elementos de los operadores deben ser similares a las de los mismos operadores, como se razonará más adelante lo cual ya debe el lector haber sospechado desde hace unos párrafos.

Las Magnitudes Ecológicas

El concepto de derivada de una magnitud respecto al tiempo (como el caso de q ̇i en el capítulo anterior para la variable q -de las coordenadas generalizadas-) no puede ser ya más una operación bien determinada, sino aleatoria . Como no podemos saber el valor exacto (cfr. II.2.3.) que tendrá una coordenada en el instante siguiente, por la naturaleza incierta de las mediciones, sólo cabe hablar del promedio estadístico de ambas variables.

Ello nos habilita, además; a poder encontrar el promedio de todo tipo de conjuntos in-imaginables, aún los no clásicamente integrables (fractales generados por números complejos, por ejemplo). Por ello, hay que redefinir la derivada de una magnitud como la derivada del promedio estadístico i y no como función de dos valores muy próximos, pero distintos, de su cambio en el tiempo. Normalmente omitiremos la raya superior -que denota un promedio-, salvo que haya lugar a confusión.

Vale la pena detenernos ahora para hacer una apreciación. Al definir el valor medio, no se está forzando una integración, basta una sumatoria del tipo (4). Pero al efectuar dicha operación, se está implicando un operador. Esta operación es la inversa de la anterior (la derivada) aplicada a una magnitud. Si ahora suponemos que deseamos calcular el promedio hay que integrar la función -es como la sumatoria pero como no se sabe cuántos sumandos son, se aplica a un rango discreto o continuo, dado el caso- y así, obtenemos la siguiente expresión:


Expresión que define otro operador dando lugar a la solución general de una famosa ecuación, propuesta por Schrodinger en 1926 para la física. Es decir, ambos operadores, el diferencial y el integral, generan otros operadores; como ocurría en la teoría clásica (no quántica, pero ahora también en la quántica gracias a estos operadores estadísticos), en la que el universo se suponía siempre continuo.

En ecología, sólo recientemente se ha iniciado -a través de lo que se viene denominando Big Data- la generalización de tales mediciones, aplicándolas a la medición clásica. Se viene saliendo del mundo de los números reales para introducirse en el estudio de los complejos, pero sólo someramente. Las profundizaciones anteriores, y las que siguen, son convicciones cuantitativas de muchos genios que las aplicaron a fenómenos de la naturaleza. La coincidencia está en que también pasaron por elaboraciones previas, para sistemas -y entornos- del primer o segundo tipos mencionados en el capítulo anterior; experimentando hipótesis, y concluyendo en leyes que deben cumplir dichos sistemas. Los sistemas ecológicos poseen magnitudes no son del tipo que venimos exponiendo, y ya se sabe la exactitud que brindan y el alto nivel de abstracción que las soporta; infundiendo gran dosis de lucidez y asegurando entender cómo funcionan los sistemas ecológicos. Todas las cadenas ecológicas se miden del mismo modo, pero cada una tiene un valor distinto y no son sistemas libres. El ser humano es libre, pero su cuerpo no: es ecológico.

Como ya se ha deducido en los párrafos anteriores, existen magnitudes estáticas o dinámicas que son directamente medibles y podemos registrar: energía, flujo, etc. Pero también existen magnitudes que no es posible derivar ni medir con facilidad, ya que están sumergidas en una dinámica propia, que -aunque pudiéramos medir con precisión (cosa imposible como hemos también advertido)- requieren la simultaneidad de muchos eventos, lo cual es más difícil controlar .

Ahora derivaremos unas propiedades que deben tener las magnitudes. Son deducciones matemáticas, es decir, se derivan desde una teoría -la teoría de la medida- y ciertas condiciones dinámicas que cumplen los sistemas ecológicos. Dichas propiedades las cumplen p.ej. los operadores matemáticos por lo que en capítulos posteriores los estudiaremos a fondo. Aquí sólo las describiremos.

Es necesario, sin embargo, incluir ahora un par de propiedades previas, que deben cumplir las magnitudes de medida ecológicas. Es decir, que aunque las magnitudes sean expresadas a través de números reales (pues deben ser medidas realizables en la práctica), sus componentes tensoriales (p.ej. entradas del tipo fila i - columna j para un operador de segundo orden) pueden ser complejas, lo que nos lleva a la primera propiedad: los operadores hermíticos (traspuestos del tipo fila j-columna i, que coinciden con los conjugados -complejos- del original) son los únicos que pueden representar magnitudes medibles en la práctica.

La segunda propiedad se deriva del producto de operadores: si se mide en primer lugar la magnitud f y luego se efectúa la medición g (ambos son operadores) el resultado f  g (producto de operadores) no siempre coincide con el resultado g  f (medición en orden inverso), pero cuando esto ocurre, es posible medir ambas magnitudes simultáneamente. En caso contrario la medición simultánea es imposible. Como veremos, esto es lo que ocurre para la coordenada y el flujo de los sistemas ecológicos, la medición simultánea es imposible: es una barrera imposible de traspasar. Pero también veremos, que el límite es tan pequeño (cuando definamos la constante universal), que para la ecología, es posible efectuar mediciones invariantes con buena precisión. Sin embargo, eso no obsta para descubrir imprecisiones que provienen de otras fuentes de error, como también develaremos.

El primer operador -que permitirá revelar las propiedades de todas las magnitudes que estudiaremos a continuación- es el Hamiltoniano de un sistema. Emerge de la forma más natural con la función generadora () de la probabilidad de un estado, que ya hemos visto. Dicha función -la llamada función de onda- tiene el poder de expresar el comportamiento más probable de los estados futuros de un sistema. El operador más general que cumple con aquello es:


Donde H es el operador y el factor iℏ se introduce, por experiencia, con fines cuantitativos (la cantidad i es el radical complejo: ). La constante ℏ es un escalar real, objeto de este libro, que en el universo físico tiene las dimensiones de una magnitud energía-tiempo (se llama constante de Planck, por haber sido éste el que la presentó al mundo en el mes de setiembre del año 1900). Esta constante exige una serie de premisas que se han ido corroborando en los últimos dos siglos. Los antecedentes de su descubrimiento los hemos mencionado ya -y estamos mencionando otros posteriores a ello-, fueron apareciendo gracias a distintos experimentos aislados. Para nosotros, ya sabíamos que debía tener las dimensiones energía-tiempo, es decir, del tipo de la primera clase de operadores, que hemos descubierto con el principio de mínima acción, aplicado a la ecología.

Recuérdese que la energía de que hablamos -se refiere a la dinámica- para conseguir las calorías requeridas en el input. Es decir, que el sistema tiene que recurrir a sus propios esfuerzos para ingerir el input: por ejemplo correr y clavar los dientes en su presa para conseguir las deseadas calorías. Llamamos energía a ese esfuerzo, pero no lo hemos hecho hasta ahora para evitar confundir al lector, porque hay energías -que pueden no reflejarse como esfuerzo- sino solo en lo energético, y hay que considerarlos.

La ecuación anterior se llama ecuación de onda, y por su naturaleza, obliga a admitir que H es un operador hermítico (es decir, que tiene las propiedades de las raíces cuadradas pero no es un número real, como ya se ha advertido ). Las propiedades de este operador son innumerables como iremos descubriendo poco a poco. Tiene la gran ventaja de corresponderse con el esfuerzo (o energía) de una ecología, cuando se trata de un escalar. Se corresponde al impulso cuando se trata de un vector de s-2 dimensiones, y con la coherencia ecológica (que definiremos pronto) para operadores plenos.

Retornando al descubrimiento de las posibles magnitudes ecológicas, para la primera categoría importante de éstas, son de primer interés las propiedades homeoestáticas o estáticas -de un sistema ecológico-. Propiedades que por están sumergidas en la dinámica del sistema, son en extremo útiles porque no varían a pesar de las interacciones dentro y fuera del sistema. Para esta categoría de magnitud se cumple que -en la expresión matemática del operador respectivo- no figura el tiempo, a pesar de que para las expresiones de sus componentes puede aparecer explícitamente . En el caso particular de los sistemas cerrados, esto se cumple siempre. En forma general se cumple sólo para sistemas que al interactuar con otros lo hacen siempre del mismo modo, lo que equivale a decir que el esfuerzo ecológico -energía (o flujo)- está fijo (y/o se ajusta del mismo modo para todos los subsistemas ).

En la ecuación de onda anterior, para esa primera categoría de sistemas, esto significa que el operador H es un número, de lo que se puede deducir que los estados del sistema que cumplen con tener ese valor son muchos (sólo en casos muy especiales será único el estado respectivo). No es éste el único caso de degeneración (que así se llama a esta múltiple correspondencia) de una magnitud. Veremos después cómo particularizar cada caso en base a una descripción completa del sistema de magnitudes (esto es, cómo se singulariza el estado para quitar la degeneración).

De tal asimilación matricial de un operador, se sigue un proceso de cálculo típico: se llama diagonalizar un operador a través de su matriz representante. Esto equivale -como se demuestra matemáticamente- a hacer coincidir los elementos de esa diagonal con los valores propios de dicha matriz, que no son otros que los diferentes valores que puede tomar el esfuerzo en ese sistema, es decir, los valores que pueden tener su energía. Con este hecho se reconoce ya si la gama de valores del esfuerzo es discreta (es decir, numerable) o continua (es decir, los an de la ecuación 4 forman un intervalo continuo) o mixta (de ambos tipos); y además, las grandes diferencias que existen con la teoría clásica de la energía, como veremos en las conclusiones del capítulo 6.

Continuando con nuestra discusión sobre las magnitudes, la segunda categoría inmediatamente disponible será aquella en la que el operador H es un vector. Se demuestra que tal ocurrencia matemática sólo puede ser posible en el caso del flujo. Además, dicha magnitud es invariante en el tiempo como en el caso del esfuerzo, pero tiene la ventaja de formar un sistema completo de magnitudes (uno para cada coordenada de inputs o outputs) y no puede ocurrir degeneración. Aunque los operadores de flujo (nótese que estamos hablando de los operadores-magnitud y no del flujo mismo que se describió en párrafos anteriores) puedan medirse simultáneamente -es decir- conmuten entre sí; no conmutan con los operadores de las coordenadas y por ello, no nos sirven para mediciones prácticas: no podemos medir simultáneamente la cantidad de input y su flujo (por la dinámica que es propia en los sistemas ecológicos). Ello es una gran limitación para comprobar una medición ecológica .

Debido a lo dicho en estos últimos párrafos, faltaría la ampliación a una tercera categoría de magnitudes. Así emerge la magnitud: coherencia ecológica. Será ésta la que nos haga practicables y culmine todas las conclusiones de este avance teórico. Esa será nuestra tarea en el capítulo siguiente. Previo a ello, veamos una aplicación directa, y muy avanzada, de todo lo anterior.

Principio de Incertidumbre para una Ecología

Las razones para evocar el uso de las nuevas matemáticas, están incluidas en el abandono del determinismo clásico. Esta es una labor titánica que ya ha realizado históricamente la física, a lo largo de cuatro siglos. La quántica y la termodinámica son una prueba fehaciente de ello. Sin embargo, Einstein moría afirmando que "Dios no juega a los dados" en 1955.

Los mismos fundamentos de la matemática han sido removidos con los resultados de Gödel. Nuevas corrientes han dado su lugar a otras cuando apenas veían la luz al fondo del túnel por donde iniciaban su tránsito hacia la ciencia. Sin embargo, hay una cosa cierta: los métodos deterministas están obsoletos o son útiles sólo como aproximación .

Y es que la complejidad de los fenómenos naturales se da no sólo en los sistemas en que interviene directamente el ser humano. Las teorías del caos y de los fractales nacieron para explicar la complejidad en sistemas físicos aparentemente simples como el movimiento de un péndulo, o la caída de una gota de agua.

El espacio de fases de Hamilton-Lagrange, en el que estamos trabajando todos estos desarrollos, ha sido básico para este progreso a nivel micro y macro. El propio modelo estándar se explaya a sus anchas en este espacio de fases. Es, por conclusión, un buen punto de partida que supera al espacio cartesiano, de donde se deriva. Cosa ya vista.

Hemos visto también, cómo la complejidad de los sistemas no ha sido nunca abarcada por las teorías matemáticas, en su afán de emplear el método analítico. Parece ser que tal analiticidad no existe en la naturaleza, o al menos, el ser humano no posee una forma de razonar que le permita sólo analíticamente entenderla. Y ello se debe a la distinción tomista esencia-acto de ser.

Se necesita entonces una herramienta que posea las características que le son inherentes a los fenómenos complejos. Por ello, requeriremos deducir en el próximo capítulo cómo la estadística de ciertas magnitudes de los sistemas ecológicos, permite aproximarse con relativo éxito a entender cómo funcionan. El secreto está en la promediación de efectos laterales (que intervendrán después o que intervinieron antes), y veremos que eso se efectúa utilizando números imaginarios.

Ya hemos visto que un principio no-físico como es el de mínima acción, nos permitió incursionar -de forma casi evidente- a otros dominios que no le son aparentemente propios. ¿No será que los principios que deben basar la cuantificación de los eventos, son cualitativos? … es decir, escapan al origen del evento mismo (algo así como el problema del huevo y la gallina) .

Pareciera que la complejidad se absorbe fácilmente con este tipo de principios. Incluso llegamos a resultados "abiertos" en cuanto a tendencias no deterministas. Sin embargo, ello no obsta para obtener resultados precisos. Podemos incluso estudiar interacciones entre sistemas libres y subsistemas (o también sistemas ultraestables) .

La forma habitual en que se ha desarrollado el estudio de los sistemas ecológicos ha sido siempre, analítica. En este libro se deja constancia de que existe una forma más "humana" de estudiarlos, obteniéndose además, resultados abiertos, que no pudieron ser obtenidos nunca con técnicas analíticas. La misma teoría de control óptimo, que tanto bien ha hecho al desarrollo tecnológico, debería quedar sustentada en estas técnicas complejas cuando se refiere a sistemas humanos. Es además un error, extrapolarlas para obtener índices de estabilidad o inestabilidad de sistemas humanos como son los ecológicos. No podrían nunca funcionar porque el sustento micro de esas técnicas es una continuidad inexistente .

No se intenta poner en tela de juicio teorías anteriores, simplemente fueron técnicas -las mejores- de su tiempo. El mundo se ha occidentalizado y con ello, la visión humana del modernismo se va transformando hacia un neohumanismo . Por ello, en lo que sigue se ilustran ciertos resultados que deberían lograrse a la luz de estas nuevas ideas, como piedra de toque para su generalización en la ecología.

Habiendo renunciado ya a la determinación exacta del valor de una magnitud ecológica, debemos aclarar que esta renuncia se hace en miras a un provecho mayor. Porque la calidad de información que vamos a obtener, a pesar de la imprecisión en las medidas, es abrumadoramente más útil para evaluar mejor las propiedades de los sistemas ecológicos. Veremos cómo muchas limitaciones cuantitativas de la ecología actual se superan al contemplar las mediciones como fin que atraviesa los medios ecológicos, para lograr que sus sistemas se integren a todos los seres humanos, aunque aparenten no poseer cualidades mínimas para colaborar con el sistema.

El ser humano no es un operador (y es menos un número), pero se estudia como tal al interactuar numéricamente en una ecología (contaminando o limpiando). Se parte de un estado propio de las magnitudes para cada ser humano, porque cada magnitud tiene su propio valor ; pero cada una de ellas puede ser un número -real o complejo- y no sabemos cuánto puedan valer. Lo que sí sabemos es que tienen unas propiedades, que pasamos a estudiar en seguida, y que cualifican los sistemas ecológicos desde una perspectiva dinámica, tan distinta a la clásica, que nunca podríamos captar qué distintos son los costos reales de los que actualmente creemos que son. Por esto ya hemos hallado, para casos concretos de empresas e instituciones, magnitudes impredecibles para la teoría clásica.

Iniciamos nuestra exposición de los resultados más importantes, seleccionados de entre muchos que podríamos presentar, por la comprobación explícita de una pieza clave inimaginable por los matemáticos y físicos de hace tan sólo un siglo: la no posibilidad de efectuar mediciones precisas, es decir, la incertidumbre inherente a toda medición numérica, de cualquier tipo. Este resultado es crucial para intentar medir cualquier propiedad de un sistema ecológico, pues lleva consigo la imposibilidad real de hacerlo.

Se ha mencionado varias veces este hecho, por eso, haremos una deducción de cómo se obtiene un resultado tan paradigmático y que, al mismo tiempo, echa por tierra las expectativas de muchos. Después veremos que este primer resultado lleva directamente el sello de la existencia necesaria de una constante universal de la ecología, que es la razón de ser de este documento . Dicha constante es tan pequeña, que sus efectos no son percibidos numéricamente en grandes conglomerados, pero no quiere decir que no influya en ellos. Aunque sea muy pequeña, las grandes sumas son consecuencia de muchas pequeñas influencias, y éstas sí están sujetas a este principio.

La desaparición de la precisión numérica en las mediciones ecológicas lleva aparejadas una serie de consecuencias, como nuevas formas tensoriales de las magnitudes ecológicas (que hemos llamado operadores en capítulos anteriores); y que aparentemente no tienen nada que ver con ella, pues surgen medidas como la de la coherencia ecológica o la entropía o la actividad ecológica que nos dan más información de los sistemas ecológicos que la que hubiéramos logrado con la "certidumbre" antigua.

Pero más impresionante aún es el hecho de que -por existir dicha constante- serán totalmente diferentes no sólo las curvas estadísticas sino el modo de medirlas (véase el capítulo 6). Es decir, la curva que relaciona los límites mínimos de contaminante con los niveles producidos, no es una buena ni correcta manera de medir esos niveles, sino que hay otras curvas -dinámicas- que nos dan mayor y más correcta información sobre lo que está pasando. Lo mismo ocurre por el lado de la demanda de recursos en un mercado de insumos productivos. Es más, todos los casos especiales para diferentes tipos de inputs, demandados en una ecología; deben ser medidos -y graficados- como subordinados a este nuevo tipo de magnitudes.

Iniciamos pues, gracias a aquella brillante deducción de las matemáticas para las magnitudes -de cualquier medición- (operadores), la analogada demostración de la incertidumbre real, en toda medición numérica. Pero veremos que por no tener la ecología todavía bien definido su propio espacio de fases , quedamos limitados de generar un marco adecuado para el sistema de unidades de las magnitudes fundamentales. Esto se dejará ver claramente en el capítulo 4, al intentar medir una magnitud como es la entropía.

Hemos visto, al final del acápite 2, que la ecuación de onda, para el caso de un vector, admite como solución valores propios que dejan completamente definida la función de onda. Además, esta ecuación es vectorial, por tanto, puede descomponerse en todos los ejes de referencia de manera que dejan bien definido el impulso ecológico en cada dirección. Por ello se acostumbra decir que las componentes del vector impulso constituyen un sistema completo de magnitudes.

Pero además, este sistema completo de magnitudes de la ecología es tal, que los valores posibles para las componentes del vector impulso ecológico, son todos, números reales. Por ello, los valores propios del impulso forman un espectro continuo que va desde -* a +* ; de aquí que cualquier representación de éste sea sobre la base continua (en el acápite anterior tal representación se hizo sobre una base discreta).

Aunque no lo deseábamos, vamos a operar un poco con matemáticas algo complicadas, para llegar al enunciado del principio de incertidumbre que queremos dar a conocer. El desarrollo de una función de onda arbitraria (r) en funciones propias -para el operador impulso- no es otra que el desarrollo de la integral de Fourier :

(r) = * a(p) p (r) dsp = (2ℏ) -3/2.* a(p) e(i/ℏ)prdsp ,

donde s es el número de grados de libertad, i = ) y ℏ es -ahora sí- la constante universal de la ecología (que en nuestro caso quedará plenamente definida en 6.3).

Los coeficientes a(p) son entonces iguales a:

a(p) = (2ℏ)-3/2 * (r) e(i/ℏ)prdV

llamándose a esta expresión función de onda de un bien (o transacción) ecológico(a) en la "representación-p".

Para abordar completamente el problema de la incertidumbre, necesitamos sólo una premisa más (las relaciones de indeterminación de Heisenberg). Tales relaciones se obtienen de un cálculo inmediato, ya que el valor de la expresión (px x - x px)  para la derivada parcial del operador de impulso respecto de la coordenada x, px; es -i ℏ . (La que se obtiene al reemplazar el operador impulso px, por -i ℏ */*x).

Este último resultado se generaliza fácilmente a todas las coordenadas, obteniéndose así un análogo de las famosas relaciones de incertidumbre de Heisenberg (1925). Una relación, también análoga, vale para una función cualquiera f(p) del operador flujo y las coordenadas (cantidades de input o output):

f(p) r - r f(p) = -i ℏ *f/*p.

Supongamos que un proceso ecológico (de inputs o outputs requeridos por el proceso) se ajusta a un volumen V del espacio coordenado (de fases). Sea además p0 el valor medio de todos los flujos de este proceso, lo que significa matemáticamente que la función de onda del proceso toma la forma  = u(r).eip0r/ℏ, donde u(r) es una función que difiere apreciablemente de cero tan sólo en el volumen V del espacio coordenado .

Desarrollando  en la representación-p anteriormente descrita, los coeficientes a(p) vienen determinados por funciones u(r) ei(p0-p)r/ℏ. Para que una integral de este tipo difiera de cero apreciablemente, los períodos del factor oscilante ei(p0-p)r/ℏ, no deben ser pequeños respecto de las dimensiones del volumen V en que la función u(r) es diferente de cero.

Esto significa que el factor de fase de la exponencial compleja debe ser aproximadamente 1, lo que da para cada componente del impulso (p0x - px) x *1, pero dado que el módulo *a(p)*2 determina la probabilidad de los valores de los impulsos, los intervalos en que a(p) es distinta de cero coinciden con aquellos en que las componentes del impulso son posibles de ser encontradas para el estado considerado, luego p r * ℏ.

La anterior relación , conocida como el principio de incertidumbre de Heisenberg (para el caso de la física quántica), expresada en términos ecológicos, es: si existe imprecisión de la cantidad de input o output en una ecología, en la medida que esta imprecisión aumente, la medida correspondiente de los flujos (impulso ecológico) será más precisa. No es posible, por tanto, determinar simultáneamente con absoluta precisión, las cantidades producidas y sus productividades en un proceso ecológico.










Capítulo 3.- La Coherencia Ecológica

La Magnitud Coherencia Ecológica

Hemos visto que de la uniformidad del tiempo y de la cantidad de input o output (volumen clásico de coordenadas) emergen dos magnitudes aditivas muy útiles que además reflejan conceptos clásicos en la ecología institucional: energía e impulso ecológico: que puede asimilarse a los flujos clásicos ponderados por sus costos (o esfuerzos energéticos). La pregunta lógica es: ¿existe otra magnitud que tenga tanta utilidad? La respuesta es sí. Pero hay que hacer una salvedad: su despliegue actual en ecología es nulo (al menos de modo explícito, aunque se haya bosquejado indirectamente -por ser útil hacerlo- algo de ella, como herramienta que forma parte de la habilidad de algún desarrollo teórico), es decir, nunca se ha visto que alguien use esta tercera -y la más importante para las mediciones ecológicas- magnitud. Por eso no podemos identificarla con alguna intuición conocida: no existe ni siquiera la intuición de esta magnitud en el contexto teórico ecológico actual.

Dicha magnitud –que llamaremos coherencia ecológica- emerge de manera natural de la uniformidad del medio en que ocurren las interacciones ecológicas. Pero ¿qué debemos entender por "uniformidad del medio"? En la naturaleza es comprensible el interés de medios como el aire, agua, etc.; porque es habitual encontrarlos, pero en las instituciones: ¿de qué medio hablamos? … Y es que hasta ahora hemos hablado de magnitudes y espacio coordenado de referencia de estas magnitudes pero hay que tomar conciencia de que en ese espacio se está representando una ecología, es decir, es una medición de unas cantidades afines al contexto ecológico.

En la figura 2 hemos representado este contexto s-dimensional y hemos dado por hecho que es válida, porque ha habido un espacio análogo -en otro contexto, el económico- que hasta ha recibido un premio Nobel: el de economía . Debemos destacar algo nuevo para ese entonces, pero que no era posible saberlo en esa época. Una caloría de un eje coordenado debe ser también una caloría de otro eje, no pueden ser diferentes, pues todos los ejes deben medir magnitudes iguales y los esfuerzos en uno u otro eje también tienen que ser iguales . Es decir, la gráfica nos orienta a cómo entender que si giramos una línea (un input de 100 calorías, por ejemplo) en ese espacio coordenado s-dimensional, la nueva magnitud de la línea (que debe ser la misma, aunque haya que cambiar y/o rotar los ejes para medirla) a que nos vamos a referir, emerge de un modo más natural.

Pero es difícil representarnos un espacio de más de 3 dimensiones. Sin embargo, podemos afirmar que todas las propiedades que se observan para 3 dimensiones, valen para espacios s-dimensionales. Incluso se pueden separar algunas dimensiones de las otras (son las ventajas de los tensores mixtos: como “partir” el espacio en dos subespacios -no iguales en general- por decirlo de algún modo) y siguen valiendo las ideas tridimensionales. Quien hace posible tal cosa es nada menos que esta magnitud, y lo dicho es válido porque se incluyen las coordenadas contra-variantes, como el tiempo.

La garantía de que la cantidad involucrada de input (o output ) es invariante, nos la dará esta nueva magnitud de que estamos hablando. Tiene muchísimas propiedades y aplicaciones pero para entenderla es suficiente con esta introducción. En física se le llama momento angular o rotacional. Para hacer emerger esta magnitud -que hemos llamado coherencia ecológica- en este libro, debe realizarse también la rotación de un input alrededor del origen de coordenadas, por ejemplo. La consecuencia necesaria es que, para la orientación de coordenadas predefinida por las s-dimensiones del espacio ecológico de referencia, debe hacerse aditiva (invariante diría un físico experto) y con ello, muy fácil de calcular en cualquier momento -por las interacciones con otros sistemas ecológicos-, tal magnitud es:

Hemos visto que la coherencia ecológica expresa el significativo hecho de que una caloría sigue siendo una caloría aunque se varíe el sistema ecológico de referencia en todas sus dimensiones. Esto pone de manifiesto la coincidencia del concepto de rotación, el de operador y el de magnitud, simultáneamente. De aquí que la magnitud por excelencia para relacionar mediciones invariantes de sistemas dinámicos, sea la de coherencia ecológica. Más aún cuando la expresión cuantitativa (7) para esta magnitud, elimina su posible inexactitud; pues medir coordenada y flujo a la vez no podría hacerse con precisión, ya que es imposible, como ya hemos visto.

Desde la perspectiva humana, la escasez de los recursos materiales obliga a que el número de coordenadas sea finito, y por ello, existe lo que se llama un conjunto finito -de funciones asociadas a las  antes señaladas- llamado: representación irreducible del grupo de rotación. Este conjunto ya no puede ser reducido por ninguna transformación .

Para hacer coincidir dos sistemas coordenados ecológicos (como cantidades de input-output) con referencias distintas de orientación (según q1, q2, …, qs) y escala (calorías, p.ej.) será necesario en general, rotar las coordenadas de alguno de ellos y cambiar la escala (de gramos a calorías, p.ej.) para que podamos apreciar el mismo valor en ambas ecologías. La idea que prima, al hacer esto, es que el esfuerzo debe ser el mismo, es decir que si el sistema se referenciara desde otra ecología, ingerir algo le costaría el mismo esfuerzo sea cual sea la referencia -y al hacer estas operaciones- deben coincidir. En esta conceptualización dinámica se puede incluso calcular el tiempo que demoraría en producirse tal equilibrio.

Todas estas maniobras de rotación y escalamiento de coordenadas han sido muy estudiadas en las ciencias exactas y son un punto de partida obligado para la estadística actual en la física y en ellas residen las más íntimas propiedades de las partículas elementales o (súper)hipercuerdas. Sus aplicaciones están generando nuevos conceptos en diferentes ciencias y disciplinas, p.ej. computación quántica. Pasemos ahora a entender por qué ha ocurrido este salto histórico en las ciencias y cómo lo utilizaremos más adelante. Todo esto es posible gracias a la coherencia ecológica.


El Intercambio en las Interacciones Ecológicas

De la discusión anterior emerge la necesidad de la energía como medio para valorar el esfuerzo para conseguir los inputs en un sistema ecológico. La energía no siempre es un input directo (aunque pueda serlo para alguna circunstancia, como en el caso de la fotosíntesis, en que la luz es el input: energía “pura”), pero sirve de medio para obtener los inputs. Sin embargo, el contenido nominal (caloría, p.ej.) que posee como representación de un input, nos da la capacidad para medirlo: suficiente motivo para detenernos a estudiarla mejor (a la energía). Como veremos, surgirán otras conclusiones al intentar entender mejor lo que es el costo (o esfuerzo, siempre en la línea de la definición hecha en III.1.3), que justificarán plenamente exponer lo que sigue.

Otro hecho complementario y relativo a las interacciones en una ecología es que tampoco son instantáneas. Se requiere que un tiempo transcurra (aunque sea sólo para informarse) para cualquier interacción. En realidad, esta característica de las interacciones, hará evidente lo ingeniosa que ha tenido que ser la ecología actual para incorporar al tiempo que demora una interacción, estimaciones “promedio” -límites contaminantes- por ejemplo. El tiempo no es un input que se pueda adquirir con esfuerzo, aunque no se use, sigue pasando y esta característica lo hace distinto de los demás inputs . En economía p.ej., las curvas de Cobb-Douglas, muy ingeniosamente, han incorporado la característica de recurso que tiene el tiempo, para producir; pero ocurre que cuando se utiliza mal -o simplemente no se utiliza- tiene otras importantes características que no pueden estar incluidas en esas representaciones.

Las dos aserciones anteriores, le van a dar al esfuerzo una configuración dinámica que no posee en ningún modelo ecológico actual, y si lo hacen es solo nominalmente, para valorar los inputs de una ecología. Parecen innecesarias estas cosas, pero hay que darle el valor antropológico a las mediciones -para que sean justas- y para eso es la coherencia económica. Ese fin nos obliga a realizar estas profundizaciones.

El ser humano es antropológicamente social y eso hace que las evaluaciones de sus actividades -como es el caso de las ecológicas- deban ser válidas para todos, más aún en aquellos aspectos netamente cuantitativos, como decíamos al comienzo de este capítulo, en los que no es posible "negociar" que dos calorías más dos calorías son cuatro calorías, porque lo son independientemente de que nos lo creamos o no.

Si una ecología se dedica a papas y otra a tomates, que es el ejemplo más conocido en la historia de la humanidad, no se pueden sumar papas con tomates, pero sí se pueden convertir a calorías y comparar el aporte calórico. Además, todo ecologista sabe que si el intercambio se efectúa entre países, es muy necesaria la medición de los términos de intercambio , es decir, que no basta sólo con una suma sino que hay que realizar previamente una conversión adaptativa a fin de que la ecología global no desmejore. Un ejemplo muy actual es el caso de las emisiones de carbono, que son utilizadas para motivar a los productores de emisiones a disminuirlas -en su país de origen- a cambio de dinero en efectivo.

Los términos de intercambio reflejan la necesidad de un cálculo más complejo que sólo sumar ciertos números. Y es que la dinámica ecológica de los países hace necesarias más consideraciones. Hoy en día, con las auditorías de cambio climático, que realizan ciertas agencias calificadoras p. ej.; se encarece o abaratan las muchas condiciones complementarias a las ecológicas.

Revisemos nuevamente la figura 2 (página 137). Si uno de los ejes coordenados qi representa el input papas (q1) y otro lo hace para los tomates (q2), para intercambiar emisiones entre ambos productos se requiere considerar la dinámica de la propia ecología (más consideraciones se requerirán para dos ecologías). Esta operación de rotación de ejes coordenados tiene unas complicaciones matemáticas que dieron origen a la teoría de la relatividad p.ej., y actualmente tiene muchas aplicaciones en todos los campos del saber. De esto se han aclarado otros puntos de vista previos en la 1ª parte.

Estos operadores -de que ya hemos hablado- son también llamados tensores y sus estructuras no son simples. Es más, para el caso de una ecología, poseen una estructura también dinámica y tienen unas propiedades especiales que han sido muy estudiadas entre los siglos XIX y XX y siguen siendo muy estudiadas actualmente. El valor como input de las papas, tiene que corresponder al equivalente como input de los tomates para que exista realmente una equivalencia, y se refleje en el intercambio de emisiones.

Las transformaciones de coordenadas que respetan no sólo el cambio de escala (escalabilidad) entre papas y tomates sino también la dinámica ecológica, asimilada en calorías p.ej., se llaman transformaciones de Lorentz. Sus relaciones se encuentran en cualquier libro de matemáticas del espacio-tiempo 4-dimensional, y se aplican mucho en física relativista. Posteriormente han sido ampliadas a otras transformaciones, conservando su carácter general. Por ahora no necesitaremos hacer mención explícita de ellas, ya que nos interesa más reflejar geométricamente sus ventajas, aunque parezca que nos complicamos por gusto, como ya se advirtió. La representación geométrica nos facilitará expresar ideas que si, por no perder generalidad, las representáramos con tensores más generales; dificultaría todavía más su aprehensión.

Para el caso de un producto p.ej., se pueden graficar estas transformaciones como números complejos en un plano. Es decir, un eje coordenado representa una cantidad real (que se suma y se resta como cualquier número tradicional) y el otro eje representa una cantidad imaginaria, que ya no cumple las reglas típicas de cualquier número sino otras más elaboradas. En realidad el número complejo agrupa dos coordenadas en unas reglas de operación distintas a las tradicionales para puntos del plano. Por ejemplo, para multiplicar dos vectores del plano real, con componentes (a1,b1) y (a2,b2) respectivamente se obtiene a1a2+b1b2 que también es un número real, pero para multiplicar dos vectores del plano complejo la expresión del resultado es: (a1a2-b1b2,a1b2+b1a2) que es otro número complejo y bastante diferente a la expresión anterior (que es la más conocida por la matemática tradicional, incluso multilineal ).

Las transformaciones de intercambio como las hemos llamado, introducirán nuevos conceptos en ecología que abarcan a los anteriores y los sitúan en su verdadera perspectiva inter-ecológica. Es el caso del p.ej. impulso -según ha sido definido en este documento- que posee unas reglas de intercambio nuevas, pero para ecologías similares, en el caso del impulso, pueden seguir usándose las reglas tradicionales, como matemáticamente se comprueba.

Las reglas anteriores de medición son reglas dinámicas, es decir, se introducen en el discurso científico para los sucesos que ocurren en oportunidades inesperadas y/o no son permanentes. La introducción de la estructura del tipo de los números complejos, por ello, obliga a sistemas dinámicos . Si sólo fuera el caso de sistemas estáticos (o permanentes en el tiempo) desaparecerían las características de este tipo, es decir, las rotaciones serían como las tradicionales en las matemáticas de números reales (que no quiere decir que se elimine el uso de operadores -de esto ya no podremos nunca olvidarnos-), lo que no equivale a decir que las matrices de estos sucesos sólo tendrían componentes reales y se comportarían como tales. Como veremos a continuación, la condición es otra.

Las Transformaciones de Intercambio nos facilitan el estudio de la Coherencia Ecológica pues ésta no es otra cosa que una forma canónica de las primeras. Son algo así como la entidad básica de un sistema ecológico pero también pueden agrupar miles y millones de estas entidades individuales sin perder su estructura matemática y comportándose siempre con Coherencia Ecológica.

Motivaciones y Utilidad Ecológica

Se acostumbra enfocar la ecología de mercado a través de curvas de utilidad, que explican las conductas de intercambio entre productores. Pues bien, desde la perspectiva de otra teoría llamada la teoría antropológica de la motivación -que es la referencia para seres humanos que se organizan, dividiendo su trabajo, en equipos para producir bienestar-; existen tres planos motivacionales: extrínseco, intrínseco y trascendente.

Hay que realizar toda una correspondencia entre las antiguas curvas de utilidad y las dimensiones anteriores, porque -para la ecología de mercado- la medida de la utilidad viene dada por una parte de la motivación extrínseca (el intercambio de un bien). Que se use dicho bien para satisfacer otros planos motivacionales es interesante pero no afecta las curvas definidas "utilitariamente" para el mercado .

Aunque ya hemos hablado de ello en el capítulo 1, vale la pena detenernos un poco más en aclarar la versión antropológica que queremos dar. Y es que la visión de intercambio ecológica del bienestar se centra demasiado en el valor numérico (energía o costo) que se le asigna a un input. Y ésta es sólo una parte del valor que tiene dicho input, ya que sus valores intrínseco y trascendente no pueden ser numeralizados (salvo por una escala arbitraria, como también se advirtió en el capítulo 1). Pero es la parte extrínseca de estas otras motivaciones, la que se estudia por la economía tradicional, sin dejar de considerar aspectos psico-sociales que van aparejados con ella (caso de las expectativas racionales, inteligencia emocional y otros análogos de más actualidad) pero siempre intentando expresarlos en metálico (es decir, en un precio, como intercambio).

Ese aspecto numerario de las motivaciones (que corre el peligro de reducir -equivocadamente- la motivación extrínseca a un número) posee una dinámica muy rígida, y posee las leyes que estamos, en este documento, describiendo. Aunque los costos sean relativos a las calorías referenciales -y este es el punto de partida del numerario actual- hay un requisito más rígido y tiene implicaciones futuras también muy rígidas. El que hemos llamado principio de incertidumbre ecológico nos asegura que no es posible precisar las calorías y su fluir dinámicos en los inputs, pero la coherencia ecológica no tiene esas restricciones sino la propiedad práctica de poder determinarse con exactitud y ser invariante. Este es un resultado dinámico único y muy rígido, desconocido -y no utilizado- actualmente, por la ecología.

El modo en que se descubrió fue estudiando las satisfacciones percepcionales de los seres humanos al interactuar con la naturaleza (es el caso de la física). Sin embargo, lo que se descubrió fue que las operaciones comunes de suma, resta, etc.; no reflejaban más que una rudimentaria parte de su verdadera estructura. Las propiedades numéricas de los "objetos" percibibles por los seres humanos -como parte del bienestar deseado- poseían muchas más facetas que las percibidas por los antiguos, y se siguen descubriendo otras.

Resumiendo y para terminar este tema tan complejo: aunque intervienen todos los planos motivacionales, el numérico está en el mismo plano que en el que están las interacciones materiales, y ése plano -ya se sabe- es dinámico y sus leyes emergen desde un nivel más profundo del que la ecología actual calcula que es.

Gracias al método de Polo, se puede ampliar con seguridad el marco seguro de las medidas de los movimientos. Medir es algo común a todos los sistemas naturales del universo. Lo que sea que motive a los seres humanos a ejercer sus hábitos para construir artefactos, incluso a nivel trascendente, se refleja en el resultado y lo que se mide, lo refleja incluso en movimientos a futuro. Pero no como que las condiciones iniciales están fijas, que era lo que suponía Newton y la mecánica clásica; sino que se puede estudiar la sensibilidad de estos movimientos como son o puedan ser, y no como móviles que se mueven, sino como los mismos movimientos variando las condiciones iniciales -según la causa final (el orden previsto, pero el final real puede ser otro)- y eso es muy distinto.

No son espacios físicos en los que pasa el tiempo. Son espacios-tiempo en los que se estudian los movimientos. Y eso obedecerá a las causas predicamentales, sí; pero más que nada al estudio de sensibilidad antes dicho, que incluye motivaciones intrínsecas y trascendentes porque obedecen a un final. Es todo lo contrario. Se parte del orden deseado y, para llegar a ello, se requiere estudiar qué movimientos lo consiguen. Hasta ahora se pensaba al revés, que todo lo que se consigue, depende de las condiciones iniciales y las “fuerzas” que actúan sobre el sistema natural. Y es que la naturaleza inerte lo hace así. Pero construir artefactos viene de otros planos motivacionales que tienen que constituirse primero, suscitarse después y entonces estudiar cómo se lograrán. Eso lo consigue sólo la coherencia ecológica, pero antes no se sabía que existía tal magnitud.

Otro fundamento adicional a lo relativo de la exactitud numérica, además de la estadística intrínseca, es que la sabiduría personal se convierte en los dos planos motivacionales (véase tesis, 2ª parte): el de la motivación intrínseca (hábitos) desde la sabiduría profesional (artes y ciencias) y el de la motivación trascendente (virtudes) desde la sabiduría moral. Esto hace resaltar más aún que la existencia de otras referencias absolutas, no explican por qué es ineludible y manifiesta la incertidumbre. A cambio, la coherencia rescata las exactitudes.

Las referencias más altas serán siempre de naturaleza moral. La medición de esfuerzos afecta esplendorosamente la virtud de la justicia (en todas sus facetas: conmutativa, legal, distributiva y general). Al tocar tan de cerca a una virtud tan importante -y así, todas las virtudes- toca además la materia misma de la Dirección Institucional, que es la encargada de liderar ambos entornos -interno y externo- de cualquier institución. Su relevancia no está en los motivos intrínsecos o extrínsecos, aunque se compenetre con la alta dirección y los costos. Nace en la cúspide motivacional humana: los motivos trascendentes (que profundiza más en los aspectos técnicos que le competen).

El tiempo NO ES un recurso (incoherencia ecológica actual)

Llegamos así al final de estas elaboraciones matemáticas. El gran culpable de todas ellas ha sido el tiempo. La manera de incluirlo en los cálculos fue variando desde los siglos precristianos hasta Galileo y Newton -en el S. XVII- para definitivamente quedar como solo una variable, parte del continuo de Minkowsky a fines del S XIX.

La ecología todavía lo asimila como un recurso que forma parte de las funciones de explotación . Pero esta situación debe cambiar. Las interacciones en las sociedades son cada vez más informatizadas, y a veces, con errores, llegando a realizarse en procesos que utilizan la velocidad de la luz para transmitirse. Es de esperar que muy pronto podamos hacer el cálculo que proponemos en el capítulo 6.

El tiempo NO ES un recurso. No puede incluirse en los cálculos como una variable más, aunque lo sea, porque no es del mismo tipo que las otras variables, y esto ya se sabe que se da por razones numéricas de compatibilidad entre sistemas, sin depender de la naturaleza del sistema, sino de que se está trabajando con números y el tiempo está pasando. Justamente la dirección del tiempo ha sido uno de los problemas resueltos por la mecánica quántica y que pasamos a describir lo menos matemáticamente que nos es posible (en los acápites siguientes), para que puedan leernos más fácilmente (pero comprobarlo, es algo totalmente físico-matemático).

El tiempo es un concepto universal y muy estudiado, por ello conviene recordar primero que el hecho de que la velocidad de la luz sea un límite para todo movimiento, incluso digestivo, obliga a incorporar relaciones como las transformaciones de Lorentz, mencionadas ya en III.3.2. para toda relación dinámica matemática. Su contravarianza , se hace explícita en tales transformaciones y en esta publicación son una necesidad para cualquier rotación de coordenadas . En el siguiente capítulo, veremos que hay casos en que el tiempo macro pasa igual para todas las componentes covariantes de un sistema, bajo ciertas condiciones, y puede no-considerarse. Pero en el caso micro que ahora nos ocupa, las funciones de onda son generales y lo que diremos vale para todos los casos.

Entramos, por fin, a uno de los aspectos más intrincados de la exposición propia a las ciencias exactas: la dirección del tiempo. Este hecho, así llamado por su relación a la percepción que los seres humanos tenemos respectos a las realidades físicas que circundan toda la teoría en torno a él, se fundamenta totalmente en la naturaleza estadística de la teoría quántica.

Hasta ahora, hemos hecho énfasis en la dinámica propia de los fenómenos ecológicos. La representación de estos procesos, nos ha llevado a una matemática dinámica que fuerza la aparición de invariantes macro (energía, impulso, coherencia) que como vemos, son operadores de un tipo representativo para los fenómenos micro.

En la antigua versión de la mecánica, la energía del sistema macro era la suma de las energías de los sistemas micro. Esto sigue siendo, pero la diferencia está en que son tan pequeños los sistemas micro, que no hay forma de saber cuántos son, para cada valor de la energía (esto además de la incertidumbre micro inesquivable). Hay que aplicar un factor ponderante pero hay que hacer otro cálculo aparte de la combinatoria de los casos a quien pondera ese factor.

Además, hay otro problema que se resolvió al llegar la mecánica quántica que es que los estados con un valor de la energía no tienen un rango continuo. Esto en matemáticas lleva a sumatorias en lugar de integrales, de lo cual ya se habló algo anteriormente, cuando las probabilidades fueron matematizadas. La mecánica clásica usaba (casi) siempre integrales.

Por ello, no trataremos más que este caso, porque ya se sabe que los rangos quánticos son siempre discretos y no pueden ser continuos. Ahora sólo resta explicar cómo la indeterminación de los estados micro, obedece a una irreversibilidad intrínseca. Y esto vale para cada estado micro que aunque no sepamos cuál es, sabemos que es uno y solo ese estado, ya que es inaceptable una continuidad inexistente.

Se dice que este criterio determina la dirección del tiempo por eso justamente. Por la imposibilidad de que los sucesos ocurran al revés. La mecánica clásica es inapropiada para la forma que tenemos de "sentir comunmente" cómo ocurren los hechos. Algo de esto ya lo habíamos advertido, porque en las ecuaciones de Lagrange, tal hecho no se refleja.

Por eso, hagamos ahora un experimento imaginario. Supongamos que queremos medir la cantidad de input utilizada para cierto sistema. Sabemos que el resultado de tal medición debe estar en cierto rango de valores (sean de peso, costo, etc.). Ese rango será en general, muy grande, pero supongamos por un momento que definimos n valores de entre los cuales uno representa cada medida, i.e., el rango es finito. Supongamos también que el observador puede lograr mediciones precisas para evitar complicar más la medición.

La probabilidad de que la medición dé como resultado un valor en ese rango, dado que estamos aceptando que quien mide utiliza una forma de medir macro, es decir, que no es susceptible de incertidumbre porque es una escala graduada por ejemplo (y la vista "no engaña" para tal observador); va a exigir un resultado probable M1, por ejemplo.

Sin embargo, si repetimos el proceso (si pudiéramos volverlo a hacer igual, incluída la medición), obtendremos valores (por ejemplo, M2) de cantidad de input seguramente distinto al primero (M1). Esto se reflejaría en la función de onda, por medio de un valor distinto de dicha función a posteriori del experimento. Ha disminuído la probabilidad de volver a obtener M1 y por ello se obtuvo M2.

Por tanto, la naturaleza quántica del proceso establece que la situación es irrepetible. Más aún, la irrepetibilidad se dará también porque para cada resultado de la medición macro (que tampoco puede ser exacta), existe una distinta distribución de estados posibles del input medido.Pero la diferencia no está en que la distribución de probabilidades (es decir, los valores an) varíe. Lo que pasa es que si bien los resultados confirman la expresión teórica calculada para la distribución de probabilidades, el futuro permanece incierto (se genera siempre un nuevo estado que no se sabe cuál será) . Hay pues, una irreversibilidad que está en los fundamentos de esta teoría y que refleja mejor nuestra experiencia diaria. Esta es una irreversibilidad profunda.

Matemáticas Micro-Macro

La correspondencia micro-macro en Ecología

Una de las propiedades que se revelan en este libro, es que nuestro modelo ecológico tiene la misma naturaleza tanto a nivel macro como micro (nos referimos a las mismas variables y el mismo espacio coordenado). Con esto se quiere expresar que la aleatoriedad típica de las interacciones en sistemas ecológicos es también de naturaleza estadística en todos sus niveles. Sin embargo, la representación matemática de estos hechos difiere si se trata de una descripción micro o macro por razones históricas . En un principio, toda la aproximación estadística desde la perspectiva de la medición, era (tal como la usaron Maxwell y Einstein, por poner importantes ejemplos) como la resumiremos en este capítulo. Así se afrontó el concepto de entropía en los S. XIX y XX.

A continuación, se describe la representación macro -la más conocida (la del párrafo anterior)- utilizada para afrontar la naturaleza aleatoria de los sistemas. Luego se la relaciona con las nuevas descripciones. La razón de hacerlo así es que pudiera parecer que la descripción quántica de los eventos de un sistema ecológico no tiene una correspondencia con lo que sería una estadística para sistemas grandes, pero es justo aquello lo que dio lugar a la búsqueda de la gran unificación en la física, ahora ya suficientemente lograda con el modelo estándar.

A nivel macro, las relaciones dinámicas quedan establecidas una vez enumerados y descritos tanto el input como su flujo, esto ya se ha visto. Pero aparece el problema de su computabilidad, que es irrealizable (por la cantidad de combinaciones, casi infinita). Esto es así porque -aunque estuvieran determinados (no aleatorios) sus valores- la evolución de los acontecimientos no puede seguir siendo evaluada instante tras instante, subsistema tras subsistema. Tal secuencia enumerativa haría imposible su seguimiento. Nada más ir elaborando la lista, de la combinatoria de inputs que componen el sistema, sería interminable.

Esa es la única razón de que se tuvieron que dejar de lado las descripciones deterministas, a nivel macro, y conformarse con una descripción estadística de los sucesos que ocurren en el tiempo . Al contrario, a nivel micro, la incertidumbre es intrínseca al medir eventos ecológicos (como también ocurre a los de la naturaleza).

Las apreciaciones anteriores nos llevan a dos conclusiones. Primero que a nivel micro, tanto como a nivel macro, es imposible computar exhaustivamente los sistemas. Existe, y existía (antes de la quántica), una metodología para calcular los valores de las magnitudes típicas la que sirvió de base para desarrollos en la teoría de probabilidades. La segunda conclusión es -como ya se ha reiterado- que el cálculo micro-individuo (quántico) es incierto siempre, y a la teoría de probabilidades se llega de otro modo, que ya hemos visto; pero, como ahondaremos en este capítulo, se converge convenientemente a las magnitudes dinámicas anteriores y sus versiones más prácticas. Así ganamos práctica en aprender el uso de estas nuevas metodologías.

Distribuciones Estadísticas macro

Tomemos un volumen del espacio de fases que hemos definido al final del capítulo 1 , tal como qi q ̇i, es posible afirmar que en un intervalo muy grande de tiempo, T, la extraordinariamente enrevesada trayectoria de fase (conjunto de cantidades y productividades de bienes, cfr. figura 3) de un subsistema, pasa muchas veces por esa porción del espacio de las fases. Sea t la porción de tiempo que el subsistema se halla en ese volumen, podemos definir la probabilidad de que el subsistema esté en ese estado como el límite, cuando T tiende a infinito, del cociente t / T.

Podemos tomar ahora un elemento infinitesimal de volumen de ese espacio y definir la distribución de probabilidades en la forma:

dw = (q1, ..., qs, 1, ..., n) dq dq ̇, (1)

La función  es una función de distribución de probabilidad, por lo que su integral sobre todo el espacio de fases debe ser igual a la unidad. Los elementos dq y dq ̇ representan a toda la serie de variables -desde 1 hasta s dimensiones- que en la figura 4 se representan por el plano de base.

También es posible encontrar el promedio de una función de las magnitudes q y q ̇ mediante las expresiones comunes de la estadística tradicional. Lo mismo vale para todas las variables típicas, ya que  es una función de medida real.

La razón por la que percibimos una realidad aparentemente determinista, se expresa diciendo que una función de las variables q y q ̇, f(q, q ̇) tiene un pico muy pronunciado para los valores cercanos al promedio f, de tales magnitudes en un sistema. A medida que el sistema es más complejo, el pico se hará más pronunciado.


Figura 4.- Función de Distribución - Sistema Complejo


Por esa razón, cuando un sistema pasa la mayor parte del tiempo en un volumen muy pequeño de su espacio de fases, se dice que está en equilibrio estadístico. El intervalo de tiempo que le toma a un sistema llegar al estado de equilibrio estadístico, se llama tiempo de relajación.

Los procesos de transición (aquellos que ocurren durante el tiempo de relajación) dan lugar a la llamada teoría cinética de los sistemas ecológicos. Esta teoría, aunque tiene gran importancia como la tiene -para este libro- la teoría dinámica; se deriva de ella, por lo que será un tema en el que se profundizará en una posterior comunicación.

Dinámica de las Distribuciones Estadísticas de la Ecología

Prosiguiendo el estudio de las propiedades de una distribución estadística para sistemas ecológicos (y en general para todos los sistemas estadísticos), veamos qué ocurre cuando estudiamos esta distribución al transcurrir el tiempo. Para ello considérense un número muy grande de volúmenes (del espacio de fases o plano horizontal anterior: fig, 4), diferentes, de modo que todos ellos sean subsistemas iguales. Sean A1, A2, ...; las representaciones de éstos .

Dejemos pasar un tiempo arbitrario. Si en el instante t=0 la distribución estadística es (q, q ̇), un matemático cuyo apellido fue Liouville demostró que, si un sistema es cerrado, dicha distribución permanecerá fija en cualquier instante de tiempo t. (La prueba se basa en la ecuación de continuidad para un sistema que no interactúa con otro. Si hubiera interacción bastaría considerar el sistema conformado por el sistema original y la interacción, como sistema inicial. La demostración se encuentra en cualquier libro de dinámica teórica, y para ello emplea la forma hamiltoniana de las variables de los capítulos 1 y 2, y la ecuación de continuidad que afirma que no se alteran las condiciones de estabilidad por interacciones en el tiempo).

Se debe tener en cuenta que este resultado es válido para las trayectorias de fase del sistema. Puede ser engañoso pensar en el sistema como su representación geométrica en el espacio coordenado, tal cosa está tan arraigada en nuestro pensamiento geométrico-físico, que puede desvirtuar que esta no es una imagen geométrica de los sistemas y subsistemas. Es otro modo de estudiar nuestro espacio ecológico, pero es el mismo sistema. Aquí estamos trabajando en un espacio -que es muy abstracto- pero permite llegar a conclusiones dinámicas de modo muy práctico y directo.

Distribuciones Estadísticas de las Magnitudes

Del gran resultado anterior se sigue que la función de distribución debe considerar sólo combinaciones de invariantes dinámicos o, lo que es lo mismo, integrales aditivas (del tipo de las del capítulo 1). Por ello, la propia función distribución es un invariante dinámico.

Ahora se ve cómo van avanzando los genios del S XIX. De las primeras construcciones firmes (matemáticamente sólidas), porque los invariantes de medida básicos son números –que van fundamentando todas las mediciones que se hagan, teniéndolos como referencia elemental- todo lo que se construya sobre ellos nos lleva a simplificar nuestro trabajo y esto es encomiable. Uno de ellos fue Maxwell, con el que llegó la más preciada joya de la física-matemática. Todo es relativo porque hay un absoluto: la velocidad de la luz.

Hoy en día, como se introdujo en la 1ª parte parece haber otros absolutos. Por ejemplo, las ondas gravitatorias parece que pasaron antes que las ondas de luz. Así pues, parece existir un absoluto previo que sería la velocidad de dichas ondas. No se sabe si podrían existir más absolutos, pero el de la constancia de la velocidad de la luz, lo es.

Es posible, además, restringir el número de las integrales dinámicas de que depende la función de distribución. Para ello baste tener en consideración que si dos subsistemas independientes se distribuyen, la distribución 12 debe ser igual a 12, el producto de las distribuciones por separado .

El logaritmo de esta distribución es entonces, igual a la suma de los logaritmos de las distribuciones parciales de los subsistemas que lo conforman , por lo que este logaritmo debe ser una integral dinámica . Se ha dicho ya (véase capítulo 2) que existen pocas integrales básicas dinámicas e independientes para el a-ésimo subsistema (generalizado): el costo Ea(p, q), el impulso Pa(p, q), y la coherencia ecológica Ma(p, q) .

Ahora bien, la expresión para la función de distribución quedaría de la siguiente forma:

ln a = a +  Ea(p, q) + Pa(p, q) + Ma(p, q) , (2)

donde los coeficientes constantes , , , deben ser los mismos para todos los subsistemas del sistema, dada la aditividad obligatoria de sus logaritmos .

Llegamos así a un resultado importante: las integrales dinámicas constituyen un sistema de magnitudes que reemplazan, por sí solas, la inimaginable multiplicidad de datos (combinatoria) que sería necesaria para un tratamiento completo de la dinámica de un sistema.

Podemos concluir además, que los valores de las integrales dinámicas no invariantes no llegan a influir sobre las propiedades estadísticas de un sistema. Cualquier función invariante cumple las condiciones de ser función de distribución. La función (p, q) = constante; es una de ellas si se sujeta a la combinatoria de valores: E0, P0 y M0; y r = 0 para todos los demás puntos.

Sin embargo, ciertas características de orden técnico matemático no permiten a esa función ser apropiada para el efecto. Recordemos que los puntos de fase de un sistema forman una variedad de 2s dimensiones para quedar bien definidos. Para que la integral de la función (p, q) pueda ser 1 -ya que es una función de probabilidad- (p, q) debería hacerse infinita en dichos puntos.

La forma correcta para la función de distribución de un sistema queda:


 = const  E0)  (P-P0)  M0) , (3)


lo que -debido a la presencia de las funciones  - permite asegurar que  se anulará para todos los puntos del espacio de fases en que E, P, M, no es igual a E0, P0, M0. En cambio la integral de  extendida a cualquier volumen del espacio de fases que incluya aunque sólo sea una parte de la variedad antes indicada, es diferente de cero. La distribución (3) se califica de micro-canónica en la física.

Siguiendo el ejemplo Galileo y Einstein, podemos elegir cualquier sistema de referencia para el espacio de fases. En particular, aquél para el cual el impulso y la coherencia se anulan . La única integral dinámica que no es posible anular con este método es la energía.

Para los logaritmos en la expresión (2), puede obtenerse una expresión mucho más simple todavía:

ln a = a +   Ea(p, q) , (4)

obteniéndose para la distribución microcanónica la forma:

 = const  E0) (5)

Podemos por tanto decir que el estado estadístico de un sistema depende solamente del esfuerzo (energía, en la física). Así, el costo (gasto de calorías y todos los requerimientos para la acción que se realiza) adquiere un papel excepcional en la teoría dinámica de sistemas ecológicos, tal vez, como lo tiene la energía en la física; que es donde se descubrió y ha dado -y sigue dando- excelentes resultados.

En la práctica sin embargo, aparecerán con frecuencia subsistemas para los que las magnitudes deben estudiarse en tiempos que son comparables o menores al tiempo de relajación. Tales sistemas están en equilibrio incompleto o parcial. Este hecho permite hablar de estados macro de un sistema. Quedarán determinados por los parámetros de la distribución de equilibrio para ese subsistema, cuando se toma lo suficientemente pequeño, de modo que llegue más prontamente al sub-equilibrio. La energía es como un gran resumen del sistema.

La matriz estadística

Así, hemos llegado a la necesidad de tener que explicar las vinculaciones paramétricas de una función de distribución (basada en la energía, que puede ser calorías) y las funciones de onda individuales quánticas. Como hemos dicho (además de ser matemática), esta vinculación unificó la visión que tiene la física actual de la naturaleza .

Para lo que se expone a continuación, vamos a tener que relacionar los micro estados de una ecología individual (quánticos) con sus respectivos macro estados. La descripción anterior ha sido macro, por lo que ahora debemos estudiar cómo sería una adaptación relativa a los estados quánticos subyacentes (la combinatoria).

Las discusiones de unificación, nos sirven para poner de manifiesto un nuevo concepto: la entropía. En primer lugar se observa que una clara diferencia entre un sistema macro y uno micro se debe y obedece a que el segundo posee una cantidad relativamente separada de valores propios del costo; mientras que en el primero, debería producirse un adensamiento colosal -dada la cantidad exagerada de inputs posibles y sus costos, para los procesos a que da lugar- de ese estado ecológico macro y sus repeticiones en el tiempo.

Las interacciones que son posibles dentro de los sub-sistemas de un sistema macro son, además, extraordinariamente versátiles, lo que agiganta su número. Está ampliamente demostrado que tal número crece exponencialmente con el número de subsistemas involucrados, y más aún, en un proceso dinámico.

Tal complejidad de los subsistemas les da una propiedad de cuasiaislamiento entre sí. Este hecho se apoya en que si bien un sistema muy complejo puede llegar difícilmente a un equilibrio total, las variaciones particulares cuantitativas de los niveles de costo-input, serán en un rango pequeñísimo, comparado con el valor final medible del costo agregado del sistema, que permanecerá casi invariable.

Esto lleva la discusión hacia otra dirección: la imposibilidad de describir el estado de un sistema macro (por la imprecisión intrínseca de las mediciones quánticas) dando los valores necesarios para establecer su función de onda. Tal enumeración -aunque fuera sistemática- sería imposible. Es el caso inverso al anterior. Para tales situaciones, sin embargo, la mecánica quántica ya descubrió un mecanismo (magnitud) de adaptación a enumeraciones incompletas: la matriz de densidad.

La matriz de densidad es un capítulo propio en la mecánica quántica. Aquí la referiremos a la situación que nos ocupa, lo que nos permitirá entender la teoría que la fundamenta. Nos interesa la representación de la energía (costo), pues hemos visto que es la única relevante para las aplicaciones estadísticas.

La deducción de la matriz densidad tiene importancia porque relaciona justamente las naturalezas micro –que son intrínsecamente aleatorias- con las distribuciones estadísticas macro. Su deducción será, por ello, tema importante para lo que sigue después. Debemos, otra vez, pedir disculpas por la excesiva cantidad de expresiones matemáticas, pero insistimos en que no es más que una manera resumida de decir las cosas deductivamente.

Una descripción quántica completa de un estado de un sistema está dado por la función de onda:

 =  cn *n, n

El valor medio de una magnitud cualquiera f en el estado dado puede calcularse, como ya se ha visto, en función de los coeficientes cn mediante la fórmula:

f =  cn* cm fn m ,

          n   m

en donde

fn m = * n* f m dq

son los elementos de matriz de la magnitud f (f es el correspondiente operador –como simple relación-).

Para establecer el paso de una descripción completa a la incompleta, puede considerarse que la nueva descripción de los estados estará dada por un promedio global para una situación específica, perdiendo significado el producto cn * cm y tomándolo unas nuevas, wm n. El valor medio de una magnitud quedaría así expresado por:

f =  wm n fn m (6) m n

El conjunto de cantidades wm n (en general, funciones del tiempo) define la matriz densidad en la representación del costo. En ecología, ahora, recibirá el nombre de matriz estadística.

Puede observarse que el valor medio de la magnitud f es ahora expresable como el producto de dos operadores w f, y el valor medio se escribirá en forma de traza de este nuevo operador:

f =  (w f)n n = Tr (w f) ,

Es evidente que los elementos de la diagonal -que ahora podemos denominar simplemente con wn- constituyen un sistema aproximado, incompleto, pero de funciones de onda ortogonales y normalizadas para la representación del costo. Tiene la ventaja de que -por ser una traza- no depende de la elección del sistema de funciones elegido : un invariante.

Otra característica es que la suma de los elementos de la traza debe ser 1, ya que la condición inicial exige que la suma de cn* cn para todo n, sea la unidad.

Hay que subrayar, sin embargo, que el promedio obtenido según (6), posee ahora una doble naturaleza; incluye tanto el carácter probabilístico intrínseco de la descripción micro -incluso la más completa- como el promedio estadístico debido al carácter incompleto de nuestras informaciones sobre los procesos considerados.

En el caso de un "estado micro puro" subsiste únicamente el primer promedio, mientras que en los casos estadísticos macro coexisten ambos elementos del promedio. Sin embargo, todo promedio se efectúa únicamente de una de las dos maneras.

La matriz estadística sustituye en las estadísticas micro, a la función de distribución macro. Sin embargo, las cantidades wn dan únicamente probabilidades de estados micro, no dicen nada respecto a los valores de las coordenadas y los impulsos. La descripción separada de éstos es imposible a nivel micro (por el principio de incertidumbre), pero el operador w permite obtener sus distribuciones estadísticas en base a la determinación de promedios, usual en estadísticas micro.

III.4.6. Distribuciones Estadísticas micro

Es posible generalizar el resultado del teorema de Liouville al caso micro. La forma general de la función de onda permite esta generalización -véase la ecuación de onda (5), capítulo 2-. Suponiendo que el sistema se encuentra en un estado cualquiera, la condición de anulación de los cambios de la matriz estadística w con el tiempo, exige que este operador conmute con el hamiltoniano (capítulo 2).

Hemos visto que la conmutación con el hamiltomiano es propiedad de las magnitudes aditivas. En la representación de los costos -que es la que estamos investigando- la estacionaridad implica que la matriz wm n debe ser diagonal. Si este análisis se efectuara para todos los subsistemas posibles, la conclusión sería que todos ellos deben dar lugar a matrices diagonales para esta representación de los costos .

La fórmula (6) se convierte ahora en:

f =  wn  fn n ; n

donde intervienen ahora solamente los elementos de matriz diagonales. Además, teniendo en cuenta que w debe ser una integral del movimiento -con sentido quántico- y en vista de la cuasiindependencia de los subsistemas de manera completamente análoga a los sistemas macro, se deduce que el logaritmo de las probabilidades wn es función solamente de los valores de los costos:

ln wn =  + En

Finalmente, todos los razonamientos expuestos anteriormente para los sistemas macro valen ahora en los sistemas micro. Tenemos así, una forma sencilla de construir distribuciones estadísticas, útil para describir las propiedades estadísticas de cualquier sistema.

Una última cosa antes de pasar a la definición de entropía, se refiere a la composición de un sistema en varios subsistemas. Para cada estado micro existirá un valor del costo (En) de modo que en los sistemas macro -que contienen innumerables estados micro- existe una difuminación casi continua de valores de los costos.

Puede por ello establecerse una relación entre el número de estados que aquí denominaremos con d, y el elemento de volumen dpdq del espacio de fases. El papel que desempeña d para sistemas micro es análogo al del elemento de volumen (qi q ̇i del espacio de fases, o piqi en la notación tradicional actual) para sistemas macro.

Si se considera un sistema compuesto por varios subsistemas, cada estado del sistema conjunto se puede caracterizar dando los estados de los diferentes subsistemas y el número d queda establecido por el producto

d =  da a

de los números da de los estados quánticos de cada subsistema, tales que la suma de los valores intercambiados de todos ellos se encuentre precisamente en el intervalo considerado para el costo de todo el sistema.

Podemos ahora formular la distribución microcanónica de manera análoga a la expresión macro (5) escribiendo para la probabilidad dw de encontrar el sistema en uno cualquiera de los estados d la siguiente expresión:


dw = const (E-E0)  da (7) a

III.4.7. Entropía

Las consideraciones que siguen se referirán primero a las estadísticas micro. Sea wn la función distribución de uno de los subsistemas de un sistema macro, que posee un gran número de tales subsistemas (micro). Prescindimos por el momento del índice que distingue al subsistema.

Mediante la función wn es posible, en particular, calcular la distribución de probabilidades de los diferentes valores de la energía E del mismo. Vimos que wn se puede escribir como función de la energía (esfuerzo o costo) solamente: wn = w(En).

Para obtener la probabilidad W(E)dE de que el sistema posea un costo en el intervalo entre E y E+dE, hay que multiplicar w(E) por el número de estados micro cuyos costos se encuentran en ese intervalo. Sea (E) el número de estados micro con costos menores o iguales que E, se tiene entonces W(E) = d(E)/dEw(E).

De acuerdo con toda la discusión respecto al espacio de fases, la función W(E) debe tener un extraordinariamente agudo máximo para E = E, i.e., el promedio de los valores del costo. Tómese el rectángulo de altura W(E) y anchura E, que tiene como área la unidad:

W(E)  E = 1.

La expresión anterior se convierte, a la vista de la igualdad W(E)d(E) = d(E)w(E) en w(E) = 1. Donde  = d(E)/dEE, es el número de estados micro que corresponde al intervalo E de valores del costo, pudiendo decirse que representa el grado de difuminación del estado macro del sistema en sus estados micro.

Pasando ahora las definiciones anteriores al caso de los sistemas macro, directamente; debe tenerse, en la notación tradicional (como en física):

(E)p q = 1 ,

donde la función  es, como antes, la distribución estadística macro, y pq es el elemento de volumen en el espacio de fases que el subsistema pasa la mayor parte del tiempo.

No hay dificultad en establecer la relación que liga  y pq en el paso del límite micro a macro. Como es sabido, en la enumeración (micro) del impulso (análogo al macro pq), surge la relación (2ℏ)s para el volumen que corresponde a un estado micro (de base) en el espacio de fases (s es como siempre el número de dimensiones del espacio de fases).

Existe por tanto la siguiente relación básica macro / micro para el número de estados  y el elemento pq:  = pq / (2ℏ)s . La cantidad  se llama peso estadístico del estado macro del subsistema, y su logaritmo:


S = ln  es la entropía del mismo.


La equivalencia macro en el espacio de fases, directamente, es: S = ln (pq / (2ℏ)s).

La entropía así definida es una magnitud sin dimensiones. Esta es la definición más apropiada para lo que quiere significar y medir. (Nótese que dado que el número de estados no puede ser menor que la unidad, la entropía no puede ser negativa).

Si en lugar de esta definición, se obvia el factor (2ℏ)s, se tiene -como magnitud- la potencia s-ésima de una acción (xxxxx segundo)s. La entropía tendría entonces la singular dimensión del logaritmo de una acción. Por ello, las cantidades así determinadas sólo podían ser las diferencias de entropía. Así ocurrió en la física clásica.

También con este hecho está ligada la aparición de la constante universal de la ecología (análoga a la de Planck ℏ, de la física). Tan sólo el concepto de número de estados micro, discretos -inevitablemente unido con el hecho de que la constante quántica es diferente de cero- permite introducir un peso estadístico sin dimensiones, y con ello, una magnitud completamente unívoca. Sobre este hecho volveremos más adelante, en el capítulo 6, donde se propone un método para medirla (análogo al que se utilizó para medir la constante de Planck) para sistemas ecológicos.

III.4.8. Entropía como magnitud

Volviendo al caso más general de un sistema compuesto por varios subsistemas, cada uno de éstos puede encontrarse en uno de los a estados micro, a lo que corresponden evidentemente,  = a estados diferentes del sistema en conjunto. Es claro que la entropía del sistema conjunto es: S =  Sa, es decir, la entropía es una magnitud aditiva, como las otras.

Alguna revisión respecto al método seguido para definir la entropía puede ser conveniente ahora. La influencia del equilibrio es necesaria para definir el número de estados micro a, por consiguiente es necesaria una división de un sistema en pequeños subsistemas, de modo que el tiempo de relajación sea pequeño con respecto al tiempo t, en el que se supone que el sistema completo llega a tener cierta estabilidad.

La anterior consideración pone de manifiesto el carácter macro del concepto de entropía . Si fuese necesario disminuir los tiempos de los subsistemas de modo que las consideraciones de alguna estabilidad se consiguieran sólo cuando los tiempos de relajación fueran muy pequeños, el concepto de entropía pierde por completo su sentido. En particular, es imposible hablar de sus valores instantáneos.

De aquí que aunque en un verdadero modelo antropológico de la ecología, la noción de entropía en un sentido individual no tenga valor, sin embargo, la suma de individualidades para procesos que tienen cierta uniformidad procesual en el tiempo, origina una idea de estabilidad de tales sistemas ecológicos que da lugar a la noción de entropía como ordenamiento interno del sistema. Esto va perfectamente de la mano con la definición estadística de una magnitud, ya que se necesitan por lo menos dos mediciones para calcular la desviación estándar. Además, concuerda con lo ya dicho de que la perspectiva individual de los motivos personales es radicalmente cualitativa.

La aditividad de la entropía la convierte en una magnitud interesante para el estudio de los procesos ecológicos agregados. Veremos posteriormente, en este capítulo, que la definición dada abre el camino a la definición de otra magnitud de interés: la temperatura de procesos ecológicos, que en este libro llamaremos actividad ecológica. Esa magnitud tendrá como propiedad medir la posibilidad de intercambiar bienes a través de costos (análogo a transferir energía entre sistemas).


III.4.9. Propiedades de la entropía

Ya habíamos visto en el capítulo 3 cómo es que la aditividad de las magnitudes permite revelar capacidades de los procesos con un sólo valor de la magnitud en algún momento del proceso. Volvamos a la distribución microcanónica (7) para examinar las propiedades más importantes de la entropía.

La diferencial da puede interpretarse como la diferencial de una función a(Ea) que representa el número de estados micro del subsistema con costos menores o iguales que Ea; podemos entonces escribir:

dw = const  (E-E0)  (da / dEa) dEa a

El peso estadístico da, es por definición función del costo medio Ea del subsistema; lo mismo vale para Sa = Sa(Ea). Consideremos ahora que son funciones del costo real Ea. Es posible entonces reemplazar las diferenciales de da y dEa (en dw) por los incrementos a y Ea. Sustituyendo finalmente a por eSa, se obtiene:


dw = const  (E-E0) eS  (1/Ea) da, a

donde: S =  Sa(Ea), es la entropía del sistema total. a


El factor eS, en cuyo exponente aparece una magnitud aditiva, crece rápidamente con los costos Ea. Comparada con esta función, la magnitud (1/Ea), es independiente por completo de su relación a los costos y, por ello, con gran precisión se puede escribir:

dw = const  (E-E0)  eS   da . a

Pero dw, expresada en forma proporcional al producto de las diferenciales de todas las dEa, no es sino la probabilidad de que todos los subsistemas tengan costos pertenecientes a los intervalos dados, entre Ea y Ea+dEa. Vemos de esta manera que dicha probabilidad viene determinada por la entropía del sistema como función de los costos de los subsistemas. El factor (E-E0) garantiza la igualdad de la suma E =  Ea con el valor dado E0 del costo para el sistema. Esta propiedad de la entropía es la base de todas sus aplicaciones.

Sabemos que los valores más probables de los costos Ea son sus valores medios Ea. Esto significa que la función S(E1, E2, ... ) debe tener para Ea = Ea el máximo valor posible (para el valor dado de la suma  Ea = E0). Pero Ea son precisamente aquellos valores de los costos de los subsistemas que corresponden al equilibrio estadístico total del sistema.

Se llega así a la siguiente conclusión, que es de la mayor importancia: la entropía de un sistema ecológico que se encuentra en un estado de equilibrio completo posee el máximo valor posible (para el costo total del sistema).

III.4.10. La ley de crecimiento de la entropía

Hemos visto que la condición principal para que un sistema llegue a un estado de equilibrio (o al menos tienda a tal estado) es que la distribución del esfuerzo (desgaste o costo) entre los subsistemas (componentes del costo total), vaya ocurriendo de modo que cada subsistema va llegando paulatinamente a su estado más probable.

También hemos visto que este costo no es sólo un resultado del sistema sino que se enraíza en el flujo procesual ecológico, debido a que tiene vida, es decir, está organizado. Dada la naturaleza estadística de los sistemas ecológicos, también hemos debido hacer una introducción de tipo matemático que justifique las relaciones micro-macro con el fin de mostrar que tales expresiones son formalmente aplicables a este contexto.

Además, se ha dicho también que la aditividad de la entropía influye de forma exponencial cuando se trata de determinar la probabilidad de un estado macro. Por tanto, si un sistema se encuentra en un estado de no-equilibrio, la consecuencia más probable de ello es que en los instantes siguientes la entropía crecerá monótonamente.

Ya se ha comentado que la definición de futuro y pasado para los sistemas en general, no tiene sus fundamentos en las leyes de la dinámica, sino más bien en las leyes micro, i.e., de una teoría quántica de la ecología. Ahora se puede ver más claramente tal afirmación. En las deducciones del concepto de entropía siguen siendo válidas las leyes de aditividad.

La entropía misma es una magnitud aditiva. Por tanto, la sustitución de la variable t por -t seguirá dejando válidas todas las leyes encontradas. No puede, pues, afirmarse que del principio del aumento de entropía se derive el de la dirección del tiempo, aunque tal cosa realmente ocurra, y sí pueda afirmarse que -a nivel macro- en un futuro, la entropía será mayor pero porque los sistemas tienden al estado más probable, de equilibrio.

Sí es posible en cambio una definición menos general pero consecuente con lo visto, y es que se llama procesos irreversibles a aquellos en que la entropía aumenta, y reversibles a aquellos en que la entropía se mantiene constante. Debe recalcarse que los sistemas considerados son grandes, por lo que a nivel de subsistemas, bien puede ser que la entropía no permanezca constante.

III.4.11. La ley de la entropía y los sistemas humanos

Aquí ocurre algo que no es posible en los sistemas de la física pues en ellos el orden causal macro exige que se ajusten las condiciones naturales a leyes deterministas. Para verlo más claro, diremos que desde del punto de vista antropológico, sólo el ser humano sí puede lograr una neguentropía -disminución de la entropía- para los sistemas por él diseñados .

Es decir, un invento puede conseguir que con menores interacciones naturales se consiga el mismo bienestar, y con ello, el nuevo equilibrio se da para sistemas menos probables desde una perspectiva meramente natural . No quiere decir que las interacciones del nuevo proceso con la naturaleza no sigan la ley de crecimiento de la entropía, sino que estas interacciones pueden diseñarse para disminuir el número de estados finales probables, y esto no es otra cosa que disminuir el factor eS en la ecuación de la entropía.

Como veremos después, gracias al nuevo concepto de actividad ecológica que definiremos en seguida, se pueden prever muchos resultados ecológicos factibles, que no eran posibles de estudiar desde una perspectiva estática, aunque se la pretenda dinamizar sobre bases aparentemente firmes pero que no lo son. Es gracias a ese nuevo concepto -que llamaremos actividad ecológica- que podremos relacionar esfuerzos y organizaciones, y es lógico que así sea. El orden-desorden de las instituciones en una sociedad, brinda las posibilidades adaptativas (factibles) al entorno de cualquier actividad humano-ecológica.

Pero aún estos casos de reducción de la entropía ecológica (por ejemplo los de cuidado del medio ambiente, que generan mayor factibilidad futura) están sujetos a tener que adaptarse a un entorno de bienestar que, si no es el adecuado, puede llevar a retrocesos y hasta aniquilación (en un marco legal inadecuado, por ejemplo). El motivo reside en que son procesos que siempre implican interacción ecológica de algún tipo con el entorno . También veremos cómo influye la actividad ecológica para estudiar dicha adaptación.

En los sistemas físicos, las interacciones siempre aumentarán el número de estados posibles ya que la distribución estadística correspondiente es el producto de los estados que son posibles a las partes independientes. En cambio, el ser humano puede lograr, con ingenio, innovar procesos eliminando estados antes necesarios (es decir, si fueran sólo naturales); y los disminuye respecto al proceso antiguo. Esto no lo puede hacer la naturaleza por sí sola .

Pero existen otros procesos internos al ser humano, que no se manifiestan en sus interacciones ecológicas directas con el entorno. Influyen en ellas porque son parte -la más importante- de toda interacción humana, pero aunque producen efectos directos en la ecología, no son buscados por ello. Sin embargo, son el fundamento de toda actividad humana, incluso la ecológica. Nos referimos a las virtudes morales. Las anteriormente mencionadas para mejorar el bienestar, son las llamadas virtudes operativas y sólo se les parecen en que son hábitos, pero de naturaleza distinta (aunque interactúen sistémicamente ).

El principio de aumento de entropía será muy útil para procesos ya iniciados, y para relacionar magnitudes estadísticas que, como la de actividad ecológica, son totalmente nuevas en el contexto ecológico, logrando ser definidas con precisión y utilizadas con beneficio. Pero el verdadero logro de neguentropía, sólo es posible mediante el progreso de virtudes morales, pues son éstas las que en definitiva aumentan la factibilidad de los estados que son requisito para mejores organizaciones –sean empresariales y/o institucionales- al producir el desarrollo de la potencia de gobierno de los seres humanos.

III.4.12. Magnitudes estadísticas

La deducción de la entropía ha traído a luz nociones ahora poco conocidas en el contexto de los procesos ecológicos. Por eso se ha hecho con tanto detenimiento, no así en los otros capítulos, con los preliminares teóricos. Surgen otras aplicaciones de estas relaciones que pasamos a estudiar.

Cabe refrescar a Gödel con su teorema de indecidibilidad, para reclamar innecesaria la matemática deductiva, de que hemos hecho gala. Pero recordemos que ese teorema pre-supone un sistema axiomático, para demostrar su autoconsistencia y eso es lo que no se puede. Pero lo que la física ha probado a través de 27 siglos, es totalmente válido.

Nosotros estamos estudiando realidades vitales, a partir de sus fines, y aunque esa sea la diferencia, nos estamos basando en enunciados de científicos reconocidos y actualizados. Lo que mostramos vale por ambas razones. Lo que cambia es cuando las aplicamos a la vida como posesión del fin, para esto han sido la 1ª y 2ª partes. Pero las fórmulas físicas son válidas.

Tales relaciones entre las magnitudes ecológicas han sido ya objeto de estudio por parte la termodinámica -para los sistemas naturales-, ciencia que -aunque nació con independencia de la física- fue absorbida por ésta en el S. XX, a raíz de los descubrimientos hechos a fines del S. XIX. Por ello no las fundamentamos, ya que son muy conocidas, salvo aquellas que por su importancia, son de interés para este libro.

En el siguiente capítulo se hará un análisis más detallado de tales características típicas que pasaron desapercibidos a la ecología. Entre ellas está la necesaria distribución estadística de Fermi-Dirac para partículas ligadas, i.e., el sistema ecológico-flujo ligado a la ecología como estructura física; y otra estadística importante, la de Bose-Einstein para partículas libres, i.e., las relaciones con el entorno. 

III.4.13. La Actividad Ecológica

Al utilizar magnitudes estadísticas carecen de interés las fluctuaciones locales que experimentan. Se prescinde por tanto de éstas, considerando las magnitudes estadísticas como variaciones macro, es decir, observables directamente. (Las fluctuaciones locales son estudiadas en forma particularmente explícita por los libros de texto especializados, y no se requiere hacerlo aquí).

Consideremos un proceso ecológico que pueda separarse en dos subsistemas que se encuentran en equilibrio conjunto . Si bien la entropía del sistema posee el mayor valor posible, para un valor de las energías E, determinado, este costo debe ser la suma de los costos de los procesos individuales, dada la aditividad propia del costo . Lo mismo vale para la entropía.

Tomando la relación S = S1 + S2 y derivándola con respecto a E1, y teniendo en cuenta que E = E1 + E2; dS/dE1 debe anularse (condición de máximo). Pero esto equivale a decir que las cantidades dS1/dE1 y dS2/dE2 son iguales. Este resultado se generaliza sin dificultad a un número arbitrario de sistemas. A la magnitud dS/dE se le define como 1/T, y a T le llamaremos la actividad ecológica del sistema (o de los subsistemas, pues están en equilibrio). Es una magnitud estadística, ya que también lo es, la entropía. La actividad ecológica de sistemas ecológicos en equilibrio es por tanto la misma e igual a T.

(En física, la actividad ecológica se define como la temperatura y su uso, además de estar muy difundido, es ineludible en todos los procesos de la naturaleza. Tiene la ventaja de no tener dimensiones, en el sentido del capítulo 1, por lo que refleja sólo y únicamente una cosa: actividad).

Pero la magnitud es útil, incluso para sistemas en desequilibrio como puede deducirse derivando la entropía total respecto del tiempo, ya que entonces esta derivada debe ser positiva dado que la entropía aumenta. Los costos se mantienen igual que antes. Tenemos:


Supongamos que la actividad ecológica del segundo sistema es mayor que la del primero (T2 > T1). Se debe tener entonces que dE1 / dt > 0 (o lo que es lo mismo dE2 / dt < 0). Por tanto, si el esfuerzo del primer sistema se incrementa, el del segundo disminuye. Así, las calorías de los sistemas con más alta actividad ecológica se transfiere a los de más baja (menor T) . Que no es otra cosa que expresar lo que todos intuimos al ver un león ante muchas presas: su menor entropía -por ser un sistema único- le llevará a hacerse de una presa (en un sistema de alta entropía = suma de muchas entropías pequeñas pero casi iguales a la del león).

Dado que la entropía se definió de manera que no posea dimensiones, la actividad ecológica debe tener dimensiones de costo. Por analogía a lo que se hace en física, lo más probable será la conveniencia de definir una magnitud propia para la actividad ecológica de los sistemas, estableciéndose a la vez una constante análoga a la de Boltzmann, que sirvió en la física para relacionarlas, es decir: S = k ln , donde k=constante. Esta discusión motiva otra investigación ecológica pero carece de mayor relevancia ahora.

Volveremos sobre la forma de medir la actividad ecológica más adelante, al hablar de ella en las distribuciones estadísticas de dos tipos especiales de sistemas: los que son intermedios para su explotación y los de libre disposición; y en las conclusiones del capítulo 6, con la ocasión que tendremos al describir la forma de encontrar la que será la constante característica de sistemas ecológicos (equivalente a la constante de Planck en los fenómenos de la física quántica).












Entropía y Crecimiento Ecológico

Propiedades Estadísticas de las Magnitudes

Un importante resultado de las Magnitudes Estadísticas es que sus propiedades se adaptan a la dinámica de los sistemas si se estudian desde una perspectiva global.

Así emerge el interés en analizar cómo influye esta dinámica al interior del sistema, es decir, para los subsistemas. Debe exigir que, estadísticamente, todas las partes del sistema poseen tal dinámica. Además, la elección de ejes coordenados ya está definida, pues es exterior, y los subsistemas “viajan” con el sistema (cfr. final de acápite 4.4).

Pero hay fuentes de energía que, aunque no provienen de las interacciones al exterior de un sistema -ya que surgen del interior mismo del sistema- influirán en la ecología del sistema. Éstas, pueden calcularse yendo en sentido contrario, a partir del conocimiento de la entropía total de un sistema hacia dentro (el corchete a continuación denota una función, no un producto):

S =  Sa[Ea - (pa2 / 2.ma)] a

En dicha fórmula, se sustraen las fuentes de energía que se deben a la actividad externa (el impulso, o sea, el término con pa) como puede verse. Un ejemplo es el de la influencia técnica en la explotación de recursos: cómo se puede medir la influencia entrópica de la tecnología. Hasta ahora sigue siendo un dolor de cabeza medirla. Pero conociendo qué valor debe asignarse a la entropía final -por ser la entropía una magnitud- queda definido este número o energía interna y que es además, estadístico. Magnitudes como ésta nos permitirán tales ventajas y otras inimaginables, hoy por hoy.

Una propiedad importante de las magnitudes estadísticas anteriores (entropía y actividad ecológica), es que la actividad ecológica no puede ser negativa. En efecto, si un sistema tuviera una actividad ecológica negativa, las partes del sistema tenderían espontáneamente a desintegrarse debido a la tendencia de la entropía a aumentar, ya que por ello -si fuera negativa la actividad ecológica- el costo total sería mínimo.

La única manera de que un sistema ecológico pueda expandirse -crecer como ecología- hacia otras ecologías, es interactuando con ellas. Pero hay que considerar siempre que en la deducción de la fórmula para la actividad ecológica no se consideró la posibilidad de interacción del sistema con el exterior (se aisló dicho sistema, para no complicar la exposición en ese momento).

Si fuera el caso, una interacción distinta a la que corresponde sólo a la entropía interior, tendría que ser con su entorno. En cambio, en la última ecuación la explotación no es expansiva (y tampoco contractiva, que sería el caso de la desertificación). Los otros casos corresponderían a explotaciones ecológicas donde la ecología nacional (lo que viene a ser el costo total pero de toda la ecología) depende no sólo de la entropía sino de la explotación de otros recursos (a entropía constante). Tales variaciones son las dinámicas y las más interesantes en los procesos ecológicos. Estas expansiones (o contracciones) miden mejor la actividad ecológica interna, según la última ecuación, que actualmente no está directamente considerada por no existir una teoría híper-dinámica ni la definición de tales magnitudes.

Por ello, hay relaciones de índole cantidad-flujo que están siendo estudiadas aquí, por primera vez, gracias a la dinámica de las distribuciones estadísticas; y veremos otras más adelante. Por ahora, la discusión anterior tiene interés para mostrar que la dependencia estadística está centrada en dos términos: entropía y output (es decir, está en correspondencia directa con los términos de explotación de la ecología que se trate). Esto último, ya ha sido demostrado análogamente, en su momento, gracias a la ciencia termodinámica .

Todas las magnitudes estadísticas (dinámicas, esto no debe olvidarse), en conclusión; pueden obtenerse de interpretaciones distintas a los procesos y su dependencia (que es lo que se hace actualmente mediante el cálculo en derivadas parciales) usando solo -en general- dos variables . A excepción de unos cuantos casos particulares, en que se fuerza la dependencia de otras variables por razones de mejorar el análisis, esta bi-dependencia es suficiente y muy práctica.

La distribución Canónica

La distribución estadística más estudiada surge de considerar el siguiente problema: ¿cómo encontrar la distribución estadística de una parte (subsistema) de un sistema más grande, que se encuentra en equilibrio? El método más conveniente se basa -como se hizo antes para la entropía- en la aplicación de la distribución microcanónica a todo el sistema.

En una aproximación bayesiana, como se hará ahora, la probabilidad se aplica a conjuntos no dinámicos; basándose en una estructura totalmente macro, que no requiere mayor elaboración (no debe entenderse este comentario como si este logro macro fuera una labor fácil, pues han habido notables desarrollos matemáticos para culminarlo).

Como la que sigue, tales derivaciones están demostradas en cualquier texto común pertinente. Habiendo definido las variables básicas: entropía, output, coherencia ecológica y actividad ecológica; el resto es una extensión por analogía y hace redundante mayor detalle. Sin embargo, algunos elementos que son básicos para una cabal comprensión de cómo emerge la constante, obligan su inclusión.

Para un caso como el anterior la distribución microcanónica se escribirá:


dw = const  (E + E' - E0)  dd',


donde E, d y E', d' se refieren, respectivamente, a la parte y al sistema; y E0 se refiere al esfuerzo inicial total, i.e., la suma E + E' .

Interesa la probabilidad wn de que la parte (el subsistema) se encuentre en determinado estado micro. Haciendo d = 1, E = En, e integrando la igualdad anterior (considerando que -al igual que en la derivación de la entropía- se tiene, d'/dE' = eS' (E')/E' , con S' (E') como valor de la entropía del sistema grande):

wn = const * (eS'/E')  (E+E'-E0) d'

Gracias a la función , la integral se reduce a:

wn = const  (eS'/E') ,

expresión que debe ser evaluada para E' = E0 - En. Despreciando la variación E' cuando varía E' y desarrollando eS' en potencias de En, conservando sólo el término lineal, se tiene la expresión canónica (o de Gibbs, desarrollada para la estadística macro en 1901).

wn = A  e-En / T ,

La constante A se obtiene por la condición de normalización wn = 1.

En la expresión original de Gibbs, que sirve aquí para las aproximaciones macro, se tiene:

(p, q) = A  e-E(p, q) / T ,

con (p, q) igual a la distribución estadística del costo como función en el espacio de fases.

Distribución de Maxwell

De la primera ecuación de la entropía, que resume las dos partes posibles de esfuerzos: como cinéticos -por K(p)- y los potenciales -por U(q)- respectivamente, se tendrá E(p, q) = K(p) + U(q), de donde la distribución de probabilidades queda:

dw = A e[-U(q)/T - K(p)/T] dp dq ,

es decir, se descompone en el producto de dos factores, uno que depende sólo de las coordenadas (inputs) y el otro de los flujos. Esto significa que las distribuciones de probabilidad consideradas son independientes entre sí y por ello, generan dos distribuciones distintas, una para las coordenadas y otra para los flujos, aunadas por la actividad ecológica (T).

Olvidando la naturaleza micro de los subsistemas de un sistema -como lo hizo Maxwell- la parte cinética, que corresponde a la parte de los impulsos (flujos), es la suma de los costos de todos los subsistemas del sistema. Ello trae consigo la consecuencia de que las probabilidades de los impulsos son independientes entre sí. Por ello cabe escribir las probabilidades de cada uno de los impulsos por separado.

La deducción matemática posterior se encuentra en casi todos los textos de física y sería redundante volver sobre ella. Lo que nos interesa es que finalmente, se llega a la conclusión de que el impulso promedio para un subsistema del sistema es T/2 por cada grado de libertad (o lo que es lo mismo, que representa la mitad de la actividad ecológica). De aquí que si s -el número de dimensiones de la ecología- es igual al número de grados de libertad para el subsistema, el impulso total promedio sea: p = s * T/2 .


Otras distribuciones

Se puede decir que la distribución canónica es la única distribución que existe, pues todas las que siguen son aplicaciones de ella a casos más concretos. Sin embargo, derivaremos algunas de ellas que fueron usadas o derivadas como grandes hitos científicos, siendo la más importante de ellas la que lleva a la deducción de la constante, es decir, la distribución de Planck. Esto se hará con detalle en el acápite III.6.3, por ser la generadora de la constante que da nombre a este libro.

En general, la explotación ecológica de recursos se refiere a subsistemas que son idénticos desde una perspectiva utilitaria. Sin embargo, tales subsistemas no son realmente idénticos (es imposible que lo sean), pero sí corresponderán a la distribución estadística que sea más conveniente para fines mesurables. Tal correspondencia se muestra en lo que sigue.

La primera -y en realidad la única- distinción que salta a nuestra vista para los sistemas ecológicos, es cómo intervienen los inputs para lograr outputs. O sea que existen inputs/outputs que circulan dentro de la ecología en explotación; que todavía no han sido aplicados (inputs) o falta algo en ellos para que salgan (outputs). Por ello, se llaman bienes intermedios. Estos “bienes” son de distinto tipo que los otros, pero tienen valor porque han demandado o demandarán esfuerzos “internos”.

Esa característica la distinguiremos -matemáticamente- a nivel micro, por una función de onda de naturaleza distinta de la que corresponde a un subsistema. No nos interesa -como es habitual en quántica- medir exactamente la función de onda , sino mostrar qué consecuencias pueden obtenerse de las características del hecho medible que se considera.

Dado que una función de onda será en general un estado "no puro", es decir, su expresión no será una sola función compleja sino una combinación lineal de estas; tal representación de la partícula será equivalente a una matriz. Es inmediato observar el conocido resultado, que: si dos columnas o dos filas de esta matriz son iguales, el estado no es posible, pues entonces el determinante de tal transformación sería nulo.

Para los casos en que no es posible tal representación, diremos que se trata de bienes libres (funciones simétricas en matemática quántica); pero en los casos que tal representación sea posible, diremos que se trata de outputs intermedios (o de productos ligados a una ecología: funciones antisimétricas en quántica) .

Esto es importante para ciertos casos ecológicos, en que se deben reponer instrumentos directos de explotación y recursos o inputs indispensables para continuar explotando; por ello, hay que poder distinguir el estado de estos bienes intermedios -que son técnicamente necesarios- de los otros que no requieren tal distinción. Son inputs que deben reponerse (o infaltables) y así también, pueden ser outputs que deben permanecer en la ecología (para evitar extinciones, por ejemplo).

Distribución de Fermi

Para un sistema físico, equivalente a lo que acabamos de definir como outputs intermedios, y para los inputs; existe un teorema -muy necesario, de allí su importancia- de la física llamado principio de exclusión (o de Pauli), que reza por la imposibilidad de que dos de estos bienes intermedios, en un sistema, puedan describirse como un mismo estado . Tal característica es además típica de los procesos ecológicos . Sobre esta característica nos extenderemos más adelante en el próximo capítulo.

Aparece ahora una forma de asociar costos a los inputs (o intermedios, por su naturaleza distinta) de un sistema ecológico. Nos interesa saber la cantidad de procesos internos, porque tienen un costo determinado (o en un rango, si el espectro de costos es continuo). Tal fórmula es la del costo potencial (interno), que asociamos ahora, a la distribución canónica, pero distribuyendo el número de productos que poseerán algún costo potencial. Se llama distribución de Fermi.

Para la actual situación, de outputs intermedios, si designamos por k el costo potencial de un subsistema de estos outputs para los que su costo es k, tendremos la expresión general:

k = - T  ln  (e(- k) / T ) nk  , nk

donde al considerar el hecho de que los valores de nk (números de ocupación) sólo pueden ser 0 y 1 (principio de exclusión), obtenemos:


k = - T ln (e(- k)/T) .


Habíamos dicho que toda representación de las magnitudes estadísticas se reduce a ser función de dos variables aunque en la anterior, es necesario haber introducido el número de productos como variable independiente, con la consiguiente aparición del llamado potencial ecológico -análogo al potencial químico- algo así como el llamado costo de explotación de ese output intermedio (output en potencia).

De ésta expresión, el número medio de outputs se obtiene derivando el potencial  respecto del potencial ecológico  y cambiando de signo. De aquí que el número medio de estos sea:


nk = 1 / (e(k - )/T + 1).

La distribución anterior se llama distribución de Fermi y está normalizada por la condición  nk = N, siendo N el total de productos (potenciales) ligados.


Distribución de Bose

Pasamos ahora a estudiar el caso de un sistema de bienes (o outputs) libres, es decir, aquellos que no tienen limitación de sus números de ocupación . Tales outputs solo pueden existir en números de ocupación enteros, por tanto, la función de distribución se puede deducir de la misma forma que la anterior, pero aumentando el número de ocupación a una serie geométrica infinita (numerable):


∞ k = -T . ln (e(- k)/T) nk , nk=0


La serie converge sólo si la base de potenciación es menor que 1. Dado que esta condición debe cumplirse para todos los k (en particular k = 0), está claro que debe ser  < 0. En la estadística de Fermi, en cambio,  puede ser positivo o negativo.


Sumando la serie se obtiene:


k = T ln (e(-k)/T)


De aquí que los números promedio de ocupación son:


nk = 1 / (e(k-)/T+1)



Figura 5.- Comparación entre las Distribuciones de Fermi y Bose para la misma actividad ecológica T (obsérvese el incremento de costo unitario o precio kB-kF para mantener el mismo número de estados accesibles nk)

Esta distribución difiere de la anterior en el signo antes de la unidad en el denominador .  











Capítulo Único- Conclusiones

Las conclusiones y su orden en esta Parte

Como asegurábamos al comienzo de este libro, en su 1ª Parte, lo escrito solo intenta re-poner el lugar que merecen las universidades histórico-culturalmente contextualizado; porque se ha perdido el norte que las orientaba y no se sabe explicar bien cómo fue que ocurrió esto.

Para centrar antropológicamente el asunto, se recurrió al método antropológico del filósofo Polo que lo denominó -Método del Abandono del Límite Mental- como se explica en la 1ª Parte. Gracias a su método, Polo logra redescubrir la metafísica desde el sitio que siempre tuvo, pero no se detectó como su tema intrínseco: lo que está más allá de lo físico (de aquí el vocablo, meta. Polo dice que Andrónico de Rodas le puso ese nombre por ser los libros que estaban después de la Física, pero no pudo estar más acertado).

Porque también ese método descubre que la metafísica viene como absorbiendo temas que no se le adecúan con precisión y, quizá por ello, se han tratado en oblicuo: los temas humanos y los meta humanos como la esencia y la libertad humana. Además, se apoya en Tomás de Aquino -para hacerlo correctamente, afirma- desde la distinción acto de ser - esencia. Descubre trascendentales, no metafísicos sino humanos; pero a los primeros, los pone en su correcta dimensión.

Hemos desarrollado, en base a estas pautas filosóficas de alto vuelo , y siguiendo a Polo; una explicación de cómo ocurrió el declive de las universidades modernas y posmodernas, que las llevó a una clara dedicación a temas menos coherentes con su exitosa, inaugurada, propuesta inicial; que permitía desarrollar temas entre los que brillaba la dedicación a las ciencias teológicas y filosóficas, como destacadas materias en las cuales volcar todos sus esfuerzos humanos.

¿Cómo con lo humano-natural se puede llegar a lo divino-sobrenatural? Fue quizá la pregunta que se hicieron y, además, creyeron firmemente poder contestar. Se organizaron en trivium y cuadrivium los estudios que lograrían esos tan elevados fines; pero el método para estudiar dichos temas no quedó claramente en la línea de esos fines, decayendo poco a poco hasta la firmeza que da la ciencia experimental; respaldada por pensadores de primera línea que se apoyaron en su época.

Vimos también que, dentro de lo humano, se debe aclarar lo que corresponde y separa las ciencias y artes. Y primero, si existe uno o son varios los saberes primeros: las filosofías primeras. Por ello, Polo precisará que en el inicio de su método está el encuentro de los trascendentales humanos y cómo es que tienen que ser otros que los trascendentales metafísicos. Que la antropología es una filosofía tan primera que supera a la metafísica por tratar a la persona, que es lo más elevado que existe porque Dios es Tres Personas.

En realidad, aclara contundentemente que no era necesario hacerlo, pero los errores -y los avances filosóficos modernos- se prestan a confusiones que hay que precisar y/o corregir. Que es oportuno hacerlo porque una pequeña desviación hoy, puede ser significativa mañana.

En resumen y llegando a las conclusiones propuestas al inicio del libro, el abandono del límite mental de Polo, nos ha permitido como método apoyado en las causas aristotélicas, aclarar las tres cosas:

Que el modo de estudiar y desarrollar la Verdad, fue escapando muy sutilmente a Ella, debido a los métodos con que se realizó. Fue así que sus conclusiones, aunque sólidas y realmente importantes -además de representar un desarrollo veraz y notable en su tiempo- fueron como “rebajadas” de su verdadero nivel.

Que ése es el modo en que debió desarrollarse el estudio a nivel utilitario y práctico como lo viene demostrando el enconado y progresivo avance de la técnica, que prácticamente desplazó a la Verdad entre los estudiantes y profesores universitarios, y

Que se debe “elevar” el nivel de las asignaturas que se dedican al estudio de las verdades más profundas, aprovechando que el método poliano ubica claramente cada una en su nivel. Ello no obsta para mejorar y aplicar otros métodos que accedan realmente a la Verdad. Y, finalmente, qué se debe corregir para ello.


Considerando estas cosas, la conclusión más cercana a la explicación de cómo recuperarse de tal “caída” en la búsqueda de la Verdad universitaria, parece que radica -como decimos- en el excelente nivel alcanzado por las verdades universales (de aquí la palabra universitas) que pretendían explicar las verdades más altas, que no eran aun de primer nivel, pero eso buscaban.

Fue así que el que llamamos en este escrito “segundo nivel”, el de las ciencias experimentales, con el correr de los primeros siglos universitarios, se desarrolló en base a esos avances (los del que se creía “primer nivel”), y más bien correspondían a un nivel casi físico (y no meta-físico). Lo prueba que los principios de dicha meta-física eran lógico-físico-lingüísticos. Hay muchas razones pero quizá la más obvia sea que se buscaba explicar lo inexplicable, en la creencia de que era “sobrenatural”; es decir, algo así como explicar la magia, cosa que era claramente natural y solo requería explicaciones físicas.

Aunque no todos cayeron en esos vaivenes de la cultura, ya lo hemos dicho antes; la universidad fue a la deriva por no tener un norte, un método que autocorrigiera las desviaciones hacia los niveles de segundo orden (como estamos denominando aquí al nivel de las artes y las ciencias).

Parece recomendable por ello asomarse de modo inverso a las conclusiones. Los últimos tres siglos lo demuestran, como se ha venido advirtiendo reiteradas veces en este documento. Se sabe más cómo es la técnica y cómo se puede mejorar para otros contextos naturales que los siguientes pasos para los que ese progreso del segundo nivel, están puestos.

Así pues, el primer paso que daremos será para explicar la conclusión 3); luego, en el siguiente acápite, intentamos explicar con más detalle por qué la conclusión 2); y finalmente, dejamos una posible hoja de ruta para recuperar el nivel que se propone en la conclusión 1).



Tercera conclusión: nivel operacional

Vemos cómo nuestros antepasados pensantes buscaban lo que fuera más práctico para nosotros. Ello no les costó poco (como a nosotros leer un párrafo por ellos escrito), sino que se dejaron la vida. No tenían las facilidades que nosotros tenemos como comprar un “medidor” y usarlo.

La referencia que tenían era muy alta. Los ejemplos de real heroísmo dejados en la cultura por los antepasados griegos, mostraban la certeza de que habían sido “mejores” -en el sentido de más virtuosos- que ellos. La redondez de la tierra, medida sin otros instrumentos que sus sentidos y la naturaleza pura, fueron poco difundidos y además, “dudosos” (S III a.C.).

Pero, volviendo al siglo XIII, el de las universidades; el ideal de servir al rey, sea quien fuere, y la defensa de las necesidades familiares: alimentación, salud y vivienda; son los que primaban para desarrollar útiles implementos a favor de la vida y tener más tiempo disponible para el ocio y para pensar en cosas mayores. Todo ello, en un mar de amenazas que podían ser tanto naturales como forzadas, prevalecían sobre las estructuras destinadas a pensar en fuerzas no-naturales o que no rendían beneficios tangibles, futuros o inmediatos (como la magia).

Los frutos de quienes verdaderamente iban descubriendo cómo servir mejor al espíritu que a la naturaleza física, se iban pasando al campo de lo utilitario rindiendo verdaderos frutos de aprovechamiento social y personal. Llegaron a pensar incluso que así sería la “abundancia” predicha por los “profetas”.

Aunque todo eso fuera cierto, más cierto era que otros solo lograban alimentar su espíritu retirándose al desierto. A veces en privado, a veces en común; no sabían cómo hacer partícipes de los favores del espíritu a los menos alertados de que ello existía y era, de hecho, el mejor de los mundos.

Pero continuaban los descubrimientos y las mejoras de alimentación, vivienda y salud; y las débiles y locales acopiadoras de información no sabían que -en general- provenían de quienes se habían retirado para crecer en espíritu pero descubrían cosas para alivio del cuerpo: medicinas, aparatos de medida, modos de desplazamiento más rápido, etc.; que -algunos- rápidamente pasaban a manos del poder de turno, convirtiéndose en medios de opresión poco populares.

Las explicaciones que -gracias a esos descubrimientos- permitían p. ej. poseer nuevas tierras, llegaban pronto a ser de unos pocos que se sumaban al poder -en contra incluso- de los que las habían encontrado y/o descubierto. En ese ambiente de discordia y poder, se fomenta “dar al César lo que es del César y a Dios lo que es de Dios”; pero las mejores escuelas y/o los grandes sabios están, coincidencia pura, casi siempre del lado de Dios. Si no son ellos los sabios, lo son sus padres, que se dan cuenta y se preocupan por fomentar esa sabiduría.

No fue casualidad que Descartes y Vespucio aparecieran en esa época, cimentando su profesionalidad con necesidades de asegurar viajes y perímetros de tierra ”nueva”. Las coordenadas referenciales en el plano, se convierten en soporte geodésico de longitudes (horarias incluso) y latitudes que grandes navegantes expedicionarios verifican con números y planos “oficiales”.

La redondez de la tierra no explica por sí sola: por qué no se caen los que están en la zona que se llamará “septentrional”. Hace falta que Newton explique la atracción mediante una “ley de la gravedad”, que predice con exactitud numérica los valores de las fuerzas respectivas. La mecánica clásica se estrena como la gran cosmología del universo.

Nace Hamilton que se apasiona con su época y entiende, como nadie antes, lo que será la relatividad antes de que se sepa qué necesidad hay de explicar todas las casuales relaciones que la matemática parece predecir, con certeza absoluta. Y en casual coincidencia Maxwell deduce, de las ecuaciones que llevan su nombre -debidas a Gauss y a Euler- una expresión que parece ser inadecuada, por decirlo de algún modo: la luz visible o no visible (que se usa en las comunicaciones telegráficas) es una onda electromagnética cuya velocidad de propagación no depende del “éter” sino que es ¿absoluta? ¿puede ser tal cosa?, ¿existe o no existe el éter?.

Al mismo tiempo se ha iniciado la revolución industrial, y todo lo que se pueda inventar tiene gran acogida. Pero hay un caos en toda Europa debido a la aparición de una gran masa de “proletarios”, que requiere ser controlada. Fayol le dedica tiempo a estudiar cómo puede ser enfocado el problema a través de las clases dirigentes.

Polo afirma: “En la filosofía moderna se habla menos de los hábitos: prescinde de los intelectuales, y de los morales tratan los ilustrados ingleses hasta Adam Smith, que todavía habla de virtudes y vicios, pero dándoles una importancia sobre todo funcional. En rigor, su gran obra, La riqueza de las naciones, depende de una interpretación de los hábitos morales muy pesimista. Esta versión que considera que los hábitos morales son escasos y, por otra parte, frecuentemente sustituidos por vicios, arranca de Hume” .

Se hace indispensable encontrar cuál puede ser el nivel de la justicia en los intercambios. Se desarrolla más la economía, que en el S XXI sirvió razonadamente de punto de partida para llegar a la constante , en un marco adecuado (suficientemente elevado) para explicar muchos vínculos cuali-cuantitativos en las sociedades. No dudamos que también ayudará a elevar los aspectos psicológicos y sociológicos de estos vínculos, que serán a su vez, elevados por ella.

La posibilidad de producir institucionalmente, generando más bienestar a la sociedad, sólo puede provenir de organizar el trabajo de grupos de individuos (personas u organizaciones) para volver factible lo que antes sólo era posible. En este sentido, organizar se realiza en base a las virtudes morales, y no puede ser sólo fruto de desarrollos técnicos.

Caso patético de Dirac: “no hay Dios y Dirac es su profeta” decían con encono y burla -también sabia- científicos de la talla de Heisenberg, Bohr y otros; porque sabían de lo estrictamente religiosos que eran sus padres y lo intentaban reincorporar a lo que sabían que era bueno.

Es en medio de estas aventuras de la sociedad humana, donde se tejen las invenciones de sabios y, a veces, costureras o mendigos que también descubren bienes o métodos útiles. Pero viene llegando el tiempo en que la abundancia de app’s -cubren de tal modo todos los avances logrados antes- que ya no se sabe siquiera que la regla de cálculo (y sus fundamentos por supuesto) fueron antecedentes, y las app’s están repletas de ello. Es de esperar que las universidades retengan en su “almacén de conocimientos” todos los fundamentos que las sustentan.

Pero eso no es todo. Otro ejemplo -en otra dirección- de la protección del conocimiento ya obtenido, está en una de las más grandes victorias de la técnica y el conocimiento humanos: los mecanismos de realimentación (o feedback). Si uno entra a internet y busca su origen, no hay material completo y el que hay, es además, defectuoso. Como se ha visto la noción de sistema es básica para los desarrollos previos a Polo, que se basó con soltura en la concepción de Bertalanffy. Pero los mecanismos de realimentación y control son el fundamento de toda la técnica que se pueda encontrar hoy en día, y eso no se encuentra como debiera ser de fácil acceso. No hay coherencia entre los avances de sistemas -el propio internet es emblemático como sistema y feedback, todo a la vez- y la información que se ubica.

Otro ejemplo es el de los cromosomas. Si uno quiere saber más, u obtener información valiosa de la quiralidad, que como hemos visto es clave del futuro alimenticio; no la encuentra explicada como codificación que es, con todo lo que trae consigo no saber lo mínimo de estos puntos básicos para entender por qué y cómo sigue uno vivo.

Todo lo dicho en capítulos anteriores tomaría -por lo menos- tantas páginas como conexiones con las magnitudes comprometidas tienen las ciencias y los desarrollos científicos desde el siglo XVII hasta el siglo XXI. Nos fijaremos primero, en las que refuerzan la novedad de lo descrito y confirman la validez -renovándolas- de las leyes fundamentales de la ecología.

Lo primero fue forzosamente, definir magnitudes ecológicas, buscando una unidad de medida invariante de la ecología, que resuma todas las posibilidades de propagación (recuérdese que estábamos hablando de la luz) que puedan aparecer con ella. Eso vincula su propiedad aditiva (muy útil para los seres humanos) con la invariancia originaria, por ser magnitudes.

Partiendo de la invariancia dinámica, hemos llegado al costo de explotación (un tipo de energía pero no es la conocida de la física, pero sí análoga), como magnitud escalar más elemental; y de ella, a la productividad ecológica, primer operador (vector) básico, como magnitud vectorial, del cálculo ecológico (equivalente a la operación de derivación, para los cálculos del universo natural); que nos ha llevado a que la solución dinámica de las operaciones de medición ecológica deben partir de unas condiciones iniciales, y que de éstas, deben especificarse en 2s-1 (véase 1.4).

Una vez definido el número de coordenadas (s) de la ecología, es razonable conclusión que deba existir una magnitud que relacione bases y coordenadas; pues para que el espacio ecológico sea el mismo -aunque existan diferentes referencias- debe existir una correlación invariante y dinámica : la coherencia ecológica. La inclusión necesaria del tiempo para que ello sea correcto numéricamente, y además, se someta a una simple aditividad (magnitud tensorial: como representación tiene otras características de suma y multiplicación, no tan simples) explica la aparición de tensores contravariantes, además de los típicos covariantes. Al no ser un recurso como se acostumbraba entenderlo, la nueva forma de incluirlo tiene más y profundas consecuencias, ya presentidas pero no abarcadas plenamente, que se explicaron en la 1ª parte.

La corrección dinámica lleva a una lógica más coherente para las curvas de propagación (como las de oferta-demanda de la economía). Esto se vio, en los capítulos anteriores, con todo detalle. Pero conviene destacar ahora, algo que no se enfatizó en esas deducciones: las características unitarias energía-costo son del mismo tipo que las características unitarias del campo de fuerzas que las ciencias ya habían descubierto en el S. XIX. Por ejemplo, cuando en la economía explotamos-vendemos un output valorado por su precio o costo -lo que se hace intuitivamente desde hace muchos siglos- fue avalado por las ciencia económica (judicoides) mucho después. Esto es abrumadora y matemáticamente cierto, y es una grata conclusión que emerge con gran naturalidad de las elaboraciones conceptoidales de nuestra investigación.

Así es como entendemos que se hicieron a un lado las más importantes materias, con la llegada del mundo moderno. Se hace énfasis en que estas son las ciencias de segundo nivel que reflejan -como en el caso de la luz- lo que falta estudiar del primer nivel. Por ejemplo, Lucifer antes de ser la serpiente, era un ángel y se ve que conocía muy bien la luz porque era conocido como el “mejor” de todos, quizá porque brillaba. Pero hay otros, a los que su humildad los convirtió en ascetas, que no brillaban pero eran superiores -ya se ve- cuyo pálido reflejo son como las ondas gravitatorias, que están allí desde mucho antes y nadie las puede estudiar porque superan nuestra capacidad técnica actual. Nos estamos quedando en el segundo nivel de conocimientos , pero todo provino del primero. Tenemos que re-iniciarnos (como diría un tecnólogo actual).

Las motivaciones antropológicas del ser humano para conseguir la unidad en sus instituciones y sistemas ecológicos asociados, así como la intervención incierta de los actos humanos individuales, únicos e irrepetibles , han sido aquí considerados como parte estructural de la teoría de invariantes, que busca refrendar numéricamente lo que es humano (pero que ha estado pendiente desde hace siglos): una escondida secuencia dinámica de números que, por ser invariantes, obedecen a una dictadura desconocida actualmente por las ciencias sociales .

Esa secuencia fue descubierta desde hace mucho pero solo utilizada por los especialistas de turno, que sabían cómo usarlos en sus cálculos. No hubo una interiorización cultural coherente con la historia previsible. Solo a medida que nacían los científicos, las podían incorporar a sus estudios y desarrollos. Continuaremos con la segunda conclusión.

Segunda conclusión: nivel ciencia

Retomando el hilo conductor de la historia universitaria, se veía imposible, como consecuencia de lo que se descubría, aplicar la teoría de los universales -artes y ciencias- de modo sistemático a campos que no fueran para “enriquecer el espíritu”. Es decir, de lo que se trata es de lograr la felicidad del hombre y, para eso, hay que empezar por los propios profesores y alumnos de las universidades.

Hay que tener en cuenta que los motivos que llevan a los seres humanos a organizarnos para lograr metas, objetivos y cumplir una misión; son de tres tipos según la teoría de la motivación: extrínsecos, intrínsecos y trascendentes.

Pero la capacidad para formar organizaciones que funcionen durante largo plazo no la tenemos todos. Esa capacidad -que se llama dirigir - se desarrolla a partir de las decisiones que tomamos, es decir, de cómo elegimos las acciones que nos proponemos realizar.

La razón de estudiar la acción institucional en tres planos es debida a que las organizaciones "funcionan" en la medida que los estados factibles entre las personas que las componen -por estar motivados trascendentemente- se amplían. Pero ello se refiere a los estados factibles éticos y sólo indirectamente a los operativos. El problema son los imprevistos que emergen a veces costosos y difíciles de superar .

Nos hemos extendido mucho en este tema para entender mejor la influencia de las decisiones directivas en una universidad y esto no se hace nunca. La búsqueda de ese desarrollo, es decir, del “enriquecimiento del espíritu” investigador, lleva consigo la renuncia de otras satisfacciones -generalmente serán las percepcionales, que son las más buscadas por nuestra sociedad-. Cuando el ser humano prioriza las satisfacciones percepcionales, respecto a otras más importantes: por ejemplo la conservación sostenible del medio ambiente; se produce un aprendizaje negativo , es decir, cada vez le es más difícil decidir, deteriorándose interiormente. Valora menos las causas que realmente mueven al entorno a reaccionar como lo ha hecho ante una decisión suya, y valora más otras causas que no son más que "ilusión" interior, al perder panorama decisorio.

La universidad siguió mostrando su rostro utilitario antes que el de enriquecer -espiritualmente- a los comprometidos con ella. Una cita de Polo deja ver lo que probablemente ocurrió: “De hecho, sólo una filosofía aristotélica puede aglutinar el espíritu universitario. Las otras formas de filosofía son sectarias, maníacas, unilaterales. Por tanto, no sirven para cumplir esa misión, que también, a mi modo de ver, los filósofos y la filosofía están llamados a cumplir en la Universidad. De lo contrario, la Universidad se transforma en "pluriversidad"; se astilla en las especializaciones: se produce incomunicación entre las distintas ramas del saber, y se da una especialización excesiva en la mente de los que se dedican al trabajo universitario. En este sentido, ese espíritu universal -universitario- lo puede proporcionar la filosofía. Pero, dentro de la filosofía, la única que está capacitada para lograrlo es la aristotélica, en cuanto que es sumamente abierta a todos los tipos de saber y, a la vez, los abarca sin dejarse arrastrar por alguno de ellos” .

Se dejaron arrastrar por la obtención de resultados utilitarios, lo que viene empeorando hasta hoy. Polo no solo hace crítica positiva a lo que debió ser, sino que nos actualiza por qué y cómo: “En definitiva, de estos autores se desprende que la carencia de fundamento de la ciencia es notable, y que en su último entresijo la ciencia es contingente. ¿Consistencia, sistematicidad? Tampoco, porque no hay manera de construir un sistema científico completamente unitario. Más aún, es que ni siquiera tiene sentido formularse el proyecto. Primero, porque no tenemos matemática para ello; ni siquiera sabemos por qué no la tenemos. La matemática no es una ciencia enteramente consistente, si se tienen en cuenta las observaciones de Gödel. Este matemático sostiene que si partimos de una serie de proposiciones, y de ellas deducimos una serie de axiomas, siempre sale algún teorema que no podemos justificar, y que no queda sino elevarlo a axioma, si queremos conservar la coherencia. Pero entonces aparece un proceso al infinito, y el sistema, en definitiva, es indecidible, es decir, no puede cerrarse. “Esto ha dado lugar a una abundante literatura, porque la idea de sistema completo es uno de los grandes ideales del pensamiento moderno. El filósofo que formuló la idea del sistema total fue Hegel. Este idealista creyó que podía constituir un sistema absoluto con todo el saber humano. Este planteamiento es ambicioso, pero es evidente que el hombre no abarca todo ni puede abarcarlo. Ante esto se admitieron unas formas parciales de sistematización. Tal es, por ejemplo, la postura de Wittgenstein, el cual señala que nosotros actuamos de acuerdo con una pluralidad de reglas. “Esto es paralelo a la llamada teoría de juegos. No hay lógica completa. Una cosa es la lógica que se emplea cuando se juega al póker, otra que se emplea cuando se juega al ajedrez. No todos los juegos tienen la misma lógica. El hombre juega a muchos juegos, pero no hay el juego de los juegos. Probablemente Wittgenstein cree que sí existe, pero que el juego de los juegos sólo lo juega Dios, y que el sistema absoluto del saber significa el saber divino, pero ese saber al hombre no le es accesible. Se ve entonces –ahora formulado por los filósofos– que la ciencia no es consistente. Esto no significa que no haya partes más o menos coherentes, pero en su totalidad no lo es. “La ciencia moderna no tiene fundamento ni consistencia. Si a eso le añadimos que, además, no sabemos cómo seguir, porque la realidad no se deja encerrar en un modelo científico, la realidad sale contestona; sólo nos queda confiar en que los modelos se repondrán porque contamos con mucha gente, pero no tenemos certeza, es decir, una plena confianza. “También sucede en las encuestas. ¿Hasta qué punto la encuesta no influye en los resultados de la encuesta? ¿Es lo mismo hacer una encuesta pública que una no pública? Evidentemente no. Los físicos dicen que se acude a la explicación estadística cuando no se tiene otra, porque la explicación estadística es la peor de todas. Además, las explicaciones estadísticas tienen un límite, ya que no todo se puede explicar estadísticamente. Cuando entran muchos factores en el cálculo, no hay modo de establecer la estadística. Esto es lo que llaman técnicamente el ruido blanco . “Si bien el hombre es un gran solucionador de problemas, sin embargo, hemos encontrado un obstáculo: el trilema del barón. El procedimiento en que más esperanzas se han puesto, el más audaz, la ciencia, ha sido considerado defectuoso por algunos teóricos de la ciencia. En último término, la ciencia moderna tiene una limitación, que consiste en no vincularse a la moral, que aparece cuando los proyectos científicos no se subordinan a la ética. ¿Es falso abortar o es antiético? La ciencia depende realmente de la ética. Cuando esto no se acepta aparecen problemas que son los efectos perversos. Toda limitación de la ciencia se nota en que no puede poner sus propias leyes éticas” .

La labor realizada en este libro buscó probar resultados que no eran posibles en épocas anteriores, pero podían haberse obtenido con tan solo metodologizar el conocimiento. Tal es la prueba que se ha hecho en la 3ª parte respecto de la entropía. Un resultado -ético- inmediato es el hecho de que en los sistemas ecológicos, si no interviene alguien humano innovando, será imposible dar estrategias operativas de menor costo, ya que la entropía aumentará por la ley de aumento de la entropía para sistemas cerrados. El universo material es sistema cerrado desde la perspectiva innovadora. Solo alguien que esté fuera puede construir artefactos, pero utilizando la materia prima del universo.

Es además un hecho conocido el que no existe aún una teoría física capaz de compendiar con éxito todos los detalles de la naturaleza que le competen. No por ello, sin embargo, se ha detenido su progreso. Es así como emergió la teoría de las supercuerdas (o modelo estándar), que amplía la estructura del hiperespacio a coordenadas covariantes y contravariantes. Aquí, a cambio, se está intentado modelar situaciones que permitan a los seres humanos progresar en otros dominios, en lo que se refiera al uso de medidas justas para todos.

Estos intentos han sido enfocados de distintas maneras, empero ha sido casi siempre el hilo filosófico el que ha acelerado o frenado tales desarrollos. En el estado actual de las corrientes filosóficas, existen innumerables variaciones y presentaciones. En este documento se ha hecho constar explícitamente esta línea de desarrollo, que sirve de soporte al hilo del discurso y explica por qué estamos atrasados en todas las ciencias que utilizan números para medir sus variables coordenadas, porque faltaban conceptos para ello. Humanizar los costos reinterpretándolos desde la justicia nos ha llevado a hipotetizar de este otro modo la ecología .

Las "tendencias" de que hemos hablado cuando definíamos la actividad ecológica y la entropía, son ejemplo de esta emergencia en la línea socio-antropológica que está revisada, además, en forma completamente natural.

Sólo resta añadir un lema que no necesita demostración (pues es obvio por su enunciado a partir de la definición de actividad ecológica): “Los sistemas ecológicos requieren un mínimo de entropía (complejidad interactiva interna) para funcionar. De lo contrario no podrían tener actividad propia . La magnitud que relaciona ese mínimo deseable de entropía, con la capacidad del entorno para beneficiarse con los bienes que suministra, es la actividad ecológica”.

Sin embargo, las relaciones quánticas (como las deducidas para la física por Heisenberg) se fijan más en si es posible la existencia de valores de esta magnitud en un sistema complejo, como es un sistema ecológico. El logos humano es el mismo y las ideas generales -aunque sean otras ideas que las de la física-, se matematizan como conceptoides y sus respectivos judicoides. La analogía que hemos hecho, hay que saberla hacer, porque no es solo cuestión de que la naturaleza está hecha de física; sino que las macro-analogías son posibles cuando se hacen de cierto modo y no de otro, porque las mismas matemáticas exigen que las propiedades se apliquen solo a invariantes: que sean compatibles según el lenguaje antropológico.


IV.4. Primera conclusión: nivel antropología

Estamos en un momento de la historia de las ciencias totalmente nuevo. Nunca antes la perplejidad se había mostrado tan directa. Lo experimental desplaza directamente a la teoría y lo curioso, es que lo hace con artefactos creados por la misma ciencia que ya no tiene más que dar, con exactitud. Para toda experiencia práctica hay una probabilidad de acertar; y para toda elaboración teórica una probabilidad de fallar. La incertidumbre se quedó para retar nuestra incapacidad.

Vuelvo a citar a Polo, porque insistió varias veces y en muchos de sus libros, artículos y conferencias; lo siguiente: “El tomismo se ha quedado lejos, no nos llega de un modo eficaz, sino que hemos de ir nosotros a visitarlo. Y al entrar en él nos percatamos de que es, hogaño, un nido vacío. Y no porque carezca de comentadores de altura –esto es lo de menos–, ni, insisto, porque esté todo él "refutado", sino porque ha quedado detenido en lo que respecta a la única altura importante, a saber, la altura histórica. Y esto, que el tomismo esté todavía en el siglo XIII, sí que es una falta, precisamente la falta de perennidad. Paradójicamente, los fieles discípulos de Santo Tomás se lo dejan arrebatar, porque lo que aprietan entre las manos se les aleja cada vez más. “Sería una mala tentación, sin embargo, concluir ahora que lo único que, en defensa de su altura propia, puede hacer nuestro tiempo con el tomismo es enterrarlo. Y ello por tres razones: ante todo, porque la aludida visita al tomismo está repleta de utilidad. En esta visita, sin duda, no lograremos respuesta para las preguntas de hoy –en este sentido está vacío el tomismo: vacío de hoy–, pero sí para otras preguntas, que en el fondo son las nuestras, sólo que más vagamente formuladas. En segundo lugar, porque para aprender a formular nuestras preguntas, nada menos que el tomismo. No es que él nos las dé ya hechas, pero ¿cómo hacerlas sin él, si justamente hoy estamos perdidos en el ser? Ciertamente, el tomismo está en la línea que conduce a la salida, aunque él mismo no sea la salida, y aunque, lo que es más importante, no haya avanzado en esta línea. Si la altura histórica del siglo XIII no es la definitiva, es porque hay que salir del enmarañamiento consciente, no porque hayamos logrado algo más valioso en orden a esta tarea que lo que alcanzó Santo Tomás para su tiempo. Se ha acumulado mucho trabajo, pero absolutamente inconducente. Lo que pasa es que la necesidad de salir sigue acuciando. Por eso, hacer hoy metafísica es advertir esta necesidad de nuevo, otra vez, en el carácter histórico –acrecentamiento– de su perennidad. […] “De aquí que exista una tercera razón para no prescindir del tomismo. Y es que nuestra altura histórica no nos es dada en el panorama humano, cultural y social, que nos rodea, ni en el anterior inmediato. La perennidad de la filosofía no ha sido realizada en los últimos siglos. Y sin embargo, nos hemos movido; ¿dónde estamos?, ¿a dónde hemos ido a dar? La especulación elaborada durante la edad moderna no es lo que nos distancia del medioevo. No es el lugar a que nos ha llevado una base firme desde la que tomar conciencia de un alejamiento. Cierto que el alejamiento se ha producido y puede ser constatado, pero no es legítimo, por cuanto el protagonista de la marcha histórica en la modernidad tampoco lo es. En el fondo, lo que pasa es que no nos podemos ocupar de los temas medievales en virtud del interés que ellos tengan, sino desde una instancia decisiva: la necesidad de salir del enmarañamiento consciente. Filosofar no es ocuparse directamente de temas, sino servir a esta necesidad. Ahora bien, la ilegitimidad aludida estriba, más que en un directo "no tener nada que ver con la metafísica", en una agudización del límite mental, de la pérdida del ser, que es, a la vez, para la libertad, situación de pérdida en el ser. Por eso, la necesidad de salida ha de llenarse hoy en tarea de superación de un estadio cultural. Y, en conclusión, el aumento de la necesidad de salida que distingue nuestra altura histórica de la medieval, esté en conexión con la ilegitimidad de nuestra situación de hecho. “Conviene percatarse del carácter ambiguo de esta situación. Podría ser otra, puesto que la marcha histórica en los últimos siglos no depende de una necesidad absoluta. No es en manera alguna inútil señalar que su protagonista pudo haber sido distinto del que efectivamente ha sido. Pero tal como es, la metafísica actual comporta la tarea de dar razón de su pasado. No estamos en una situación, digamos, respaldada por el pasado; los siglos últimos están vacíos del tramo de progreso filosófico que pudo corresponderles; y, sin embargo, no están totalmente vacíos, de manera que pudiera pensarse en reemprender la marcha conectando con el tomismo, es decir, considerando inexistente todo lo que ha ido viniendo luego. Estamos donde estamos, en un lugar histórico inesquivable –no determinante–, y aunque la autenticidad filosófica de la edad moderna tenga que ser inventada "a posteriori", no es menos cierto que es con ella, y sólo con ella, como se debe conectar con el tomismo” .

Se deja ver que alguien que ha descubierto un método para filosofar sobre lo más complejo que existe -la persona- porque ejemplarmente hay Personas en Dios, como ha radicalizado Polo; tiene cierto derecho a llamar la atención de lo que nos falta para entendernos y entender mejor, al Creador. Y además, sugiere revisar el tomismo -in melius-porque él mismo ya lo ha hecho.

Leyendo los escritos de Polo, nos reafirmamos en lo que nos dice respecto a su método y los tomistas: que se entiende mejor y permite hacer teología, y no solo filosofía. Desde la perspectiva humana, Polo se vuelca en casi todos sus libros a todos o alguno de temas de la ética, que según él son: bienes-virtudes-normas. Los tres son necesarios. Si faltara alguno, estamos ante un reduccionismo ético, no es una ética sino un error.

Más bien, afirma: “ … la virtud tampoco es una adaptación como la que permite el modelo morfo-érgico-télico. Se trata de algo más. La virtud es una hiperformalización. Al ser esto un perfeccionamiento interno, intrínseco, afecta a la interpretación de la tendencia misma. “La pura interpretación tendencial de la voluntad es pobre. La interpretación de la voluntad como órexis en la filosofía clásica, si bien es aceptable, no es suficiente. Es evidente que si una tendencia en su misma radicalidad es modificable, es algo más que un simple tender. “En nuestra cultura podemos volver a tomar contacto con la noción de virtud a través de la cibernética. Los ordenadores determinarán la cultura próximamente, y no hay mucha gente que se dé cuenta. Empezar a entender qué modificaciones trae esto, hasta qué punto la industrialización de los siglos pasados está sujeta a una inflexión enorme, es imprescindible, porque quien no sepa funcionar en una sociedad en que la cibernética esté implantada, se queda descolgado, desplazado. “Hay que despojarse de los planteamientos lineales. Una consecuencia de estos planteamientos lineales es, por ejemplo, la burocracia. La burocracia es consecuencia de una sociedad en que la información y el control están poco conectados: las preferencias son fijas, estables. Con esta nueva concepción la burocracia queda desplazada. “Cuando se trata de virtudes, lo que no permanece constante es el punto de partida. El movimiento puede apartarse de un desencadenamiento para dar lugar a otro. Hay, pues, tres tipos de procesos: el proceso lineal, el morfo-érgico-télico y el proceso a nivel de virtudes (aunque la virtud propiamente no es un proceso). Hay posibilidad de movimientos divergentes, y eso quiere decir que algunos se inician y otros no, y esto intensifica la libertad que ya no es puramente de elección; no es un conjunto de posibilidades, sino una posibilidad modificada en su propio arranque. “Con virtudes la conducta humana es distinta a si no las tiene. La conducta humana se hace distinta en el sentido de que otras posibilidades se cancelan, pero porque ya no tienen inicio. ¿Qué sería lo más característico? La unidad de control; es la voluntad misma, y si la virtud es perfeccionamiento de la voluntad, es perfeccionamiento del control” .

Lo que nos anima a motivar al lector a una ardua tarea: hay que re-elaborar la ética, en todos sus niveles y para todas las actividades pues ya no es solo un nuevo planteamiento, sino que una revisión a fondo; donde los fundamentos que la constituían exigen una mirada distinta del fin mismo, que se eleva por encima de lo anteriormente pensado. Pero Polo sigue afirmando que las normas son para la libertad y no la libertad para las normas. Lo que se incrementa es la capacidad de ser libre porque se cumplen las normas buscando fines más altos, mas otros: “El hombre no puede hacer modificaciones en la naturaleza externa sin cambiar él mismo, porque él mismo es distinto tras realizar la actividad. Cuando esto no se tiene en cuenta, surgen problemas sociales, como por ejemplo, considerar al individuo meramente como mano de obra. Si no se considera que al hombre, como primer destinatario de la acción le sucede algo, ya sea bueno o malo, surge esa concepción” .

La ciencia tampoco puede ser la misma cuando se revisa su situación desde la ética. Se piensa que la bondad o la maldad de una acción científica no existen porque la ciencia es neutral. Polo afirma que no es así porque hay que buscar más bien en lo que ya está bien: “Yo no aspiro sólo a querer algo, sino a quererlo mejor, aspiro a lo mejor como un modo mismo de tener que ver con lo mejor. Esa aspiración doble es característica de la voluntas ut natura, que no sólo tiende al fin, sino que tiende a tender más al fin, y esto es fin para ella, lo cual es una perfeccionabilidad intrínseca que tiene la voluntad: eso es la virtud” .

La prueba es que la ciencia ha cambiado, pero debe cambiar más. Los mismos espacios de coordenadas ya no son los que se acostumbraban utilizar como referencias firmes y seguras. Hay que pensar en más dimensiones y nuevas configuraciones de esas dimensiones. La teoría de conjuntos ya no es más, la forma segura de deducir resultados certeros pues su propia formalidad lógica está seriamente cuestionada -según hemos visto- en casi todo este libro.

La unidad de vida debe estudiarse mejor, porque incluso la conciencia de pecado se ha perdido con los siglos por el bajón de nivel de las universidades, por no investigar como debiera haber sido prudente, todos los detalles del mismo; empezando por el pecado original, la Inmaculada Concepción, etc.

Sin salir todavía del tema, habría que estudiar el mal. cómo empezó, cómo se instaló, …, la muerte (que Polo señala como la desaparición del límite mental, según su método). Y todas las características que debería tener un mundo sin pecado original ni pecados personales. Las consecuencias éticas y para los que no creen en ello, etc.

El cuerpo de Cristo es de muchos (Iglesia) y como dice Benedicto XVI en su libro Jesús de Nazaret – 1ª Parte: “En primer lugar la dimensión cristológica. Orígenes ha descrito a Jesús —a partir de la lectura de sus palabras— como auto-basileía, es decir, como el reino en persona. Jesús mismo es el «reino»; el reino no es una cosa, no es un espacio de dominio como los reinos terrenales. Es persona, es El. La expresión «Reino de Dios», pues, sería en sí misma una cristología encubierta. Con el modo en que habla del «Reino de Dios», El conduce a los hombres al hecho grandioso de que, en El, Dios mismo está presente en medio de los hombres, que El es la presencia de Dios” .

Investigaciones como esa, evitan malinterpretaciones sobre Jesús y su Iglesia. Cómo fue la separación -en la historia- y el análisis de las previsiones y sus consecuencias; es parte del estudio que falta realizar con mayor fundamento teológico, como lo hiciera Benedicto XVI en su momento. A nuestro parecer coincide en muchos aspectos con el método poliano, el que hemos usado como fuente inductora para el estudio científico de la ecología, en que hemos sustentado este libro. Y repetimos que parece que Polo se interesó en sus libros, como vemos por el modo en que recurre a sus escritos, muchas veces.

Resumiendo, es muy importante en la historia de la humanidad, y falta investigación que se vuelque a lo que debería ser la realidad universitas a futuro. Además, como se ha dicho más arriba, falta un recopilador de información denotadamente universitario, con el perfil que los siglos puedan darle; que acopie los conocimientos -propios y ajenos- de las universidades. Que sea un ejemplo institucional en todas las épocas. Cómo desearíamos conocer un invariante para lo cualitativo, que no lo hay.

Pero por sobre todo ello, que se busque como fin -en el paso universitario de la vida- el conocimiento verdadero del ser, su existencia, su trascendencia y sobre todo la coherencia de vida, que será el fruto de una solvente formación, académica, moral y antropológica.

Hay un espacio del dominio de lo físico-vital -como el que se muestra en este libro- al que se pudo llegar gracias al método de Polo; pero se debe llegar a mucho más (y mejor si se descubren otros métodos, por lo necesitado que está -y espiritualmente urgido- el mundo actual de más desarrollo pensante como el mencionado más arriba).

Este espacio es deducible -en directo- de las matemáticas modernas, y se intentó mostrar todas sus aristas (aunque esto nunca se podría asegurar, porque el teorema de Gödel lo demuestra), para motivar que los jóvenes de las universidades sigan en la búsqueda del dominio de lo físico-vital; pues vienen días en que se podrían sentir extraviados y sin brújula que los oriente, debido a lo indecidible que puede llegar a ser la técnica si no se dispone de información como esta. Para ellos es este libro. En el encontrarán la mejor explicación -actual- de esa maravilla que es la vida, y dónde leer más. Que hay que aprender que solo entendiendo y profundizando en el estudio del Creador, se llega a entender correctamente su creación.




Bibliografía.-

Alvira R., Reivindicación de la Voluntad, Pamplona, EUNSA, 1988.

Aoki M., A New Stochastic Framework for Macroeconomics: Some Illustrative Examples, 2005.

Benedicto XVI, Caritas in Veritate, Librería Editrice Vaticana, 2009.

Benedicto XVI, Jesús de Nazaret.

Calleja Tomás. La Universidad como Empresa Una Revolución Pendiente, Colección Empresa y Humanismo vol 5, 1991 - RIALP.

Chiang Alpha C., Fundamental Methods of Mathematical Economics.

Colander David, In Complexity and the Teaching of Economics, 2000, Cheltenham / Northampton: Edward Elgar.

Debreu, Gerard; Theory of Value, 1959

Eisberg - Resnick, Física Quántica.

Eronini, Umez; Dinámica de Sistemas y Control, 2011, Thomson.

Fernández Pablo, CIIF - IESE WP N° 511 July 2003.

Feynman, Leighton, Sands; The Feynman Lectures on Physics, 1964, Addison-Wesley.

García, Juan A., La Doctrina de Polo acerca de la Luz, y su papel en el Universo y para la Vida.

García, Juan A., La Razón Humana según Leonardo Polo, UMA – 2010.

García, Juan A., El Conocimiento de lo Físico, según Leonardo Polo.

Giffin, From Physics to Economics: An Econometric Example Using Maximun Relative Entropy, 2009, Princeton.

Granger W. y Engle R.(1987): Cointegration and error correction representation, estimation and testing, Econometrica # 55. Págs 251-276.

Greene W. H., Econometric Analysis, 2011.

Henderson - Quandt, Microeconomics, 2010.

Hurwicz L., Implementation and Enforcement in Institutional Modeling, 1993, Barnett.

Krugman Paul, Journal of International Economics, 1979 (art. 10 pp).

Le, Singleton and Dai (July 2009) Discrete-time Affine Term Structure Models with Generalized Market Prices of Risk.

Llano Alejandro, La Nueva Sensibilidad, 1987 - EUNSA

Lucas, Models of Business Cycles, 1982.

Matheu V., Filosofía del dinero, 1991, Rialp.

Nash J., Two-Person Cooperative Games, 1953, Econometrica.

Padial, J., Antropología del Tener según Leonardo Polo, 2000, Cuadernos de anuario filosófico, Universidad de Navarra.

Phelps Edmund, Moral Hazard and Independent Income in a Modern Intertemporal-Equilibrium Model of Involuntary Unemployment and Mandatory Retirement, 1998, in Chichilnisky, editor, Markets, Information and Uncertainty.

Polo L., Filosofía y Ecología, 2013, EUNSA.

Polo L., Antropología Trascendental, tt. I y II, 2004, EUNSA.

Polo L., Curso de Teoría del Conocimiento, tt. II y III, 2003, EUNSA.

Polo L., El conocimiento del universo físico, 2008, EUNSA.

Polo L., Ética, Rialp.

Polo L., ¿Quién es el hombre?, 1995, UDEP.

Pérez López, J. A. Fundamentos de la Dirección de Empresas. Rialp.

Pryor F., Economic Evolution and Structure: The Impact of Complexity on the U.S. Economic System, 1995, Cambridge University Press.

Ratzinger Cardenal Joseph, Introducción al Cristianismo.

Rospigliosi J., Dirección para Imprevistos, Stella Matutina, 2011.

Rospigliosi J., Publicaciones Internas . Stella Matutina; 2001-2010. Conjunto de temas relativos al conocimiento del ciclo ecológico y las magnitudes ecológicas (incluye el Sistema Dinámico de Costeo FIMA, 2006).

Rospigliosi J., Teoría Analógica de Dinámica Industrial, PUCP 1994.

Rospigliosi J., Teoría para calcular la Constante Característica de Sistemas Informátcos, PUCP 1996. Premio de Investigación.

Samuelson - Nordhaus, Ecología.

Spivak, Cálculo en Variedades.

Stella Matutina, Educar para Imprevistos, Memorias del 12° Congreso Internacional de Filosofía de la Educación, Bogotá - Colombia, 2010.

Von Newman & Morgenstern, Games Theory and Economic Behavior.

Williamson O., The Mechanisms Of Governance, 1996.

















Para mayor información, dirigirse a: Patricia Loredo jrfpsm@gmail.com (00-51-1-250 0210)



Otras consecuencias de la quantización

Pero aún si la quantización anterior fuera muy compleja y onerosa, se sabe -por los estudios que se han realizado respecto al núcleo atómico-, que existe una quantización adecuada para su propio contexto. Tales representaciones (sobre todo del núcleo atómico) han abierto otro gran campo de investigación, y nos ayudan a visualizar cómo puede ser la naturaleza quántica de los estados básicos de la ecología (i.e., una representación dada por conjuntos discretos de números).

Ahora, para un contexto ecológico, estas conclusiones le dan fuerza numérica impresionante, a la vez que sorprendente a la coherencia ecológica . Se concluye que existen números que deben utilizarse para el monitoreo de lo ecológico. Inclusive se dan las pautas para su optimización: regirse por ciertos valores de números, que no tienen por qué ser los mismos –genéricos- como es el caso del núcleo atómico; sino que dependerán de cada ecología que, en incluso en general, tienen grandes diferencias estáticas, pero no dinámicas.

Esta es la diferencia. Haber obtenido relaciones dinámicas, asegura que valen para distintos momentos y eso las hace más aplicables a todos los casos. No nos estamos refiriendo a cada caso que son -humanamente- distintos porque cada ser humano decide a su criterio, muy personal; sino a la parte medible de la decisión, que lleva contenido físico-biológico.

Además de abrirse todo un nuevo mundo de posibilidades para la investigación de organizaciones y sus procesos ecológicos asociados, se refuerza la base antropológica que ha sostenido todo este libro pues la correspondencia con números enteros que queda establecida, da una indivisibilidad, unidad y necesidad a los individuos asociados a un sistema ecológico justo.

Estos números tienen que ser enteros. De la previsión que exista una constante para todos los sistemas, lo que se va a deducir por fin en este capítulo, emerge con cierta evidencia que la existencia de invariantes tenga que ver con una especie de paquetes “configurados” o notas, en el lenguaje poliano; que son los movimientos continuos, en ese mismo lenguaje. Esas notas comunes a todos los movimientos circulares -que las propagan, en el contexto ecológico- es casi evidente que formen “paquetes” que son representados en la mente como “ideas generales” que emergen de su mismo contexto. La compatibilidad entre ello y lo que la ciencia demuestra, se ha hecho patente en las líneas anteriores, en este escrito.

Inmediatamente surge la pregunta: ¿Qué hay del spin ? ¿Existe un análogo a éste? Pues bien, de lo que sabemos de la quántica atómica, el spin es una necesidad cuantitativa para los estados ligados de un sistema quántico, lo que se tuvo en cuenta al deducir la distribución de Fermi-Dirac.

Es razonable suponer que para los inputs (o outputs) ligados a sistemas ecológicos exista una magnitud comparable en calidad y cantidad. Es entonces lógico razonar primero: ¿qué magnitud puede existir tal que -al variar su signo- se interprete como la coherencia (por el giro) ecológica de un input y siga coherente consigo misma si se le vuelve a cambiar?. Puede ser hacia arriba o hacia abajo y su dirección no puede significar otra cosa que ser considerado como input o como output (distribución de Fermi), según se convengan los signos.

Además, la propiedad del spin parece culminar un estado de necesidad de simetría para los átomos. En nuestro caso de sistemas ecológicos, ocurre algo parecido a la hora de conseguir output, porque puede ser interpretado como input también. Pero además, la interpretación magnética sabemos que está en la naturaleza procesual (coherencia en sí misma) de la explotación tecnológica.

De aquí se deduce que el número que podría representar al análogo del spin del electrón viene a ser algo así como en qué etapa de un proceso se encuentra el input. Una vez que se está terminando el procesamiento de un input, debe pasar a ser insumo para otra etapa más de procesamiento (coherencia) y así sucesivamente. Estas características, además, no son sólo tangibles, sino también administrativas, es decir, no se necesita input in situ mientras haya producto en un subsistema, sino que administrativamente se debe asegurar su ingreso al subsistema, y a su debida cantidad-tiempo, apenas esté libre el subsistema en ciernes según el input, que debe ser coherente ecológica y administrativamente.

Esta es la analogía del spin, o autocoherencia, podríamos llamarla. Es lógico que sea así, pues al cambiar de subsistema, los ejes coordenados de referencia se hacen -automáticamente- contrarios desde otro centro de referencia. Si bien un impulso puede mantener su signo, su naturaleza de input (giro) o output no puede; éste pasa de menos a más o de más a menos. No hay otra posibilidad. El estudio de espinores es un capítulo completo con muchos matices, como se comprenderá, en quántica. Recomendamos leerlo .

Sólo para culminar este acápite queremos hacer una precisión teórica. Al aumentar el número de dimensiones covariantes (además del tiempo contravariante), aparecen operaciones matemáticas como las de inversión tensorial, rotación de ejes coordenados, etc.; que eran impensables cuando las coordenadas eran de menor número. Estas nuevas operaciones ha sido difícil descubrirlas, como lo comprueban las fechas de su descubrimiento: 1930 para las ecuaciones de Dirac y 1957 para las de Yang y Mills . Es de esperar que con estas motivaciones -no solo físicas- muchos jóvenes científicos se vean motivados para aportar desarrollos multivariantes.

III.6.3. La Constante Universal de la Ecología

La más conocida aplicación de la distribución de Bose-Einstein, es para la medición de radiación electromagnética que se encuentra en equilibrio térmico . La radiación tiene en física la propiedad de que sus momentos cinéticos (que equivalen a las magnitudes que hemos llamado coherencias ecológicas en este libro) son cantidades enteras, ya que está completamente constituida por fotones (véase la 2ª parte de este libro). Por ello, un análogo de la radiación en este caso, es el espacio coordenado de inputs . El mecanismo que garantiza el equilibrio de un sistema físico es la absorción y emisión de fotones por el entorno que encierra a la radiación. Por analogía, en las interacciones ecológicas, las calorías de los outputs son las que facilitan que los agentes de la ecología (sistemas, subsistemas) exploren e intercambien esas calorías, según sus necesidades, como repetitivamente se ha venido advirtiendo.

Igualmente, el número de fotones en un gas fotónico (llamado gas de Bose en la teoría de la termodinámica estadística) es variable como lo es el número de bienes o outputs en un sistema ecológico. Es sabido que el costo (energía de los fotones) está asociado a una característica, que es su frecuencia (los ciclos no tienen por qué ser fijos), por la relación E = ℏ.. Tal asociación se da en virtud de la magnitud asociada, es decir, el ciclo -la parte imaginaria de un número complejo- y el costo de la explotación (la parte real). A más procesamiento, más costo. Con lo que la analogía tiene más aplicaciones de las supuestas hasta aquí.

Para problemas de control óptimo, por poner un ejemplo destacado en la teoría de sistemas de control, se aplica el cálculo de variaciones (como el presentado en el capítulo III.1: principio de mínima acción) con el principio de máximo de Pontryagin; y la programación dinámica de Bellman con principio de óptimo. Así también, se utilizan, para problemas avanzados, los de sistemas con control adaptable y reguladores autosintonizables. El modo de enfrentar la solución ha sido a través de modelos cuadráticos o lineales. Sin embargo, desde la perspectiva matricial, las soluciones que se obtienen no parecían viables realmente, pues casi siempre incluyen una o varias soluciones de números complejos, que implican frecuencias del tipo anterior, es decir, aparece la variable  Un número cíclico.

Afirmamos que no es casualidad. La correspondencia entre los ciclos y sus costos se confirmó con nuestros experimentos . Lo que pasa es que esa correspondencia se da al más alto nivel: involucra los esfuerzos de la alta dirección, que casi siempre son difíciles de obtener. Y así, hasta niveles operativos. Se requiere bastante destreza operativa para saber distinguirlos e incluso, para saber utilizarlos.

Como se sabe, todo sistema multilineal (p.ej., de control óptimo) puede reducirse a un tensor diagonal de los valores propios respectivos. Como hemos dicho, nuestra métrica no coincide con otras (como la de Debreu), pero a todas ellas puede asociárseles un tensor y efectuárseles semejante reducción. Para nuestros tensores co-contravariantes, sus componentes son en general, números complejos. De ahí que sus valores propios sean también representables por frecuencias (números complejos) propias.

Con esa afirmación, quedaría asegurada una medición de los costos en una ecología, que coincide con cierta independencia del tiempo, dado que está en relación directa con una magnitud cuyo valor numérico se mantiene en el tiempo. De la relación E = ℏ., quedaría por medir la constante ℏ -muy importante- invariante, llamada constante de Planck en la física quántica, y que corresponde en este modelo a la constante universal de los sistemas ecológicos.

Habíamos dicho que los inputs ecológicos se asemejan a las características de este gas de Bose, para los efectos que en este libro nos han ocupado. Según la distribución de Bose, deberíamos encontrar el valor , del potencial ecológico, y del costo k. Pero dado que los costos asociados a un input ecológico -ya explotado- se intercambian por energía, y ésta no depende de la energía que se utilice para intercambiarla por otro input -cada input está representado por el costo en energía de disponer de otro input o producto- es independiente -desde esta perspectiva solo de energía- del otro; por ello, el costo interno (que también es una magnitud estadística) debe ser mínimo (  0).

La condición anterior da, para esa magnitud estadística: el costo potencial, que puede ser puesto como función de la actividad ecológica, interacción con su entorno, y ahora, el número de bienes; un valor nulo para . De aquí se obtiene:

nk = 1 / (eℏ.k/T - 1) ,

que se conoce como distribución de Planck.

Suponiendo, ahora, que estamos ante una ecología grande -como puede ser una corporación o un país, al que le estamos midiendo el costo de explotación pero enfatizando el espectro de inputs y outputs- se deduce (en los textos de electromagnetismo y de diferentes maneras) que el número de posibles modos de obtener dicho espectro en un volumen V del espacio de fases, está dado por:

const * V * 2 . d ,

donde d es el intervalo de unidades que se está considerando.

Ahora bien, el número de outputs producidos por toda esa ecología, será igual a nk por el último número, lo que al ser multiplicado por ℏ, da finalmente el costo (precio) promedio de producir bienes en la ecología:

3d dEn = const ***** eℏT - 1

de donde puede obtenerse ℏ ajustando las curvas de distribución del costo promedio de explotación en la ecología que se estudie. Queda propuesta la investigación de efectuar los ajustes matemáticos y gráficos necesarios para comprobar el valor de ℏ en múltiples casos comunes de las grandes ecologías mundiales.

Para quien tiene que lidiar con innumerables cifras decimales, la constante le asegura que hay un límite al número de cifras significativas que debe considerar. Algo como esto puede ser de gran alivio para los que tienen que “pelear con los centavos”. Coincide, afortunadamente, con la intuición que tenemos los seres humanos al respecto. También la energía mínima a explotar, y la masa tecnológica están vinculadas a tal constante universal.

El ajuste de la curva graficada y la teóricamente más aproximada, debe dar el valor de ℏ. Al mismo tiempo, pueden irse obteniendo otros parámetros de referencia como la T de equilibrio y otro factor c, que hasta ahora no habíamos destacado pero fue mencionado ya en el capítulo 1, al hablar de la velocidad de la luz. Esta constante c (=const) es importante y ahora nos detendremos un poco para hablar de ella.

Toda ecología requiere medir los costos de energía en unidades adecuadas. La información, circula muy rápido, aunque dependiendo de los intercambios energéticos entre los sistemas de la ecología. Pero la luz tiene una propiedad muy especial en las transformaciones de intercambio que hemos mencionado en el capítulo 3 (acápite 2): su velocidad invariante (aunque sea constante en las ecologías y su constancia sea explícita en las transformaciones de Lorentz). La luz lleva en sí una información, pero hoy por hoy ocurre que la información puede viajar más rápido que la velocidad de la luz. Esto que parece una aberración, es factible; porque si bien un rayo de luz no puede ir más rápido que la luz, si se emiten p.ej. 7 rayos de luz a la vez y cada uno lleva un bit de información, llegaran a su destino 7 bits a la velocidad de la luz. Es decir, han viajado 7 bits a la vez, todos a la velocidad de la luz; pero la información recibida ha sido 7 veces más que la que se recibiría con un solo rayo de luz que llevara un bit de información. No estamos diciendo que se puede ir 7 veces más rápido que la luz, sino que 7 rayos viajan a la velocidad de la luz, pero el resultado es que se obtiene 7 veces más información (todo esto es aparte de la capacidad -en GHz- del oscilador-fuente). No era nuestro deseo tener este razonamiento tan largo, pero es importante precisar esto último con todo detalle para evitar confusiones tecnicistas.

Esta constante c es por ello, fundamental para avanzar en el desarrollo de una ecología dinámica y tampoco ha sido evaluada aún (actualmente la información tampoco viaja a la velocidad de la luz por muchas razones, entre ellas, que los medios informáticos siguen siendo no luminosos). Su existencia es tan obvia como la existencia de la constante universal de la ecología, pero hasta ahora no había sido descubierta por las limitaciones ya dichas repetidas veces en este libro: las mediciones numéricas, del orden que sean (físicas, biológicas, ecológicas, etc.) están sujetas a las leyes de los sistemas de unidades como lo están a las leyes de la física (la diferencia es que las segundas eran estáticas, mientras que las primeras siempre debieron ser dinámicas para poder ser aplicadas luego de quedar sólidamente definidas, esperamos que esto cambie pronto para alivio de los marginados).

La aparición del cubo de las frecuencias de producción de los bienes libres de una ecología en la distribución de Planck, tiene una explicación desde la perspectiva cibernética de los espacios de estado; pero para poder utilizar los datos actuales de la ecología se requeriría conformar dicho espacio de estado según las correlaciones actuales que no poseen carácter tridimensional, sino s-dimensional dependiendo de la cantidad de inputs-outputs considerada, o de las variables macro-relacionadas por las mediciones ecológicas deseadas. Hay mucho que recorrer todavía en este sentido para poder efectuar la medición exacta de la ℏ ecológica; pero es innegable su existencia, y a partir de esta existencia es que hemos deducido todo lo anterior (y lo que sigue).

Antes de pasar al capítulo final y que relaciona todo el bagaje de definiciones nuevas que hemos dado para poder asegurar demostradamente lo dicho en la introducción; diremos algo -que quedó pendiente- sobre las distribuciones ecológicas de inputs y outputs. No tienen que llamarse así, incluso a veces se utilizan curvas más elaboradas, pero en resumen, eso son.

Distribuciones de Explotación Ecológica

Ya no podremos hablar de sólo curvas estáticas de oferta y demanda. A partir de los análisis dinámicos presentados, la distribución de Planck se muestra como la más adecuada para reflejar la verdadera naturaleza del comportamiento de la cantidad de inputs y outputs de cierto costo que se intercambia en una ecología a través de su explotación.

Dicha distribución, servirá para detectar comportamientos dinámicos reales de los mercados de oferta (ecologías de inputs) y demanda (ecologías de outputs). Como se ha dicho, las distribuciones ecológicas para los bienes que resultan de explotar una ecología, son las de inputs y outputs. Tienen entonces, la siguiente forma:







Figura 6.- Nuevas Curvas - Distribuciones- de Oferta y Demanda

En las abscisas se despliega el costo (recuérdese que E / ℏ) y en las ordenadas la estadística promedio de ocurrencia para ese costo, es decir, no es otra cosa que la cantidad de input o de output (en promedio, como frecuencia estadística). Esto coincide con la tradicional curva precio-cantidad de la economía, pero entendida dinámicamente.

Ya no son solo números reales, sino distribuciones reales de números complejos: en un espacio-tiempo ecológico. Un espacio que mide los inputs y outputs en el tiempo. Pero el tiempo como variable contravariante, no como las otras coordenadas, que son covariantes. La estadística permite acceder a ese espacio de otro modo, que es el de la mecánica quántica. La métrica es distinta pues se ajusta con números complejos.

La curva discontinua es la distribución de Planck para los inputs y -como se puede observar- las intersecciones se dan en más de un punto. Esto significa que la naturaleza de un bien no es necesariamente (como se estratifica en economía) siempre superior o inferior, es decir, un mismo bien puede ser inferior y superior dependiendo del rango de valores de su distribución de Planck y no de un comportamiento típico, pues éste no prevalece en todo el espectro.

La segunda intersección, en este caso, es la típica reconocida y descrita en los libros de economía para los inputs y outputs tradicionalmente intercambiados (demanda decreciente y oferta creciente). Si se desean simular marcos de referencia distintos (que ahora los resume la actividad ecológica, y no hay diferencia de modelo clásico o neoclásico, ni del tipo de bienes) se varía la actividad ecológica y se obtienen otras curvas.

Todo este nuevo universo de curvas y comportamientos se debe a estructuras dinámicas que no son, de ningún modo, triviales. Podemos extrapolar estos resultados a personas y/o instituciones de la ecología, con lo que mostrarían cómo se manifiesta el rango de sus actuaciones ecológicas desde la perspectiva de una misma valoración dinámica del esfuerzo explotador (dado que todos nos regimos por la misma constante universal). Según algunos estemos de uno u otro lado de la cúspide , actuaremos de uno u otro modo al interactuar con los bienes de explotación -si somos consumidores- o con los demandantes -si somos explotadores-.

Lo ideal sería que ambos espectros (así se les llama a estas distribuciones porque en las abscisas se miden ciclos que son proporcionales a los costos como se ha dicho) coincidan: el valor energético deseado por los consumidores tiene que ser el mismo para toda la ecología y para la explotación ecológica también. Sin embargo, las curvas se desplazan hacia arriba (y su cúspide hacia la derecha) a medida que aumenta la actividad ecológica T; por eso es lógico que haya un desplazamiento pequeño -hacia arriba- ya que la oferta, normalmente, se anticipa a la demanda (ley de Say), con el consiguiente aumento (la cúspide sufre un pequeño desplazamiento hacia la derecha) del ciclo representativo, lo que confirma que la tecnología de la explotación es efectivamente más costosa.

Sectorizando las curvas, la actividad ecológica (la cúspide) puede variar, pero en general, no variará . Hay sectores que pueden tener más actividad ecológica y otros, menos; pero vamos a suponer por un momento que la actividad es la misma en todos los sectores. Como debe ocurrir lo mismo para la demanda, cuya cúspide se encuentra un poco a la izquierda, las intersecciones se darán en zonas más planas (elásticas) o más verticales (rígidas) y para distintos costos. Ello dependerá del tipo de ecología.

Además, el eje de las abscisas tiene saltos, aunque sean muy pequeños -en la naturaleza es del orden de 1,054 x 10 –27 (erg-seg), es decir, una cantidad muy pequeña- por lo que pasó desapercibida muchos siglos. Pero que el continuo de pequeñas unidades de explotación ecológicas no pueda considerarse realmente continuo, lleva implícito una serie de consecuencias como las que estamos viendo, y sobre todo, que se escapa mucha energía de la ecología por no haberlo contemplado así antes. Esa energía pertenece a ciertos actores de la ecología -que no lo están recibiendo- por culpa nuestra, por no haber sido más exigentes con nosotros mismos (más justos) mucho antes que hoy.

Que la constante exista tiene más consecuencias que saber cuánto vale . Lo mismo ocurrió en la física y fue forzoso encontrarla por la necesidad de cubrir muchos vacíos teóricos. Después de ello, se fueron explicando uno a uno todos los aspectos contradictorios incluyendo a la misma entropía, y fue así como se consolidó la quántica.

La tendencia máxima (la cúspide de la distribución de Planck) depende directamente de la actividad ecológica T. Se puede, por lo tanto, estudiar curvas como las de distribución del ingreso de una ecología para determinar su actividad ecológica y compararla con otras para así obtener su nivel entrópico. Veremos a continuación la importancia que tiene para el bienestar de las ecologías este tipo de evaluaciones.

La conclusión es contundente: las coordenadas costo-cantidad y todas las de medición ecológica varían de modo discreto y no continuo, pero era casi imposible darse cuenta porque la separación entre una y otra es quántica, muy pequeña. Ello no obsta para que todos los cálculos se puedan realizar -para ciertos casos- suponiendo una variación continua, como en la matriz estadística (cfr. capítulo III.4.5).

La actividad ecológica está directamente relacionada, por ello, con la entropía mínima necesaria en una ecología para explotar los inputs/outputs que consumen sus actores. La entropía (aunque sea sinónimo de desorden) no es mala, pero que sea muy alta, con respecto a los demandantes sí, porque los costos son más altos (o lo que es lo mismo los outputs son más caros a lo que deberían ser). Es decir, se pueden establecer con mayor exactitud, razonamientos cualitativos, de tipo político (mirando a la justicia) y no sólo ecológicos.


CUARTA PARTE






Capítulo Único- Conclusiones

Las conclusiones y su orden en esta Parte

Como asegurábamos al comienzo de este libro, en su 1ª Parte, lo escrito solo intenta re-poner el lugar que merecen las universidades histórico-culturalmente contextualizado; porque se ha perdido el norte que las orientaba y no se sabe explicar bien cómo fue que ocurrió esto.

Para centrar antropológicamente el asunto, se recurrió al método antropológico del filósofo Polo que lo denominó -Método del Abandono del Límite Mental- como se explica en la 1ª Parte. Gracias a su método, Polo logra redescubrir la metafísica desde el sitio que siempre tuvo, pero no se detectó como su tema intrínseco: lo que está más allá de lo físico (de aquí el vocablo, meta. Polo dice que Andrónico de Rodas le puso ese nombre por ser los libros que estaban después de la Física, pero no pudo estar más acertado).

Porque también ese método descubre que la metafísica viene como absorbiendo temas que no se le adecúan con precisión y, quizá por ello, se han tratado en oblicuo: los temas humanos y los meta humanos como la esencia y la libertad humana. Además, se apoya en Tomás de Aquino -para hacerlo correctamente, afirma- desde la distinción acto de ser - esencia. Descubre trascendentales, no metafísicos sino humanos; pero a los primeros, los pone en su correcta dimensión.

Hemos desarrollado, en base a estas pautas filosóficas de alto vuelo , y siguiendo a Polo; una explicación de cómo ocurrió el declive de las universidades modernas y posmodernas, que las llevó a una clara dedicación a temas menos coherentes con su exitosa, inaugurada, propuesta inicial; que permitía desarrollar temas entre los que brillaba la dedicación a las ciencias teológicas y filosóficas, como destacadas materias en las cuales volcar todos sus esfuerzos humanos.

¿Cómo con lo humano-natural se puede llegar a lo divino-sobrenatural? Fue quizá la pregunta que se hicieron y, además, creyeron firmemente poder contestar. Se organizaron en trivium y cuadrivium los estudios que lograrían esos tan elevados fines; pero el método para estudiar dichos temas no quedó claramente en la línea de esos fines, decayendo poco a poco hasta la firmeza que da la ciencia experimental; respaldada por pensadores de primera línea que se apoyaron en su época.

Vimos también que, dentro de lo humano, se debe aclarar lo que corresponde y separa las ciencias y artes. Y primero, si existe uno o son varios los saberes primeros: las filosofías primeras. Por ello, Polo precisará que en el inicio de su método está el encuentro de los trascendentales humanos y cómo es que tienen que ser otros que los trascendentales metafísicos. Que la antropología es una filosofía tan primera que supera a la metafísica por tratar a la persona, que es lo más elevado que existe porque Dios es Tres Personas.

En realidad, aclara contundentemente que no era necesario hacerlo, pero los errores -y los avances filosóficos modernos- se prestan a confusiones que hay que precisar y/o corregir. Que es oportuno hacerlo porque una pequeña desviación hoy, puede ser significativa mañana.

En resumen y llegando a las conclusiones propuestas al inicio del libro, el abandono del límite mental de Polo, nos ha permitido como método apoyado en las causas aristotélicas, aclarar las tres cosas:

Que el modo de estudiar y desarrollar la Verdad, fue escapando muy sutilmente a Ella, debido a los métodos con que se realizó. Fue así que sus conclusiones, aunque sólidas y realmente importantes -además de representar un desarrollo veraz y notable en su tiempo- fueron como “rebajadas” de su verdadero nivel.

Que ése es el modo en que debió desarrollarse el estudio a nivel utilitario y práctico como lo viene demostrando el enconado y progresivo avance de la técnica, que prácticamente desplazó a la Verdad entre los estudiantes y profesores universitarios, y

Que se debe “elevar” el nivel de las asignaturas que se dedican al estudio de las verdades más profundas, aprovechando que el método poliano ubica claramente cada una en su nivel. Ello no obsta para mejorar y aplicar otros métodos que accedan realmente a la Verdad. Y, finalmente, qué se debe corregir para ello.


Considerando estas cosas, la conclusión más cercana a la explicación de cómo recuperarse de tal “caída” en la búsqueda de la Verdad universitaria, parece que radica -como decimos- en el excelente nivel alcanzado por las verdades universales (de aquí la palabra universitas) que pretendían explicar las verdades más altas, que no eran aun de primer nivel, pero eso buscaban.

Fue así que el que llamamos en este escrito “segundo nivel”, el de las ciencias experimentales, con el correr de los primeros siglos universitarios, se desarrolló en base a esos avances (los del que se creía “primer nivel”), y más bien correspondían a un nivel casi físico (y no meta-físico). Lo prueba que los principios de dicha meta-física eran lógico-físico-lingüísticos. Hay muchas razones pero quizá la más obvia sea que se buscaba explicar lo inexplicable, en la creencia de que era “sobrenatural”; es decir, algo así como explicar la magia, cosa que era claramente natural y solo requería explicaciones físicas.

Aunque no todos cayeron en esos vaivenes de la cultura, ya lo hemos dicho antes; la universidad fue a la deriva por no tener un norte, un método que autocorrigiera las desviaciones hacia los niveles de segundo orden (como estamos denominando aquí al nivel de las artes y las ciencias).

Parece recomendable por ello asomarse de modo inverso a las conclusiones. Los últimos tres siglos lo demuestran, como se ha venido advirtiendo reiteradas veces en este documento. Se sabe más cómo es la técnica y cómo se puede mejorar para otros contextos naturales que los siguientes pasos para los que ese progreso del segundo nivel, están puestos.

Así pues, el primer paso que daremos será para explicar la conclusión 3); luego, en el siguiente acápite, intentamos explicar con más detalle por qué la conclusión 2); y finalmente, dejamos una posible hoja de ruta para recuperar el nivel que se propone en la conclusión 1).  

Tercera conclusión: nivel operacional

Vemos cómo nuestros antepasados pensantes buscaban lo que fuera más práctico para nosotros. Ello no les costó poco (como a nosotros leer un párrafo por ellos escrito), sino que se dejaron la vida. No tenían las facilidades que nosotros tenemos como comprar un “medidor” y usarlo.

La referencia que tenían era muy alta. Los ejemplos de real heroísmo dejados en la cultura por los antepasados griegos, mostraban la certeza de que habían sido “mejores” -en el sentido de más virtuosos- que ellos. La redondez de la tierra, medida sin otros instrumentos que sus sentidos y la naturaleza pura, fueron poco difundidos y además, “dudosos” (S III a.C.).

Pero, volviendo al siglo XIII, el de las universidades; el ideal de servir al rey, sea quien fuere, y la defensa de las necesidades familiares: alimentación, salud y vivienda; son los que primaban para desarrollar útiles implementos a favor de la vida y tener más tiempo disponible para el ocio y para pensar en cosas mayores. Todo ello, en un mar de amenazas que podían ser tanto naturales como forzadas, prevalecían sobre las estructuras destinadas a pensar en fuerzas no-naturales o que no rendían beneficios tangibles, futuros o inmediatos (como la magia).

Los frutos de quienes verdaderamente iban descubriendo cómo servir mejor al espíritu que a la naturaleza física, se iban pasando al campo de lo utilitario rindiendo verdaderos frutos de aprovechamiento social y personal. Llegaron a pensar incluso que así sería la “abundancia” predicha por los “profetas”.

Aunque todo eso fuera cierto, más cierto era que otros solo lograban alimentar su espíritu retirándose al desierto. A veces en privado, a veces en común; no sabían cómo hacer partícipes de los favores del espíritu a los menos alertados de que ello existía y era, de hecho, el mejor de los mundos.

Pero continuaban los descubrimientos y las mejoras de alimentación, vivienda y salud; y las débiles y locales acopiadoras de información no sabían que -en general- provenían de quienes se habían retirado para crecer en espíritu pero descubrían cosas para alivio del cuerpo: medicinas, aparatos de medida, modos de desplazamiento más rápido, etc.; que -algunos- rápidamente pasaban a manos del poder de turno, convirtiéndose en medios de opresión poco populares.

Las explicaciones que -gracias a esos descubrimientos- permitían p. ej. poseer nuevas tierras, llegaban pronto a ser de unos pocos que se sumaban al poder -en contra incluso- de los que las habían encontrado y/o descubierto. En ese ambiente de discordia y poder, se fomenta “dar al César lo que es del César y a Dios lo que es de Dios”; pero las mejores escuelas y/o los grandes sabios están, coincidencia pura, casi siempre del lado de Dios. Si no son ellos los sabios, lo son sus padres, que se dan cuenta y se preocupan por fomentar esa sabiduría.

No fue casualidad que Descartes y Vespucio aparecieran en esa época, cimentando su profesionalidad con necesidades de asegurar viajes y perímetros de tierra ”nueva”. Las coordenadas referenciales en el plano, se convierten en soporte geodésico de longitudes (horarias incluso) y latitudes que grandes navegantes expedicionarios verifican con números y planos “oficiales”.

La redondez de la tierra no explica por sí sola: por qué no se caen los que están en la zona que se llamará “septentrional”. Hace falta que Newton explique la atracción mediante una “ley de la gravedad”, que predice con exactitud numérica los valores de las fuerzas respectivas. La mecánica clásica se estrena como la gran cosmología del universo.

Nace Hamilton que se apasiona con su época y entiende, como nadie antes, lo que será la relatividad antes de que se sepa qué necesidad hay de explicar todas las casuales relaciones que la matemática parece predecir, con certeza absoluta. Y en casual coincidencia Maxwell deduce, de las ecuaciones que llevan su nombre -debidas a Gauss y a Euler- una expresión que parece ser inadecuada, por decirlo de algún modo: la luz visible o no visible (que se usa en las comunicaciones telegráficas) es una onda electromagnética cuya velocidad de propagación no depende del “éter” sino que es ¿absoluta? ¿puede ser tal cosa?, ¿existe o no existe el éter?.

Al mismo tiempo se ha iniciado la revolución industrial, y todo lo que se pueda inventar tiene gran acogida. Pero hay un caos en toda Europa debido a la aparición de una gran masa de “proletarios”, que requiere ser controlada. Fayol le dedica tiempo a estudiar cómo puede ser enfocado el problema a través de las clases dirigentes.

Polo afirma: “En la filosofía moderna se habla menos de los hábitos: prescinde de los intelectuales, y de los morales tratan los ilustrados ingleses hasta Adam Smith, que todavía habla de virtudes y vicios, pero dándoles una importancia sobre todo funcional. En rigor, su gran obra, La riqueza de las naciones, depende de una interpretación de los hábitos morales muy pesimista. Esta versión que considera que los hábitos morales son escasos y, por otra parte, frecuentemente sustituidos por vicios, arranca de Hume” .

Se hace indispensable encontrar cuál puede ser el nivel de la justicia en los intercambios. Se desarrolla más la economía, que en el S XXI sirvió razonadamente de punto de partida para llegar a la constante , en un marco adecuado (suficientemente elevado) para explicar muchos vínculos cuali-cuantitativos en las sociedades. No dudamos que también ayudará a elevar los aspectos psicológicos y sociológicos de estos vínculos, que serán a su vez, elevados por ella.

La posibilidad de producir institucionalmente, generando más bienestar a la sociedad, sólo puede provenir de organizar el trabajo de grupos de individuos (personas u organizaciones) para volver factible lo que antes sólo era posible. En este sentido, organizar se realiza en base a las virtudes morales, y no puede ser sólo fruto de desarrollos técnicos.

Caso patético de Dirac: “no hay Dios y Dirac es su profeta” decían con encono y burla -también sabia- científicos de la talla de Heisenberg, Bohr y otros; porque sabían de lo estrictamente religiosos que eran sus padres y lo intentaban reincorporar a lo que sabían que era bueno.

Es en medio de estas aventuras de la sociedad humana, donde se tejen las invenciones de sabios y, a veces, costureras o mendigos que también descubren bienes o métodos útiles. Pero viene llegando el tiempo en que la abundancia de app’s -cubren de tal modo todos los avances logrados antes- que ya no se sabe siquiera que la regla de cálculo (y sus fundamentos por supuesto) fueron antecedentes, y las app’s están repletas de ello. Es de esperar que las universidades retengan en su “almacén de conocimientos” todos los fundamentos que las sustentan.

Pero eso no es todo. Otro ejemplo -en otra dirección- de la protección del conocimiento ya obtenido, está en una de las más grandes victorias de la técnica y el conocimiento humanos: los mecanismos de realimentación (o feedback). Si uno entra a internet y busca su origen, no hay material completo y el que hay, es además, defectuoso. Como se ha visto la noción de sistema es básica para los desarrollos previos a Polo, que se basó con soltura en la concepción de Bertalanffy. Pero los mecanismos de realimentación y control son el fundamento de toda la técnica que se pueda encontrar hoy en día, y eso no se encuentra como debiera ser de fácil acceso. No hay coherencia entre los avances de sistemas -el propio internet es emblemático como sistema y feedback, todo a la vez- y la información que se ubica.

Otro ejemplo es el de los cromosomas. Si uno quiere saber más, u obtener información valiosa de la quiralidad, que como hemos visto es clave del futuro alimenticio; no la encuentra explicada como codificación que es, con todo lo que trae consigo no saber lo mínimo de estos puntos básicos para entender por qué y cómo sigue uno vivo.

Todo lo dicho en capítulos anteriores tomaría -por lo menos- tantas páginas como conexiones con las magnitudes comprometidas tienen las ciencias y los desarrollos científicos desde el siglo XVII hasta el siglo XXI. Nos fijaremos primero, en las que refuerzan la novedad de lo descrito y confirman la validez -renovándolas- de las leyes fundamentales de la ecología.

Lo primero fue forzosamente, definir magnitudes ecológicas, buscando una unidad de medida invariante de la ecología, que resuma todas las posibilidades de propagación (recuérdese que estábamos hablando de la luz) que puedan aparecer con ella. Eso vincula su propiedad aditiva (muy útil para los seres humanos) con la invariancia originaria, por ser magnitudes.

Partiendo de la invariancia dinámica, hemos llegado al costo de explotación (un tipo de energía pero no es la conocida de la física, pero sí análoga), como magnitud escalar más elemental; y de ella, a la productividad ecológica, primer operador (vector) básico, como magnitud vectorial, del cálculo ecológico (equivalente a la operación de derivación, para los cálculos del universo natural); que nos ha llevado a que la solución dinámica de las operaciones de medición ecológica deben partir de unas condiciones iniciales, y que de éstas, deben especificarse en 2s-1 (véase 1.4).

Una vez definido el número de coordenadas (s) de la ecología, es razonable conclusión que deba existir una magnitud que relacione bases y coordenadas; pues para que el espacio ecológico sea el mismo -aunque existan diferentes referencias- debe existir una correlación invariante y dinámica : la coherencia ecológica. La inclusión necesaria del tiempo para que ello sea correcto numéricamente, y además, se someta a una simple aditividad (magnitud tensorial: como representación tiene otras características de suma y multiplicación, no tan simples) explica la aparición de tensores contravariantes, además de los típicos covariantes. Al no ser un recurso como se acostumbraba entenderlo, la nueva forma de incluirlo tiene más y profundas consecuencias, ya presentidas pero no abarcadas plenamente, que se explicaron en la 1ª parte.

La corrección dinámica lleva a una lógica más coherente para las curvas de propagación (como las de oferta-demanda de la economía). Esto se vio, en los capítulos anteriores, con todo detalle. Pero conviene destacar ahora, algo que no se enfatizó en esas deducciones: las características unitarias energía-costo son del mismo tipo que las características unitarias del campo de fuerzas que las ciencias ya habían descubierto en el S. XIX. Por ejemplo, cuando en la economía explotamos-vendemos un output valorado por su precio o costo -lo que se hace intuitivamente desde hace muchos siglos- fue avalado por las ciencia económica (judicoides) mucho después. Esto es abrumadora y matemáticamente cierto, y es una grata conclusión que emerge con gran naturalidad de las elaboraciones conceptoidales de nuestra investigación.

Así es como entendemos que se hicieron a un lado las más importantes materias, con la llegada del mundo moderno. Se hace énfasis en que estas son las ciencias de segundo nivel que reflejan -como en el caso de la luz- lo que falta estudiar del primer nivel. Por ejemplo, Lucifer antes de ser la serpiente, era un ángel y se ve que conocía muy bien la luz porque era conocido como el “mejor” de todos, quizá porque brillaba. Pero hay otros, a los que su humildad los convirtió en ascetas, que no brillaban pero eran superiores -ya se ve- cuyo pálido reflejo son como las ondas gravitatorias, que están allí desde mucho antes y nadie las puede estudiar porque superan nuestra capacidad técnica actual. Nos estamos quedando en el segundo nivel de conocimientos , pero todo provino del primero. Tenemos que re-iniciarnos (como diría un tecnólogo actual).

Las motivaciones antropológicas del ser humano para conseguir la unidad en sus instituciones y sistemas ecológicos asociados, así como la intervención incierta de los actos humanos individuales, únicos e irrepetibles , han sido aquí considerados como parte estructural de la teoría de invariantes, que busca refrendar numéricamente lo que es humano (pero que ha estado pendiente desde hace siglos): una escondida secuencia dinámica de números que, por ser invariantes, obedecen a una dictadura desconocida actualmente por las ciencias sociales .

Esa secuencia fue descubierta desde hace mucho pero solo utilizada por los especialistas de turno, que sabían cómo usarlos en sus cálculos. No hubo una interiorización cultural coherente con la historia previsible. Solo a medida que nacían los científicos, las podían incorporar a sus estudios y desarrollos. Continuaremos con la segunda conclusión.

Segunda conclusión: nivel ciencia

Retomando el hilo conductor de la historia universitaria, se veía imposible, como consecuencia de lo que se descubría, aplicar la teoría de los universales -artes y ciencias- de modo sistemático a campos que no fueran para “enriquecer el espíritu”. Es decir, de lo que se trata es de lograr la felicidad del hombre y, para eso, hay que empezar por los propios profesores y alumnos de las universidades.

Hay que tener en cuenta que los motivos que llevan a los seres humanos a organizarnos para lograr metas, objetivos y cumplir una misión; son de tres tipos según la teoría de la motivación: extrínsecos, intrínsecos y trascendentes.

Pero la capacidad para formar organizaciones que funcionen durante largo plazo no la tenemos todos. Esa capacidad -que se llama dirigir - se desarrolla a partir de las decisiones que tomamos, es decir, de cómo elegimos las acciones que nos proponemos realizar.

La razón de estudiar la acción institucional en tres planos es debida a que las organizaciones "funcionan" en la medida que los estados factibles entre las personas que las componen -por estar motivados trascendentemente- se amplían. Pero ello se refiere a los estados factibles éticos y sólo indirectamente a los operativos. El problema son los imprevistos que emergen a veces costosos y difíciles de superar .

Nos hemos extendido mucho en este tema para entender mejor la influencia de las decisiones directivas en una universidad y esto no se hace nunca. La búsqueda de ese desarrollo, es decir, del “enriquecimiento del espíritu” investigador, lleva consigo la renuncia de otras satisfacciones -generalmente serán las percepcionales, que son las más buscadas por nuestra sociedad-. Cuando el ser humano prioriza las satisfacciones percepcionales, respecto a otras más importantes: por ejemplo la conservación sostenible del medio ambiente; se produce un aprendizaje negativo , es decir, cada vez le es más difícil decidir, deteriorándose interiormente. Valora menos las causas que realmente mueven al entorno a reaccionar como lo ha hecho ante una decisión suya, y valora más otras causas que no son más que "ilusión" interior, al perder panorama decisorio.

La universidad siguió mostrando su rostro utilitario antes que el de enriquecer -espiritualmente- a los comprometidos con ella. Una cita de Polo deja ver lo que probablemente ocurrió: “De hecho, sólo una filosofía aristotélica puede aglutinar el espíritu universitario. Las otras formas de filosofía son sectarias, maníacas, unilaterales. Por tanto, no sirven para cumplir esa misión, que también, a mi modo de ver, los filósofos y la filosofía están llamados a cumplir en la Universidad. De lo contrario, la Universidad se transforma en "pluriversidad"; se astilla en las especializaciones: se produce incomunicación entre las distintas ramas del saber, y se da una especialización excesiva en la mente de los que se dedican al trabajo universitario. En este sentido, ese espíritu universal -universitario- lo puede proporcionar la filosofía. Pero, dentro de la filosofía, la única que está capacitada para lograrlo es la aristotélica, en cuanto que es sumamente abierta a todos los tipos de saber y, a la vez, los abarca sin dejarse arrastrar por alguno de ellos” .

Se dejaron arrastrar por la obtención de resultados utilitarios, lo que viene empeorando hasta hoy. Polo no solo hace crítica positiva a lo que debió ser, sino que nos actualiza por qué y cómo: “En definitiva, de estos autores se desprende que la carencia de fundamento de la ciencia es notable, y que en su último entresijo la ciencia es contingente. ¿Consistencia, sistematicidad? Tampoco, porque no hay manera de construir un sistema científico completamente unitario. Más aún, es que ni siquiera tiene sentido formularse el proyecto. Primero, porque no tenemos matemática para ello; ni siquiera sabemos por qué no la tenemos. La matemática no es una ciencia enteramente consistente, si se tienen en cuenta las observaciones de Gödel. Este matemático sostiene que si partimos de una serie de proposiciones, y de ellas deducimos una serie de axiomas, siempre sale algún teorema que no podemos justificar, y que no queda sino elevarlo a axioma, si queremos conservar la coherencia. Pero entonces aparece un proceso al infinito, y el sistema, en definitiva, es indecidible, es decir, no puede cerrarse. “Esto ha dado lugar a una abundante literatura, porque la idea de sistema completo es uno de los grandes ideales del pensamiento moderno. El filósofo que formuló la idea del sistema total fue Hegel. Este idealista creyó que podía constituir un sistema absoluto con todo el saber humano. Este planteamiento es ambicioso, pero es evidente que el hombre no abarca todo ni puede abarcarlo. Ante esto se admitieron unas formas parciales de sistematización. Tal es, por ejemplo, la postura de Wittgenstein, el cual señala que nosotros actuamos de acuerdo con una pluralidad de reglas. “Esto es paralelo a la llamada teoría de juegos. No hay lógica completa. Una cosa es la lógica que se emplea cuando se juega al póker, otra que se emplea cuando se juega al ajedrez. No todos los juegos tienen la misma lógica. El hombre juega a muchos juegos, pero no hay el juego de los juegos. Probablemente Wittgenstein cree que sí existe, pero que el juego de los juegos sólo lo juega Dios, y que el sistema absoluto del saber significa el saber divino, pero ese saber al hombre no le es accesible. Se ve entonces –ahora formulado por los filósofos– que la ciencia no es consistente. Esto no significa que no haya partes más o menos coherentes, pero en su totalidad no lo es. “La ciencia moderna no tiene fundamento ni consistencia. Si a eso le añadimos que, además, no sabemos cómo seguir, porque la realidad no se deja encerrar en un modelo científico, la realidad sale contestona; sólo nos queda confiar en que los modelos se repondrán porque contamos con mucha gente, pero no tenemos certeza, es decir, una plena confianza. “También sucede en las encuestas. ¿Hasta qué punto la encuesta no influye en los resultados de la encuesta? ¿Es lo mismo hacer una encuesta pública que una no pública? Evidentemente no. Los físicos dicen que se acude a la explicación estadística cuando no se tiene otra, porque la explicación estadística es la peor de todas. Además, las explicaciones estadísticas tienen un límite, ya que no todo se puede explicar estadísticamente. Cuando entran muchos factores en el cálculo, no hay modo de establecer la estadística. Esto es lo que llaman técnicamente el ruido blanco . “Si bien el hombre es un gran solucionador de problemas, sin embargo, hemos encontrado un obstáculo: el trilema del barón. El procedimiento en que más esperanzas se han puesto, el más audaz, la ciencia, ha sido considerado defectuoso por algunos teóricos de la ciencia. En último término, la ciencia moderna tiene una limitación, que consiste en no vincularse a la moral, que aparece cuando los proyectos científicos no se subordinan a la ética. ¿Es falso abortar o es antiético? La ciencia depende realmente de la ética. Cuando esto no se acepta aparecen problemas que son los efectos perversos. Toda limitación de la ciencia se nota en que no puede poner sus propias leyes éticas” .

La labor realizada en este libro buscó probar resultados que no eran posibles en épocas anteriores, pero podían haberse obtenido con tan solo metodologizar el conocimiento. Tal es la prueba que se ha hecho en la 3ª parte respecto de la entropía. Un resultado -ético- inmediato es el hecho de que en los sistemas ecológicos, si no interviene alguien humano innovando, será imposible dar estrategias operativas de menor costo, ya que la entropía aumentará por la ley de aumento de la entropía para sistemas cerrados. El universo material es sistema cerrado desde la perspectiva innovadora. Solo alguien que esté fuera puede construir artefactos, pero utilizando la materia prima del universo.

Es además un hecho conocido el que no existe aún una teoría física capaz de compendiar con éxito todos los detalles de la naturaleza que le competen. No por ello, sin embargo, se ha detenido su progreso. Es así como emergió la teoría de las supercuerdas (o modelo estándar), que amplía la estructura del hiperespacio a coordenadas covariantes y contravariantes. Aquí, a cambio, se está intentado modelar situaciones que permitan a los seres humanos progresar en otros dominios, en lo que se refiera al uso de medidas justas para todos.

Estos intentos han sido enfocados de distintas maneras, empero ha sido casi siempre el hilo filosófico el que ha acelerado o frenado tales desarrollos. En el estado actual de las corrientes filosóficas, existen innumerables variaciones y presentaciones. En este documento se ha hecho constar explícitamente esta línea de desarrollo, que sirve de soporte al hilo del discurso y explica por qué estamos atrasados en todas las ciencias que utilizan números para medir sus variables coordenadas, porque faltaban conceptos para ello. Humanizar los costos reinterpretándolos desde la justicia nos ha llevado a hipotetizar de este otro modo la ecología .

Las "tendencias" de que hemos hablado cuando definíamos la actividad ecológica y la entropía, son ejemplo de esta emergencia en la línea socio-antropológica que está revisada, además, en forma completamente natural.

Sólo resta añadir un lema que no necesita demostración (pues es obvio por su enunciado a partir de la definición de actividad ecológica): “Los sistemas ecológicos requieren un mínimo de entropía (complejidad interactiva interna) para funcionar. De lo contrario no podrían tener actividad propia . La magnitud que relaciona ese mínimo deseable de entropía, con la capacidad del entorno para beneficiarse con los bienes que suministra, es la actividad ecológica”.

Sin embargo, las relaciones quánticas (como las deducidas para la física por Heisenberg) se fijan más en si es posible la existencia de valores de esta magnitud en un sistema complejo, como es un sistema ecológico. El logos humano es el mismo y las ideas generales -aunque sean otras ideas que las de la física-, se matematizan como conceptoides y sus respectivos judicoides. La analogía que hemos hecho, hay que saberla hacer, porque no es solo cuestión de que la naturaleza está hecha de física; sino que las macro-analogías son posibles cuando se hacen de cierto modo y no de otro, porque las mismas matemáticas exigen que las propiedades se apliquen solo a invariantes: que sean compatibles según el lenguaje antropológico.


Primera conclusión: nivel antropología

Estamos en un momento de la historia de las ciencias totalmente nuevo. Nunca antes la perplejidad se había mostrado tan directa. Lo experimental desplaza directamente a la teoría y lo curioso, es que lo hace con artefactos creados por la misma ciencia que ya no tiene más que dar, con exactitud. Para toda experiencia práctica hay una probabilidad de acertar; y para toda elaboración teórica una probabilidad de fallar. La incertidumbre se quedó para retar nuestra incapacidad.

Vuelvo a citar a Polo, porque insistió varias veces y en muchos de sus libros, artículos y conferencias; lo siguiente: “El tomismo se ha quedado lejos, no nos llega de un modo eficaz, sino que hemos de ir nosotros a visitarlo. Y al entrar en él nos percatamos de que es, hogaño, un nido vacío. Y no porque carezca de comentadores de altura –esto es lo de menos–, ni, insisto, porque esté todo él "refutado", sino porque ha quedado detenido en lo que respecta a la única altura importante, a saber, la altura histórica. Y esto, que el tomismo esté todavía en el siglo XIII, sí que es una falta, precisamente la falta de perennidad. Paradójicamente, los fieles discípulos de Santo Tomás se lo dejan arrebatar, porque lo que aprietan entre las manos se les aleja cada vez más. “Sería una mala tentación, sin embargo, concluir ahora que lo único que, en defensa de su altura propia, puede hacer nuestro tiempo con el tomismo es enterrarlo. Y ello por tres razones: ante todo, porque la aludida visita al tomismo está repleta de utilidad. En esta visita, sin duda, no lograremos respuesta para las preguntas de hoy –en este sentido está vacío el tomismo: vacío de hoy–, pero sí para otras preguntas, que en el fondo son las nuestras, sólo que más vagamente formuladas. En segundo lugar, porque para aprender a formular nuestras preguntas, nada menos que el tomismo. No es que él nos las dé ya hechas, pero ¿cómo hacerlas sin él, si justamente hoy estamos perdidos en el ser? Ciertamente, el tomismo está en la línea que conduce a la salida, aunque él mismo no sea la salida, y aunque, lo que es más importante, no haya avanzado en esta línea. Si la altura histórica del siglo XIII no es la definitiva, es porque hay que salir del enmarañamiento consciente, no porque hayamos logrado algo más valioso en orden a esta tarea que lo que alcanzó Santo Tomás para su tiempo. Se ha acumulado mucho trabajo, pero absolutamente inconducente. Lo que pasa es que la necesidad de salir sigue acuciando. Por eso, hacer hoy metafísica es advertir esta necesidad de nuevo, otra vez, en el carácter histórico –acrecentamiento– de su perennidad. […] “De aquí que exista una tercera razón para no prescindir del tomismo. Y es que nuestra altura histórica no nos es dada en el panorama humano, cultural y social, que nos rodea, ni en el anterior inmediato. La perennidad de la filosofía no ha sido realizada en los últimos siglos. Y sin embargo, nos hemos movido; ¿dónde estamos?, ¿a dónde hemos ido a dar? La especulación elaborada durante la edad moderna no es lo que nos distancia del medioevo. No es el lugar a que nos ha llevado una base firme desde la que tomar conciencia de un alejamiento. Cierto que el alejamiento se ha producido y puede ser constatado, pero no es legítimo, por cuanto el protagonista de la marcha histórica en la modernidad tampoco lo es. En el fondo, lo que pasa es que no nos podemos ocupar de los temas medievales en virtud del interés que ellos tengan, sino desde una instancia decisiva: la necesidad de salir del enmarañamiento consciente. Filosofar no es ocuparse directamente de temas, sino servir a esta necesidad. Ahora bien, la ilegitimidad aludida estriba, más que en un directo "no tener nada que ver con la metafísica", en una agudización del límite mental, de la pérdida del ser, que es, a la vez, para la libertad, situación de pérdida en el ser. Por eso, la necesidad de salida ha de llenarse hoy en tarea de superación de un estadio cultural. Y, en conclusión, el aumento de la necesidad de salida que distingue nuestra altura histórica de la medieval, esté en conexión con la ilegitimidad de nuestra situación de hecho. “Conviene percatarse del carácter ambiguo de esta situación. Podría ser otra, puesto que la marcha histórica en los últimos siglos no depende de una necesidad absoluta. No es en manera alguna inútil señalar que su protagonista pudo haber sido distinto del que efectivamente ha sido. Pero tal como es, la metafísica actual comporta la tarea de dar razón de su pasado. No estamos en una situación, digamos, respaldada por el pasado; los siglos últimos están vacíos del tramo de progreso filosófico que pudo corresponderles; y, sin embargo, no están totalmente vacíos, de manera que pudiera pensarse en reemprender la marcha conectando con el tomismo, es decir, considerando inexistente todo lo que ha ido viniendo luego. Estamos donde estamos, en un lugar histórico inesquivable –no determinante–, y aunque la autenticidad filosófica de la edad moderna tenga que ser inventada "a posteriori", no es menos cierto que es con ella, y sólo con ella, como se debe conectar con el tomismo” .

Se deja ver que alguien que ha descubierto un método para filosofar sobre lo más complejo que existe -la persona- porque ejemplarmente hay Personas en Dios, como ha radicalizado Polo; tiene cierto derecho a llamar la atención de lo que nos falta para entendernos y entender mejor, al Creador. Y además, sugiere revisar el tomismo -in melius-porque él mismo ya lo ha hecho.

Leyendo los escritos de Polo, nos reafirmamos en lo que nos dice respecto a su método y los tomistas: que se entiende mejor y permite hacer teología, y no solo filosofía. Desde la perspectiva humana, Polo se vuelca en casi todos sus libros a todos o alguno de temas de la ética, que según él son: bienes-virtudes-normas. Los tres son necesarios. Si faltara alguno, estamos ante un reduccionismo ético, no es una ética sino un error.

Más bien, afirma: “ … la virtud tampoco es una adaptación como la que permite el modelo morfo-érgico-télico. Se trata de algo más. La virtud es una hiperformalización. Al ser esto un perfeccionamiento interno, intrínseco, afecta a la interpretación de la tendencia misma. “La pura interpretación tendencial de la voluntad es pobre. La interpretación de la voluntad como órexis en la filosofía clásica, si bien es aceptable, no es suficiente. Es evidente que si una tendencia en su misma radicalidad es modificable, es algo más que un simple tender. “En nuestra cultura podemos volver a tomar contacto con la noción de virtud a través de la cibernética. Los ordenadores determinarán la cultura próximamente, y no hay mucha gente que se dé cuenta. Empezar a entender qué modificaciones trae esto, hasta qué punto la industrialización de los siglos pasados está sujeta a una inflexión enorme, es imprescindible, porque quien no sepa funcionar en una sociedad en que la cibernética esté implantada, se queda descolgado, desplazado. “Hay que despojarse de los planteamientos lineales. Una consecuencia de estos planteamientos lineales es, por ejemplo, la burocracia. La burocracia es consecuencia de una sociedad en que la información y el control están poco conectados: las preferencias son fijas, estables. Con esta nueva concepción la burocracia queda desplazada. “Cuando se trata de virtudes, lo que no permanece constante es el punto de partida. El movimiento puede apartarse de un desencadenamiento para dar lugar a otro. Hay, pues, tres tipos de procesos: el proceso lineal, el morfo-érgico-télico y el proceso a nivel de virtudes (aunque la virtud propiamente no es un proceso). Hay posibilidad de movimientos divergentes, y eso quiere decir que algunos se inician y otros no, y esto intensifica la libertad que ya no es puramente de elección; no es un conjunto de posibilidades, sino una posibilidad modificada en su propio arranque. “Con virtudes la conducta humana es distinta a si no las tiene. La conducta humana se hace distinta en el sentido de que otras posibilidades se cancelan, pero porque ya no tienen inicio. ¿Qué sería lo más característico? La unidad de control; es la voluntad misma, y si la virtud es perfeccionamiento de la voluntad, es perfeccionamiento del control” .

Lo que nos anima a motivar al lector a una ardua tarea: hay que re-elaborar la ética, en todos sus niveles y para todas las actividades pues ya no es solo un nuevo planteamiento, sino que una revisión a fondo; donde los fundamentos que la constituían exigen una mirada distinta del fin mismo, que se eleva por encima de lo anteriormente pensado. Pero Polo sigue afirmando que las normas son para la libertad y no la libertad para las normas. Lo que se incrementa es la capacidad de ser libre porque se cumplen las normas buscando fines más altos, mas otros: “El hombre no puede hacer modificaciones en la naturaleza externa sin cambiar él mismo, porque él mismo es distinto tras realizar la actividad. Cuando esto no se tiene en cuenta, surgen problemas sociales, como por ejemplo, considerar al individuo meramente como mano de obra. Si no se considera que al hombre, como primer destinatario de la acción le sucede algo, ya sea bueno o malo, surge esa concepción” .

La ciencia tampoco puede ser la misma cuando se revisa su situación desde la ética. Se piensa que la bondad o la maldad de una acción científica no existen porque la ciencia es neutral. Polo afirma que no es así porque hay que buscar más bien en lo que ya está bien: “Yo no aspiro sólo a querer algo, sino a quererlo mejor, aspiro a lo mejor como un modo mismo de tener que ver con lo mejor. Esa aspiración doble es característica de la voluntas ut natura, que no sólo tiende al fin, sino que tiende a tender más al fin, y esto es fin para ella, lo cual es una perfeccionabilidad intrínseca que tiene la voluntad: eso es la virtud” .

La prueba es que la ciencia ha cambiado, pero debe cambiar más. Los mismos espacios de coordenadas ya no son los que se acostumbraban utilizar como referencias firmes y seguras. Hay que pensar en más dimensiones y nuevas configuraciones de esas dimensiones. La teoría de conjuntos ya no es más, la forma segura de deducir resultados certeros pues su propia formalidad lógica está seriamente cuestionada -según hemos visto- en casi todo este libro.

La unidad de vida debe estudiarse mejor, porque incluso la conciencia de pecado se ha perdido con los siglos por el bajón de nivel de las universidades, por no investigar como debiera haber sido prudente, todos los detalles del mismo; empezando por el pecado original, la Inmaculada Concepción, etc.

Sin salir todavía del tema, habría que estudiar el mal. cómo empezó, cómo se instaló, …, la muerte (que Polo señala como la desaparición del límite mental, según su método). Y todas las características que debería tener un mundo sin pecado original ni pecados personales. Las consecuencias éticas y para los que no creen en ello, etc.

El cuerpo de Cristo es de muchos (Iglesia) y como dice Benedicto XVI en su libro Jesús de Nazaret – 1ª Parte: “En primer lugar la dimensión cristológica. Orígenes ha descrito a Jesús —a partir de la lectura de sus palabras— como auto-basileía, es decir, como el reino en persona. Jesús mismo es el «reino»; el reino no es una cosa, no es un espacio de dominio como los reinos terrenales. Es persona, es El. La expresión «Reino de Dios», pues, sería en sí misma una cristología encubierta. Con el modo en que habla del «Reino de Dios», El conduce a los hombres al hecho grandioso de que, en El, Dios mismo está presente en medio de los hombres, que El es la presencia de Dios” .

Investigaciones como esa, evitan malinterpretaciones sobre Jesús y su Iglesia. Cómo fue la separación -en la historia- y el análisis de las previsiones y sus consecuencias; es parte del estudio que falta realizar con mayor fundamento teológico, como lo hiciera Benedicto XVI en su momento. A nuestro parecer coincide en muchos aspectos con el método poliano, el que hemos usado como fuente inductora para el estudio científico de la ecología, en que hemos sustentado este libro. Y repetimos que parece que Polo se interesó en sus libros, como vemos por el modo en que recurre a sus escritos, muchas veces.

Resumiendo, es muy importante en la historia de la humanidad, y falta investigación que se vuelque a lo que debería ser la realidad universitas a futuro. Además, como se ha dicho más arriba, falta un recopilador de información denotadamente universitario, con el perfil que los siglos puedan darle; que acopie los conocimientos -propios y ajenos- de las universidades. Que sea un ejemplo institucional en todas las épocas. Cómo desearíamos conocer un invariante para lo cualitativo, que no lo hay.

Pero por sobre todo ello, que se busque como fin -en el paso universitario de la vida- el conocimiento verdadero del ser, su existencia, su trascendencia y sobre todo la coherencia de vida, que será el fruto de una solvente formación, académica, moral y antropológica.

Hay un espacio del dominio de lo físico-vital -como el que se muestra en este libro- al que se pudo llegar gracias al método de Polo; pero se debe llegar a mucho más (y mejor si se descubren otros métodos, por lo necesitado que está -y espiritualmente urgido- el mundo actual de más desarrollo pensante como el mencionado más arriba).

Este espacio es deducible -en directo- de las matemáticas modernas, y se intentó mostrar todas sus aristas (aunque esto nunca se podría asegurar, porque el teorema de Gödel lo demuestra), para motivar que los jóvenes de las universidades sigan en la búsqueda del dominio de lo físico-vital; pues vienen días en que se podrían sentir extraviados y sin brújula que los oriente, debido a lo indecidible que puede llegar a ser la técnica si no se dispone de información como esta. Para ellos es este libro. En el encontrarán la mejor explicación -actual- de esa maravilla que es la vida, y dónde leer más. Que hay que aprender que solo entendiendo y profundizando en el estudio del Creador, se llega a entender correctamente su creación.


Javier Rospigliosi

Pontificia Universidad Católica del Perú

Bibliografía

Alvira R., Reivindicación de la Voluntad, Pamplona, EUNSA, 1988.

Aoki M., A New Stochastic Framework for Macroeconomics: Some Illustrative Examples, 2005.

Benedicto XVI, Caritas in Veritate, Librería Editrice Vaticana, 2009.

Benedicto XVI, Jesús de Nazaret.

Calleja Tomás. La Universidad como Empresa Una Revolución Pendiente, Colección Empresa y Humanismo vol 5, 1991 - RIALP.

Chiang Alpha C., Fundamental Methods of Mathematical Economics.

Colander David, In Complexity and the Teaching of Economics, 2000, Cheltenham / Northampton: Edward Elgar.

Debreu, Gerard; Theory of Value, 1959

Eisberg - Resnick, Física Quántica.

Eronini, Umez; Dinámica de Sistemas y Control, 2011, Thomson.

Fernández Pablo, CIIF - IESE WP N° 511 July 2003.

Feynman, Leighton, Sands; The Feynman Lectures on Physics, 1964, Addison-Wesley.

García, Juan A., La Doctrina de Polo acerca de la Luz, y su papel en el Universo y para la Vida.

García, Juan A., La Razón Humana según Leonardo Polo, UMA – 2010.

García, Juan A., El Conocimiento de lo Físico, según Leonardo Polo.

Giffin, From Physics to Economics: An Econometric Example Using Maximun Relative Entropy, 2009, Princeton.

Granger W. y Engle R.(1987): Cointegration and error correction representation, estimation and testing, Econometrica # 55. Págs 251-276.

Greene W. H., Econometric Analysis, 2011.

Henderson - Quandt, Microeconomics, 2010.

Hurwicz L., Implementation and Enforcement in Institutional Modeling, 1993, Barnett.

Krugman Paul, Journal of International Economics, 1979 (art. 10 pp).

Le, Singleton and Dai (July 2009) Discrete-time Affine Term Structure Models with Generalized Market Prices of Risk.

Llano Alejandro, La Nueva Sensibilidad, 1987 - EUNSA

Lucas, Models of Business Cycles, 1982.

Matheu V., Filosofía del dinero, 1991, Rialp.

Nash J., Two-Person Cooperative Games, 1953, Econometrica.

Padial, J., Antropología del Tener según Leonardo Polo, 2000, Cuadernos de anuario filosófico, Universidad de Navarra.

Phelps Edmund, Moral Hazard and Independent Income in a Modern Intertemporal-Equilibrium Model of Involuntary Unemployment and Mandatory Retirement, 1998, in Chichilnisky, editor, Markets, Information and Uncertainty.

Polo L., Filosofía y Ecología, 2013, EUNSA.

Polo L., Antropología Trascendental, tt. I y II, 2004, EUNSA.

Polo L., Curso de Teoría del Conocimiento, tt. II y III, 2003, EUNSA.

Polo L., El conocimiento del universo físico, 2008, EUNSA.

Polo L., Ética, Rialp.

Polo L., ¿Quién es el hombre?, 1995, UDEP.

Pérez López, J. A. Fundamentos de la Dirección de Empresas. Rialp.

Pryor F., Economic Evolution and Structure: The Impact of Complexity on the U.S. Economic System, 1995, Cambridge University Press.

Ratzinger Cardenal Joseph, Introducción al Cristianismo.

Rospigliosi J., Dirección para Imprevistos, Stella Matutina, 2011.

Rospigliosi J., Publicaciones Internas . Stella Matutina; 2001-2010. Conjunto de temas relativos al conocimiento del ciclo ecológico y las magnitudes ecológicas (incluye el Sistema Dinámico de Costeo FIMA, 2006).

Rospigliosi J., Teoría Analógica de Dinámica Industrial, PUCP 1994.

Rospigliosi J., Teoría para calcular la Constante Característica de Sistemas Informátcos, PUCP 1996. Premio de Investigación.

Samuelson - Nordhaus, Ecología.

Spivak, Cálculo en Variedades.

Stella Matutina, Educar para Imprevistos, Memorias del 12° Congreso Internacional de Filosofía de la Educación, Bogotá - Colombia, 2010.

Von Newman & Morgenstern, Games Theory and Economic Behavior.

Williamson O., The Mechanisms Of Governance, 1996.

















Para mayor información, dirigirse a: Patricia Loredo jrfpsm@gmail.com (00-51-1-250 0210)