La segunda ley de la termodinámica dice que el calor no puede pasar de un cuerpo frío a uno caliente, lo que estableció Rudolf Clausius en 1865 y llamó entropía la pérdida de calor que se produce en toda acción. Lo que apunta también a la "muerte térmica" del universo, cuando ya no quede energía y el calor haya llegado a un promedio final estable.
Erwin Schrödinger, uno de los padres de la mecánica cuántica, introdujo en 1943 el concepto de entropía negativa, llamado luego negentropía por el físico frances Léon Brillouin, para designar lo que un sistema vivo produce para compensar su entropía natural: el orden de sus subsistemas y, así, resistir a su declive. La entropía mide la falta de información, es desorden mientras la negentropía es el orden, que aparece como información (Brillouin, p.X).
Shannon y Weaver introdujeron este concepto en la teoría de la información (1948) para el análisis de señales (especialmente en líneas telefónicas). Fue Brillouin que estableció la relación entre las dos perspectivas proponiendo que "la información (y con ella el lenguaje) es un factor negentrópico es decir por el cual se puede anular la entropía" (Wikipedia).
En 1988, Mario Ludovico definió la negentropía (entonces llamada "sintropía") como "el grado de organización interna de cualquier sistema formado por componentes que interactúan entre sí", estableciendo que "la sintropía es una cantidad complementaria a la entropía" y la suma de ambas cantidades define un valor constante (Wikipedia).
Brillouin dice que "La información es una función de la relación de las respuestas posibles después y antes que se recibió" (p.VIII). La información se transforma o se transmite, pero, agrega, "es imposible describir el mecanismo del pensamiento" (ibidem). Aunque la información tiene un valor subjetivo que puede variar según el observador y dicho valor no es directamente medible, en 1981 el finés Osmo Wiio propuso una fórmula para su medición que se basa en las variaciones en el estado de un sistema (el antes y el después, lo cual corresponde exactamente a la definición de Brillouin). Y este enfoque es útil en el campo de la psicología cognitiva, es decir en lo relativo al desarrollo del conocimiento humano (cfr. Colle, 2002, Cap.1, pp.17ss de la versión en PDF).
Aquí viene lo interesante. Como explican latamente Michel-Yves Bollore y Olivier Bonnassies en su libro, si remontamos el tiempo, mirando hacia atrás la historia de la entropía, llegamos al Big Bang, el momento en que la energía estuvo en su nivel máximo y su mayor concentración. ¿Qué pasó entonces con la negentropía y la información? Según la termodinámica y conforme a la propuesta de Ludovido, la entropía debió ser nula y, por lo tanto, la información debió ser máxima. "Sí, el universo tiene un comienzo, y sí, ese comienzo debe corresponder a una entropía muy baja, o sea, a un orden muy elevado" (Bollore y Bonnassies, p.74).
Luego, la evolución del universo significó una diversificación de los subsistemas, conforme a fragmentos de información preestablecidos "desenvolviéndose" a través del tiempo.
Hablar de "antes del Big Bang" tiene poco sentido porque el tiempo no existía: empieza con este evento crucial. Pero es posible entender que la materia no podía existir tal como la conocemos.
"¿Que podemos imaginar en su lugar? Tal vez algo inmaterial, que podría ser la información. Antes del Big Bang - más exactamente en el instante cero -, el tiempo aún sería, en ese caso, puramente imaginario, y la realidad no existiría en esta etapa, sino bajo la forma de una información pura, una especie de código de esencia matemática.
Una información primordial, pues, que habría "programado", con una precisión que desafía la imaginación, el nacimiento del Universo en el momento del Big Bang y luego su evolución a lo largo de miles de millones de años." (ibidem, p.101)
Pero las investigaciones sobre el origen de la vida nos aportan algo más:
"Es sorprendente que la dimensión tecnológica de la teoría de la información y de la teoría de la codificación haya estado presente en el mundo vivo desde hace 3850 millones de años", o sea desde la aparición de la primera célula viva (Hubert P. Yockey, citado por Bollore y Bonnassies, p.245).
Y hay aún más: en la célula viva aparece la estructura básica de todo sistema: entrada-procesamiento-salida y, en este caso, el procesador es acompañado de una memoria; modelo copiado en los computadores clásicos. Además, este sistema es capaz de interactuar con su ambiente.
Las "religiones del libro" (judaïsmo, cristianismo e islam) proclaman la obra de un Dios creador: "En el pincipio, Dios creó el cielo y la tierra, [,,,] Y Dios dijo: 'Que haya luz'" (Génesis, 1, 1 y 3). Y, para los cristianos "En el principio estaba el Verbo (la palabra)" (Juan, 1, 1). Esto corresponde perfectamente con lo que ciencia sabe acerca del Big Bang: se hizo la luz - aunque apareció solamente 380.000 años después del Big Bang, como pudo calcular George Smoot (Premio Nobel 2006) - de la cual aún se perciben rastros (la "radiación de fondo").
Y la "palabra original", presente en la creación, ha de ser la totalidad de la información concentrada en ésta, como dicen Bollore y Bonnassies. Recordemos también lo que dijo Brillouin "la información (y con ella el lenguaje) es un factor negentrópico es decir por el cual se puede anular la entropía". La creación fue obra de una palabra que anulaba totalmente la entropía, siendo entonces la concentración máxima de información.
Para finalizar, una pregunta sin respuesta: Si el genio humano produce información: ¿la crea realmente o sólo expone una información que ya formaba parte de la información total del momento de la creación?
Referencias
Bollore, M.Y. y Bonnassies, O (2023): Dios, la ciencia, las pruebas, Madrid, Ed.Funambulista. Primer capítulo disponible en https://funambulista.net/wp-content/uploads/2023/09/DIOS-intro-ES-MKTNG-imprimir_INT-y-CUB-v2.pdf
Brillouin, L. (1959): Science et théorie de l'information, Paris, Masson.
Colle, R. (2002): Teoría cognitiva sistémica de la comunicación, Santiago, Ed. San Pablo.
Yockey, H.P. (2000): Origin of life and Shannon'theory of communication, Comput. Chem., 24 (2000), pp. 105-123.
Shannon, C. E. (1948): A mathematical theory of communication, Bell Syst. Tech. J. 27, 379–423.
WIIO, O. (1981): "What is Information. A Conceptual Analysis of Some Basic Words", Paper, ICA Meating, Minneapolis.
Imagen: La creación (Capilla Sixtina). Fuente: Wikipedia.