miércoles, 12 de octubre de 2022

Entropía y negentropía: la (¿torcida?) flecha del tiempo

Todos saben que el calor no puede pasar de un cuerpo frío a uno caliente, como afirmó en 1865 el físico Rudolf Clausius, quien ideó el concepto de entropía para medir este comportamiento del calor (Henriques, p.3). Es la segunda ley de la termodinámica. Pero quizás no saben que es la única ley física que indica la dirección del tiempo.

Los comunicadores también saben que algo va en el sentido inverso: la información va del no ser al ser y al ser más. Es lo que se bautizó como "negentropía". Pero, aún así, tenemos fotografías y relatos del pasado y no del futuro.

Estudios recientes se han preguntado cómo se traducen estos principios en el funcionamiento del cerebro. "Cuando pensamos, producimos calor en nuestras neuronas", dice Rovelli, quien agrega "Pensar es un proceso en el que la neurona necesita entropía para funcionar. Nuestro sentido del paso del tiempo es exactamente lo que la entropía le hace a nuestro cerebro" (citado por Henriques, p.6)

Para Jenann Ismael, profesora de filosofía en la Universidad de Columbia, Nueva York, existen dos diferentes flechas del tiempo en el cerebro. Una es el "fluir", percepción del cambio que ocurre en el mundo que nos rodea, "no solo ves que las cosas se mueven, ves lo rápido que se mueven, la dirección en la que se mueven. Entonces, todo el tiempo, tu cerebro está integrando información en intervalos temporales y te da el resultado. Así que ves el tiempo, de alguna manera" (ibidem, p.7).

La otra flecha es lo que llama "pasaje": "está íntimamente ligada a experiencias orientadas en el tiempo, como la memoria y la anticipación", o como visualizamos un evento futuro, como lo vivimos y luego como lo recordamos. "La forma en que anticipamos un evento en el futuro es fundamentalmente diferente de cómo lo recordamos cuando ya pasó." (ibidem)

Pero recordar es como dar vuelta, mentalmente, a la flecha del tiempo. Podemos revisar - del final hacia el principio - lo que recordamos (y es lo que hacen muchas veces los detectives). Pero la flecha, realmente, no se da vuelta: las causas siempre preceden los efectos, al menos en el mundo macroscópico (a nivel cuántico no ocurre lo mismo). 

Como comunicadores podemos sin embargo hacer algunas otras preguntas. Así, por ejemplo, oímos algunas veces discursos (ni que decir, sobre todo políticos) que no aportan ninguna información. Por cierto gastan energía y aumentan la entropía. ¿Pero que hay de la negentropía? 

Incluso hay discursos que, aunque portadores de información, no me enseñan nada nuevo. No son informativos para mí. O sea, movilizan (aumentan) la entropía en mis neuronas, pero no aumentan para mí la negentropía. A menos que considere que aprendí, al menos, que Fulano repitió algo que yo sabía. ¡No escapamos de la entropía ni de la negentropía!

¿Y que pasa cuando olvido? Creo claro que la entropía acumulada no se modifica. Pero no sé qué pasa con mi negentropía. 

Y, a nivel histórico, ¿que pasa con la negentropía que corresponde a lo que se ha olvidado, a lo que nunca fue registrado o cuyo registro desapareció? ¡No tengo respuesta!

Referencias

Henriques, M. (2022): Por qué el tiempo va hacia delante y no hacia atrás, BBC Future, 8/10/2022.

Rovelli, C. (2018): El orden del tiempo, Anagrama.

martes, 4 de octubre de 2022

La abstracción (y la inteligencia) en peligro

 El poder de abstracción de la mente humano jugó un papel clave en el nacimiento de la escritura: es la que llevó a los comerciantes de Sumer a registrar sus operaciones en tabletas de barro cocido y a extender luego este procedimiento a otras áreas (De la Rica, 2022: 45). Pero antes fue necesario que el cuadrúpedo se pusiera de pie, liberando sus manos y ampliando su ángulo de visión:

"El gran salto civilizador fue posible porque el ser humano se puso de pie —¿por qué?— y liberó el uso de la mano para algo más que para sostenerse y moverse a cuatro patas. De ese modo, amplió su campo de visión —imprescindible para la caza— y fue capaz, a partir del palo o la piedra, de construir otros artefactos." (ibidem)

Posiblemente, el artefacto más importante para el desarrollo de la civilización fue el que inventó para registrar su pensamiento. Pero probablemente no sea tan correcta la afirmación de De la Rica, siguiendo a André Leroi-Gourhan (principal especialista francés en arte paleolítico, hoy muy discutido), que "la psicomotricidad manual fina y el desarrollo cerebral están íntimamente conectados" (ibidem).

En efecto, el poder de pensar y crear conceptos estaba presente mucho antes, quizás miles de años si escuchamos los relatos de los aborígenes de Australia, cuya cultura es la más antigua de la Tierra: hay pinturas en rocas y cavernas en Australia que se calcula que son de hace más de 30.000 años (Haritz). Se conocen sus cuentos tradicionales (mitología?) como el "Tiempo del Sueño", que llega a definir leyes dentro de sus distintos clanes. "Cubren muchos temas: sobre la creación de lugares sagrados, tierra, personas, animales y plantas, leyes y costumbres" (ibidem), lo cual da cuenta de su poder de abstracción (como los importantes conceptos de creación y de "lo sagrado"). El Tiempo del Sueño es una de dos conceptos de tiempo que tienen los aborígenes: es un ciclo infinito espiritual, "más real que la realidad misma", mientras otro tiempo es el de la actividad diaria objetiva. ¿Qué mejor expresión de la capacidad de abstracción? ¡Y hace de esto cerca de 30.000 años! 

Jean Piaget y otros psicólogos dedicados al estudio del desarrollo de la inteligencia han puesto en evidencia el modo en que se van formando los conceptos en la mente del niño: a partir de comparaciones y generalización, es decir de abstracción.

¿Por que hablar de esto hoy?

Porque la revolución informática del siglo XX abrió una nueva era, arriesgando la destrucción (¿parcial?) de la "galaxia Gutenberg", al menos si la entendemos asociada al papel o su símil digital, el "ebook" y el "PDF".

Lo que observamos y me inquieta hoy:

1. Hay máquinas que escriben solas. Se dice que son inteligentes. En el sentido de ser capaces de adaptarse, es posible: se adaptan a la enorme cantidad de datos que se les entrega y, con la guía de algoritmos desarrollados por seres humanos (que son los inteligentes) - que incluyen reglas gramaticales -, son capaces de producir algún tipo de discurso. Incluso pueden parecer capaces de mantener un diálogo (adaptación, una vez más, pero "tonto" porque todo proviene de su base de datos).¿Aprenden? Es lo que se dice, pero solo acumulan datos. Pero comparan palabras y oraciones, y hacen deducciones. ¿Es esto conceptualizar? En el caso del ser humano, es su base. Pero la máquina no crea conceptos; puede "crear" una categoría gracias a reglas estadísticas y, una vez más, un diccionario que le ha sido proporcionado. ¿Abstracción? En el sentido estadístico podríamos admitirlo. pero no es una realidad mental y no le confiere personalidad como afirmó un ex-ingeniero de la IA LaMDA de Google. Pero el material aún es principalmente un inglés. De poco es capaz la IA con el español (lo que se trata de remediar con rl proyecto LEIA (Lengua Española e Inteligencia Artificial), liderado por la RAE y fundado en 2019 (De la Rica, 2022: 52).

2. Ahora, cuando escribimos un correo electrónico o un mensaje de chat, esta IA nos observa y nos sugiere correcciones ortográficas o gramaticales. Lo mismo ocurre al redactar un artículo o incluso un libro en Word. Debo confesar que agradezco esta "ayuda" ya que no soy hispanohablante nativo (y me ayuda también en francés, que tiendo a olvidar). Pero nos advierte De la Rica: "El riesgo es el empobrecimiento de la lengua" y "la viralización de errores" (p.51).

3. En 2021, el consumo de datos a nivel global alcanzó este año los 79 zettabytes, lo que equivale a 79.000.000.000.000 GB de datos, en su mayoría aportados por los usuarios. (Gráfico "Un minuto en Internet - 2021") 

Esto quiere decir que el 90% de los datos existentes en el mundo de hoy se ha creado en los últimos dos años (Business Insider, 12/05/2014). El teletrabajo, las redes sociales y el e-comercio siguieron aumentando esta cantidad. 

Internet hace estos datos cada día también más accesibles y reduce la necesidad de un esfuerzo propio de reflexión. Los buscadores ofrecen las respuestas que parecen encajar mejor en nuestras preferencias o que son estadísticamente las más leídas: en ambos casos hay una distorsión y una negación de la conveniencia de investigar y comparar antes de aceptar la respuesta. La tendencia dominante en la web no es facilitar la acumulación reflexiva y la organización del conocimiento sino asegurar el fluir automático - y rápido - de los datos. Los esfuerzos - de más de veinte años - para crear una memoria semántica de la web convirtiéndola en un espacio auto-navegable y auto-comprensible han resultado infructuosos. Se ha entregado esta tarea a la inteligencia artificial, pero solo sirve para responder a preguntas específicas, en ámbitos específicos, y no atravesando la enorme memoria global, como haría un cerebro humano con su propia memoria. Y si la IA compara y categoriza, lo hace en forma automática: no reflexiona. La inteligencia artificial es mecánica, no humana. NO HACE ABSTRACCIONES, HACE EXTRACCIONES.

4. Las redes sociales (social media) me intranquilizan aún más. Las líneas anteriores ya señalan peligros. Pero la cosa es mucho más grave. Son un insumo para las empresas, que capturan una enorme cantidad de información sobre cada uno de nosotros y con ella pretenden "asistirnos" en nuestras decisiones. ¡Es reducir el rol de nuestra propia mente, anular todo esfuerzo de reflexión crítica! (Ver mi post "Hacia una libertad virtual"). ¡Ya no hace falta pensar: nos dan el alimento mental premasticado! Como dice Lassalle, 

"Ahora se nos neutraliza en la capacidad decisoria jugando con la sutileza algorítmica que hace que las personas no actúen según su juicio sino que se optimice este en nuestro propio beneficio. El problema es que esta neutralización de nuestra capacidad decisoria es esencialmente totalitaria." (2019: 41).

5. Las redes sociales y el sistema de búsqueda y respuesta ya descritos nos llevan además a ser parte de una burbuja de conocimientos y opiniones similares, alejada de las diferencias y discrepancias. El peligro reside en la fragmentación, e.d. en una ciudadanía cada vez más incapaz de marcarse un objetivo común y llevarlo a cabo (Iriarte). Cuando esta división se hace moral, deriva en una deslegitimación tribal más profunda que conduce a un tipo determinado de populismo. 

Además, en estas redes, la expresión es más desenfadada, más irreflexiva, que en los contactos directos. Ahí, "las emociones, como la alegría, la tristeza, la rabia son más impulsivas y exacerbadas porque detrás de una pantalla hay menos barreras para expresarse", opinó la psicóloga Sandra Troncoso (El Mercurio, 18/05/2014). ¡Más emoción, menos reflexión!


6.
Los usuarios habituales (y por lo tanto las nuevas generaciones) ven afectada la estructura misma de su cerebro. Ahora que internet está presente tanto en nuestros bolsillos (con los smartphones) como en nuestras casas (con los PC, las tabletas o los televisores conectados) y pronto en nuestros autos y electrodomésticos, ya no podremos escapar – al menos en nuestros países – de los efectos de esta tecnología. Ya advirtió Marshall McLuhan que las tecnologías de comunicación alteran el cerebro ("El medio es el masaje"). Dada la plasticidad del cerebro, los circuitos neuronales no usados se debilitan. Al pasar horas frente a la pantalla, se somete al cerebro a una lluvia de estímulos que produce estrés y limita el tiempo para reflexionar y tomar decisiones adecuadas. “Las habilidades mentales que sacrificamos pueden ser tan valiosas, o incluso más, que las ganadas” nos advirtió Nicolás Carr (2011: 51). 

Un grupo de investigadores de la Universidad de Sussex descubrió que las personas que usaban un número mayor de dispositivos al mismo tiempo – como el smartphone mientras se mira la televisión y se consultan las redes sociales – presentaban menos densidad de materia gris en el córtex cingulado anterior, responsable del control de las emociones, el razonamiento y la empatía (Kep Kee Loh, TicBeat,14/10/2014). 

7. La redacción de algoritmos exige mucha abstracción y es muy compleja, pero el avance en el procesamiento del lenguaje natural y del "aprendizaje de máquina" no supervisado harán que los programadores ya no necesiten escribir códigos: bastará que digan a la máquina "haga tal cosa" y, quizás, al ver el resultado, si no está bien: "busque más información y programe de nuevo". Ya lo podemos ver con aplicaciones de creación de imágenes como DALL-E (imagen adjunta) y Midjourney, o incluso un video con Make-a-Video (de Microsoft). 

8. La correcta selección de los datos para obtener resultados útiles ya es hoy un problema para los programadores (y los errores conducen más de una vez a "sugerencias" bastante extrañas - e inútiles - en la "asistencia" que recibimos. No está claro como la IA podrá solucionar este problema. No solo es una incomodidad para las personas: puede ser un enorme riesgo para la sociedad entera (pensemos en "consejos" políticos que podrían ser desastrosos). 

Conclusión

Internet nos ayuda a encontrar y compartir información en forma más rápida y eficiente, pero reduce nuestra capacidad para el pensamiento profundo. Y lo más preocupante es que este cambio, como lo hemos visto, ocurre a nivel biológico, en la estructura de nuestro cerebro, y es tanto más profundo cuanto más tiempo pasamos "conectados".

¡En suma, podríamos terminar siendo los epsilones del Mundo Feliz! Y en un mundo muy infeliz si los algoritmos políticos se equivocan, o nadie quiere seguir los buenos consejos (como la eliminación de todas las fronteras, que ya sugirió una IA).

Los accionistas de las plataformas también serán epsilones, excepto que seguirán ganando mucho dinero...

(El juicio de Daniel Innerarity es un poco diferente del mío: "No está en juego la racionalidad y su contrario, sino una cierta metamorfosis de la idea misma de racionalidad, que ya no puede definirse cómodamente frente a su simple negación." (en "La sociedad el desconocimiento", que recién voy a empezar a leer.)

Referencias

BBC News (2022): El ingeniero de Google que asegura que un programa de inteligencia artificial ha cobrado conciencia propia y siente, BBC Mundo, 13/06/2022

Car, N. (2011): Superficiales ¿Qué está haciendo internet con nuestras mentes? Mexico, Taurus.

Colle, R. (2015): ¿Ser digital o ser humano? De la red cerebral a las redes sociales, Santiago, INCOM Chile.

De la Rica, A. (2022): Técnica y arte de la escritura, Telos 120. 

Haritz (2019): Aborígenes australianos: toda la verdad sobre su historia y cultura, Australiaje.

Iriarte, M. (?): La emergencia de la individualidad, IMH (Gipuzkoa). 

Lassalle, J.M. (2019): Ciberleviatán; Barcelona, Arpa.

McLuhan, M., Fiore, Q. (1967): El Medio es el masaje, Buenos Aires, La Marca, (Original en Bantam Books).

Pariser, E. (2017): El filtro burbuja, Barcelona, Taurus.

Piaget, J. (1950): Introduction à l'épistémologie génétique, Paris, PUF.