martes, 27 de febrero de 2024

¿Llegará a la prensa la IA "conversacional"?

 "The emergence of generative AI and large language models represents a paradigm shift in how enterprises engage with customers and manage internal workflows" dice Laurel Ruma en la revista de tecnología del MIT. Los clientes de las empresas detestan que sus chatbots envíen a las páginas de preguntas frecuentes (FAQ) y, en las empresas, los empleados quieren que los dirijan a las mejores bases de conocimiento sin búsquedas eternas. 

"In the ever-evolving landscape of customer experiences, AI has become a beacon guiding businesses toward seamless interactions." La pregunta, ahora, en nuestro campo, es ¿La IA, con la oferta de los chatbots, guiará también a las empresas de medios hacia interacciones fluidas, hacia "conversaciones" más efectivas y más habituales que las escasas conversaciones que ya defiende, por ejemplo, Eduardo Arriagada, profesor de la Pontificia Universidad Católica de Chile, desde hace años y especialmente en su libro "Hiperconectados"?

Por cierto, la capacidad de los chatbots de IA generativa aún falla en crear respuestas realmente personalizadas, pero "tienen el potencial de ofrecer respuestas legibles por humanos y sensibles al contexto" según Elizabeth Tobey, directora de marketing, digital e inteligencia artificial de NICE (citada por Ruma). La prensa, por lo tanto, debería estar especialmente atenta y tener en cuenta este avance, no solo para apoyar a sus periodistas en la producción de sus artículos (o realizar investigaciones y resúmenes automáticos), sino para entrar en un nuevo tipo de relación con sus lectores. ¡Pensar en un diálogo, más ajustado a los intereses de cada uno de sus suscriptores! ¿No se haría de este modo más atractiva?

Referencia

Ruma, L. (2024): Conversational AI revolutionizes the customer experience landscape, MIT Technology Review, Feb 26, 2024

martes, 20 de febrero de 2024

El conocimiento, la IA, la mente y sus límites respectivos

 En 1930, Kurt Gōdel, considerado "el más grande lógico desde Aristóteles" (Bollore y Bonnassies, p.327), dio a conocer el llamado "teorema de la incompletitud", que sacudió y transformó profundamente la lógica y la matemática. Simplificando, establece que todo sistema lógico incluye verdades que no puede demostrar (para ello, se ha de pasar a un sistema superior). Aunque inicialmente se refiere a sistemas lógicos y matemáticos, se puede ampliar a todo sistema de explicaciones coherente ("un sistema no puede ser a la vez coherente y completo"). Esto es de la mayor importancia para la reflexión sobre el conocimiento y las "máquinas" (fisiológicas o mecánicas) que operan con información, como explicó Roger Penrose:

"En dos libros que provocaron escándalo entre los defensores de una concepción materialista de la mente humana, Penrose pretende demostrar que el teorema de Gödel basta para afirmar que la mente es superior a toda máquina. [...]  Según él, la posibilidad para la mente humana de acceder directamente a ese «mundo de las matemáticas» le otorga un poder superior al de los ordenadores, los cuales, por definición, no pueden tener acceso a él." (Bollore y Bonnassies, p.317)

Gōdel mismo se había adelantado con esta misma conclusión:

"«Mi teorema de incompletitud implica que o bien la mente no es mecánica [no es la producción de una máquina como el cerebro], o bien la mente humana no puede entender su propio mecanismo». Por consiguiente:

  • o bien el espíritu humano es una realidad independiente del mundo material

• o bien los objetos matemáticos tienen una realidad fuera de ese mismo mundo material.

Para Gödel, estas dos proposiciones eran absolutamente verdaderas." (Bollore y Bonnassies, p.318-319)

Así, no se ve posibilidad alguna de que la inteligencia artificial llegue a emular o sustituir la mente humana. Del mismo teorema de Gödel se puede deducir el hecho de que el espíritu humano escapa a la realidad material:

"En neurología, ese teorema afirmaría que, a pesar de su ingente cantidad, no hay en las neuronas del cerebro humano una capacidad de almacenamiento suficiente como para producir todas las operaciones realizadas por una mente." (Bollore y Bonnassies, p.320)

Referencias

Bollore, M.Y. y Bonnassies, O (2023): Dios, la ciencia, las pruebas, Madrid, Ed.Funambulista. Primer capítulo disponible en la web Funambulista

Penrose, R. (2012): Las sombras e la mente, Madrid, Crítica.

martes, 6 de febrero de 2024

El Big Bang y la información

 
La segunda ley de la termodinámica dice que el calor no puede pasar de un cuerpo frío a uno caliente, lo que estableció Rudolf Clausius en 1865 y llamó entropía la pérdida de calor que se produce en toda acción. Lo que apunta también a la "muerte térmica" del universo, cuando ya no quede energía y el calor haya llegado a un promedio final estable.

Erwin Schrödinger, uno de los padres de la mecánica cuántica, introdujo en 1943 el concepto de entropía negativa, llamado luego negentropía por el físico frances Léon Brillouin, para designar lo que un sistema vivo produce para compensar su entropía natural: el orden de sus subsistemas y, así, resistir a su declive. La entropía mide la falta de información, es desorden mientras la negentropía es el orden, que aparece como información (Brillouin, p.X).

Shannon y Weaver introdujeron este concepto en la teoría de la información (1948) para el análisis de señales (especialmente en líneas telefónicas). Fue Brillouin que estableció la relación entre las dos perspectivas proponiendo que "la información (y con ella el lenguaje) es un factor negentrópico es decir por el cual se puede anular la entropía" (Wikipedia).

En 1988, Mario Ludovico definió la negentropía (entonces llamada "sintropía") como "el grado de organización interna de cualquier sistema formado por componentes que interactúan entre sí", estableciendo que "la sintropía es una cantidad complementaria a la entropía" y la suma de ambas cantidades define un valor constante (Wikipedia).

Brillouin dice que "La información es una función de la relación de las respuestas posibles después y antes que se recibió" (p.VIII). La información se transforma o se transmite, pero, agrega, "es imposible describir el mecanismo del pensamiento" (ibidem). Aunque la información tiene un valor subjetivo que puede variar según el observador y dicho valor no es directamente medible, en 1981 el finés Osmo Wiio propuso una fórmula para su medición que se basa en las variaciones en el estado de un sistema (el antes y el después, lo cual corresponde exactamente a la definición de Brillouin). Y este enfoque es útil en el campo de la psicología cognitiva, es decir en lo relativo al desarrollo del conocimiento humano (cfr. Colle, 2002, Cap.1, pp.17ss de la versión en PDF).

Aquí viene lo interesante. Como explican latamente Michel-Yves Bollore y Olivier Bonnassies en su libro, si remontamos el tiempo, mirando hacia atrás la historia de la entropía, llegamos al Big Bang, el momento en que la energía estuvo en su nivel máximo y su mayor concentración. ¿Qué pasó entonces con la negentropía y la información? Según la termodinámica y conforme a la propuesta de Ludovido, la entropía debió ser nula y, por lo tanto, la información debió ser máxima. "Sí, el universo tiene un comienzo, y sí, ese comienzo debe corresponder a una entropía muy baja, o sea, a un orden muy elevado" (Bollore y Bonnassies, p.74).

Luego, la evolución del universo significó una diversificación de los subsistemas, conforme a fragmentos de información preestablecidos "desenvolviéndose" a través del tiempo.

Hablar de "antes del Big Bang" tiene poco sentido porque el tiempo no existía: empieza con este evento crucial. Pero es posible entender que la materia no podía existir tal como la conocemos. 

"¿Que podemos imaginar en su lugar? Tal vez algo inmaterial, que podría ser la información. Antes del Big Bang - más exactamente en el instante cero -, el tiempo aún sería, en ese caso, puramente imaginario, y la realidad no existiría en esta etapa, sino bajo la forma de una información pura, una especie de código de esencia matemática.

Una información primordial, pues, que habría "programado", con una precisión que desafía la imaginación, el nacimiento del Universo en el momento del Big Bang y luego su evolución a lo largo de miles de millones de años." (ibidem, p.101)

Pero las investigaciones sobre el origen de la vida nos aportan algo más:

"Es sorprendente que la dimensión tecnológica de la teoría de la información y de la teoría de la codificación haya estado presente en el mundo vivo desde hace 3850 millones de años", o sea desde la aparición de la primera célula viva (Hubert P. Yockey, citado por Bollore y Bonnassies, p.245).

Y hay aún más: en la célula viva aparece la estructura básica de todo sistema: entrada-procesamiento-salida y, en este caso, el procesador es acompañado de una memoria; modelo copiado en los computadores clásicos.  Además, este sistema es capaz de interactuar con su ambiente.


Las "religiones del libro" (judaïsmo, cristianismo e islam) proclaman la obra de un Dios creador: "En el pincipio, Dios creó el cielo y la tierra, [,,,] Y Dios dijo: 'Que haya luz'" (Génesis, 1, 1 y 3). Y, para los cristianos "En el principio estaba el Verbo (la palabra)" (Juan, 1, 1). Esto corresponde perfectamente con lo que ciencia sabe acerca del Big Bang: se hizo la luz - aunque apareció solamente 380.000 años después del Big Bang, como pudo calcular George Smoot (Premio Nobel 2006) -  de la cual aún se perciben rastros (la "radiación de fondo"). 

Y la "palabra original", presente en la creación, ha de ser la totalidad de la información concentrada en ésta, como dicen Bollore y Bonnassies. Recordemos también lo que dijo Brillouin "la información (y con ella el lenguaje) es un factor negentrópico es decir por el cual se puede anular la entropía". La creación fue obra de una palabra que anulaba totalmente la entropía, siendo entonces la concentración máxima de información.

Para finalizar, una pregunta sin respuesta: Si el genio humano produce información: ¿la crea realmente o sólo expone una información que ya formaba parte de la información total del momento de la creación?

Referencias

Bollore, M.Y. y Bonnassies, O (2023): Dios, la ciencia, las pruebas, Madrid, Ed.Funambulista. Primer capítulo disponible en https://funambulista.net/wp-content/uploads/2023/09/DIOS-intro-ES-MKTNG-imprimir_INT-y-CUB-v2.pdf

Brillouin, L. (1959): Science et théorie de l'information, Paris, Masson.

Colle, R. (2002): Teoría cognitiva sistémica de la comunicación, Santiago, Ed. San Pablo. 

Yockey, H.P. (2000): Origin of life and Shannon'theory of communication, Comput. Chem., 24 (2000), pp. 105-123. 

Shannon, C. E.  (1948): A mathematical theory of communication, Bell Syst. Tech. J. 27, 379–423. 

WIIO, O. (1981): "What is Information. A Conceptual Analysis of Some Basic Words", Paper, ICA Meating, Minneapolis.

Imagen: La creación (Capilla Sixtina). Fuente: Wikipedia.