miércoles, 13 de diciembre de 2023

El cerebro artificial: una meta cada vez más lejana

 Sabemos hace tiempo que el cerebro se compone de 86.000 millones de neuronas. Hace años también que se trata de crear redes de neuronas artificiales (de cilicio o biológicas) a modo de procesador, esperando avanzar de a poco hacia la obtención de un cerebro artificial comparable al cerebro humano.

La sola cifra de 86.000 millones de neuronas pone ya grandes dificultades para llegar a la meta. Pero lo estudios del cerebro han seguido avanzado y descubierto dificultades aún mayores, partiendo por el número (mil billones, 10E15) y la complejidad de las conexiones entre neuronas. 

Pero, además, las neuronas no son todas iguales ni cumplen las mismas funciones. En esta materia, "se ha producido una avalancha de hallazgos, la mayoría de los cuales aún no se comprenden completamente", dice la neurobióloga Barbara Treutlein, del ETH Zürich en Suiza (Marshall). 

Y hay que agregar ahora el porte de la genética que, en relación al cerebro y a las neuronas, ha descubierto en 2019 que una parte del ADN, exclusiva del ser humano, determina la conformación de la red neuronal: "la "expresión genética" puede dar a las células formas y comportamientos fundamentalmente diferentes" (ibidem). Un gen llamado SRGAP2C, exclusivo del género Homo, altera las conexiones en la corteza, multiplicándolas.

"La complejidad aquí es vertiginosa. Un estudio de 2021 sobre expresión genética encontró que algunos genes que son importantes en el cerebro pueden producir 100 proteínas cada uno, dependiendo de cómo se expresen. Un gen expresado en humanos en desarrollo, pero no en chimpancés, controla toda una red de otros genes que se cree están involucrados en el desarrollo del cerebro humano." (ibidem)

Es posible que una parte de esta complejidad haya sido desvelada por el Human Brain Project, que se dio por finalizado este año y en el que participaron 500 investigadores durante diez años, aunque aún queda por descubrir como aprovechar estos conocimientos.

Un ejemplo es el descubrimiento realizado en 2017, por el equipo del neurocientífico Nenad Sestan, de la Universidad de Yale en New Haven, Connecticut: han descubierto que algunas neuronas son la expresión de genes implicados en la producción de dopamina, la hormona de la recompensa, y están presentes en la corteza cerebral. Por ello, Sestan sugiere - aunque aún es una mera hipótesis - que podríamos sentir placer por el mero hecho de pensar. (ibidem)

Kurt Schilling y su equipo de investigadores de la Universidad de Vanderbilt (Estados Unidos) también han descubierto que la materia blanca del cerebro - formada por los axones que conectan las células nerviosas y las células gliales que los rodean y protegen- emite señales y aún se desconoce exactamente su función (Piacente). Pero se producen cuando el cerebro se encuentra en una etapa de mayor actividad y parecen asociadas a la conectividad y a la circulación de la sangre.

Otro descubrimiento, de una investigación dirigida por el Instituto Turner para el Cerebro y la Salud Mental de la Universidad de Monash en Australia, se obtuvo al examinar más de 10.000 mapas diferentes de la actividad del cerebro humano ha mostrado que el mapa topográfico del cerebro de una persona es diferente del de otra persona y ejerce una influencia sobre cómo pensamos, sentimos y nos comportamos. "Las ondas cerebrales no son el producto directo de las conexiones neuronales, como señalan los autores de esta investigación, sino de la orografía cerebral que, a modo de correntía, regula el paso de los pensamientos a través de las montañas, vaguadas y laderas cerebrales."  (Martínez de la Fe) Por lo tanto, no se trata solamente de la red (las conexiones) sino de la difusión a través del mapa de la red.

Mientras más sabemos del cerebro, más podemos dudar de que podamos reproducirlo (excepto por la procreación, evidentemente).

Referencias

Ebrains (2023): Human Brain Project, Highlights and Achievements

Marshall, M. (2023): Los nuevos descubrimientos que cambian lo que sabemos sobre la importancia del tamaño del cerebro en la inteligencia humana, BBC Mundo, 12/12/2023. 

Martínez de la Fe, E. (2023): El pensamiento no depende de las conexiones neuronales, sino de la orografía cerebral, Levante, 14/07/2023. 

Piacente, P.J. (2023): La materia blanca del cerebro emite señales que desconocemos, Levante, 27/10/2023.

Schilling, K. & alt. (2023): Whole-brain, gray, and white matter time-locked functional signal changes with simple tasks and model-free analysis, PNAS (2023). DOI:https://doi.org/10.1073/pnas.2219666120

martes, 14 de noviembre de 2023

La realidad depende del observador

Es lo que demuestran los últimos estudios de la física cuántica. Y esto tiene muchas consecuencias en materia de conocimiento, de comprensión de la naturaleza en general y del ser humano en particular... así como del trabajo periodístico.

Ya sabemos desde hace decenas de años que la base última de la realidad no son los átomos sino las interacciones subatómicas de nivel cuántico. Y es esencial descubrir no solamente que formamos parte de esta realidad y que, al observarla, nos observamos a nosotros mismos, sino que también observar es intervenir en estas interrelaciones.

"Una de las grandes conclusiones de la física cuántica es que Erwin Schrödinger, que supuestamente decide la suerte de su famoso gato cuando quiere ver si está vivo o muerto, no es el único “observador” del mundo, ya que todo lo que forma parte de la realidad es a la vez observador y observado. El gato también sabe de Schrödinger." (Martínez de la Fe)

En una reciente publicación en Physical Review Research,  Tomonori Matsushita y Holger F. Hofmann, de la Universidad de Hiroshima, muestran que todos los objetos que conforman la realidad se observan recíprocamente y la dinámica de la observación de la realidad marca su misma dinámica: "los valores observables de un sistema físico (es decir, lo que podemos observar del mundo) dependen de la dinámica de la interacción de medición por la que se observan" (Matsushita y Hofmann, en Martínez de la Fe). 

No se ha de pensar que estos conceptos de limitan al campo de la física cuántica. No atañan en la vida diaria, en el trabajo profesional: "Nuestros resultados muestran que la realidad física de un objeto no puede separarse del contexto de todas sus interacciones con el medio ambiente, pasadas, presentes y futuras” (ibidem). Y esto tiene una consecuencia de primera importancia de materia de desarrollo y difusión del conocimiento: "lo que es real para un observador puede no serlo para otro" (ibidem). 


Esta idea no es una novedad en el campo de la ciencia: es el fundamento de su desarrollo: todo descubrimiento, toda teoría está constantemente sujeto a revisión, a puesta a prueba. Pero ha de ser una potente llamada de atención para el trabajo de los "difusores" y especialmente de los periodistas (y de sus lectores). El periodista no informa sobre el hecho que observó sino sobre lo que este produjo en él. Y el receptor solo puede captar lo que el mensaje produce en él. También es un recuerdo - y un respaldo - de una realidad psicológica, observada también por la semiótica: cuando observamos un hecho (o una publicación) lo "mezclamos" indefectible e irremediablemente con lo que somos (cfr. Colle, 2023 y 2005).

Observar algo es entrar en una nueva relación con lo que observamos. Lo observado pasa a formar parte de nosotros. Y nosotros de lo observado, dice la cuántica. Esto da sin dudas una nueva explicación al significado en el campo de la semiótica. ¡De seguro nunca pensamos que, además, cómo receptores, cambiamos también, imperceptiblemente, al emisor, pero es lo que nos enseña la cuántica!

Una similitud, a nivel macroscópico, nos puede ayudar a entender esta realidad: un acontecimiento cobra "existencia pública" en la medida en que es observado; con un testigo (observador), quedará algo difuso pero con más testigos su "existencia" quedará cada vez más y mejor establecida. Así, son los testigos que lo definen. En otros casos, por cierto, este fenómeno de "retro-definición" es evidentemente mucho menos patente, pero no menos real según la física cuántica.

Referencias

Martínez de la Fe, E. (2023): Hiroshima aporta una nueva clave para entender la física cuántica que provocó su destrucción, Levante, 6/11/2023. 

Matsushita, T. and Hofmann, H.F. (2023): Dependence of measurement outcomes on the dynamics of quantum coherent interactions between the system and the meter, Phys. Rev. Research 5, 033064; 31 July 2023. 

Colle, R. (2023): Semiótica, mente y cognición, Revista Chilena de Semiótica, n°18. 

y (2005): El proceso semiótico en un enfoque cognitivo, Revista LATINA de Comunicación Social, nº60. 

martes, 17 de octubre de 2023

Teoría de la infodinámica: ¿es el universo una simulación?

 Un físico afirma que el universo es una simulación informática y somos personajes en ella. Es Melvin Vopson, de la Universidad de Portsmouth, y lo que propone pertenece al campo de la física de la información, "una disciplina que postula que la realidad física está principalmente constituida por unidades fundamentales de información" (Jerez). Como bien señala Sara Jerez, esta teoría es "un ejercicio mental". Pero está relacionada con la segunda ley de la termodinámica, que se refiere a la entropía. 

La entropía establece que todo lo que ocurre significa un gasto de energía, parte de la cual es irrecuperable, y un aumento del desorden. Sin embargo sabemos, desde los trabajos de Shannon y Weaver (1948), que la información opera en sentido inverso: es "negentropía", es decir entropía negativa, cuyo total se mantiene o disminuye con el tiempo. Es la llamada segunda ley de la dinámica de la información, demostrada en 2022 (Vopson).

A juicio de Vopson esta ley respalda la hipótesis del universo simulado, asociada a la aplicabilidad de esta ley "a la información digital, la información genética, la física atómica, las simetrías matemáticas y la cosmología" (Jerez). Registra pruebas de que existe "una inclinación" de la naturaleza hacia un sistema que tiende a eliminar el exceso de información y optimiza el consumo de energía.

Vopson considera además que la información es un quinto estado de la materia y "podría constituir la materia oscura del universo" e incluso "podría ser el bloque de construcción fundamental del universo" (ibidem).

Si bien esta hipótesis es aceptada por varios físicos, aunque debe someterse a otras investigaciones, me parece muy dudoso que se pueda, como lo hace, deducir que vivimos en una simulación por el hecho de que, también, "se asemeja al proceso de un ordenador que elimina o comprime código residual para ahorrar espacio de almacenamiento y optimizar el consumo de energía". ¡Comparación no es razón! Ésta es una típica falacia de razonamiento. Pero la idea del universo como simulación es una teoría filosófica que ha ganado varios adeptos. Podríamos preguntar entonces, en este caso, ¿cuál es la realidad que simula? ¿Y quién es el simulador?

Recordemos que existen otras teorías, especialmente las propuestas por físicos como Roger Penrose y Fritjof Capra, que se han interesado por el procesamiento mental de la información, sugiriendo la existencia de leyes físicas aún desconocidas que sustentan todo el universo (cf. Colle, 2016, pp.43ss.). Esta referencia a la mente (o la conciencia) es sin duda la que mejor pone en evidencia la importancia de la información en la constitución del universo. El "bloque de construcción fundamental del universo" bien puede ser la información (y esto podría resolver el problema de la relación entre cuerpo y espíritu) sin que por ello se trate de una simulación. 

Referencias

Colle, R. (1976/77): Información, evolución y entropía, Estudios Sociales 11, Santiago, 1977, pp. 111-130, y "Logos" 11, México, 1976, pp.69-88.

Colle, R. (2016): La ciencia y el espíritu: Científicos en busca del alma, Santiago. Academia.edu. 

Jerez, S. (2023): Nueva ley de la física probaría que vivimos en una simulación: científicos dicen que "apoya la idea", Radio Biobio 10/10/2023. 

Shannon, C. E.  (1948): A mathematical theory of communication, Bell Syst. Tech. J. 27, 379–423. 

Vopson, M. (2023): The second law of infodynamics and its implications for the simulated universe hypothesis, AIP Publishing, Oktober 2023, V.13, Issue 10.

miércoles, 13 de septiembre de 2023

La comunicación "reactiva"

 Insider anunció la muerte de la redes sociales, al menos como las conocíamos en la década pasada. Se usaban para compartir abiertamente la vida privada. Ya no más. Lo que manda ahora son las imágenes perfectamente editadas. Las redes sociales se usan "no como el centro de las relaciones personales, sino como el vector de crecimiento de esa marca personal", con búsqueda de la viralidad (Lacort). El uso de Facebook ha disminuído drásticamente mientras han crecido Instagram y Tiktok: 2.500 millones de usuarios usan Instagram y 1.000 millones Tiktok (ibidem). Las cosas más personales han pasado a WhatsApp, muchas veces en grupos familiares.

¿De quién es laculpa de esta transformación? De las mismas plataformas que "incentivaron a ello desarrollando una estructura de recomendaciones en la que la dopamina se hizo protagonista, y solo la viralidad permite acceder a ella" (Lacort). 

Por cierto, nada de "conversaciones" en Instagram o Tiktok: ahí, solo se trata de difundir y pulir la imagen personal. Fuera de WhatsApp, donde las conversaciones se hacen a "golpes" de frases cortas y emojis, queda Twitter (perdón, "X") o, para algunos, sus sustitutos (¿Mastodon?), donde las conversaciones también se reducen a intercambios de frases cortas y son generalmente "reactivas", es decir que se trata de reacciones a posteos que complacen o molestan: más emocionales (e inmediatas) que reflexivas, como s también muchas veces en WhatsApp. (Por esto, hablo de "comunicación reactiva".)

Claudine Haroche, socióloga y antropóloga francesa, dice que

Hemos perdido el contacto directo con la gente, la comunicación cercana, el tacto entre personas. Y al mismo tiempo que aumentó la distancia entre todos, cada vez nos exponemos y mostramos más en sociedad, aunque de modo superficial. [...]

Como estamos ocupados, ni siquiera nos paramos a pensar, no procesamos lo que nos pasa, vamos en automático. [...] Eso implica no pensar en qué sentimos, no mirar hacia adentro. [...]

Las conversaciones se vuelven así extremadamente superficiales. No pensar beneficia al sistema. [...]

Tienes contactos, gente con la que hablas todo el tiempo, en todos lados, en redes, pero contactos sin profundidad y sin tiempo para entrar adentro de uno mismo, de pensar. (C.Haroche, en Hernández)

Aún mantenemos, sin duda, vínculos cercanos son nuestros familiares y algunos amigos, pero incluso estos se encuentran parte del tiempo mediados por una "app" como WhatsApp. Fuera de este pequeño círculo campea el aislamiento, a pesar de tener "seguidores", de los que apenas se conocen -si acaso- el nombre.

Si estamos todo el tiempo conectado en las redes sociales, no nos queda tiempo para pensar con alguna profundidad, para desarrollar la mente. Reaccionamos. Esto no es conversar. Y no pensar deja la puerta abierta al crecimiento de la violencia. "Hay una falta constante de tacto entre las personas", dice Haroche (en Hernández).

El sistema, como aparece hoy (de acuerdo a las estadísticas) "nos estamos convirtiendo en una sociedad menos profunda y más mundana" (ibidem). "Vivir por sí mismo", desarrollando la mente y la reflexión solo es posible "para quienes son suficientemente fuertes, pero es muy difícil" (ibidem).

Es especialmente difícil si los medios de comunicación más usados llevan la sociedad a un cambio constante, a una permanente incertidumbre, una "sociedad líquida" como decía Zygmut Bauman. 

¡Reemplacemos la reacción por la reflexión!

Referencias

Bradley,S. and Perelli, A. (2023): Social media is dead, Insider, Aug 30, 2023. 

Hernández, A. (2023): En la sociedad actual se ha pasado del acoso sexual al acoso moral, Entrevista a Claudine Haroche, BBC News, 12/09/2023. 

Lacort, J. (2023): Cuando las redes sociales ya no son sociales, Xataka 9/09/2023. 

jueves, 17 de agosto de 2023

¿Una nueva era con la IA? (¡Y no solo ella!)

 El auge de la IA está inquietando mucha gente y ya se han señalado numerosos campos en que puede significar adelantos importantes (y también, quizás menos recalcado, donde puede introducir distorsiones sino francos errores y pérdida de tiempo).

Bill Gates se ha hecho una reputación de visionario, acertando muchas veces. E interviene ahora para señalar que estamos entrando en una era marcada por la IA "comparable con la introducción de las primeras computadoras personales e Internet en términos de su alcance" (Acurero). Debemos "prestarle atención para sobrevivir" porque "transformará por completo el panorama laboral y empresaria" (ibidem). ¿Dónde ve mejores posibilidades de trabajo? Obviamente en lo relacionado con la IA, pero también en los campos de la energía y "tal vez" de la biología. También, sin duda, deberá ajustarse la educación.

Sin embargo, no se puede olvidar el cambio climático. Gates lo hizo notar también hace unos años y ha propuesto un plan en el libro "Cómo evitar un desastre climático" (Plaza & Janés, 2021), publicado en plena pandemia y con los efectos de ésta a la vista. Apela a la innovación y a subvencionar los países pobres, que no pueden reducir sus emisiones de gases invernaderos. Hay muchos problemas - y necesidades - en el campo de la generación de energía. Se necesita una transición en las industrias del acero y del cemento. Y, sobre todo, políticas favorables a estos cambio. (Domínguez)

¿Pero, que es lo que vemos? Cada vez que se reúnen los dirigentes de diversos países, un desacuerdo completo y la posposición de las metas. A pesar de los trastornos climáticos cada vez más destructivos. Está claro que el conocimiento, las comunicaciones científicas e incluso las vivencias resultan poco motivadores en este caso. 

Referencias

Acurero, G. (2023): Bill Gates y un nuevo pronóstico sobre los humanos que debemos asumir para sobrevivir en el futuro más cercano, FayerWayer, 9/08/2023.

Domínguez, M. (2021): Bill gates: El cambio climático tendrá efectos mucho peores que la pandemia, El País, 15/02/2021

miércoles, 9 de agosto de 2023

Texto, imprenta y digitalidad

 ¿Se puedes considerar los siglos de vigencia de la imprenta como un paréntesis en la historia del hombre? Es lo que planteó Pettit en un foro del MIT en 2010, seguido por Piscitelli en su libro de 2011, y que aborda un nuevo libro de Jeff Jarvis, adoptando el mismo título y abordando la misma idea general ya planteada por Pettitt. Ambos hacen un repaso de la historia, pero luego divergen en sus apreciaciones.

La idea principal que planteó Pettitt e inspiró a estos otros autores es que hemos de considerar tres períodos: antes de la imprenta, con su oralidad y la interacción cara-a-cara, el tiempo de la imprenta - "una tecnología intermedia", según él -, y la fase posterior, actual, en que, "estamos al borde de una segunda oralidad basada en el retorno de la fluidez en la comunicación" (Peverill-Conti y Seawell). No hay un momento preciso para marcar el fin de la era Gutenberg: depende de cada cultura y subcultura, dice Pettitt.

La imprenta introdujo numerosas reglas (cómo estructurar un texto, definir el autor, conservación sin cambios, etc.) mientras los cambios y las interferencias eran frecuentes antes y lo son de nuevo ahora. Internet cierra el paréntesis introduciendo "un retorno a modelos más antiguos de contenido, producción cultural y comprensión", dice Pettit (ibidem).

Los libros de Piscitelli y Jarvis desarrollan mucho más las ideas relativas a este "paréntesis". No quiero dedicarme a analizar en detalle las semejanzas y diferencias entre ambos, sino centrarme en el concepto central de "paréntesis" histórico. 

Paréntesis significaría que después del período señalado se volvería a una situación similar a la anterior a este período. Pettitt señaló semejanzas pero son sin dudas de un nivel muy diferente. 

Para mí, seria un error calificar la era Gutenberg exclusivamente como era de la imprenta. Los historiadores han hecho notar que su principal aporte cultural ha sido el empuje de la alfabetización y de la lectura. Está claro que no ha terminado la era de la lectura: se escribe y se lee más que nunca, aunque sea en medios digitales. Y sigue siendo el escrito el que más se conserva, se consulta, se cita y se reproduce. El conocimiento - especialmente el científico - se desarrolla sobre la base del escrito.

La imprenta también facilitó la ampliación de la escolarización, creó los mercados editoriales y, según algunos, incluso jugó un rol importante en la expansión del capitalismo. Nada de esto ha terminado.

Si es que Gutenberg abrió un paréntesis, la imprenta analógica puede haberse reducido en este siglo XXI, pero está lejos de perecer. La prensa, ciertamente, se ha visto afectada, pero no pasa lo mismo con la industria editorial. ¿Qué nos dice la industrial editorial? Según datos de Wordsrated, una de las escasas fuentes  sobre esta industria, 

"El número de libros vendidos disminuyó un 24,04 % desde un máximo histórico en 2008 hasta un mínimo histórico en 2012. Pero desde entonces, la industria de los libros impresos ha vuelto. Al pasar de 591 millones de libros físicos vendidos en 2012 a 788,7 millones en 2022, las ventas de libros impresos crecieron un 33,45% en este periodo.  [...] La categoría más grande en forma impresa sigue siendo la no ficción para adultos, que vendió más de 289 millones de copias el año pasado y representa el 37,8% de todas las ventas de libros impresos." (Wordsrated)

Sin embargo, entre 2011 y 2021, "Los libros de más de 400 páginas están desapareciendo: la proporción de bestsellers largos cayó un 30%". Pero, según datos de Amazon, "los libros autopublicados han aumentado un 264% en los últimos cinco años" (ibidem).

¡El texto está más vivo que nunca!

¿Vuelve la oralidad? Algo se puede observar: podcasts, videos, etc., pero no tienen la exclusividad pregutenbergiana. También estamos más conectados. ¿Había más conversaciones antes de Gutenberg y "se vuelve" a ellas como piensa Jarvis? Es también dudoso. La imprenta no puso fin a las conversaciones. Puso progresivamente fin a la tradición oral y redujo nuestra capacidad de memorizar ese discurso oral. Y no estamos recuperando nada de esto. Una característica de la realidad preguntenbergiana era la memorización de los relatos. ¡Estamos lejos de esto!

Es posible que conversemos menos con nuestros vecinos pero conversamos posiblement más - y en forma indirecta - con nuestros contactos digitales.  Pero las conversaciones en redes sociales son algo muy diferente de las conversaciones cara-a-cara o incluso telefónicas.

Así, que "volvamos" a una era de oralidad me parece discutible. 

No es posible discutir aquí todas las ideas contenidas en los libros de Piscitelli y Jarvis. Escogeré solo algunas ideas.

Jarvis asume que estamos volviendo a las conexiones persona-a-persona. Pero, antes de Gutenberg (y por mucho tiempo aún después), era una comunicación oral cara-a-cara, entre personas que pertenecían a un grupo muy reducido. Ahora, dice, es de "cualquiera-a-cualquiera" ("any-to-any"), mientras el libro y los otros medios impresos lo hacían "de uno a muchos" (pero generalmente menos que los medios digitales actuales). Jarvis nos habla también de la "muerte de la masa" (pp.173.ss.). Pero la comunicación de masa ha sido un producto de la imprenta solo en el siglo XX. Sigue vigente a través de los medios digitales.

Piscitelli habla de "la disolución de la categoría de autor" (pp.32ss.) y plantea el paso del "reading brain" al "surfing brain" (pp.43ss.). Por cierto, se ha desarrollado el papel de "prosumidor" (aquí receptor-emisor) - anunciada hace décadas - y parte de la lectura se ha transformado en "surfing". A su juicio, los "libros eruditos" serían una especie en riesgo de extinción (pp.145ss.). Pero hemos visto ya que la industria editorial sigue floreciendo. 

Así, a mi juicio, no se puede sostener que la era Gutenberg ha terminado: el impreso (especialmente el libro) sigue siendo un medio esencial para la conservación del conocimiento. Nótese que los artículos científicos se ofrecen casi todos en formato PDF, es decir aptos para la conservación tanto digital como impresa. Ya se ha advertido más de una vez que los archivos digitales son mucho más perecibles: no solo son perecederos los soportes (¿cuéntos computadores traen aún un lector de CD?) pero también los formatos van evolucionando y es poco lo que se trata de "portar" de un formato a otro (aunque el PDF ha tenido y podría tener aún una larga vida). Por cierto hay que repensar posiblemente los medios de comunicación o, como dice Piscitelli, rediseñarlos para que "rediseñen nuestras capacidades cognitivas" (pp.171ss.). ¿Implica esto cerrar - aunque solo en parte - el "paréntesis" de la era de la imprenta? 

Gutenberg inauguró la era de la imprenta y esta era no ha terminado. Fórmulas como el "paréntesis Gutenberg" son demasiado simplistas y, en este caso, es distorsionadora.

Referencias

Eguaras, M. (2023): Investigaciones sobre libros y su mundo: los informes de WordsRated, M.Eguaras Consultoría Editorial. https://marianaeguaras.com/investigaciones-sobre-libros-y-su-mundo-los-informes-de-wordsrated/


Jarvis, J. (2023): The Gutenberg Parenthesis - The Age of Print and Its Lessons for the Age of the Internet, Bloomsbury.

Peverill-Conti, G. and Seawell, B. (2016): The Gutenberg Parenthesis: Oral Tradition and Digital Technologies, The Communications Forum at the Massachusetts Institute of Technology, Summary 2010, Published Aug 31, 2016.

Pettit Video (2010). 

Piscitelli, A. (2011). El paréntesis de Gutenberg. La religión digital en la era de las pantallas ubicuas. Buenos Aires: Santillana.

Sivera, S. (2023): El paréntesis de Gutenberg. COMeIN, abril 2015, núm. 43. ISSN: 1696-3296. DOI: 10.7238/c.n43.1525

WorldRated (2023): Print Book Sales Statistics, January 30, 2023. 


martes, 1 de agosto de 2023

El desvío de la ciencia frente a la inteligencia

 Con el Renacimiento y luego la Ilustración, el hombre inició una senda de desarrollo intelectual. Fueron tiempos de importantes avances en el mundo occidental.

Pero luego se produjo un cambio de senda, quizás producto del racionalismo, del positivismo y del pragmatismo que le podemos sin dudas asociar. Así, en vez de seguir profundizando su desarrollo intelectual, produjo la revolución industrial y una sociedad eminentemente materialista, olvidando cada vez más su propia realidad espiritual y la necesidad de cuidar y desarrollar ésta.

La "diosa Razón" que se veneró por unos años en Francia fue un indicio de este cambio de orientación y enorme error. La arrogancia de la razón se impuso a la espiritualidad. Sin duda explica la era tecnológica que vivimos y, en particular, el modo en que se investiga y se trata de desarrollar la inteligencia: en las máquinas y no en el hombre. ¿Pero no deberíamos preguntarnos, justamente, si no es en el hombre que deberíamos desarrollar la inteligencia? ¿Los desastres climáticos que observamos no son acaso una muestra de nuestra falta de inteligencia?

Se quiere seguir perfeccionando la inteligencia de máquina para que sea más amplia y "más parecida a la inteligneica humana". Pero se olvida que la inteligencia humana no es el mero funcionamiento de los circuitos cerebrales: es la operación de la mente e involucra por lo tanto el espíritu, un espíritu que la máquina nunca podrá tener y sin el cual nunca podrá resolver problemas realmente humanos.

La inteligencia humana tiene capacidades que no puede tener la IA: la "generación espontánea" (imaginación), la capacidad de juicio ético, la intencionalidad de las acciones, el amor, el sufrimiento y el remordimiento. Si algo de ésto puede incluirse en algún algoritmo, será propio del programador y no de la inteligencia mecánica. (Cf. Fernandes)

 Fernandes C., A.J. (2023): 4 rasgos exclusivos de los humanos que resultan imposibles para la inteligencia artificial, BBC Mundo, 21/07/2023

martes, 25 de julio de 2023

Falencias digitales y ecología

Se ha hablado bastante de las "fake news" y los "deep fakes" en videos. No es este tipo de falencias que quiero abordar aquí, sino errores en el lenguaje utilizado en la cultura digital.

La ingeniera informática y ecóloga Françoise Berthoud, investigadora en Centro Nacional para la Investigación Científica de Francia (CNRS), destacó los errores que se han introducido en el vocabulario del mundo occidental a partir del desarrollo de las comunicaciones digitales.

Así, por ejemplo, se dice que la industria digital es ‘virtual’, en el sentido de ‘desmaterializada´. De virtual (ficticio o imaginario) tiene muy poco. También hablamos de la conservación de información "en la nube", lo cual hace pensar en algún tipo de realidad etérea (bien sabemos que no se trata de vapor de agua) cuando, en verdad, se trata de una realidad física: una cierta alineación de electrones en las grandes memorias de enormes servidores, lo cual requiere a su vez una enorme potencia eléctrica (con sus consecuencias en la alteración del clima). ¡Nadie piensa en esta realidad física (y en el impacto ambiental) cuando guarda un archivo "en la nube" o cuando toma y transmite una foto con su celular.

Tomando conciencia de estos efectos ambientales, se habla de la necesidad de "sobriedad digital" en el sentido de buscar  la forma de reducir el consumo energético de los servidores, pero se olvida el enorme consumo asociado a la publicidad digital o al uso indiscriminado de la IA generativa: sobriedad debería ser también reducir éstas.

"A mi juicio, lo esencial es que la industria digital promueve el aumento de la producción y el consumismo en la sociedad sin contar con los efectos sobre la concentración de poder y el hecho de que las personas se vuelvan adictas a cierto tipo de comunicación. Y eso perjudica su capacidad para desarrollar un espíritu crítico. En esta dirección, habría que enfocar el problema, que va más allá de ver un vídeo con menos resolución para generar menos CO2." (F.Berthoud, en SINC)

Berthoud reúne así atinadamente los conceptos de ecología física y "ecología mental". Ambos deberían imponerse hoy.

Referencia:

SINC (2023): La industria digital promueve el aumento de la producción y el consumo sin contar con los efectos, Agencia SINC, 17/07/2023.



martes, 18 de julio de 2023

Una revolución neurocientífica en torno al pensamiento

Una nueva investigación realizada en el Instituto Turner para el Cerebro y la Salud Mental de la Universidad de Monash en Australia trastorna todo lo que creímos saber hasta ahora acerca de los mecanismos que sostienen el pensamiento. Se lo veía como un fluir a través de una secuencia de conexiones neuronales. Según los investigadores, "las ondas cerebrales no son el producto directo de las conexiones neuronales. [...] La actividad cerebral se desarrolla de la misma forma que una onda en el agua (se expande en función del marco físico del estanque)". Los pensamientos "están asociados a patrones de actividad que abarcan casi todo el cerebro" y dependen de sus surcos, contornos y pliegues. (Martínez de la Fe)

Lo han concluido después de estudiar más de 10.000 mapas diferentes de la actividad del cerebro humano.

Como tenemos dos hemisferios, que son como dos estanques apenas conectados, quizás sea una explicación del hecho de que podemos tener simultáneamente dos tipos de pensamientos (como escuchar un mensaje o rememorar algo y reflexionar al respecto).

Referencias

Pang, J. et al. (2023): Geometric constraints on human brain function, Nature, volume 618, pages 566–574. DOI:https://doi.org/10.1038/s41586-023-06098-1

Martínez de la Fe, E. (2023): El pensamiento no depende de las conexiones neuronales, sino de la orografía cerebral, Levante, 14/07/2023 

miércoles, 28 de junio de 2023

De la fascinación al desencanto

 He vivido una época fascinante, pero ya no lo es para mí.

Nacido al final de la Segunda Guerra Mundial, tuve el privilegio de conocer un período fascinante de la historia: el desarrollo de las tecnologías basadas en la electrónica y el principio de la era espacial. Pero también observé el desarrollo de los medios y costumbres más destructivos de la vida en nuestro planeta: la energía basada en combustibles fósiles, el auge del plástico, la agroindustria y la moda de lo "listo para botar" ("prêt à jeter", en francés). También he visto nacer internet y cómo se está desvirtuando su ideal inicial (como lo ha denunciado Tim Berners-Lee; ver Bejerano, El País, 21/08/2019).

Todo se "desborda". El clima está trastornado. Nos ahogamos con la contaminación (del aire y de la tierra). Aprendimos a gozar con la comunicación instantánea pero las redes sociales son cada vez más destructivas; las noticias falsas se multiplican (auge de la "postverdad"), el populismo le gana a la política seria, la violencia crece en las calles de todas las grandes ciudades; la IA crece en todos los ámbitos pero sesgada en sus algoritmos y en los datos recopilados (delitos incluidos) al punto de que se la considera "una amenaza para la humanidad" (Secretario General de las Naciones Unidas). Puede no ser una amenaza directa para nuestra vida pero sí podría distorsionar todo lo que se investiga y difunde, alterando la evolución personal y social. 

El sociólogo Pitirim Sorokin describió en 1960 la ruta del descalabro de las civilizaciones. Distinguió tres grandes etapas de evolución de estos "sistemas de verdad, cognición y conocimiento" (p.966): pasan primero por una etapa "ideacional" - de "verdad revelada por la gracia de Dios" (p.966) - seguida de una etapa "idealista" - que reconoce los sentidos y la razón como criterios de validez, y donde la razón "combina en un todo orgánico la verdad de los sentidos, de la fe y de la razón" (p.969) - y finalmente la etapa sensitiva, donde el conocimiento "solo se infiere por medio de los órganos de los sentidos". Este tercer momento corresponde a un período de auge de la tecnología, que tiende a volverse todopoderosa, mientras se va pervirtiendo la escala de valores (que llegó a su punto más alto en la etapa anterior). Marca el declive de la civilización. El ritmo puede variar para cada cultura, pero se terminaría siempre en la decadencia. 

Es exactamente, a mi juicio, lo que estamos viviendo, y José Esquinas, doctor en genética, ingeniero agrónomo y experto de la FAO, comparte esta opinión: "Todas estas crisis y amenazas que afrontamos tienen un origen común en una crisis única, en una falta de valores, falta de ética y falta de responsabilidad." (A.Sacristán, entrevistando a J.Esquinas, Levante, 20/06/2023). El exceso de tecnología puede destruir lo que nos hace humano.

Es preciso actuar, frenar este descalabro, dice Esquinas: "Los científicos estamos viendo el problema en toda su magnitud y es preciso dar la voz de alarma. Concienciar. Y si es preciso, rebelarse, rebelarse contra el suicidio colectivo al que nos aboca la ambición de algunos y la irresponsabilidad de muchos." Y agrega: "Es necesaria la creación de un Defensor de las Generaciones Futuras que se incluya en nuestros órganos representativos. Este defensor sería el pepito grillo que cuando se vaya a aprobar una ley va a levantar una mano y va a decir qué impacto puede tener dicha ley en las generaciones futuras." (Ibidem)

Nota

"Los ancianos entregan al presente un pasado necesario para construir el futuro. (Papa Francisco, 15/06/23)

Referencias

Bejerano, P. (2019): Berners-Lee: “La Web ha perdido el rumbo: hay muchas cosas que han ido mal”, El País, 21/08/2019. 

Esquinas, J. y Prieto, M. (2023): Rumbo al ecocidio, Planeta.

Sacristán, A. (2023): José Esquinas: "Si no detenemos la destrucción de nuestro planeta nada más tendrá importancia”, Levante

Sorokin, P. (1962): Sociedad, cultura y personalidad, Madrid, Aguilar, 3a ed. 1973.

martes, 20 de junio de 2023

El enjambre de los conocimientos y su crecimiento

 Dediqué el post anterior al tema de la acumulación personal del conocimiento. Quiero ahora ejemplificar cómo los conocimientos constituyen una suerte de enjambre donde, ocasionalmente, el conocimiento de un descubrimiento puede conducir - tiempo después - a un mejor conocimiento en otro campo de conocimiento. La "cultura general" en este caso constituye una base de la mayor importancia, especialmente para los periodistas, y la multidisciplinariedad es cada vez más importante para todos los científicos.

Propondré tres "vías", sobre la base de experiencias personales.

1. La vía aleatoria. En el colegio y en la universidad tuve que aprender rudimentos de física, aunque no pensaba que pudiera serme útil en el futuro. No se hablaba aún, en esa época, de física cuántica. Pero cuando se empezó a hablar de ella, me picó la curiosidad y leí un texto introductorio. Así aprendí qué era el entrelazamiento, la superposición y la coherencia, que son los conceptos más importantes. Pasaron muchos años y los "computadores cuánticos" hacen noticia y se habla ya de "comunicaciones cuánticas" a larga distancia (los chinos han avanzado mucho en este campo). Es más: leí hace unos días que 

"Los átomos también “respiran” y su aliento se puede utilizar para codificar y enviar información cuántica a través de un material. El descubrimiento tendrá aplicaciones potenciales en informática, sensores y comunicaciones cuánticas." (Levante, 6/06/23)

Obviamente se trata de una metáfora y alude a la vibración mecánica que descubrieron el profesor Mo Li y su equipo del Departamento de Ingeniería Eléctrica e Informática de la Universidad de Washington. Con ello, se podrán desarrollar nuevos circuitos de computación cuántica que operen con los circuitos ópticos integrados de muchas aplicaciones. Un aporte más a las comunicaciones del futuro. Y, por casualidad, estoy en condiciones de entender lo esencial.

2. La "derivación" institucional (combinada con los intereses personales). En la universidad, también, me enseñaron rudimentos de biología. Podría también considerarse aleatorio, como en el caso de la física. No podía prever, en ese momento, que podría tener algo que ver con mi interés por las comunicaciones. pero aquí intervino un factor institucional. Trabajando en una institución de asistencia a escuelas radiofónicas, tuve que informarme acerca de las relaciones entre las comunicaciones sociales y los procesos de aprendizaje. Leí el libro de Jean Piaget sobre aprendizaje y psicología genética y el libro de C.V.M. Smith sobre el cerebro. Descubrí así cómo se comunicaban las neuronas y cómo se acumulaba el conocimiento. Me permitió entender cómo funcionaba la comunicación en el cerebro y cómo, gracias a la comunicación social, se modificaba la red de neuronas en el proceso del aprendizaje, un tema de interés para la institución donde trabajaba. Fue un tema que seguí explorando desde entonces, pasando a ser el centro de mi tesis doctoral en los años noventa.

Al mismo tiempo, mi empleador tenía problemas con el rápido crecimiento de su biblioteca y tenía problemas de catalogación. Me informé acerca de los sistemas de clasificación, descubriendo la "Clasificación Decimal Universal" y también que se podían utilizar medios computacionales para registrar, ordenar y luego buscar las obras de la biblioteca. Esto me llevó a seguir un curso de programación de computadores. Superaba ampliamente las posibilidades de la institución, pero me resultó útil cuando aparecieron los PC.

Ya docente en la universidad, me enteré que algunos medios de prensa empezaban a utilizar computadores para registrar su información (como el "Information Bank" del New York Times). Dado que yo tenía algunos conocimientos en ambos ámbitos, el director de la Escuela de Periodismo me envió a Europa a investigar tanto la catalogación digital en medios de prensa como el funcionamiento del teletexto (texto computarizado con gráficos muy elementales transmitidos en un canal especial o bien en la franja existente entre dos cuadros sucesivos de la transmisión de televisión, algo ya difundido en Europa y bajo escrutinio en Chile). El principal producto fue un texto de la Escuela: "Procesamiento de información y organización de unidades de documentación periodística" (1983) y, para los alumnos, un taller optativo de documentación utilizando un pequeño Sinclair ZX81.

3. La síntesis y la exploración personal. Me quedó muy claro el paralelismo con el cerebro humano: se ingresaban datos, se conservaban, se clasificaban, y se accedía después a ellos, generando eventualmente una salida. Plasmé esta visión en la asignatura de "Procesamiento de la información" que empecé a dictar a fines de los años ochenta y creé luego para ello un material de autoaprendizaje en Hypercard, en computadores Macintosh (1991).

A mediados de los años 90, dediqué un semestre sabático al estudio de las ciencias cognitivas, las que combinan informática, biología, psicología y comunicaciones (¡interdisciplina!), bases de mi posterior doctorado.

Como ya es sabido, las TIC y el tema del conocimiento siguieron dominando mis intereses. Y lo que expongo aquí muestra cómo diversos ámbitos científicos se entrecruzan y complementan mutuamente.

Referencias

C.V.M. Smith (1972): El cerebro, Madrid, Alianza.

Piaget, J. (1973): Estudios de psicología genética, Buenos Aire, Emecé.

Martínez de la Fe, E. (2023): Los átomos también “respiran” y su aliento sirve para enviar información cuántica, Levante. 


martes, 13 de junio de 2023

Cómo se acumula el conocimiento personal

 Llegado al final, sin duda, de lo que considero una larga carrera académica, y manteniéndome en el ámbito de los correspondientes intereses, me hago la siguiente pregunta: ¿Cómo he llegado a conocer lo que conozco (y lo que he enseñado)? No pretendo contestar ni con una autobiografía ni con las habituales teorías psicológicas sino con un intento de trabajo analítico reflexivo (un análisis de proceso) acerca de una experiencia de vida.

Hacerlo exhaustivamente obligaría escribir una autobiografía, pero no es éste mi propósito. Tampoco lo es reconstruir mi currículum, que podría en parte dar cuenta de ello, sino extraer un nuevo conocimiento a partir de la revisión retrospectiva (mentalmente) de un largo proceso vital. Mi objetivo es tratar de formular una pauta o método para desentrañar los factores que intervinieron en el desarrollo de mis conocimientos (o los de toda persona). Se mezclan intereses personales - sin duda muchos causados por circunstancias externas - con intervenciones de terceros, combinándose con decisiones a su vez basadas en los conocimientos ya acumulados y las circunstancias del momento.

Convendría para ello buscar algún modelo de procedimiento o método existente, si lo hay. Revisando los que conozco y que parecen de interés en relación al tema de la acumulación de conocimientos, me parece que podría ser útil la "teoría del actor-red" (TAR) pero modificándola para obtener una "teoría del actor de conocimiento" (preciso y modifico este nombre más adelante).

Recordemos cual es la esencia de la teoría del actor-red. Describe un actor como "el blanco móvil de una enorme cantidad de entidades que convergen hacia él" (Latour, 2008: 73) más que como la fuente de una acción. Siempre está ligado a otros actores que influyen en él y sobre los cuales ejerce su influencia. Pero también importa el entramado formado por la asociación con actores no humanos: artefactos que, también, pueden tener efectos relevantes en los actores. Recuerda e insiste en que hay objetos que “hacen cosas”: los cronogramas ordenan actividades, las etiquetas pueden muestrar nombres y precios, y - sobretodo para nosotros - los libros entregan conocimientos (la relación con el autor es muy indirecta), los mensajes pueden motivarnos para contestarlos, etc. Muchos objetos son instrumentos y debemos aprender a utilizarlos. Y muchos instrumentos han producido enormes cambios en la historia en general y también en la de cada persona. (Ver detalles en mi libro "Los comunicadores y sus redes -  Metodología de investigación").  

¿Cómo adaptamos esta teoría en el presente caso? Aunque inspirada en el actor-red, podría llamar mi propuesta "modelo analítico del desarrollo del conocimiento de un sujeto en su red" (cambiando "actor" por "sujeto" y manteniendo la idea de red) o bien, más sintéticamente, como "red dinámica de conocimientos personales". Bastaría restringir la TAR a las fuentes de influencias y al producto "nuevo conocimiento" de ellas. Pero, para lograr el objetivo, al contrario de la TAR, no se limitaría al "espacio-tiempo" presente sino a toda la historia individual.

¿Por donde partir? ¿Qué camino seguir? La psicología genética indica claramente la importancia de la secuencia histórica para la adquisión de conocimientos. Por lo tanto, buscaría, a través de la biografía, los actores (personas y objetos) que habrían aportado nuevos conocimientos y cuales son éstos. La "producción" del sujeto (como, por ejemplo, las obras publicadas), que aparece en el curriculum, no formaría parte del listado aunque podría ser una pista para buscar el origen del contenido. Al seguir el orden cronológico, podría ser interesante ver cómo un contenido lleva a otro o varios otros (línea de desarrollo). Como decía al principio, se trata de un análisis de proceso.

Sería también interesante recuperar aquí otro concepto de la teoría del actor-red: el de "desplazamiento", que podría ser especialmente relevante en el caso de los académicos, aunque podría no serlo para otras personas: los viajes, las visitas, las asistencias a congresos, son muchas veces oportunidades para las adquiciones de nuevos conocimientos, observando, escuchando, conversando o adquiriendo nuevos objetos-fuentes (como los libros). En este sentido pueden aparecer personas como mediadores en el sentido de que nos entregan nuevas pistas para desarrollar nuestros conocimientos (referencias de libros, invitaciones a congresos o cursos, etc.)

El esquema que surge de ello (y que podría llevar a una graficación) aparece así conformado por el sujeto, los eventos (y los posibles desplazamientos correspondientes), los interlocutores (muchas veces en el marco de instituciones), los instrumentos o medios y los conocimientos.

Aclaremos que los "conocimientos" no son solamente contenidos conceptuales sino también competencias, o sea habilidades que se desarollan por medio de la ejercitación (con o sin la guía de otro actor). Ésto es algo bien expuesto en la teoría del actor-red, aunque sin referencia directa al aprendizaje: se ha de tomar en cuenta todo lo que nos "hace hacer" pero, en el presente caso, que signifique adquirir un saber hacer o un saber conceptual. Lo subraya mucho mejor el modelo del "árbol de competencias" (o "árbol de conocimientos" en su formulación original en francés, ver M.Authier y P.Lévy): estos árboles son una forma de graficar lo que saben los miembros de una institución, registrando sus estudios y sus habilidades. Las "raíces" del árbol son el aprendizaje en el seno de la familia (especialmente en los primeros años de vida) y su "tronco" los estudios formales, primero comunes para varias personas, y luego su diversificación en "ramas" según las especializaciones. Se podría construir este tipo de árbol considerando una sola persona, conectando ahí las personas y objetos que se detecten siguiendo el método del actor-red. El modelo linear, en efecto, parece el más adecuado para seguir un desarrollo histórico y el de árbol la multiplicación de áreas de conocimiento.

Registrar todos los conocimientos acumulados llevaría a algo mucho más amplio que una mera autobiografía. Pensemos solamente, en el caso de un académico, en todos los textos leídos. Incluso si tomáramos solamente los citados en las bibliografías de sus propias publicaciones la lista podría ser enorme. ¡Y sería incompleta! Aún más para quienes tienen un cultura amplia y se interesan, por ejemplo, por descubrimientos en áreas que no son de su especialidad. Para una representación más reducida, podríamos, eventualmente, seleccionar solamente las personas que, a nuestro juicio, tuvieron una influencia decisiva y, del mismo modo, los autores que consideramos más relevantes para cada área temática.

Para reducir aún más la lista, me parece que hay que volverse más bien hacia la detección de "factores de influencia" o tipos de actores (en el sentido amplio que le da la teoría del actor-red) más que hacia una lista exhaustiva de actores, asociados a tipos de contenidos (áreas del conocimiento). 

Es lo que intentaré ahora. En realidad, ya he mencionado varios factores y quedaría por preguntarse si hay otros. Los señalados: la familia (primera enseñanza), los estudios, en sus diversos niveles, con la influencia tanto de las instituciones como de algunos profesores en particular, donde podría ser conveniente señalar las áreas en que fueron "despertados" intereses predominantes y que se siguieron desarrollando posteriormente. Este desarrollo descansa (y prosigue) en gran parte en los libros y artículos leídos y las conferencias a las cuales se asistió, de los cuales bastará con señalar las diversas temáticas y, quizás, las épocas. Habrá que agregar otros "instrumentos": los medios de comunicación, el computador, internet, que pueden haber sido los intermediarios para acceder a estos actores (personas y "objetos" portadores de información). Pueden intervenir, además, las instituciones en las que hemos trabajado (o seguimos trabajando), tanto con sus objetos, filosofía, jefes y colegas que nos orientan de una u otra manera. Y pueden haber intervenido desplazamientos: viajes no solo para asistir a conferencias o realizar estudios complementarios, sino también para conocer otras experiencias y otros colegas. Queda por considerar una - ¿última? - categoría: la de los hechos casuales que pueden haber sido la causa de algún cambio o de un aporte significativo.

No sé si mi lista es completa. El lector podrá eventualmente agregar algún factor. Pero espero haber dado una idea de lo que podría ser un "modelo del desarrollo de un sujeto de conocimiento". Y aconsejo no tratar de describirlo exhaustivamente: había empezado por ahí pero me di cuenta rápidamente que podría pasar días y días escribiendo sin llegar, posiblemente, a completarlo nunca. ¡La vida es mucho más rica que todo lo que se puede decir de ella! (Y una "rendición de cuenta" completa de muy poco interés para terceros.)

Referencias

Authier, M. & Lévy, P. (1992): Les arbres de connaissances París, La Découverte.

Colle, R. (2022): Los comunicadores y sus redes - Metodología de investigación, Colección Mundo Digital n.25, U. de Alicante. 

Latour, B. (2008): Re-ensamblar lo social. Una introducción a la teoría del actor-red, Buenos Aires, Manantial.

martes, 16 de mayo de 2023

Aportes de la ciencia ficción al conocimiento (según Bing Chat)

 Consulté nuevamente a Bing Chat, esta vez sobre la ciencia ficción:

¿Cuales fueron los aportes de los autores de ciencia ficción al conocimiento?

"Los autores de ciencia ficción han aportado mucho al conocimiento. La ciencia ficción nos enseña a convivir con nosotros mismos en un futuro ya no tan distante y nos ayuda a explorar nuestro mundo(1). Además, la ciencia ficción ha sido una fuente de inspiración para muchos científicos y ha llevado al desarrollo de tecnologías que antes se consideraban imposibles(2)."

Se debería agregar que ha anunciado la contaminación atmosférica, los efectos del cambio climático y el aumento de la violencia en las ciudades.

¿Qué tecnologías sugeridas en la ciencia ficción se desarrollaron?

"Algunos inventos tecnológicos que nacieron de la ciencia ficción pero que con el paso del tiempo se han materializado son la bomba atómica, la ingeniería genética, el hipertexto (difundido ampliamente con la World Wide Web), los sistemas expertos, el teléfono móvil, la videollamada, el cohete mochila (jet pack o rocket pack) y el submarino(3). Además, hay muchas tecnologías del cine que parecen ciencia-ficción pero que se utilizan en las grabaciones(4)."

Faltaría señalar la computación y la inteligencia artificial, los satélites artificiales y las naves exploradoras del espacio (como las Voyager), las bases en la Luna y Marte -que ya se preparan-, etc. [La respuesta es pobre y quizás haya que revisar las fuentes que señala, lo que no hice.]

¿Cuél es la importancia de la ciencia ficción?

"La ciencia ficción ha cumplido un rol importante y necesario en el devenir científico de la humanidad. Desde esta perspectiva, la ciencia ficción promueve el entendimiento de los procesos históricos y sociales que han llevado al desarrollo de la tecnología y la ciencia. Además, la ciencia ficción es un espejo para lo que podemos llegar a ser y lo que tememos. Desde esta perspectiva, la ciencia ficción promueve el entendimiento de los procesos históricos y sociales que han llevado al desarrollo de la tecnología y la ciencia(5)."

¡Esta respuesta sí me parece muy interesante!

Algunos de los autores más importantes según una lista de Ranker(6) son: Isaac Asimov, Arthur C. Clarke, Ray Bradbury, Philip K. Dick y H.G. Wells. [Como gran lector de ciencia ficción, estoy de acuerdo, aunque no me gusta Philip Dick.]

Referencias dadas por el chat:

1.https://www.uniandinos.org.co/enterate/los-aportes-de-la-ciencia-ficcion-en-el-mundo-moderno

2.https://www.bbvaopenmind.com/tecnologia/futuro/narrativas-ciencia-ficcion-estudios-del-futuro/

3.https://es.wikipedia.org/wiki/Tecnolog%C3%ADa_de_ficci%C3%B3n

4.https://computerhoy.com/listas/entretenimiento/tecnologias-parecen-ciencia-ficcion-pero-son-reales-en-el-cine-575641

5.https://hipertextual.com/2015/07/es-importante-la-ciencia-ficcion

6.https://lanetaneta.com/los-mejores-autores-de-ciencia-ficcion-de-todos-los-tiempos-segun-ranker/

jueves, 4 de mayo de 2023

IA generativa y ciencia cognitiva

Tomando en cuenta que, según los investigadores de la Universidad de Stanford, Bing Chat es el que mejor respalda sus respuestas en referencias, pregunté a Bing Chat qué relación hay entre la IA generativa y la ciencia cognitiva. Ésta fue la respuesta:

"La inteligencia artificial generativa es una rama de la inteligencia artificial que se enfoca en la creación de sistemas que pueden generar contenido original y creativo. La ciencia cognitiva, por otro lado, es un campo interdisciplinario que se enfoca en el estudio de la mente y el pensamiento humano. La relación entre la inteligencia artificial generativa y la ciencia cognitiva es que ambas áreas de estudio se centran en la comprensión de la creatividad y el pensamiento humano. La inteligencia artificial generativa utiliza técnicas de aprendizaje automático para crear contenido original, mientras que la ciencia cognitiva utiliza técnicas de investigación para comprender cómo funciona el cerebro humano y cómo se produce el pensamiento creativo1."

Para precisar, pregunté "¿Cómo se relaciona la IA generativa con la ciencia cognitiva?" Y Respondió:

"Sí, la inteligencia artificial generativa utiliza técnicas de aprendizaje automático para procesar una enorme cantidad de datos visuales o textuales y determinar qué cosas tienen más probabilidades de aparecer cerca de otras. La ciencia cognitiva, por otro lado, se enfoca en el estudio de la mente y el pensamiento humano. Aunque ambas áreas de estudio son diferentes, la inteligencia artificial generativa y la ciencia cognitiva se centran en la comprensión de la creatividad y el pensamiento humano.

En resumen, la IA generativa utiliza técnicas de aprendizaje automático para crear contenido original y creativo mientras que la ciencia cognitiva utiliza técnicas de investigación para comprender cómo funciona el cerebro humano y cómo se produce el pensamiento creativo."

No contento con ello, pregunté: "¿Los algoritmos de IA generativa se basan en algo de la ciencia cognitiva? ¿En qué?"

Me contestó lo mismo, después de decir que sí:

"Sí, los algoritmos de la IA generativa se basan en la ciencia cognitiva. La IA generativa utiliza técnicas de aprendizaje automático para procesar una enorme cantidad de datos visuales o textuales y determinar qué cosas tienen más probabilidades de aparecer cerca de otras. La ciencia cognitiva, por otro lado, se enfoca en el estudio de la mente y el pensamiento humano. Aunque ambas áreas de estudio son diferentes, la inteligencia artificial generativa y la ciencia cognitiva se centran en la comprensión de la creatividad y el pensamiento humano.

En resumen, los algoritmos de la IA generativa se basan en técnicas de aprendizaje automático que utilizan la ciencia cognitiva para crear contenido original y creativo."

En resumen: no obtuve una respuesta adecuada. Creo poder deducir que la ciencia cognitiva no intervino en el desarrollo de los algoritmos más que en la idea (superficial) del aprendizaje por acumulación de datos. Me parece dudoso que hayan intervenido estudios psicológicos sobre el funcionamiento de la creatividad ya que solo se dice que ambos "se centran en la comprensión de la creatividad".

Para confirmar esta hipótesis, repregunté: "¿Qué estudios psicologicos han sido usados en el desarrollo de la IA generativa?" Nuevamente, la respuesta fue superficial:

"Los estudios psicológicos que se han utilizado en el desarrollo de la IA generativa incluyen la psicología cognitiva y la psicología del aprendizaje. La psicología cognitiva se enfoca en el estudio de la mente y el pensamiento humano, mientras que la psicología del aprendizaje se enfoca en cómo las personas aprenden y cómo se pueden aplicar estos principios al desarrollo de sistemas de inteligencia artificial.

En resumen, los estudios psicológicos que se han utilizado en el desarrollo de la IA generativa incluyen la psicología cognitiva y la psicología del aprendizaje.

El chat me sugirió la siguiente pregunta (Me parece interesante que sugiera una pregunta que luego contesta): "¿Cómo se aplican los principios de la psicología cognitiva en el desarrollo de la IA generativa?"

Y su respuesta:

"Los principios de la psicología cognitiva se aplican en el desarrollo de la IA generativa para comprender cómo los humanos procesan la información y cómo se puede imitar este proceso en una máquina1. Por ejemplo, los principios de la psicología cognitiva se pueden utilizar para desarrollar algoritmos de aprendizaje automático que imiten el proceso de aprendizaje humano.

En resumen, los principios de la psicología cognitiva se aplican en el desarrollo de la IA generativa para comprender cómo los humanos procesan la información y cómo se puede imitar este proceso en una máquina."

Aquí me parece que hay un error: "los principios... se aplican... para comprender": se aplican para buscar y generar respuestas a las preguntas, no para comprender (lo cual sería un aporte a la ciencia cognitiva). También dice que los principios "se pueden utilizar para desarrollar algoritmos". Solo "se pueden". No responde a su propia pregunta "¿Cómo se aplican..." 

Concluyo que, al parecer, solo conceptos generales acerca de la cognición y el aprendizaje parecen haber guiado los ingenieros y mantengo más dudas en lo relativo a la creatividad.


martes, 7 de febrero de 2023

El lugar del sentido

La semiótica se ocupa esencialmente de las expresiones que forman parte de los procesos de comunicación y de su significado. La reflexión semiótica ha progresado significativamente desde los primeros trabajos de De Saussure, como se explica muy bien en un artículo de C.Vidales sobre la cibersemiótica y su origen.

Aunque adhiero a los conceptos centrales de la cibersemiótica, no me parece que da una explicación satisfactoria de la emergencia del sentido (significado), como tampoco lo hizo la biosemiótica, a la cual me he referido en un post de agosto 2022. En efecto, si he leído bien a Vidales, volvemos a encontrarnos con una postura esencialmente materialista. Y es que - a mi entender - el sentido es algo intrínsecamente ligado a la conciencia y es de orden espiritual, como explicado en mi post. Para explicar el sentido, hay que explicar la conciencia. La pregunta de donde está realmente el significado equivale a la pregunta de donde está la mente. Tenemos que admitir que pertenece a una dimensión que no es estrictamente material. Lamentablemente, la ciencia moderna – de tipo positivista – ha pretendido erróneamente que solo lo medible puede ser objeto de conocimiento científico. Y la mente no es algo medible.

En mi reciente artículo "Semiótica, mente y cognición", analizo el proceso del pensamiento y la problemática de la creación de significados. Lo que entorpece de algún modo la reflexión y el análisis es que el significado parece intrínsecamente ligado al lenguaje, al menos si queremos referirnos a él. Pero es, en realidad, solo una apariencia. Si volvemos a los mecanismo mentales, tenemos que admitir que, en muchos casos, podemos tomar conciencia de un sentido sin recurrir al lenguaje. Psicólogos cognitivos como Jean Piaget y Paul Ausubel, que han estudiado el proceso de adquisición del conocimiento en el niño, han mostrado que el lenguaje del niño está basado en el significado antes de que llegue a dominar formas verbales y que sus primeros enunciados son el reflejo de la estructura interna de su memoria, adquirida a través de la interacción con los adultos. E incluso para el adulto, puede haber sentido sin lenguaje. El mejor ejemplo es lo que ocurre con la percepción de imágenes. El sentido de una imagen aparece habitualmente en nuestra mente en cuanto se forma en el área cortical de la visión, sin necesidad de palabras.

La repetición y la comparación de las experiencias (de lo percibido) del niño llevan a la categorización y ésta a la generación de conceptos, niveles en que el lenguaje entra a jugar evidentemente un rol importante. Pero el mecanismo ocurre en dos niveles: el fisiológico (neurológico: la asociación de "mapas reentrantes", en términos de Edelman) y propiamente mental (inmaterial, espiritual).

Por otra parte, una vez que se domina el lenguaje, podemos considerar el pensamiento como una formulación mental que utiliza el lenguaje, sin necesidad de recurrir a la expresión material (vocalización o escritura). Pero podemos expresar la misma idea (el mismo significado), mentalmente, en diversos idiomas. Según la teoría clásica, éstos son diversos significantes. ¿Qué es entonces el significado, único, que ellos comparten? Ha de ser un meta-pensamiento, inasible de otra manera. Obviamente no puede "residir" en las conexiones neuronales, que son diferentes para cada significante, aunque algunos semiotistas creen lo contrario. Lo que es el entendimiento, en el nivel del meta-pensamiento, sigue siendo un misterio, tanto como la naturaleza última de la mente (¿alma?). 

Sabemos que un concepto se define por sus relaciones con otros conceptos, pero a través de las expresiones lingüísticas que les corresponde. Esto quiere decir, a su vez, que un significado se define por sus relaciones con otros significados. Pero es imposible asegurar que se dé el mismo conjunto de relaciones entre los meta-pensamientos de diferentes personas. Solo podemos estar seguros de que una parte de sus "mapas" es suficientemente idéntica para que haya comprensión mutua, lo cual es asegurado por el dominio de un mismo lenguaje, es decir por la mediación física de un sistema aprendido y por un contexto o ambiente común. (No olvidemos que son estos últimos los que permiten reducir la polisemia.)

Así, no se pone en duda el rol fundamental del lenguaje para el desarrollo del conocimiento consciente, pero existen varias hipótesis acerca de la relación entre las representaciones mentales y aún más entre su sentido y sus “instanciaciones” lingüísticas.

Para la semiogenética, que se desarrolló en la década de 1970, el sentido "emerge" del proceso de percepción y su tratamiento neuronal: "Nada hay en el sentido que no haya venido de los sentidos", dice (Beividas: 145). Sería solo el resultado de reacciones físico-químicas complejas. ¡Esto es puro materialismo y una negación de la realidad espiritual de la conciencia!

Como las investigaciones acerca del cerebro siguen refrendando, es necesario aceptar al menos lo que Edgar Morin ha llamado "unidualismo complejo", es decir mantener la diferencia - y unión - entre cerebro y mente (materia y espíritu). Como lo acepta la neuropsicología espiritualista, nuestro cerebro es el conducto que une nuestros dos componentes fundamentales, que nos permite captar la materialidad en que vivimos, gracias a nuestros órganos de percepción, transferirla al nivel mental donde se produce un segundo procesamiento para, de ahí, volver a la materialidad neuronal para producir la expresión.

El sentido/significado forma parte de la realidad mental y ésta no "reside" en el cerebro ni en las conexiones neuronales sino en la mente/espíritu.

Referencias

Ausubel, D. P. (1960). The use of advance organizers in the learning and retention of meaningful verbal material, Journal of Educational Psychology, 51, 267-272.

Beividas, W. (2014). Una epistemología discursiva en construcción: la teoría semiótica inmanente entre la percepción y la semiocepción, Tópicos del Seminario "La inmanencia en cuestión", pp.139-159. 

Colle, R. (2023): Semiótica, mente y cognición, Revista Chilena de Semiótica, n°18. 

Colle, R. (2016): La ciencia y el espíritu: Científicos en busca del alma, Academia.edu 

Edelman, G. (1992):  “Biologie de la conscience”, París, Odile Jacob.

Morin, E. (1986): “La méthode: 3.  La connaissance de la connaissance”, París, Seuil.

Piaget, J. (1950): “Introduction à l'épistémologie génétique”, Paris, PUF.

Vidales, C. (2023): La cibersemiótica: de los sistemas vivos a los sistemas semióticos, Revista Chilena de Semiótica, n°18. 

viernes, 27 de enero de 2023

La nueva realidad de los buscadores

No es posible pasar por alto la nueva realidad de internet que introducen los chatbots de IA generativa como ChatGPT, de la compañía OpenAI, lanzado el 30 de noviembre pasado. Este chatbot es capaz de responder a las más variadas preguntas

y "de mantener con mucha naturalidad conversaciones sobre casi cualquier tema, de responder a infinidad de preguntas y de crear contenidos casi a la carta!" (Deutsche Welle, 10/12/2022). 

Otros chatbots podrían ir aún más lejos:

"Character.ai, una empresa emergente fundada por exingenieros de Google, puso en línea un chatbot experimental en octubre, el cual puede adoptar cualquier personalidad. Los usuarios crean personajes según una breve descripción y enseguida pueden "conversar" con un falso Sherlock Holmes, Sócrates o incluso Donald Trump. Este grado de sofisticación fascina, pero también inquieta a numerosos observadores con la idea de que estas tecnologías no sean utilizadas para engañar a los humanos, difundiendo informaciones falsas, por ejemplo, o creando estafas cada vez más creíbles." (ibidem)

El primer peligro es que ChatGPT extrae los contenidos de internet sin verificar la validez de las fuentes. OpenAI admite que "el chatbot puede generar informaciones incorrectas" (ibidem).

El segundo peligro es que combina extractos de variadas fuentes, pero no domina el sentido y no puede explicar por qué seleccionó las palabras que forman sus respuestas. OpenAI admite que "las personas podrían creer que interactúan con un individuo real" (ibidem). Recordemos que el conocimiento es una suma de creencias y que, si se cre en las respuestas del chatbot, el conocimiento será cada vez más erróneo.

El tercer peligro, que es el que motiva el presente post, es que muchos de estos resultados vuelven a ser publicados en internet por los usuarios de estos chatbots. Se prooduce de este modo un efecto de bola de nieve, en que los buscadores y los mismos chatbots se ven alimentados por sus propios resultados, poniendo en entredicho - cada vez más - la confiabilidad de los resultados de las búsquedas.

Que los buscadores pudieron detectar este tipo de contenido y advertir sobre ellos o incluso pasarlos por alto sería evidentemente un solución. Sin embargo, los actuales "detectores" no parecen particularmente útiles. Un experto de la revista Xataka evaluó tres de ellos constatando que no ofrecen un resultado consistente a la hora de detectar cuando un texto ha sido generado por una IA: "Estas herramientas nos pueden servir en algunos casos, pero el "problema" es que es una carrera de fondo. Todavía no hemos terminado de digerir ChatGPT y ya estamos a la espera de una nueva y aún más completa versión, así que sí, estamos en un juego del gato y el ratón y, por ahora, el ratón parece ir ganando"(José García, Xataka, 21/01).

En este momento existiría una alternativa, según @cscolari (23/01): Perplexity AI: "Perplexity AI is an answer engine that delivers accurate answers to complex questions using large language models. Ask is powered by large language models and search engines. Accuracy is limited by search results and AI capabilities."(https://www.perplexity.ai). En efecto, incluye información sobre las fuentes de sus respuestas. Combina las API de OpenAI y del buscador Bing.

Referencias

Deutsche Welle: ChatGPT: el bot viral y futuro de la IA que podría cambiarlo todo

García, J.: Hay detectores de ChatGPT para saber si un texto lo ha escrito una IA o un humano. Los he probado. Xataka, 21/01/2022