martes, 23 de abril de 2024

La superación de la inteligencia humana (¿y la inmortalidad?)

 Según el ingeniero Ray Kurzweil, experto en nanotecnología y exingeniero de Google, la IA alcanzara en 2045 el nivel de la inteligencia humana y seguirá ampliándose. Es lo que llama "singularidad tecnológica" También, en 203, podríamos llegar a ser inmortales, revirtiendo la edad por medio de nano robots que repararían las células defectuosas. Y cree firmemente que los implantes cibernéticos pueden mejorarnos. Ya hay empresas, como Neuralink y Synchron, que han desarrollado sistemas que se conectan al cerebro y permiten a pacientes paralizados controlar alguno dispositivos “con la mente”. Se podría llegar a una época en que no se podría distinguir entre seres humanos y máquinas. En su libro "La era de las máquinas  espirituales", planteaba que "las inteligencias artificiales creadas por los humanos tendrán la habilidad de controlar todo el universo, tal vez evitando que muera" (Wikipedia).

En 2004, Kurzweil creó, con varios otros expertos, el Singularity Institute for Artificial Intelligence y, en 2009, en colaboración con Google y el NASA Ames Research Center, la Universidad de la Singularidad.

Es lo que plantea de algún modo la corriente de pensamiento llamada "transhumanismo", un movimiento creado por Nick Bostrom, "que afirma el deber moral de mejorar las capacidades físicas y cognitivas de la especie humana" mediante la tecnología, y representaría el culmen de la evolución: el poshumano. Así, lo que se pretende es "que se tenga total dominio sobre nuestro cuerpo y nuestra biología", o sea, a fin de cuentas, "que el ser humano deje de ser humano y se convierta en una máquina", dice María Elizabeth de los Rios Uriarte, profesora e investigadora de la Facultad de Bioética de la Universidad Anáhuac (México).

"Hay que analizar aquí algunas cuestiones éticas, para empezar, aquello que nos hace vulnerables, las razones por las que nos enfermamos, por las que envejecemos y por las que sufrimos y nos morimos son precisamente también aquellas que nos hacen humanos, es decir, que reafirman nuestra esencia en tanto humanos; erradicarlas sería ir en contra de nuestra propia naturaleza e idear un ser humano que ya no sea humano y que modifique su esencia, por eso esta corriente representa un rechazo absoluto hacia nuestra esencia y hacia aquellos contenidos en virtud de los cuales nos podemos llamar humanos. Apostarle entonces a esta evolución sería un atentado en contra de nuestra propia humanidad. [...]

Una segunda consideración ética que vale la pena verter a modo de advertencia, ... , es el tema de que estos seres humanos perfectos cuya vida puede prolongarse hasta los 500 años, podrían llegar a sustituir a los humanos mortales suplantando trabajos o incluso relaciones sociales. " (ibidem)

Referencias

de los Rios, M.A. (): ¿Qué es el transhumanismo?, Universidad Anahuac (México). 

Kurzweil, K. (2005): La singularidad está cerca, Berlin, Lola Books.

 - (1999): La era de las máquinas  espirituales, cuando los ordenadores superen la mente humana, Planeta. Resumen en Wikipedia

Vallejo, A. (2024): Un exingeniero de Google ha predicho la fecha en que lograremos la inmortalidad. Y ha acertado cientos de veces sus predicciones, Genbeta, 20/04/2024

martes, 16 de abril de 2024

La IA llega a la documentación personal

 Comenté en el post anterior el avance de las aplicaciones de IA generativa y cómo existen ya alternativas que podrían ser utilizadas en los departamentos de documentación de los medios de prensa. Los avances en este materia son rápidos y, como comentaré aquí, ya están llegando a la computación personal, aunque se requiere algo de preparación (estudio) para poder aprovecharla.

Lo que ha aparecido como opción "personal" es el software Jan (https://jan.ai/), que propone convertir cualquier computador en una máquina de IA para poder interaccionar con ella localmente. Ejecuta modelos de IA generativa (motores de inferencia) como LlaMA o Mistral - que son los más sencillos -, entre muchos otros, directamente en el PC (aunque requiere una amplia memoria RAM) y acepta variadas extensiones para labores específicas (especializar el modelo). También permite utilizar, enlazándose a ellos, modelos "clásicos" como ChatGPT, asegurando que no podrán ver los datos ni almacenar los archivos. Y solo en este caso se necesitaría una conexión a internet, aparte de la necesaria descarga del modelo operativo elegido antes de empezar a trabajar. Varios modelos de IA están disponibles en la plataforma de código abierto GitHub, y la web de Jan informa sobre las características de cada uno.

Una vez hecha la instalación, se puede designar el paquete de datos a investigar (se mencionan, por ejemplo, documentos en PDF). Aún recurriendo a la opción de utilizar una aplicación externa como ChatGPT, todos los datos se mantienen localmente como también el procesamiento y los resultados.

El software base de Jan ocupa poco espacio y se asegura que opera en forma fluida siempre que no se realice otra tarea.

También es interesante el anuncio de Microsoft: una actualización, en mayo próximo, de Windows 11 que traerá "una IA local a la que le podremos consultar mediante lenguaje natural cualquier cosa relacionada con los archivos de nuestros PCs y más" y una caja de herramientas "PowerToys " con IA, sin detalles sobre sus funciones, pero no se habla de IA generativa (Vallejo).

Se pueden esperar más novedades en equipos con chips orientados a la IA aunque, inicialmente, irían en la línea de la creación (como texto-a-imagen, transcripciones y traducciones):

"The idea of an AI PC is relatively straightforward, with hardware makers like Intel, Nvidia and AMD building dedicated AI chips into processors for desktop and laptop use.

AMD’s latest desktop and laptop processors put the company squarely in the emerging AI PC market with the integration of generative-AI (genAI) technology into some of its most popular chip lines." (Computerworld, 16/04/24)

Así, los PC, incluso de tipo laptop, se adaptan incluyendo nuevos procesadores de alto rendimiento como el Intel Core Ultra. Samsung ya anunció la disponibilidad de su Galaxy Book4 Ultra, el primero en estar equipados con una unidad de procesamiento neuronal (NPU) además de una GPU integrada, "acelerando el rendimiento de la IA generativa basada en texto e imagen" en el computador, aunque principalmente orientada al aprendizaje automático para producir efectos visuales avanzados (Iturra y Rivas).

Pero no soy el único en pensar en IA de uso "documental": Jim McGregor analista de TIRIAS Research, espera poder analizar su correo electrónico: “I’d want it scanning my emails and being able to summarize them and tell you what’s important.” (Computerworld)

Facilitarán sin duda el uso de software como Jan y se puede esperar que aparezcan otras aplicaciones (software) con mejores interfaces de usuarios y facilidad de uso aunque, como señala Computerworld) Micrososoft podría frenar el movimiento, interesada en un desarrollo propio... y lanzar Windows 12, quizás especialmente para nuevos PC y laptops equipados con chips ARM con NPU (Snapdragon X Elite), de preferencia a los chips de Intel, según Cristiano Amon, CEO de Qualcomm. ¡Una batalla con Intel en perspectiva! (Computerworld, 16/04/24) 

Referencias

Iturra, F. y Rivas, F. (2024): Samsung lanza nuevos Galaxy Book4 con procesadores Intel Core de última generación y avances en IA, Radio Biobio, 12/04/2024. 

Jan (2024): Overview 

Rodriguez de Luis, E. (2024): He probado Jan, la alternativa a ChatGPT de código abierto y gratis que puedes usar en local, Genbeta, 6/04/2024. 

Vallejo, A. (2024): Windows 11 tendrá una gigantesca actualización con IA local: así quiere Microsoft impulsar su explorador y otras funciones, genbeta, 15/04/2024. 

martes, 19 de marzo de 2024

IA: ¿Adiós documentalistas?

 Desde hace algún tiempo se viene advirtiendo que muchas tareas realizadas por seres humanos serán traspasadas a la inteligencia artificial. "La automatización va a ocurrir cada vez más en trabajos de carácter intelectual, no como hasta ahora, que solo afectaba a quienes trabajaban en cadenas de producción", dice Jordi Torres, experto en IA y supercomputación de la Universidad Politécnica de Cataluña (Rada, Agencia Sinc). Entre los profesionales afectados se encuentran, seguramente, los documentalistas.

Sería una consecuencia de las aplicaciones de la IA generativa, En efecto, ésta permite obtener información sin necesidad de recurrir a bases de datos estructuradas como las que desarrollan los especialistas de la clasificación. La IA generativa recurre al aprendizaje automático (deep learning) a partir de la acumulación de información "en bruto", es decir en su formato original, y a mecanismos de análisis para encontrar patrones y luego extraer la información que se adecue al patrón detectado en la consulta. En muchas exposiciones sobre la IA generativa se dice que "crea" contenido nuevo. Pero es llevar quizás lejos el concepto de creación: el resultado podrá ser un texto (o una imagen) formalmente nuevo, pero el contenido será obviamente una acumulación de datos existentes aunque en una nueva presentación y eventualmente estableciendo relaciones novedosas, que son su principal aporte (y riesgos de error).

También se dice, algunas veces, que opera así "de un modo semejante al cerebro". Esto es equivocado. Cuando ingresa información al cerebro humano y es conservada, ingresa en dos tipos de memorias: la episódica, que recoge la información en su desarrollo temporal (histórico), y la semántica, que se constituye a partir del análisis conceptual (categorización) de la información. El sistema nervioso tiene un subsistema que es una suerte de documentalista, que clasifica la información cuando ingresa y la memoria semántica resultante es el principal ingrediente dispuesto para facilitar la recuperación de información (y la base de la inteligencia), evitando de este modo la necesidad de revisar el contenido completo de la memoria episódica.

Los métodos de IA generativa prescinden de esta división. No hay procesamiento en el momento de la entrada de información (salvo la transformación digital en las neuronas artificiales): el proceso semántico se realiza sobre la totalidad del material acumulado, buscando "patrones" a través de un proceso estadístico. Es mucho menos eficiente que el cerebro humano ya que cada consulta implica revisar la totalidad del material acumulado, mientras el cerebro - que procesó la entrada - dispone de una suerte de base de datos de referencias que permite apuntar inmediatamente a lo requerido.

Un centro de documentación podría, de este modo, hoy, limitarse a acumular la información (ya existen aplicaciones de bases de datos que la admiten en cualquier formato) y aplicar luego algoritmos de IA generativa.

Indirectamente, según una noticia que leímos hace unos días, ingresan en esta vía el grupo de periódicos Prisa Media y Le Monde al firmar un acuerdo de colaboración con OpenAI, para dar acceso a las noticias por ChatGPT: "En colaboración con Le Monde y Prisa Media, nuestro objetivo es permitir que los usuarios de ChatGPT de todo el mundo conecten con las noticias de una forma más interactiva y que tengan una visión más completa de la actualidad", dicen en OpenAI (Genbeta, 14/03/24).

Según el director ejecutivo de Prisa Media, Carlos Nuñez, se trata de "Aprovechar las capacidades de ChatGPT nos permite presentar nuestro periodismo en profundidad y de calidad de maneras novedosas. Este es un paso definitivo hacia el futuro de las noticias, donde la tecnología y la experiencia humana se fusionan para enriquecer la experiencia del lector." (El País, 13/03/24)

No hablan, por cierto, de sus sistema de documentación. Pero disponen, sin dudas, de toda su producción en un archivo general y bastaría con instalar un "motor" de IA generativa (los hay de "código abierto") para reemplazar el oficio de documentalista.

Pero quizás no deba suprimirse este digno oficio, sino transformarlo. El problema de hoy es poder formular las preguntas adecuadas para obtener el resultado deseado. Se habla de una nueva profesión: el ‘prompt engineer’ o ingeniero de instrucciones. ¿No sería, justamente, la función propia de un documentalista? No requiere ser ingeniero en informática pero sí tener conocimientos de "LLM", los "modelos de lenguaje a gran escala" utilizados para crear las aplicaciones de IA generativa para, así, poder hacer preguntas más eficientes. ¡He aquí un tema del que han de preocuparse las escuelas o departamentos de documentación de las universidades!

Además, muchas empresas están abandonando la nube para conservar sus archivos en sus propios servidores. Podrían, de este modo, también sacarles ventaja con un motor de IA propio. Pero, para ello, necesitan computadores más poderosos. Felizmente, ya hay procesadores centrales de más de miles de núcleos y Nvidia acaba de anunciar para el próximo año Blackwell RTX50, la arquitectura de GPU de próxima generación, diseñada para empresas, que vendrá con 208 mil millones de transistores y permite conectar 576 GPU en una sola flota. Las GPU son, originalmente, unidades de procesamiento gráfico pero son las preferidas para los procesos de IA. Se unen a CPU (unidades centrales de proceso) que son las que controlan la actividad del computador (entradas y salidas de datos y entrada de comandos). Nvidia ofrece actualmente un servidor "más reducido", con 72 GPU B200 y 36 CPU Grace. La velocidad de interconexión es de 10 TB por segundo (Digital Trends, 19/3/24). Las B200 son anteriores a la anunciada RTX50 pero ya son capaces de manejar billones de parámetros y alcanzar los 20 petaFLOPS de rendimiento (Infobaes, 19/03/24). Llevan la informática y especialmente la IA a un nuevo auge aún difícil de vislumbrar.


Referencias

Genbeta, 14/03/2024: Interactuar con noticias en ChatGPT será posible: El País y Le Monde serán los primeros, y podrá entrenarse con sus datos

El País, 13/03/2024: OpenAI anuncia un acuerdo con Prisa Media y ‘Le Monde’

La Vanguardia, 26/04/2023: Cómo hacer las preguntas correctas a la IA: el arte  del ingeniero de prompts

Rada, A.G. (2024): Tenemos que pensar en cómo controlar la IA porque es muy potente y lo va a cambiar todo, Agencia Sinc, 18/3/2024.

martes, 27 de febrero de 2024

¿Llegará a la prensa la IA "conversacional"?

 "The emergence of generative AI and large language models represents a paradigm shift in how enterprises engage with customers and manage internal workflows" dice Laurel Ruma en la revista de tecnología del MIT. Los clientes de las empresas detestan que sus chatbots envíen a las páginas de preguntas frecuentes (FAQ) y, en las empresas, los empleados quieren que los dirijan a las mejores bases de conocimiento sin búsquedas eternas. 

"In the ever-evolving landscape of customer experiences, AI has become a beacon guiding businesses toward seamless interactions." La pregunta, ahora, en nuestro campo, es ¿La IA, con la oferta de los chatbots, guiará también a las empresas de medios hacia interacciones fluidas, hacia "conversaciones" más efectivas y más habituales que las escasas conversaciones que ya defiende, por ejemplo, Eduardo Arriagada, profesor de la Pontificia Universidad Católica de Chile, desde hace años y especialmente en su libro "Hiperconectados"?

Por cierto, la capacidad de los chatbots de IA generativa aún falla en crear respuestas realmente personalizadas, pero "tienen el potencial de ofrecer respuestas legibles por humanos y sensibles al contexto" según Elizabeth Tobey, directora de marketing, digital e inteligencia artificial de NICE (citada por Ruma). La prensa, por lo tanto, debería estar especialmente atenta y tener en cuenta este avance, no solo para apoyar a sus periodistas en la producción de sus artículos (o realizar investigaciones y resúmenes automáticos), sino para entrar en un nuevo tipo de relación con sus lectores. ¡Pensar en un diálogo, más ajustado a los intereses de cada uno de sus suscriptores! ¿No se haría de este modo más atractiva?

Referencia

Ruma, L. (2024): Conversational AI revolutionizes the customer experience landscape, MIT Technology Review, Feb 26, 2024

martes, 20 de febrero de 2024

El conocimiento, la IA, la mente y sus límites respectivos

 En 1930, Kurt Gōdel, considerado "el más grande lógico desde Aristóteles" (Bollore y Bonnassies, p.327), dio a conocer el llamado "teorema de la incompletitud", que sacudió y transformó profundamente la lógica y la matemática. Simplificando, establece que todo sistema lógico incluye verdades que no puede demostrar (para ello, se ha de pasar a un sistema superior). Aunque inicialmente se refiere a sistemas lógicos y matemáticos, se puede ampliar a todo sistema de explicaciones coherente ("un sistema no puede ser a la vez coherente y completo"). Esto es de la mayor importancia para la reflexión sobre el conocimiento y las "máquinas" (fisiológicas o mecánicas) que operan con información, como explicó Roger Penrose:

"En dos libros que provocaron escándalo entre los defensores de una concepción materialista de la mente humana, Penrose pretende demostrar que el teorema de Gödel basta para afirmar que la mente es superior a toda máquina. [...]  Según él, la posibilidad para la mente humana de acceder directamente a ese «mundo de las matemáticas» le otorga un poder superior al de los ordenadores, los cuales, por definición, no pueden tener acceso a él." (Bollore y Bonnassies, p.317)

Gōdel mismo se había adelantado con esta misma conclusión:

"«Mi teorema de incompletitud implica que o bien la mente no es mecánica [no es la producción de una máquina como el cerebro], o bien la mente humana no puede entender su propio mecanismo». Por consiguiente:

  • o bien el espíritu humano es una realidad independiente del mundo material

• o bien los objetos matemáticos tienen una realidad fuera de ese mismo mundo material.

Para Gödel, estas dos proposiciones eran absolutamente verdaderas." (Bollore y Bonnassies, p.318-319)

Así, no se ve posibilidad alguna de que la inteligencia artificial llegue a emular o sustituir la mente humana. Del mismo teorema de Gödel se puede deducir el hecho de que el espíritu humano escapa a la realidad material:

"En neurología, ese teorema afirmaría que, a pesar de su ingente cantidad, no hay en las neuronas del cerebro humano una capacidad de almacenamiento suficiente como para producir todas las operaciones realizadas por una mente." (Bollore y Bonnassies, p.320)

Referencias

Bollore, M.Y. y Bonnassies, O (2023): Dios, la ciencia, las pruebas, Madrid, Ed.Funambulista. Primer capítulo disponible en la web Funambulista

Penrose, R. (2012): Las sombras e la mente, Madrid, Crítica.

martes, 6 de febrero de 2024

El Big Bang y la información

 
La segunda ley de la termodinámica dice que el calor no puede pasar de un cuerpo frío a uno caliente, lo que estableció Rudolf Clausius en 1865 y llamó entropía la pérdida de calor que se produce en toda acción. Lo que apunta también a la "muerte térmica" del universo, cuando ya no quede energía y el calor haya llegado a un promedio final estable.

Erwin Schrödinger, uno de los padres de la mecánica cuántica, introdujo en 1943 el concepto de entropía negativa, llamado luego negentropía por el físico frances Léon Brillouin, para designar lo que un sistema vivo produce para compensar su entropía natural: el orden de sus subsistemas y, así, resistir a su declive. La entropía mide la falta de información, es desorden mientras la negentropía es el orden, que aparece como información (Brillouin, p.X).

Shannon y Weaver introdujeron este concepto en la teoría de la información (1948) para el análisis de señales (especialmente en líneas telefónicas). Fue Brillouin que estableció la relación entre las dos perspectivas proponiendo que "la información (y con ella el lenguaje) es un factor negentrópico es decir por el cual se puede anular la entropía" (Wikipedia).

En 1988, Mario Ludovico definió la negentropía (entonces llamada "sintropía") como "el grado de organización interna de cualquier sistema formado por componentes que interactúan entre sí", estableciendo que "la sintropía es una cantidad complementaria a la entropía" y la suma de ambas cantidades define un valor constante (Wikipedia).

Brillouin dice que "La información es una función de la relación de las respuestas posibles después y antes que se recibió" (p.VIII). La información se transforma o se transmite, pero, agrega, "es imposible describir el mecanismo del pensamiento" (ibidem). Aunque la información tiene un valor subjetivo que puede variar según el observador y dicho valor no es directamente medible, en 1981 el finés Osmo Wiio propuso una fórmula para su medición que se basa en las variaciones en el estado de un sistema (el antes y el después, lo cual corresponde exactamente a la definición de Brillouin). Y este enfoque es útil en el campo de la psicología cognitiva, es decir en lo relativo al desarrollo del conocimiento humano (cfr. Colle, 2002, Cap.1, pp.17ss de la versión en PDF).

Aquí viene lo interesante. Como explican latamente Michel-Yves Bollore y Olivier Bonnassies en su libro, si remontamos el tiempo, mirando hacia atrás la historia de la entropía, llegamos al Big Bang, el momento en que la energía estuvo en su nivel máximo y su mayor concentración. ¿Qué pasó entonces con la negentropía y la información? Según la termodinámica y conforme a la propuesta de Ludovido, la entropía debió ser nula y, por lo tanto, la información debió ser máxima. "Sí, el universo tiene un comienzo, y sí, ese comienzo debe corresponder a una entropía muy baja, o sea, a un orden muy elevado" (Bollore y Bonnassies, p.74).

Luego, la evolución del universo significó una diversificación de los subsistemas, conforme a fragmentos de información preestablecidos "desenvolviéndose" a través del tiempo.

Hablar de "antes del Big Bang" tiene poco sentido porque el tiempo no existía: empieza con este evento crucial. Pero es posible entender que la materia no podía existir tal como la conocemos. 

"¿Que podemos imaginar en su lugar? Tal vez algo inmaterial, que podría ser la información. Antes del Big Bang - más exactamente en el instante cero -, el tiempo aún sería, en ese caso, puramente imaginario, y la realidad no existiría en esta etapa, sino bajo la forma de una información pura, una especie de código de esencia matemática.

Una información primordial, pues, que habría "programado", con una precisión que desafía la imaginación, el nacimiento del Universo en el momento del Big Bang y luego su evolución a lo largo de miles de millones de años." (ibidem, p.101)

Pero las investigaciones sobre el origen de la vida nos aportan algo más:

"Es sorprendente que la dimensión tecnológica de la teoría de la información y de la teoría de la codificación haya estado presente en el mundo vivo desde hace 3850 millones de años", o sea desde la aparición de la primera célula viva (Hubert P. Yockey, citado por Bollore y Bonnassies, p.245).

Y hay aún más: en la célula viva aparece la estructura básica de todo sistema: entrada-procesamiento-salida y, en este caso, el procesador es acompañado de una memoria; modelo copiado en los computadores clásicos.  Además, este sistema es capaz de interactuar con su ambiente.


Las "religiones del libro" (judaïsmo, cristianismo e islam) proclaman la obra de un Dios creador: "En el pincipio, Dios creó el cielo y la tierra, [,,,] Y Dios dijo: 'Que haya luz'" (Génesis, 1, 1 y 3). Y, para los cristianos "En el principio estaba el Verbo (la palabra)" (Juan, 1, 1). Esto corresponde perfectamente con lo que ciencia sabe acerca del Big Bang: se hizo la luz - aunque apareció solamente 380.000 años después del Big Bang, como pudo calcular George Smoot (Premio Nobel 2006) -  de la cual aún se perciben rastros (la "radiación de fondo"). 

Y la "palabra original", presente en la creación, ha de ser la totalidad de la información concentrada en ésta, como dicen Bollore y Bonnassies. Recordemos también lo que dijo Brillouin "la información (y con ella el lenguaje) es un factor negentrópico es decir por el cual se puede anular la entropía". La creación fue obra de una palabra que anulaba totalmente la entropía, siendo entonces la concentración máxima de información.

Para finalizar, una pregunta sin respuesta: Si el genio humano produce información: ¿la crea realmente o sólo expone una información que ya formaba parte de la información total del momento de la creación?

Referencias

Bollore, M.Y. y Bonnassies, O (2023): Dios, la ciencia, las pruebas, Madrid, Ed.Funambulista. Primer capítulo disponible en https://funambulista.net/wp-content/uploads/2023/09/DIOS-intro-ES-MKTNG-imprimir_INT-y-CUB-v2.pdf

Brillouin, L. (1959): Science et théorie de l'information, Paris, Masson.

Colle, R. (2002): Teoría cognitiva sistémica de la comunicación, Santiago, Ed. San Pablo. 

Yockey, H.P. (2000): Origin of life and Shannon'theory of communication, Comput. Chem., 24 (2000), pp. 105-123. 

Shannon, C. E.  (1948): A mathematical theory of communication, Bell Syst. Tech. J. 27, 379–423. 

WIIO, O. (1981): "What is Information. A Conceptual Analysis of Some Basic Words", Paper, ICA Meating, Minneapolis.

Imagen: La creación (Capilla Sixtina). Fuente: Wikipedia.

martes, 23 de enero de 2024

Sobre escribir a mano

 "Los trazos que hablan", libro reciente de José Antonio Millán, introduce une reflexión interesante acerca de la escritura manual. La editorial nos señala que

"Responde a preguntas tan importantes, además de hermosas, como estas: ¿por qué escribimos de izquierda a derecha?, ¿por qué la plumilla de acero sustituyó a la de ave?, ¿qué hemos perdido al dejar de escribir a mano?… El autor nos acompaña en un viaje por la paleografía, la grafémica, la ortografía, la caligrafía y, entre otras disciplinas, la lingüística que nos permite entender de una vez por todas el logro intelectual y funcional que hay detrás de la escritura a mano."

Recuerdo la pizarrita con tiza con que aprendí a escribir en mi primer año de primaria. Luego fue con una pluma y tintero, para pasar luego a una pluma-fuente y finalmente (en secundaria) a un bolígrafo (cuando estos aparecieron).

Finlandia decidió en 2014 introducir clases de mecanografía manteniendo el aprendizaje de la escritura a mano con letra de imprenta, y la caligrafía cursiva dejó de ser obligatoria (ABC, 3/12/2014). "La escritura a mano es una herramienta sustancial en el aprendizaje, afirmó el director del Centro de Enseñanza Para Extranjeros de la Universidad Nacional, Domingo Alberto Vital Díaz" (Boletín UNAM-DGCS-760, 2023). "La enseñanza de la letra cursiva en las escuelas está en declive hace años, pese a que las investigaciones nacionales e internacionales indican con claridad que es la mejor forma de alfabetizar a niños de 5 o 6 años" (Otero): La cursiva entrelazada desarrolla mejor la motricidad, la coordinación mano-ojo y la orientación espacial. Yo agregaría que sigue siendo más rápida y que preserva mejor la ortografía que el rápido tipeo en una pantalla de celular, en el que los jóvenes son excelentes. Lo confirma Soledad Rombola, maestra de cuarto grado: “La letra cursiva consolida el aprendizaje de la ortografía, siempre que se enseñe a escribir en forma convencional. De esta manera, al enseñar la letra cursiva se incorpora naturalmente la grafía correcta, se automatiza rápidamente con la práctica” (ibidem).

"La investigadora principal del Conicet y doctora en Letras Ana María Borzone, referente en el tema, explica que los trabajos científicos muestran que los alumnos que aprenden con cursiva tienen un mejor desempeño escolar, en relación con la legibilidad de la letra y la composición (la organización gramatical y discursiva de las palabras); es decir, con la calidad de la escritura y del texto." (ibidem)

Aún existen casos en que la escritura a mano es necesaria, como las postales ilustradas turísticas, donde hay que anotar a mano el destinatario y su dirección y algunas palabras con la firma. Desaparecerán si no se enseña más la escritura a mano. 

Recuerdo con nostalgia las tarjetas postales belgas, prefranqueadas, que vendían en la oficina de correo, con un lado completo en blanco para escribir y la mitad del otro para terminar el texto si hacía falta (su otra mitad era para escribir el nombre del destinatario y su dirección). Y también las postales ilustradas que se intercambiaban para la Navidad, el Año Nuevo y Pascuas de Resurrección.


La revista Wired nos advierte sobre el "peligro de digitalizar todo": se introducen barreras de acceso y los "no-registrados" quedan excluidos. O bien será necesario una app que descifre un código QR, hasta para ver el menú en un restorán (¿y que pasa con quienes no lleven celular con esta función?). No es ya un problema de escritura manual, pero es un problema de escritura analógica que también empieza a aparecer. (Alderman).

Referencias

Alderman, M. (2024): The Danger of Digitizing Everything, Wired, 14/01/2024.

Camarero, A. (2022): El abandono de la escritura a mano perjudica el aprendizaje en los niños, y el lápiz digital puede ser un aliado, El País, 6/6/2022. 

Millán, J.A. (2023): Los trazos que hablan, Editorial Zenda

Otero, M. (2023): Los expertos dicen que la letra cursiva facilita el aprendizaje, pero casi no se enseña, La Voz, 26/11/2023. 

Vital, D.A. (2023): Hay que preservar la enseñanza de la escritura a mano, Boletín UNAM-DGCS-760, 7/10/2023.