miércoles, 3 de diciembre de 2025

La IA y la pseudo-comunicación

 La IA generativa "no puede considerarse más inteligente que un gato", según Demis Hassabis, CEO de Google DeepMind (Luque). Opinión compartida por Yann LeCun (considerado uno de "los padrinos de la IA"), que abandonó recientemente Meta - después de 12 años - por considerar que el desarrollo de los LLM es una estrategia sin salida (Sabán).

Es mera matemática: selección estadística de las palabras que se suceden.

Una consulta a un chatbot es "hablar" con una máquina: se emite una pregunta pero la respuesta no viene de un humano sino de un algoritmo. Semánticamente, el significado lo pone el receptor.

El algoritmo opera sobre una base de datos digital, no sobre un "contenido" (que implicaría significación). Así, tampoco hay cognición involucrada: el algoritmo no conoce nada, solo elige conjuntos de bytes que aparecen frecuentemente juntos; para el receptor, aparecen como palabras ordenadas en oraciones.

Los datos, por cierto, provienen de mensajes, emitidos por millones de personas, que, originalmente, tienen un significado pero que la máquina no es capaz de reconocer: solo extrae la secuencia de palabras. En este sentido hay, indirectamente, una relación de quien pregunta con dichos emisores pero desconocidos y desvinculados del proceso (ni siquiera pueden saber que se les ha consultado cuando se hizo la pregunta). No se puede, entonces, hablar de comunicación con ellos.

Se podría concluir, entonces, que los chatbots de IA no son una forma de comunicación sino una simulación. Me atrevería a hablar de "no-comunicación" o pseudo-comunicación.

REFERENCIAS

Luque, E.: Según Google, la IA actualmente no es más inteligente que un gato, Computer Hoy, 12/07/2024. 

Sabán, A.: El 'padrino de la IA' se va de Meta. No cree en los modelos de lenguaje y buscará desarrollar "modelos del mundo", Genbeta, 21/11/2025. 

martes, 4 de noviembre de 2025

¿Culto a la fealdad y a la mentira?

 No soy ni de lejos un experto en arte, pero aprendí de joven a gozar con las obras artísticas de toda la cultura occidental, desde la Mesopotamia hasta los impresionistas.

Por ello me hago hoy muchas preguntas acerca de lo que ocurre con la estética en estos años de inteligencia artificial.

¿Es posible enseñar estética a la IA? La IA generativa, que sirve hoy muchas veces para crear nuevas imágenes, utiliza las bases de datos masivas que se alimentan de todo lo que encuentran en internet, tanto lo bello como lo feo. ¿Qué encuentran? Por cierto, copias de estas bellezas del pasado, pero también el reflejo de la fealdad que ha invadido nuestra cultura: "La fealdad domina nuestra cultura, invade los espacios públicos y ha penetrado incluso en nuestros hogares", dice Angélica Barragán.

Algunos dicen que “la belleza está en el ojo de quien mira”, pero esto sustituye los cánones artísticos por los caprichos individuales, por lo que ya no habría nada que enseñar en materia de arte y el conocimiento del arte del pasado no tendría ya utilidad alguna, a pesar de que "Durante muchos siglos, los artistas buscaron elevar la mirada y el espíritu del hombre a través de lienzos que fascinaban con sus contrastes de luz y sombra, mármoles que parecían hablar, poesías que cantaban al amor, al honor y a la patria..." (Barragán).

Cualquiera puede hoy formular algunas instrucciones y generar alguna imagen con un modelo de IA apto para ello, y podemos ver miles de estas imágenes en internet. Se empezó con "deepfakes": iconos fácilmente reconocibles como falsos, pero la calidad de las producciones ha crecido notablemente y distinguir un cuadro falso de una fotografía verdadera ya se ha hecho imposible.

"La imagen ya no representa lo real, sino lo simulado. La realidad se vuelve cada vez más cara, compleja e inaccesible. Ya no será un terreno común, sino que una profunda sospecha compartida." (Campos)

La facilidad de creación ha desembocado en una avalancha de obras en Instagram, que es una de las "ventanas" más prolijas para las imágenes. Pero un éxito ahí (en términos de cantidad de 'likes') no es sinónimo de producto artístico. "El arte es algo más profundo que una tostada de aguacate con toppings y merece un tiempo de observación que la vida moderna no concede." (Von Touceda)

Lo peor es que proliferan en Instagram fotos de "obras" delante de las cuales aparecen su autora "la mayoría mujeres, que aparecen al lado de sus obras absolutamente sexualizadas para vender algo que no tiene valor por sí mismo puesto que no hay absolutamente nada detrás de esos trazos o texturas y el foco se pone en la persona que se encuentra delante a la obra". La artista Juana García-Pozuelo opina que "La pintura, en muchos casos, queda reducida a un accesorio: un pretexto para rodear de solemnidad lo que, en esencia, es porno soft disfrazado de estética bohemia" (ibidem).

Las pantallas alteraron nuestra manera de conocer la realidad. Por cierto ampliaron el acceso a la cultura y al arte del pasado, sobre todo con la televisión, pero la IA transtorma totalmente este mecanismo. En particular, los teléfonos celulares, con acceso a los nuevos productos de la IA, "no solo alteraron nuestras formas de consumo, reconfiguraron también hábitos que creíamos inamovibles para comunicarnos, aprender y comprender el mundo" y, además, hoy, "ya no es solo que veamos sin entender, ahora ni siquiera sabemos si lo que estamos viendo es real" (Campos).

Las fotos y los videos fueron por mucho tiempo evidencias en los casos policiales. Hoy, están a punto de dejar de serlo. Se confía aún en los metadatos que acompañan cada uno pero es posible que se llegue a "hackearlos". Hay aplicaciones especiales que analizan estos metadatos y patrones de generación, "pero incluso estos sistemas son vulnerables ante el vértigo del progreso: los modelos se perfeccionan y las pistas se disuelven". "Pronto, el disco duro de una cámara no será prueba de nada. Un video podrá ser fabricado con un prompt." (Campos). En 2023 se anunció que para 2033 se podría crear con IA una película entera, totalmente realista, indistinguible de cualquier película grabada con una cámara actual. Pero hoy ya está ocurriendo. No solamente "Critterz", un largometraje animado impulsado por OpenAI (Paiva), sino también un filme realizado por Intelliflicks Studios, de India, que adapta el libro 'Maharaja in Denims', donde únicamente algunas escenas de baile son realizadas por intérpretes reales (de María).

Se ha mencionado (e hice eco de ello en otros posts) como el exceso de uso de las pantallas y de la IA generativa afecta la mente. No solo el aprendizaje, la memoria y el espíritu crítico: también, como apunté al principio, la capacidad de distinguir y apreciar lo bello, una dimensión que rara vez se señala en relación a los efectos psicológicos de esta tecnología.

Alterar la realidad (su reproducción al menos) está al alcance de cualquiera y con ello se altera la mente, se transforma el ser humano, y también la sociedad: "Si no tomamos medidas para cortar de raíz su uso para hacer el mal, la inteligencia artificial generativa hará tambalearse a la sociedad, causando profundos daños e irreparables a millones de personas." (Díaz)

Lamentablemente no se puede esperar que las grandes empresas de IA tomen medidas correctivas y se autorregulen. Su único fin es el beneficio, no el bien de la humanidad y, como señalado en el post pasado, las sumas invertidas son astronómicas. "Necesitamos instar a los gobiernos de todo el mundo a colaborar con la comunidad científica en la legislación que proteja los derechos individuales, estableciendo límites penales para tratar de frenar el uso tóxico de esta tecnología." (Díaz). En la reunión anual de las Naciones Unidas en Nueva York, el secretario general de la ONU, Antonio Guterres, abrió un debate sobre la IA señalando que "La pregunta no es si la IA influirá en la paz y seguridad internacionales, sino cómo moldearemos su influencia para que se utilice de manera responsable" (Min). Se propuso un organismo similar a la COP para la gobernanza internacional de la IA y un panel de 40 expertos que presentará informes anuales en un foro denominado "Diálogo Global sobre la Gobernanza de la IA" en 2026. ¿Aportará una solución? Es dudoso, porque se habla de un tratado global vinculante que establezca "guardias mínimas" para la IA, diseñadas para prevenir los "riesgos más urgentes e inaceptables" y Guterres señaló por su parte 4 prioridades (ibidem):

El cambio climático no será el único gran problema en los próximos años: también lo será la definición del bien, de la verdad y de lo bello.


REFERENCIAS

Barragán, A.: La fealdad en nuestra sociedad, Religión en Libertad, 25/10/2025. 

Campos, M.: Inteligencia artificial: el fin de la realidad, El Mostrador, 20/06/2025. 

de María, S.: Por primera vez en la historia una película generada por IA llegará a los cines, Infobae, 27/12/2024. 

Díaz, J.: La inteligencia artificial Sora nos precipita al final de la realidad, El Confidencial, 16/02/2024. 

Min, R.: Así es como la ONU propone liderar la regulación global de la IA; Euronews, 27/09/2025. 

Paiva, A.: Así es la película hecha con Inteligencia Artificial y respaldada por OpenAI que busca competir contra Hollywood, La Tercera, 12/09/2025. 

Von Touceda, M.: No por muchos ‘likes’ se amanece más artista: el ‘boom’ de las ‘influencers’ que hacen arte, El País, 28/10/2025. 

miércoles, 15 de octubre de 2025

La IA puede afectar el cerebro

 Se ha comentado en las redes sociales y webs especializadas la utilidad de la IA generativa para los estudiantes, tanto como medio de búsqueda como ayuda a la redacción. 

"Según el Higher Education Policy Institute, el 92% de los estudiantes utiliza herramientas de IA en sus estudios, una cifra que representa un salto considerable respecto al 66% registrado el año anterior. Más aún, el 88% de los estudiantes reconoce emplear IA generativa como ChatGPT específicamente para evaluaciones, frente al 53% en 2024." (Morales)

El problema no es solo para los educadores, que se ven obligados a modificar sus métodos. Ha surgido la pregunta de los posibles efectos en el cerebro, especialmente en las facultades cognitivas. 

Ya sabíamos, por medio de varios estudios, que el exceso de tiempo frente a las pantallas se asocia a un menor rendimiento de los niños en lectura y matemáticas, lo que fue confirmado, entre otros, por un estudio longitudinal realizado a más de 3.000 niños en Ontario (Canadá) desde 2008 hasta 2023 (Carnevali). El uso excesivo de la IA podría producir efectos aún peores.

En octubre pasado (2024), Brigitte van Zundert, investigadora del Instituto de Ciencias Biomédicas de la Universidad Andrés Bello y directora del Núcleo Milenio Epineuro, advertía sobre los efectos potenciales que el uso excesivo de la IA podría tener en el cerebro. Si bien Gonzalo Farías, neurólogo de la Sociedad de Neurología, Psiquiatría y Neuropsicología de Chile, decía que "no hay claridad ni evidencia concreta sobre los potenciales efectos", en el mismo artículo periodístico se cita un estudio internacional realizado con estudiantes de Pakistán y publicado en la revista Nature, que "sugiere que el uso de IA en entornos educativos se vincula a un impacto significativo en la pérdida de la capacidad de toma de decisiones y en la procastinación, lo que puede incidir en un menor rendimiento académico" (Gonzalez).

A principios de 2024, David Ezpeleta, neurólogo y secretario de la Junta Directiva de la Sociedad Española de Neurología, señalaba: 

"La velocidad exponencial de la tecnología y ahora la IA está desajustando nuestros cerebros, es contraevolutivo. Si este desajuste puede compensarse de algún modo está por ver." (en Daiichi Sankyo)

Un estudio del Instituto Tecnológico de Massachusets, dado a conocer en septiembre 2025, comprobó efectos reales al nivel del sistema nervioso:

"Demuestra que usar IA para escribir atrofia las conexiones neuronales necesarias para el pensamiento crítico: los estudiantes que recurren a ellas para un uso total acaban escribiendo mejor, pero pensando peor. (...)

Los investigadores midieron su actividad neuronal con electroencefalogramas y los resultados han sido contundentes: quienes usaron IA mostraron una conectividad neuronal sistemáticamente menor en todas las bandas de frecuencia." (Lacort)

Aquí la traducción de parte del resumen del artículo original:

"El análisis de EEG presentó evidencia sólida de que los grupos LLM, Motor de Búsqueda y Solo Cerebro presentaron patrones de conectividad neuronal significativamente diferentes, lo que refleja estrategias cognitivas divergentes. La conectividad cerebral se redujo sistemáticamente con la cantidad de apoyo externo: el grupo Solo Cerebro exhibió las redes más fuertes y de mayor alcance, el grupo Motor de Búsqueda mostró una participación intermedia y la asistencia LLM generó el acoplamiento general más débil. En la sesión 4, los participantes de LLM-a-Cerebro mostraron una conectividad neuronal más débil y una participación insuficiente de las redes alfa y beta; y los participantes de Cerebro-a-LLM demostraron una mayor capacidad de memoria y una reactivación de los nodos occipitoparietales y prefrontales generalizados, probablemente apoyando el procesamiento visual, similar a la que se percibía con frecuencia en el grupo Motor de Búsqueda. La propiedad reportada de los ensayos del grupo LLM en las entrevistas fue baja. El grupo Motor de Búsqueda mostró una propiedad fuerte, pero menor que el grupo Solo Cerebro. El grupo LLM también se retrasó en su capacidad para citar los ensayos que escribieron apenas unos minutos antes.

Demostramos la urgencia de una probable disminución de las habilidades de aprendizaje,  basada en los resultados de nuestro estudio. El uso de LLM tuvo un impacto medible en los participantes, y si bien los beneficios fueron evidentes inicialmente, como demostramos a lo largo de cuatro meses, los participantes del grupo LLM obtuvieron peores resultados que sus contrapartes del grupo de solo aprendizaje cerebral en todos los niveles: neuronal, lingüístico y de puntuación." (Kosmyna)

No solo se ve afectado el pensamiento crítico sino también la memoria: los autores de ensayos escritos con IA "recordaban peor lo que habían escrito minutos antes" y "habían perdido capacidad de reactivar las redes neuronales necesarias para escribir de forma independiente" (Lacort). Como verificó este estudio, esto es más patente y común en adolescentes que en estudiantes universitarios: quienes han aprendido a pensar por sí-mismos se ven menos afectados.

El mismo estudio advirtió también que "A largo plazo, las personas con deuda cognitiva podrían ser más susceptibles a "una menor indagación crítica, una mayor vulnerabilidad a la manipulación y una menor creatividad", así como a una "probable disminución" de las habilidades de aprendizaje. (Desmarais)

Las reacciones en el ámbito de la educación se produjeron antes de conocerse el estudio del MIT. Varias universidades, como la Universidad de California, Berkeley, y la Carnegie Mellon University tomaron rápidamente carta en el asunto formulando directrices para los profesores. Pero la respuesta ha sido global: "UNESCO informa que dos tercios de las instituciones de educación superior cuentan o están desarrollando directrices sobre el uso de IA" (Morales). Pero la respuesta ha sido motivada más por el uso abundante e indiscriminado para realizar tareas y las directrices apuntan a precisar cual es el uso aceptable. La advertencia del MIT sin duda llevará a afinar la metodología y, sobre todo, a ajustarla a las distintas etapas de la educación. La regla: "Primero, se aprende a pensar. Después, se aprende a pensar con máquinas." (Lacort) El cerebro es más maleable durante la infancia, por lo que debe pensarse mucho antes de permitir el uso de la IA durante este período de la vida.

REFERENCIAS