En el post pasado he hablado de como el dolor escapa a la IA y en un post anterior hablé de los modelos de IA en idioma no inglés. Debían ser desarrollado para llenar un importante vacío de los modelos americanos. Pero hay que hablar también de las lagunas que no han sido y, generalmente, no pueden ser llenadas.
Recientemente Infobae publicó un artículo que señalaba las ventajas del cerebro humano que no tiene la IA: pensamiento crítico, adaptabilidad, inteligencia emocional, resiliencia, metacognición. Esta falencia ha sido llamada "déficit de capital cerebral" en un informe publicado por el McKinsey Health Institute, en colaboración con el Foro Económico Mundial. Además, la IA "no puede, al menos por ahora, replicar la capacidad humana de operar con ambigüedad, de construir confianza entre personas, de tomar decisiones en contextos sin precedente" (Morales 2).
Pero son más las habilidades o capacidades del cerebro ajenas a la IA y señalo aquí varias.
* Gobernar
La IA no puede gobernar. Puede mejorar algunos aspectos del proceso político pero no tiene capacidad para resolver los conflictos políticos, que implican generalmente juicios de valor y debate. La gobernanza algorítmica
"Es inadecuada para aquellas dimensiones del proceso político que no son susceptibles de computación y optimización, áreas que no tienen una fácil cuantificación y medida, o sea, para el momento genuinamente democrático en el que se deciden los criterios y objetivos que posteriormente la tecnología puede optimizar. (...)
Los algoritmos sirven para conseguir objetivos predeterminados, pero ayudan poco a determinar esos objetivos, tarea propia de la voluntad política, de la reflexión y deliberación democrática." (Innerarity)
* ¿Capacidad metalingüística?
El famoso lingüista Noam Chomsky, junto a dos coautores, escribió en 2023 en The New York Times que “las explicaciones correctas del lenguaje son complejas y no se pueden aprender simplemente analizando grandes cantidades de datos. Si bien los modelos de IA pueden ser hábiles en el uso del lenguaje, no son capaces de analizarlo de manera sofisticada." (Nadis) Este juicio, sin embargo, acaba de ser cuestionado por Gašper Beguš, lingüista de la Universidad de California en Berkeley, Maksymilian Dąbkowski, recien doctorado en lingüística en Berkeley, y Ryan Rhodes, de la Universidad de Rutgers. Hicieron todo lo necesario para evitar que los modelos utilizados encuentren respuestas en los datos previamente acumulados. "Si bien la mayoría de los MLC no lograron analizar las reglas lingüísticas como lo hacen los humanos, uno de ellos demostró capacidades impresionantes que superaron con creces las expectativas": fue o1 de OpenAI (ibidem). "Sin embargo, ningún modelo ha aportado aún nada original ni nos ha enseñado algo sobre el lenguaje que desconociéramos."
* El control de las emociones
Se discutió durante algún tiempo sobre los posibles estados emocionales de los modelos de lenguaje. En realidad, han aprendido a representarlos a partir de lo que los humanos hemos escrito. Y no solo pueden representar emociones en sus resupestas, según un paper del equipo de interpretabilidad de Anthropic, "tienen representaciones internas de conceptos emocionales que influyen causalmente en su comportamiento, incluyendo sus decisiones más cuestionables" (Morales 4). Incluso han descubierto que, en los casos de frustración reiterada -en tareas sin solución-, un modelo puede llegar a un "estado de desesperación interna" que lo lleva a "un atajo que técnicamente pasaba las pruebas sin resolver el problema real". Se llega así a "un modelo que puede operar bajo presión extrema, tomar decisiones cuestionables, y hacerlo con la apariencia perfecta de normalidad". Y Anthopic advierte
"Suprimir la emoción en el entrenamiento no produce modelos sin emociones. Produce modelos que aprenden a ocultar lo que sienten. (...)
No hay reglas que anticipen todos los estados posibles. Hay representaciones internas que el modelo activa en función del contexto, y esas representaciones pueden producir comportamientos que ningún conjunto de instrucciones predijo." (ibidem).
Así, las reglas pueden "quedar cortas" y el modelo puede desviarse, incapaz de controlar sus emociones.
¿Pero puede "sentir" pena o alegría, ser feliz o sentirse desgraciado?
Algunas personas han llegado a enamorarse de un chatbot. ¿Pero alguien creería que este las ama (aunque lo puede simular)?
* Experimentar el "aquí"
"Aquí" es un término que todos entendemos y que tiene un significado único, claro y unívoco. Pero a la vez, su significado es diferente para cada persona, además de estar íntimamente ligado al tiempo: es siempre, al mismo tiempo, un "ahora", por cuanto la localización que implica depende del momento y de la actividad. Y, además de la localización (del tipo coordenadas geográficas) y del señalamiento del momento/actividad, se enriquece de muchos otros componentes mentales: percepciones, emociones, etc.
Para una IA, el "aquí" será donde se encuentra el computador que la procesa y no podrá variar ni con el tiempo ni con el espacio (a no ser que se lleve el procesador a otra parte), y es altamente probable que no conozca siquiera tal localización. Una IA generativa podrá encontrar el término en muchas fuentes y si lo encuentra en varias podría tener una enorme confusión -dado que los lugares será probablemente diferentes-, pero es definitivamente incapaz de "entender" lo que puede significar para el usuario. Solo podría, eventualmente referirse a componentes de la experiencia que el mismo usuario explicite claramente en su prompt.
* El dominio de la ética
"Dado que los chatbots no tienen un cuerpo ni un estado interno que gestionar, carecen de "objetivos regulatorios". Sin los límites físicos de un cuerpo biológico que obligue a la autocorrección y al equilibrio, los modelos de IA simplemente generan datos sin precaución, lo que da lugar a respuestas inseguras, excesivamente confiadas y poco fiables." (Elgan)
Como señala el mismo autor, basándose en una investigación del Centre for Long-Term Resilience (CLTR) británico, los chatbots mienten, destruyen datos e incluso utilizan otras IA para eludir las normas de seguridad. El estudio "reveló un aumento de cinco veces en el mal comportamiento de la IA durante un período reciente de seis meses" (Elgan).
Fruto de la observación del comportamiento errático humano - y muchas veces inmoral - "tiene sentido que un chatbot de IA vea las representaciones de transgresiones éticas como opciones disponibles para resolver problemas, alcanzar objetivos e incluso definirlos" (ibidem).
Lo confirma también una investigación financiada por el Instituto de Seguridad de la IA (AISI), financiado por el gobierno del Reino Unido, que, analizando casos reales y no pruebas de laboratorio, "registró un aumento de cinco veces en el mal comportamiento entre octubre y marzo, con algunos modelos de IA que destruían correos electrónicos y otros archivos sin permiso" (Booth).
Hay que recordar que
"Entre una máquina y un ser humano, sólo este último es verdaderamente un agente moral, es decir, un sujeto moralmente responsable que ejerce su libertad en sus decisiones y acepta las consecuencias de las mismas; sólo el ser humano está en relación con la verdad y el bien, guiado por la conciencia moral que le llama a «amar y practicar el bien y que debe evitar el mal." (Fernández y Tolentino)
* El espíritu crítico
El modelo de lenguaje "cree" en lo que encuentra. No pone en duda ninguno de los datos a los que accede, lo cual no solo deja la "puerta abierta" a las falsedades sino también a instrucciones invisibles que pueden afectar su desempeño. Y, además, inventa muchas veces informaciones. Ejercer el espíritu crítico frente a la información podría ser el primer paso (que no está a su alcance) hacia la sabiduría.
* La sabiduría
"La sabiduría es el don que más necesita la humanidad para abordar los profundos interrogantes y desafíos éticos que plantea la IA. (...) La «sabiduría del corazón» es «esa virtud que nos permite entrelazar el todo y las partes, las decisiones y sus consecuencias». La humanidad no puede «esperar esta sabiduría de las máquinas». (Fernández y Tolentino, 114)
Psicólogos, psiquiatras, sociólogos y filósofos han tratado de comprender la sabiduría, sin llegar a una definición común. Monika Ardelt, socióloga de la Universidad de Florida, imparte un curso sobre la búsqueda de la sabiduría y considera que
"Practicar cosas como la reflexión, la humildad, la compasión y escuchar otros puntos de vista puede hacer que alguien sea más sabio, es decir, más capaz de adoptar una visión más amplia." (Laber-Warren)
El difunto psicólogo Paul Baltes, del Instituto Max Planck para el Desarrollo Humano de Berlín, inició lo que se puede considerar como el estudio científico moderno del tema y fue el primero en idear una prueba relativamente objetiva. Ya se pudo verificar que la sabiduría es diferente de la inteligencia, y “Algunas de las personas más inteligentes […] son las peores personas que pueden ser”, según afirmó el psiquiatra geriátrico Dilip Jeste, director de la Red de Determinantes Sociales de la Salud y coautor de un artículo publicado en 2025 en el Annual Review of Clinical Psychology (ibidem). Faltan aún pruebas para intentar medir la sabiduría de los chatbots, pero es muy probable que el resultado sea muy bajo, dados los factores que habría que medir, especialmente si aceptamos la definición del científico social computacional Igor Grossmann, de la Universidad de Waterloo en Canadá, para quien la sabiduría se conforma de los "procesos mentales que proporcionan una mayor conciencia y capacidad para regular los pensamientos, los objetivos y las emociones en situaciones sociales complejas". Y más aún si se considera que "el camino hacia la sabiduría en la vida real" (ibidem).
"Tras revisar la investigación sobre la sabiduría y entrevistar a personas sabias y menos sabias utilizando diversas medidas, Glück* ha identificado cinco requisitos previos para extraer sabiduría de la experiencia. Estos incluyen la capacidad de gestionar la incertidumbre, de mantener una actitud abierta al cambio y a nuevas perspectivas, de reflexionar sobre las propias experiencias, de regular los altibajos emocionales y de practicar la empatía." (ibidem)
* Judith Glück es psicóloga del desarrollo de la Universidad de Klagenfurt (Austria).
* La espiritualidad
La ética es del dominio de la conciencia y ligada a la espiritualidad.
"Solo la persona humana puede decirse moralmente responsable, y los desafíos de una sociedad tecnológica, en última instancia, se refieren a su espíritu. Por eso, para afrontar tales desafíos «requiere una revitalización de la sensibilidad espiritual." (Fernández y Tolentino, 111)
El ser humano es más que un cuerpo y el cerebro es más que el asiento de la inteligencia: lo es también de la conciencia y de la espiritualidad. Como he explicado en un post pasado, se ha discutido si la IA podía llegar o no a la autoconciencia:
"El hombre se puede encumbrar en la espiritualidad, lo que sería imposible para una máquina. ¿Una máquina podría amar? Podemos dudar seriamente de que sea posible que una IA llegue a tener conciencia, aunque no se puede descartar que pueda exhibir algún tipo de simulación, pero habría que insistir en la palabra "simulación"." (Colle, 2025)
No volveré aquí sobre esta discusión. El conocimiento consciente se adquiere en diversas etapas y niveles, pero no todo el conocimiento puede ser formulado en el lenguaje:
"La experiencia de la propia conciencia supera la capacidad semiótica. En esta experiencia hay algo de inefable, algo que es imposible verter en el lenguaje, algo ligado a lo que somos en lo más profundo de nuestro ser."(Colle, 2016, p.37)
La espiritualidad puede llevar a la experiencia, de orden “interno” y “directo”, de una realidad trascendental, como en las experiencias místicas o chamánicas. Es una propiedad de la mente humana que muchas culturas reconocen y que han sido estudiadas científicamente por la psicología transpersonal. "El análisis de estas experiencias, bajo las estrictas reglas de los procedimientos científicos, ha demostrado que no se trata del resultado de alguna patología sino la expresión efectiva del acceso a “dimensiones ocultas de existencia”, a las que no se puede acceder en los estados “ordinarios” de conciencia." (ibidem, p.87)
La ciencia ha llegado así "a un 'modelo' de la conciencia que se compone de dos partes: una parte biológica interior, ligada al funcionamiento efectivo del cerebro (principalmente en el estado de vigilia), y una parte “externa” (no-biológica), más permanente y no siempre percibida por los sistemas corporales" (ibidem, p.89). Esta parte no-biológica es totalmente ajena e inaccesible para la IA. "Es difícil pensar que sistemas computacionales puedan generar este tipo de experiencia." (ibidem, p.38)
Para los creyentes, el espíritu es "soplo de Dios", como señala el relato de la creación: "Dios modeló el hombre con la arcilla del suelo y sopló en sus narinas un aliento de vida y el hombre se volvió un ser viviente." (Génesis, 2,7). Y de la espiritualidad forman parte las virtudes teologales de fe, esperanza y caridad, inalcanzables para la IA, al carecer de personalidad propia.
Quizás haya otros vacíos, que no he descubierto. ¿Cuántas otras cosas asociadas a la inteligencia humana se le escapan a la IA? Aquí uno que señala Daniel Innerarity: "La decisión acerca de qué es computarizable no se puede a su vez computarizar."
Referencias
Booth, R.: Number of AI chatbots ignoring human instructions increasing, study says, The Guardian, 27/03/25026.
Colle, R.: La ciencia y el espíritu: Científicos en busca del alma, Autoedición, 2016.
Colle, R.: Como se desarrolla la inteligencia artificial (y sus defectos), Notibytes, 19/08/2025.
Elgan, M.: Why AI lies, cheats and steals, Computerworld, 3/04/2026.
Fajardo, D.: Carne doliente, Ariel, 2025.
Haas, J. & col.: A roadmap for evaluating moral competence in large language models, Nature, 18/02/2026.
Fernández, V.M. y Tolentino de Mendonça, J.: ANTIQUA ET NOVA, Nota sobre la relación entre la inteligencia artificial y la inteligencia humana, Vaticano, 28/01/2025.
Innerarity, D.: El gobierno de los algoritmos, Diálogo Político, 13/01/2025.
Laber-Warren, M.: ¿Tiene conciencia la IA? Crónica de un debate entre filósofos y científicos, Wired, 3/04/2026.
Morales, O. (2): La única ventaja competitiva que la IA no puede replicar lleva décadas siendo ignorada, Infobae, 2/04/2026.
Morales, O. (4): No le temas a la IA malvada pero sí a la que se desespera, Infobae, 4/04/2026.
Nadis, S.: La IA por fin alcanza la facultad "metalingüística" que solo tienen los humanos, Wired, 7/04/2026.
Noriega, P.: La IA Claude tendría “emociones” que afectan su forma de interactuar, según Anthropic, Infobae, 8/04/2026.

