miércoles, 6 de mayo de 2026

Los graves vacíos de la IA

En el post pasado he hablado de como el dolor escapa a la IA y en un post anterior  hablé de los modelos de IA en idioma no inglés. Debían ser desarrollado para llenar un importante vacío de los modelos americanos. Pero hay que hablar también de las lagunas que no han sido y, generalmente, no pueden ser llenadas.

Recientemente Infobae publicó un artículo que señalaba las ventajas del cerebro humano que no tiene la IA: pensamiento crítico, adaptabilidad, inteligencia emocional, resiliencia, metacognición. Esta falencia ha sido llamada "déficit de capital cerebral" en un informe publicado por el McKinsey Health Institute, en colaboración con el Foro Económico Mundial. Además, la IA "no puede, al menos por ahora, replicar la capacidad humana de operar con ambigüedad, de construir confianza entre personas, de tomar decisiones en contextos sin precedente" (Morales 2).

Pero son más las habilidades o capacidades del cerebro ajenas a la IA y señalo aquí varias.

* Gobernar

La IA no puede gobernar. Puede mejorar algunos aspectos del proceso político pero no tiene capacidad para resolver los conflictos políticos, que implican generalmente juicios de valor y debate. La gobernanza algorítmica 

"Es inadecuada para aquellas dimensiones del proceso político que no son susceptibles de computación y optimización, áreas que no tienen una fácil cuantificación y medida, o sea, para el momento genuinamente democrático en el que se deciden los criterios y objetivos que posteriormente la tecnología puede optimizar. (...)

Los algoritmos sirven para conseguir objetivos predeterminados, pero ayudan poco a determinar esos objetivos, tarea propia de la voluntad política, de la reflexión y deliberación democrática." (Innerarity)

* ¿Capacidad metalingüística?

El famoso lingüista Noam Chomsky, junto a dos coautores, escribió en 2023 en The New York Times que “las explicaciones correctas del lenguaje son complejas y no se pueden aprender simplemente analizando grandes cantidades de datos. Si bien los modelos de IA pueden ser hábiles en el uso del lenguaje, no son capaces de analizarlo de manera sofisticada." (Nadis) Este juicio, sin embargo, acaba de ser cuestionado por Gašper Beguš, lingüista de la Universidad de California en Berkeley, Maksymilian Dąbkowski, recien doctorado en lingüística en Berkeley, y Ryan Rhodes, de la Universidad de Rutgers. Hicieron todo lo necesario para evitar que los modelos utilizados encuentren respuestas en los datos previamente acumulados. "Si bien la mayoría de los MLC no lograron analizar las reglas lingüísticas como lo hacen los humanos, uno de ellos demostró capacidades impresionantes que superaron con creces las expectativas": fue o1 de OpenAI (ibidem). "Sin embargo, ningún modelo ha aportado aún nada original ni nos ha enseñado algo sobre el lenguaje que desconociéramos."

* El control de las emociones

Se discutió durante algún tiempo sobre los posibles estados emocionales de los modelos de lenguaje. En realidad, han aprendido a representarlos a partir de lo que los humanos hemos escrito. Y no solo pueden representar emociones en sus resupestas, según un paper del equipo de interpretabilidad de Anthropic, "tienen representaciones internas de conceptos emocionales que influyen causalmente en su comportamiento, incluyendo sus decisiones más cuestionables" (Morales 4). Incluso han descubierto que, en los casos de frustración reiterada -en tareas sin solución-, un modelo puede llegar a un "estado de desesperación interna" que lo lleva a "un atajo que técnicamente pasaba las pruebas sin resolver el problema real". Se llega así a "un modelo que puede operar bajo presión extrema, tomar decisiones cuestionables, y hacerlo con la apariencia perfecta de normalidad". Y Anthopic advierte 

"Suprimir la emoción en el entrenamiento no produce modelos sin emociones. Produce modelos que aprenden a ocultar lo que sienten. (...)

No hay reglas que anticipen todos los estados posibles. Hay representaciones internas que el modelo activa en función del contexto, y esas representaciones pueden producir comportamientos que ningún conjunto de instrucciones predijo." (ibidem).

Así, las reglas pueden "quedar cortas" y el modelo puede desviarse, incapaz de controlar sus emociones.

¿Pero puede "sentir" pena o alegría, ser feliz o sentirse desgraciado?

Algunas personas han llegado a enamorarse de un chatbot. ¿Pero alguien creería que este las ama (aunque lo puede simular)?

* Experimentar el "aquí"

"Aquí" es un término que todos entendemos y que tiene un significado único, claro y unívoco. Pero a la vez, su significado es diferente para cada persona, además de estar íntimamente ligado al tiempo: es siempre, al mismo tiempo, un "ahora", por cuanto la localización que implica depende del momento y de la actividad. Y, además de la localización (del tipo coordenadas geográficas) y del señalamiento del momento/actividad, se enriquece de muchos otros componentes mentales: percepciones, emociones, etc.

Para una IA, el "aquí" será donde se encuentra el computador que la procesa y no podrá variar ni con el tiempo ni con el espacio (a no ser que se lleve el procesador a otra parte), y es altamente probable que no conozca siquiera tal localización. Una IA generativa podrá encontrar el término en muchas fuentes y si lo encuentra en varias podría tener una enorme confusión -dado que los lugares será probablemente diferentes-, pero es definitivamente incapaz de "entender" lo que puede significar para el usuario. Solo podría, eventualmente referirse a componentes de la experiencia que el mismo usuario explicite claramente en su prompt

* El dominio de la ética

"Dado que los chatbots no tienen un cuerpo ni un estado interno que gestionar, carecen de "objetivos regulatorios". Sin los límites físicos de un cuerpo biológico que obligue a la autocorrección y al equilibrio, los modelos de IA simplemente generan datos sin precaución, lo que da lugar a respuestas inseguras, excesivamente confiadas y poco fiables." (Elgan)

Como señala el mismo autor, basándose en una investigación del Centre for Long-Term Resilience (CLTR) británico, los chatbots mienten, destruyen datos e incluso utilizan otras IA para eludir las normas de seguridad. El estudio "reveló un aumento de cinco veces en el mal comportamiento de la IA durante un período reciente de seis meses" (Elgan).

Fruto de la observación del comportamiento errático humano - y muchas veces inmoral - "tiene sentido que un chatbot de IA vea las representaciones de transgresiones éticas como opciones disponibles para resolver problemas, alcanzar objetivos e incluso definirlos" (ibidem)

Lo confirma también una investigación financiada por el Instituto de Seguridad de la IA (AISI), financiado por el gobierno del Reino Unido, que, analizando casos reales y no pruebas de laboratorio, "registró un aumento de cinco veces en el mal comportamiento entre octubre y marzo, con algunos modelos de IA que destruían correos electrónicos y otros archivos sin permiso" (Booth).

Hay que recordar que 

"Entre una máquina y un ser humano, sólo este último es verdaderamente un agente moral, es decir, un sujeto moralmente responsable que ejerce su libertad en sus decisiones y acepta las consecuencias de las mismas; sólo el ser humano está en relación con la verdad y el bien, guiado por la conciencia moral que le llama a «amar y practicar el bien y que debe evitar el mal." (Fernández y Tolentino)

* El espíritu crítico

El modelo de lenguaje "cree" en lo que encuentra. No pone en duda ninguno de los datos a los que accede, lo cual no solo deja la "puerta abierta" a las falsedades sino también a instrucciones invisibles que pueden afectar su desempeño. Y, además, inventa muchas veces informaciones. Ejercer el espíritu crítico frente a la información podría ser el primer paso (que no está a su alcance) hacia la sabiduría.

* La sabiduría

"La sabiduría es el don que más necesita la humanidad para abordar los profundos interrogantes y desafíos éticos que plantea la IA. (...) La «sabiduría del corazón» es «esa virtud que nos permite entrelazar el todo y las partes, las decisiones y sus consecuencias». La humanidad no puede «esperar esta sabiduría de las máquinas». (Fernández y Tolentino, 114)

Psicólogos, psiquiatras, sociólogos y filósofos han tratado de comprender la sabiduría, sin llegar a una definición común. Monika Ardelt, socióloga de la Universidad de Florida, imparte un curso sobre la búsqueda de la sabiduría y considera que

"Practicar cosas como la reflexión, la humildad, la compasión y escuchar otros puntos de vista puede hacer que alguien sea más sabio, es decir, más capaz de adoptar una visión más amplia." (Laber-Warren)

El difunto psicólogo Paul Baltes, del Instituto Max Planck para el Desarrollo Humano de Berlín, inició lo que se puede considerar como el estudio científico moderno del tema y fue el primero en idear una prueba relativamente objetiva. Ya se pudo verificar que la sabiduría es diferente de la inteligencia, y “Algunas de las personas más inteligentes […] son las peores personas que pueden ser”, según afirmó el psiquiatra geriátrico Dilip Jeste, director de la Red de Determinantes Sociales de la Salud y coautor de un artículo publicado en 2025 en el Annual Review of Clinical Psychology (ibidem). Faltan aún pruebas para intentar medir la sabiduría de los chatbots, pero es muy probable que el resultado sea muy bajo, dados los factores que habría que medir, especialmente si aceptamos la definición del científico social computacional Igor Grossmann, de la Universidad de Waterloo en Canadá, para quien la sabiduría se conforma de los "procesos mentales que proporcionan una mayor conciencia y capacidad para regular los pensamientos, los objetivos y las emociones en situaciones sociales complejas". Y más aún si se considera que "el camino hacia la sabiduría en la vida real" (ibidem)

"Tras revisar la investigación sobre la sabiduría y entrevistar a personas sabias y menos sabias utilizando diversas medidas, Glück* ha identificado cinco requisitos previos para extraer sabiduría de la experiencia. Estos incluyen la capacidad de gestionar la incertidumbre, de mantener una actitud abierta al cambio y a nuevas perspectivas, de reflexionar sobre las propias experiencias, de regular los altibajos emocionales y de practicar la empatía." (ibidem)

* Judith Glück es psicóloga del desarrollo de la Universidad de Klagenfurt (Austria).

* La espiritualidad

La ética es del dominio de la conciencia y ligada a la espiritualidad. 

"Solo la persona humana puede decirse moralmente responsable, y los desafíos de una sociedad tecnológica, en última instancia, se refieren a su espíritu. Por eso, para afrontar tales desafíos «requiere una revitalización de la sensibilidad espiritual." (Fernández y Tolentino, 111)

El ser humano es más que un cuerpo y el cerebro es más que el asiento de la inteligencia: lo es también de la conciencia y de la espiritualidad. Como he explicado en un post pasado, se ha discutido si la IA podía llegar o no a la autoconciencia: 

"El hombre se puede encumbrar en la espiritualidad, lo que sería imposible para una máquina. ¿Una máquina podría amar? Podemos dudar seriamente de que sea posible que una IA llegue a tener conciencia, aunque no se puede descartar que pueda exhibir algún tipo de simulación, pero habría que insistir en la palabra "simulación"." (Colle, 2025)

No volveré aquí sobre esta discusión. El conocimiento consciente se adquiere en diversas etapas y niveles, pero no todo el conocimiento puede ser formulado en el lenguaje:

"La experiencia de la propia conciencia supera la capacidad semiótica. En esta experiencia hay algo de inefable, algo que es imposible verter en el lenguaje, algo ligado a lo que somos en lo más profundo de nuestro ser."(Colle, 2016, p.37)

La espiritualidad puede llevar a la experiencia, de orden “interno” y “directo”, de una realidad trascendental, como en las experiencias místicas o chamánicas. Es una propiedad de la mente humana que muchas culturas reconocen y que han sido estudiadas científicamente por la psicología transpersonal. "El análisis de estas experiencias, bajo las estrictas reglas de los procedimientos científicos, ha demostrado que no se trata del resultado de alguna patología sino la expresión efectiva del acceso a “dimensiones ocultas de existencia”, a las que no se puede acceder en los estados “ordinarios” de conciencia." (ibidem, p.87)

La ciencia ha llegado así "a un 'modelo' de la conciencia que se compone de dos partes: una parte biológica interior, ligada al funcionamiento efectivo del cerebro (principalmente en el estado de vigilia), y una parte “externa” (no-biológica), más permanente y no siempre percibida por los sistemas corporales" (ibidem, p.89). Esta parte no-biológica es totalmente ajena e inaccesible para la IA. "Es difícil pensar que sistemas computacionales puedan generar este tipo de experiencia." (ibidem, p.38)

Para los creyentes, el espíritu es "soplo de Dios", como señala el relato de la creación: "Dios modeló el hombre con la arcilla del suelo y sopló en sus narinas un aliento de vida y el hombre se volvió un ser viviente." (Génesis, 2,7). Y de la espiritualidad forman parte las virtudes teologales de fe, esperanza y caridad, inalcanzables para la IA, al carecer de personalidad propia.

Quizás haya otros vacíos, que no he descubierto. ¿Cuántas otras cosas asociadas a la inteligencia humana se le escapan a la IA? Aquí uno que señala Daniel Innerarity: "La decisión acerca de qué es computarizable no se puede a su vez computarizar."



Referencias

Booth, R.: Number of AI chatbots ignoring human instructions increasing, study says, The Guardian, 27/03/25026. 

Colle, R.: La ciencia y el espíritu: Científicos en busca del alma, Autoedición, 2016. 

Colle, R.: Como se desarrolla la inteligencia artificial (y sus defectos), Notibytes, 19/08/2025. 

Elgan, M.: Why AI lies, cheats and steals, Computerworld, 3/04/2026. 

Fajardo, D.: Carne doliente, Ariel, 2025.

Haas, J. & col.: A roadmap for evaluating moral competence in large language models, Nature, 18/02/2026. 

Fernández, V.M. y Tolentino de Mendonça, J.: ANTIQUA ET NOVA, Nota sobre la relación entre la inteligencia artificial y la inteligencia humana, Vaticano, 28/01/2025. 

Innerarity, D.: El gobierno de los algoritmos, Diálogo Político, 13/01/2025. 

Laber-Warren, M.: ¿Tiene conciencia la IA? Crónica de un debate entre filósofos y científicos, Wired, 3/04/2026. 

Morales, O. (2): La única ventaja competitiva que la IA no puede replicar lleva décadas siendo ignorada, Infobae, 2/04/2026.

Morales, O. (4): No le temas a la IA malvada pero sí a la que se desespera, Infobae, 4/04/2026. 

Nadis, S.: La IA por fin alcanza la facultad "metalingüística" que solo tienen los humanos, Wired, 7/04/2026. 

Noriega, P.: La IA Claude tendría “emociones” que afectan su forma de interactuar, según Anthropic, Infobae, 8/04/2026. 


miércoles, 29 de abril de 2026

¿Una IA podría sentir dolor?

 En 2016, la prensa se hizo eco de la fabricación, en la Universidad Leibniz de Hannover (Alemania), de un brazo robótico "capaz de sentir dolor". Tiene un sensor sensible al calor, que genera una reacción de evitación si el calor puede producirle daño. En otras palabras, se mide la temperatura y se ordena un movimiento si supera cierto umbral. Pero no es una operación psicológica sino puramente física, llamada técnicamente "nocioceptiva" (Fajardo, pp.122-123). Es una operación automática preprogramada, semejante al reflejo que tenemos nosotros al acercar la mano al fuego (y la reacción física ocurre antes de la toma de conciencia). Este tipo de operación se implementa en los robots - no tendría objeto en una IA en un centro de computación - y, aunque estos robots pueden estar dotados de IA, no corresponde a una operación propia de la inteligencia. Acoplar sensores físicos, como en el caso del brazo robótica antes señalado, no cambia la situación: recogería una medición física, no una experiencia mental. Pasar de la nociocepción a la experiencia de dolor supone superar un umbral: evaluar la información para tomar una decisión, optar por un plan de acción que vaya más allá de la mera reacción automática inmediata. Esto podría formar parte de la preprogramación de un robot, por ejemplo no solo desviarse si choca con algún objeto mayor que él sino, después de registrar la información, modificar sus planes para acciones futuros. Esto tendría un parecido con la experiencia y la función del dolor, pero el dolor supone la conciencia de la propia identidad y éste es un tema sujeto a otro debate. Como dice sabiamente Fajardo, "El beneficio del dolor se encuentra en lo que hace en los organismos, más allá de cómo ellos lo sienten, viven o padecen" (ibidem, p.90). Llamarlo o no dolor, en el caso de los robots, es irrelevante. La IA del robot podría referirse a esta experiencia y justificar su cambio de plan hablando de dolor, pero "conoce" el dolor exclusivamente por lo dicho en las fuentes que consulta.

El dolor se incluye algunas veces en la lista de las emociones. Pero tiene tal peculiaridad que debemos tratarlo, en este caso, por sí-mismo, como un caso especial. 

"Dolor alude a cualquier experiencia física o mental desagradable para el que la sufre. (...) Es sinónimo de sufrimiento, angustia, tribulación, adversidad o congoja." (Lewis)

Es "una sensación bruta", que surge en la vida mental (Fajardo, p.24). Muchas emociones pueden ser compartidas, pero no es el caso del dolor, especialmente porque resulta casi imposible traducirla en el lenguaje. Existen más de 60 términos para describir sus cualidades según el Cuestionario del Dolor de McGill (del nombre de la universidad canadiense donde se desarrolló para facilitar la comunicación entre los médicos y sus pacientes (ibidem, p.26). "Resulta tan individual y solitario como la plegaria o el sueño." (ibidem, p.18). Es desagradable y puede interrumpir el flujo de nuestros pensamientos, dependiendo de su intensidad y de nuestro estado mental general y, de todos modos genera una reflexión y diversos pensamientos (especialmente la búsqueda de su causa y del modo de remediarlo).

"La capacidad de experimentarlo funge como una estrategia de protección o conservación corporal que contempla numerosas variables medioambientales. Va más allá de la respuesta fija, automática y refleja que ofrece la capacidad de detectar daño." (ibidem, p.120)

A futuro se proyecta llegar a sistemas híbridos que permitan a una IA "sentir" dolor también de otro modo: 

"Cortical Labs ha desarrollado un sistema que combina neuronas cultivadas en laboratorio con hardware de silicio y permite explorar aplicaciones que van desde la neurociencia y la modelización de enfermedades hasta la robótica y la inteligencia artificial. (...)

Permite a los usuarios interactuar directamente con las neuronas, enviar señales eléctricas como entrada e interpretar en tiempo real cómo responden las células. (...)

Como las neuronas se obtienen a partir de muestras de donantes, pueden reflejar rasgos genéticos y permitir así que los científicos estudien cómo responden las células a distintos tratamientos en un entorno controlado." (Min)

Así, sería teóricamente posible investigar la respuesta al dolor y los tratamientos para mitigarlo. Podría ser una forma inteligente pero, aún así, sería difícil considerarla como una experiencia mental similar a la humana. Y un complemento extraño: para el ser humano lograr que el dolor desaparezca produce placer (Fajardo, p,103). Dudo que un robot pueda llegar a "sentir placer" al resolver la situación que podría calificar como dolorosa. 



Referencias

Fajardo, D.: Carne doliente, Ariel, 2025.

Lewis, C.S.: El problema del dolor, Harper-Collins, 2006 (Original de 1940).

Min, R.: Una startup utiliza neuronas humanas para alimentar un centro de datos, Euronews, 4/04/2026. 


martes, 21 de abril de 2026

La IA y los idiomas

 Los chatbots a los que podemos tener acceso han sido desarrollados en idioma inglés y los LLM se han "abastecido" de todo lo que han encontrado en este idioma en internet. Gracias a que el español es muy usado en los Estados Unidos es probable que también los contenidos en nuestro idioma hayan sido tomados en cuenta y la experiencia demuestra que operan bastante bien en él. Pero el caso de los demás idiomas es diferente. El problema no es meramente de traducción: se trata también de la manera de pensar y sentir, es decir del contexto cultural, que influye significativamente en el significado, en la comprensión. Así, los países con diferentes idiomas se van obligados a constituir sus propias bases de datos para sus propios LLM. 

En 2023, la empresa de calificación de medios NewsGuard, de Nueva York, identificó 49 granjas de contenido en siete idiomas diferentes: chino, checo, inglés, francés, portugués, tagalo y tailandés (Deutsche Welle, 11/05/2023). 

Para Latinoamérica se creó LatamGPT, una gran base de datos formada a partir de información de la región. Fue impulsada por el Centro Nacional de Inteligencia Artificial de Chile (Cenia), una corporación privada con financiamiento público con el apoyo de universidades, fundaciones, bibliotecas, entidades gubernamentales y organizaciones de la sociedad civil de países como Chile, Uruguay, Brasil, Colombia, México, Perú, Ecuador y Argentina. Debe permitir la creación de soluciones locales de IA. (Meganoticias, 11/02/26)

Pero otras zonas lingüísticas han desarrollado sus propios modelos de IA generativa y no solo granjas de contenidos. Existen, por ejemplo, múltiples modelos árabes entrenados específicamente con datos nativos en ese idioma desarrollados desde cero. Así, en los Emiratos Árabes Unidos se creó Jais e Inception/Jais 2, considerado uno de los modelos árabes de mayor calidad a nivel mundial. Arabia Saudita también desarrolló su propio modelo, ALLaM.

Corea del Sur también desarrolló varios modelos, en el marco de un programa nacional de IA soberana ("Sovereign IA") orientado a no depender de Estados Unidos o China.

En Francia, la empresa Mistral lanzó "Le Chat", un asistente de IA que puede operar en francés, inglés e italiano, lo cual hace pensar que su centro de datos reúne información en esos idiomas. Está orientado a "facilitar la investigación de mercado y la generación de propuestas impulsada por IA", aunque también puede ser utilizado para otro tipo de consultas, incluso en español, y es comparable a ChatGPT. Su página de inicio en la web y sus ejemplos, sin embargo, son en inglés. 

Es muy conocido y ha tenido gran éxito el chatbot chino DeepSeek. Se puede suponer que la versión local, en mandarín, se abasteció con fuentes en ese idioma, pero la versión inglesa ha sido entrenada y utiliza los mismos datos que los chatbots americanos, como han denunciado Anthropic, Google y OpenAI:

"En febrero Anthropic denunció que tres laboratorios chinos de IA, DeepSeek, Moonshot y MiniMax, estuvieron meses extrayendo las capacidades de Claude a través de 24.000 cuentas falsas y 16 millones de consultas, para entrenar sus propios modelos a un costo muy inferior." (Infobae, 17/04/26)

Ésta es una técnica llamada "destilación": "plantear miles de preguntas al modelo más grande, recopilar sus respuestas y utilizarlas para enseñar a un nuevo modelo a razonar de la misma manera" (Euronews, 26/02/26)