martes, 30 de diciembre de 2025

El negocio de la ira y el odio

 La Oxford University Press eligió hace poco los términos "rage-bait" (cebo de rabia) como palabra del año. Como dice l'ex-senador Guido Girardi, "no es una simple anécdota lingüística, sino la manifestación de una grave patología social digital". "La gente propaga el odio, el miedo y la desinformación en las redes sociales como no se había visto nunca" afirma Amnistía Internacional. Algo parecido ocurre con mensajes que ensalzan las dictaduras militares o sus verdugos, como se ha observado recientemente en TikTok, con millones de visualizaciones en Argentina, Brasil, Chile y Uruguay (Flores).

"Los agresores, conocidos como "haters", suelen actuar motivados por la frustración, la envidia o la baja autoestima, y a menudo se amparan en el anonimato de internet para descargar su ira y buscar atención." (Gemini)

"En Twitter, el odio campa a las anchas, los algoritmos a veces promueven eso porque genera tráfico. No hay una política firme de moderación de contenidos", dice Manuel Gámez, doctor en psicología (Casamitjana).

José María Lassalle, doctor en derecho, escritor y profesor universitario, lo explica por el hecho de que, a través de las pantallas, "tenemos más capacidad de ser agresivos sin percibir de manera nítida como afecta el comportamiento al otro". "En todo esto se juega la baza de que el anonimato es difícil de rastrear", agrega Pablo Hernández, coordinador de Investigación Académica de Maldita.es, portal de fact checking (ibidem).

Se apela muchas veces a la libertad de expresión, pero esto "no deja de ser un «mecanismo de desconexión moral» bajo el que se busca tranquilizar la conciencia", según Manuel Gámez (ibidem).

Las empresas tecnológicas han descubierto en las investigaciones de neurología que los circuitos cerebrales relacionados con las emociones operan con más rapidez que los relacionados con la reflexión racional y se aprovechan de ello para influir en nuestras decisiones y opiniones. Encontramos ahí la explicación de varios fenómenos observables en casi todos los países: el aumento de la violencia y la polarización en materia política. La ira es solo uno de los aspectos de la violencia y también de las publicaciones políticas, a lo cual habría que agregar el ciberacoso. Se estima que 70% de las personas la experimentan bajo una forma u otra.

Pero esto no es el producto casual de los algoritmos y no es un resultado inesperado: 

"El rumbo actual del desarrollo de la inteligencia artificial no es el resultado de un avance inevitable ni de una lógica neutral, sino de elecciones deliberadas tomadas por un reducido grupo de empresas y ejecutivos, principalmente en Silicon Valley." (Morales/a)

Hay una opción deliberada por la amplificación de los contenidos negativos:

"Los algoritmos, para asegurar el flujo constante de datos, amplifican sistemáticamente el miedo, la amenaza, la falsedad y la indignación: es decir, aquello que representa lo peor de la especie humana. (...) El corolario es la erosión acelerada de atributos esenciales que nos definen: la empatía, la capacidad de cooperar y, sobre todo, el pensamiento crítico." (Girardi)


"En Silicon Valley, no importa cuál sea la intención original de uno, siempre se trata de ganar [dinero]." Y es "una ambición que se impone a la ética", según Karen Hao, reportera de MIT Technology Review, autora de "Empire of AI" (Honan). El mismo Sam Altman dijo que Open AI no era "la policía moral del mundo" (Babiloni).

"Los objetivos y parámetros propios de la publicidad se convirtieron en los objetivos y parámetros principales del diseño de servicios digitales. De lo que se trataba era de maximizar el tiempo de uso y la atención del usuario. Con el fin de competir en esta carrera despiadada por captar nuestra atención, se forzó al diseño a apelar a los impulsos más bajos del ser humano y explotar sus debilidades cognitivas." (Williams, 46-47)

Se ha hablado de la "economía de la atención" y ésta se ha orientado especialmente hacia la atención por lo negativo.

También Daniel Innenarity considera que "detrás de la concepción neutra o necesariamente benefactora de la tecnología hay esa mentalidad ingenieril que sólo se preocupa de que los artefactos funcionen, que generen beneficios, sin atender a su impacto social." (p.209)

Hay otro campo donde el odio o la rabia pueden producir beneficios aunque no necesariamente económico: la política. Como dice Guillermo Mimica, abogado y escritor:

"Desde tiempos inmemoriales, la bronca que expresa resentimientos reprimidos ha sido un vector movilizador que ha modelado la historia. Las grandes revoluciones y cambios estructurales en los sistemas políticos, sociales, religiosos, económicos han sido motivados por el sentimiento de injusticia de los insurgentes, canalizado por liderazgos que lo estructuran para dar curso a cambios radicales una vez conquistado el poder."

La política recurre a las redes sociales no solo para informar sino también para motivar, especialmente en período electoral o cuando pretende, justamente, producir cambios estructurales, que son los períodos en que, muchas veces, recurre a incentivar la rabia. Lo hemos conocido especialmente en Chile en 2019, con el “estallido social” que "fue la máxima —pero no la única— manifestación de esa rabia colectiva que buscaba una salida de fuerza que se perfilaba para la toma del poder" (Mimica). El odio también está siendo utilizado por Donald Trump, por ejemplo en su guerra con la prensa, donde llega a "condicionar a sus seguidores a creer —creer genuinamente— que los periodistas son enemigos traidores del pueblo" a juicio de Monika Bauerlein, como también en su campaña contra los inmigrantes.

Pero la política también empieza a preocuparse por los efectos en la seguridad del desarrollo de la ira a través de las redes sociales: Australia está desarrollando un paquete de leyes para frenarla, tras un tiroteo que se saldó con 15 muertos (Euronews). 

Diversos estudios vienen, desde hace tiempo, advirtiendo de los efectos de las redes sociales en el cerebro en el caso de los adictos. Ya lo he explicado en mi libro "¿Ser digital o ser humano" (2015). En 2024, un análisis de The Washington Post reveló el mismo fenómeno de activación de los circuitos de recompensa del cerebro "facilitando la formación de hábitos difíciles de romper" en el caso de TikTok y aseguró que es "el resultado de un diseño intencionalmente orientado a fomentar hábitos adictivos" (Neira).

El ser humano está siendo transformado (menos humano) y también la sociedad: "Una humanidad polarizada y fragmentada por los algoritmos se traduce inevitablemente en la muerte de la deliberación civilizada y, por extensión, de la democracia." (ibidem)

En 2019, "en respuesta a las tendencias alarmantes de aumento de la xenofobia, racismo e intolerancia, misoginia violenta, antisemitismo y odio a los musulmanes en todo el mundo", António Guterres presentó la Estrategia y Plan de Acción de las Naciones Unidas para la lucha contra el Discurso de Odio, que "proporciona una hoja de ruta de cómo la Organización puede ayudar y complementar los esfuerzos de los Estados por atajar este problema", y en 2021, la Asamblea General adoptó una resolución que proclamaba el 18 de junio Día Internacional contra el Discurso de Odio. (ONU)

En la Unión Europea, la Ley de Servicios Digitales (DSA) de 2022 obliga a las plataformas a eliminar contenido ilegal como el discurso de odio, y se complementa con un Código de Conducta para combatir la incitación al odio en línea. Como esto afecta las plataformas de redes sociales ha molestado al gobierno de Donald Trump y el Departamento de Estado ha anunciado que revocará las visas, prohibirá la entrada y deportará a quienes apliquen dicha ley (Sahuquillo).

Fei-Fei Li, profesora en la Universidad de Stanford, también advirtió de los riesgos sociales - y otros - asociados a la IA y creó en Stanford el Instituto para la IA Centrada en el Humano. En la Ai4 Conference de Las Vegas, de agosto pasado, defendió que la tecnología debe estar al servicio de las personas.

"Ha centrado gran parte de su carrera en impulsar una inteligencia artificial que incorpore principios de empatía, responsabilidad y colaboración interdisciplinaria. Su visión parte de la convicción de que la IA no debe ser diseñada solo como una hazaña técnica, sino como una infraestructura global, capaz de mejorar la vida humana, ampliar la creatividad y favorecer la toma transparente de decisiones." (Morales/b)

El ya citado reiteradas veces por mí Geoffrey Hinton defiende la misma posición y, como expuse en otros posts, las demandas por un control ético de la IA son numerosas pero la resistencia de las empresas es fuerte.



Referencias

Aministía Internacional: Violencia en Internet, Amnesty Org.



Bauerlein, M.: The war on the press escalates, NiemanLab, 19/12/2025. 


Flores, P.: Así es como TikTok se convirtió en una vitrina para el negacionismo histórico con ‘edits’ enfocados en público juvenil, Fast Check CL, 11/12/2025.  


Honan, M.: OpenAI: El poder y el orgullo, MIT Technology Review, 28/05/2025. 

Innenarity, D. (2022): La sociedad del desconocimiento, Barcelona, Galaxia Gutenberg.

Mimica, G.: De la rabia al miedo, Radio Biobio, 15/12/2025. 




ONU: Discurso de odio, Naciones Unidas, 2023. https://www.un.org/es/hate-speech

Pariser, E.: El filtro burbuja. Cómo la red decide lo que leemos y lo que pensamos, Taurus, 2017 (Original de 2011).


Williams, J. (2021): Clics contra la humanidad, Gatopardo Ensayo.

miércoles, 17 de diciembre de 2025

¿La IA aumenta el conocimiento?

 

Como ya he señalado, la IA generativa no domina ningún conocimiento, el significado de los datos que acumula y transmite siéndole totalmente ajeno. Sin embargo, parece innegable que es una ayuda para que el ser humano aumente su propio conocimiento. Como apunta Jensen Huang, el CEO de NVIDIA, de aquí a 2 o 3 años, el 90% del conocimiento humano podría tenerla como origen, pero se equivoca cuando afirma que "la inmensa mayoría del conocimiento humano no tendrá su origen en humanos" (Sabán) y considero que no se podría decir que lo habrá "generado", solo habrá ayudado a construirlo o desarrollarlo sobre la base de un conocimiento existente mediante un procesamiento mecánico.

Recordemos que la IA generativa solo opera con números y selecciona/construye secuencias con las letras que les corresponden para formar palabras y luego oraciones coherentes. (cfr. Racovsky) 

¿De dónde provienen los datos? De lo que los humanos han publicado a través de internet. Es decir que todo lo que procesa la IA es de origen humano. Por cierto, las respuestas a las consultas en los chats de IA pueden ser novedosas y hay que reconocer que se pueden dar descubrimientos importantes - ya los hay en diversos campos - gracias a esta nueva forma de explorar y relacionar los datos. 

Huang llama a estas respuestas una "fuente sintética" y la separa de la "fuente humana". Pero, a mi juicio, no existe tal diferencia de "fuente": la diferencia radica en el procedimiento de "construcción" del conocimiento asociado.

Pero tiene razón en otro aspecto: "la clave no es el origen del dato (humano o sintético), sino la validez del mismo" (Sabán). Por ello, "seguimos teniendo que verificar los hechos, seguimos teniendo que asegurarnos de que está basado en principios fundamentales (...) la responsabilidad de la verdad sigue siendo humana" (ibidem).


El conocimiento adquirido también es humano y no propio de la IA.

Referencias

Sabán, A: El CEO de NVIDIA predice que "el 90% del conocimiento será generado por IA en dos o tres años". Y "eso está bien", defiende, Genbeta, 4/412/2025. 

Racovsky, R.: Cómo aprende la inteligencia artificial y por qué los modelos de lenguaje funcionan sin imitar la mente humana, Infobae, 14/12/2025. 

miércoles, 3 de diciembre de 2025

La IA y la pseudo-comunicación

 La IA generativa "no puede considerarse más inteligente que un gato", según Demis Hassabis, CEO de Google DeepMind (Luque). Opinión compartida por Yann LeCun (considerado uno de "los padrinos de la IA"), que abandonó recientemente Meta - después de 12 años - por considerar que el desarrollo de los LLM es una estrategia sin salida (Sabán).

Es mera matemática: selección estadística de las palabras que se suceden.

Una consulta a un chatbot es "hablar" con una máquina: se emite una pregunta pero la respuesta no viene de un humano sino de un algoritmo. Semánticamente, el significado lo pone el receptor.

El algoritmo opera sobre una base de datos digital, no sobre un "contenido" (que implicaría significación). Así, tampoco hay cognición involucrada: el algoritmo no conoce nada, solo elige conjuntos de bytes que aparecen frecuentemente juntos; para el receptor, aparecen como palabras ordenadas en oraciones.

Los datos, por cierto, provienen de mensajes, emitidos por millones de personas, que, originalmente, tienen un significado pero que la máquina no es capaz de reconocer: solo extrae la secuencia de palabras. En este sentido hay, indirectamente, una relación de quien pregunta con dichos emisores pero desconocidos y desvinculados del proceso (ni siquiera pueden saber que se les ha consultado cuando se hizo la pregunta). No se puede, entonces, hablar de comunicación con ellos.

Se podría concluir, entonces, que los chatbots de IA no son una forma de comunicación sino una simulación. Me atrevería a hablar de "no-comunicación" o pseudo-comunicación.

REFERENCIAS

Luque, E.: Según Google, la IA actualmente no es más inteligente que un gato, Computer Hoy, 12/07/2024. 

Sabán, A.: El 'padrino de la IA' se va de Meta. No cree en los modelos de lenguaje y buscará desarrollar "modelos del mundo", Genbeta, 21/11/2025.