martes, 27 de enero de 2026

Las bases de datos convencionales frente a la IA

 El auge de la IA y especialmente de los modelos de lenguaje pueden hacer pensar que las bases de datos convencionales, que analizan y "desarman" la información al conservarla, pierden vigencia o complican la operación de la IA y los chatbots. En realidad, el panorama es muy diferente. Sin datos en mis archivos, consulté al respecto a Gemini 3. La respuesta incluyó una comparación de las bases de datos relacionales con las bases de datos de vectores, lo cual no viene al caso. Seleccioné las partes de la respuesta que sí cumplen con lo esperado:

El panorama de la gestión de datos en 2026 muestra que las bases de datos convencionales (especialmente las relacionales o SQL) no solo siguen vigentes, sino que están experimentando un "renacimiento" impulsado por la IA. A continuación, presento un resumen de la literatura académica y técnica reciente que analiza esta convivencia:

1. El Resurgimiento del Modelo Relacional (SQL)

Artículos como "SQL and the Relational Model: Enduring Standards in the Age of AI" (2025) sostienen que el modelo relacional es extremadamente resiliente. (...) Vigencia operativa: Encuestas de desarrolladores (como Stack Overflow 2024-2025) confirman que SQL sigue siendo uno de los lenguajes más deseados. Extensiones de vectores: El uso de extensiones como pgvector en PostgreSQL permite que las organizaciones mantengan su infraestructura probada mientras añaden capacidades de búsqueda semántica para modelos de lenguaje (LLMs).

2. Impacto de los LLMs en la Gestión de Datos

La investigación presentada en ResearchGate y VLDB (Very Large Data Bases) en 2024-2025 identifica áreas clave donde la IA potencia a las bases de datos convencionales:Interfaces de lenguaje natural: Los LLMs permiten que usuarios no técnicos consulten bases de datos SQL usando lenguaje humano, eliminando la barrera del código complejo.Optimización autónoma: Se están publicando estudios sobre "Bases de Datos Autónomas" que usan IA para el auto-tunning (ajuste de rendimiento), indexación predictiva y detección de anomalías sin intervención humana.Limpieza de datos: Modelos fundacionales están logrando resultados de vanguardia (SoTA) en tareas de integración y limpieza de datos, superando a los algoritmos tradicionales.

3. Comparativa: Bases de Datos de Vectores vs. Relacionales [Irrelevante aquí]

4. Desafíos y Ética (Visión Jurídica y Académica)

Artículos publicados en 2024 y 2025 (como los de Scimago y repositorios académicos en Argentina y Chile) subrayan que la vigencia de las bases de datos tradicionales también es una cuestión de gobernanza:

Transparencia: Las bases de datos convencionales ofrecen una trazabilidad que las "cajas negras" de la IA aún no alcanzan.

Privacidad: Nuevas leyes (como la Ley 21.719 en Chile o actualizaciones en la UE) exigen que el tratamiento de datos para IA sea lícito y limitado, algo que las estructuras SQL facilitan mediante controles de acceso robustos.

Resumen de referencias clave encontradas:

Fernández & Elmore (2024): "How Large Language Models Will Disrupt Data Management". Analiza cómo la programación declarativa (SQL) es el camino a seguir para sistemas de IA.

Li et al. (VLDB 2024): "LLM for Data Management". Explora el uso de agentes de IA para optimizar motores de búsqueda de bases de datos tradicionales.

Dataversity (2025): "SQL and the Relational Model: Enduring Standards". Defiende la permanencia de SQL frente a las bases de datos NoSQL y de vectores.

Surge una pregunta para los medios de comunicación: ¿vale la pena seguir desarrollando bases de datos analíticas (cfr mi artículo "El archivo inteligente") cuando un programa de IA local puede responder cualquier consulta a partir del archivo de respaldo de todo lo recopilado y publicado por el medio? (Distintos modelos locales de chatbots ya están disponibles, como por ejemplo Cowork, de Anthropic, un agente de IA que puede gestionar archivos en la computadora de un usuario. Lo local es fundamental para mantener la seguridad y la propiedad de la información.) 

No propondré una respuesta: creo que cada empresa debería hacerse la pregunta.

Mis referencias:

- El archivo inteligente, Cuadernos de Información PUC n°9, 1994.

Puede consultarse también, a modo de referencia histórica, mi texto "Prensa y "Big Data": El desafío de la acumulación y análisis de datos", Revista Mediterránea de Comunicación, Vol.4 N.2, 2013. 

martes, 30 de diciembre de 2025

El negocio de la ira y el odio

 La Oxford University Press eligió hace poco los términos "rage-bait" (cebo de rabia) como palabra del año. Como dice l'ex-senador Guido Girardi, "no es una simple anécdota lingüística, sino la manifestación de una grave patología social digital". "La gente propaga el odio, el miedo y la desinformación en las redes sociales como no se había visto nunca" afirma Amnistía Internacional. Algo parecido ocurre con mensajes que ensalzan las dictaduras militares o sus verdugos, como se ha observado recientemente en TikTok, con millones de visualizaciones en Argentina, Brasil, Chile y Uruguay (Flores).

"Los agresores, conocidos como "haters", suelen actuar motivados por la frustración, la envidia o la baja autoestima, y a menudo se amparan en el anonimato de internet para descargar su ira y buscar atención." (Gemini)

"En Twitter, el odio campa a las anchas, los algoritmos a veces promueven eso porque genera tráfico. No hay una política firme de moderación de contenidos", dice Manuel Gámez, doctor en psicología (Casamitjana).

José María Lassalle, doctor en derecho, escritor y profesor universitario, lo explica por el hecho de que, a través de las pantallas, "tenemos más capacidad de ser agresivos sin percibir de manera nítida como afecta el comportamiento al otro". "En todo esto se juega la baza de que el anonimato es difícil de rastrear", agrega Pablo Hernández, coordinador de Investigación Académica de Maldita.es, portal de fact checking (ibidem).

Se apela muchas veces a la libertad de expresión, pero esto "no deja de ser un «mecanismo de desconexión moral» bajo el que se busca tranquilizar la conciencia", según Manuel Gámez (ibidem).

Las empresas tecnológicas han descubierto en las investigaciones de neurología que los circuitos cerebrales relacionados con las emociones operan con más rapidez que los relacionados con la reflexión racional y se aprovechan de ello para influir en nuestras decisiones y opiniones. Encontramos ahí la explicación de varios fenómenos observables en casi todos los países: el aumento de la violencia y la polarización en materia política. La ira es solo uno de los aspectos de la violencia y también de las publicaciones políticas, a lo cual habría que agregar el ciberacoso. Se estima que 70% de las personas la experimentan bajo una forma u otra.

Pero esto no es el producto casual de los algoritmos y no es un resultado inesperado: 

"El rumbo actual del desarrollo de la inteligencia artificial no es el resultado de un avance inevitable ni de una lógica neutral, sino de elecciones deliberadas tomadas por un reducido grupo de empresas y ejecutivos, principalmente en Silicon Valley." (Morales/a)

Hay una opción deliberada por la amplificación de los contenidos negativos:

"Los algoritmos, para asegurar el flujo constante de datos, amplifican sistemáticamente el miedo, la amenaza, la falsedad y la indignación: es decir, aquello que representa lo peor de la especie humana. (...) El corolario es la erosión acelerada de atributos esenciales que nos definen: la empatía, la capacidad de cooperar y, sobre todo, el pensamiento crítico." (Girardi)


"En Silicon Valley, no importa cuál sea la intención original de uno, siempre se trata de ganar [dinero]." Y es "una ambición que se impone a la ética", según Karen Hao, reportera de MIT Technology Review, autora de "Empire of AI" (Honan). El mismo Sam Altman dijo que Open AI no era "la policía moral del mundo" (Babiloni).

"Los objetivos y parámetros propios de la publicidad se convirtieron en los objetivos y parámetros principales del diseño de servicios digitales. De lo que se trataba era de maximizar el tiempo de uso y la atención del usuario. Con el fin de competir en esta carrera despiadada por captar nuestra atención, se forzó al diseño a apelar a los impulsos más bajos del ser humano y explotar sus debilidades cognitivas." (Williams, 46-47)

Se ha hablado de la "economía de la atención" y ésta se ha orientado especialmente hacia la atención por lo negativo.

También Daniel Innenarity considera que "detrás de la concepción neutra o necesariamente benefactora de la tecnología hay esa mentalidad ingenieril que sólo se preocupa de que los artefactos funcionen, que generen beneficios, sin atender a su impacto social." (p.209)

Hay otro campo donde el odio o la rabia pueden producir beneficios aunque no necesariamente económico: la política. Como dice Guillermo Mimica, abogado y escritor:

"Desde tiempos inmemoriales, la bronca que expresa resentimientos reprimidos ha sido un vector movilizador que ha modelado la historia. Las grandes revoluciones y cambios estructurales en los sistemas políticos, sociales, religiosos, económicos han sido motivados por el sentimiento de injusticia de los insurgentes, canalizado por liderazgos que lo estructuran para dar curso a cambios radicales una vez conquistado el poder."

La política recurre a las redes sociales no solo para informar sino también para motivar, especialmente en período electoral o cuando pretende, justamente, producir cambios estructurales, que son los períodos en que, muchas veces, recurre a incentivar la rabia. Lo hemos conocido especialmente en Chile en 2019, con el “estallido social” que "fue la máxima —pero no la única— manifestación de esa rabia colectiva que buscaba una salida de fuerza que se perfilaba para la toma del poder" (Mimica). El odio también está siendo utilizado por Donald Trump, por ejemplo en su guerra con la prensa, donde llega a "condicionar a sus seguidores a creer —creer genuinamente— que los periodistas son enemigos traidores del pueblo" a juicio de Monika Bauerlein, como también en su campaña contra los inmigrantes.

Pero la política también empieza a preocuparse por los efectos en la seguridad del desarrollo de la ira a través de las redes sociales: Australia está desarrollando un paquete de leyes para frenarla, tras un tiroteo que se saldó con 15 muertos (Euronews). 

Diversos estudios vienen, desde hace tiempo, advirtiendo de los efectos de las redes sociales en el cerebro en el caso de los adictos. Ya lo he explicado en mi libro "¿Ser digital o ser humano" (2015). En 2024, un análisis de The Washington Post reveló el mismo fenómeno de activación de los circuitos de recompensa del cerebro "facilitando la formación de hábitos difíciles de romper" en el caso de TikTok y aseguró que es "el resultado de un diseño intencionalmente orientado a fomentar hábitos adictivos" (Neira).

El ser humano está siendo transformado (menos humano) y también la sociedad: "Una humanidad polarizada y fragmentada por los algoritmos se traduce inevitablemente en la muerte de la deliberación civilizada y, por extensión, de la democracia." (ibidem)

En 2019, "en respuesta a las tendencias alarmantes de aumento de la xenofobia, racismo e intolerancia, misoginia violenta, antisemitismo y odio a los musulmanes en todo el mundo", António Guterres presentó la Estrategia y Plan de Acción de las Naciones Unidas para la lucha contra el Discurso de Odio, que "proporciona una hoja de ruta de cómo la Organización puede ayudar y complementar los esfuerzos de los Estados por atajar este problema", y en 2021, la Asamblea General adoptó una resolución que proclamaba el 18 de junio Día Internacional contra el Discurso de Odio. (ONU)

En la Unión Europea, la Ley de Servicios Digitales (DSA) de 2022 obliga a las plataformas a eliminar contenido ilegal como el discurso de odio, y se complementa con un Código de Conducta para combatir la incitación al odio en línea. Como esto afecta las plataformas de redes sociales ha molestado al gobierno de Donald Trump y el Departamento de Estado ha anunciado que revocará las visas, prohibirá la entrada y deportará a quienes apliquen dicha ley (Sahuquillo).

Fei-Fei Li, profesora en la Universidad de Stanford, también advirtió de los riesgos sociales - y otros - asociados a la IA y creó en Stanford el Instituto para la IA Centrada en el Humano. En la Ai4 Conference de Las Vegas, de agosto pasado, defendió que la tecnología debe estar al servicio de las personas.

"Ha centrado gran parte de su carrera en impulsar una inteligencia artificial que incorpore principios de empatía, responsabilidad y colaboración interdisciplinaria. Su visión parte de la convicción de que la IA no debe ser diseñada solo como una hazaña técnica, sino como una infraestructura global, capaz de mejorar la vida humana, ampliar la creatividad y favorecer la toma transparente de decisiones." (Morales/b)

El ya citado reiteradas veces por mí Geoffrey Hinton defiende la misma posición y, como expuse en otros posts, las demandas por un control ético de la IA son numerosas pero la resistencia de las empresas es fuerte.



Referencias

Aministía Internacional: Violencia en Internet, Amnesty Org.



Bauerlein, M.: The war on the press escalates, NiemanLab, 19/12/2025. 


Flores, P.: Así es como TikTok se convirtió en una vitrina para el negacionismo histórico con ‘edits’ enfocados en público juvenil, Fast Check CL, 11/12/2025.  


Honan, M.: OpenAI: El poder y el orgullo, MIT Technology Review, 28/05/2025. 

Innenarity, D. (2022): La sociedad del desconocimiento, Barcelona, Galaxia Gutenberg.

Mimica, G.: De la rabia al miedo, Radio Biobio, 15/12/2025. 




ONU: Discurso de odio, Naciones Unidas, 2023. https://www.un.org/es/hate-speech

Pariser, E.: El filtro burbuja. Cómo la red decide lo que leemos y lo que pensamos, Taurus, 2017 (Original de 2011).


Williams, J. (2021): Clics contra la humanidad, Gatopardo Ensayo.

miércoles, 17 de diciembre de 2025

¿La IA aumenta el conocimiento?

 

Como ya he señalado, la IA generativa no domina ningún conocimiento, el significado de los datos que acumula y transmite siéndole totalmente ajeno. Sin embargo, parece innegable que es una ayuda para que el ser humano aumente su propio conocimiento. Como apunta Jensen Huang, el CEO de NVIDIA, de aquí a 2 o 3 años, el 90% del conocimiento humano podría tenerla como origen, pero se equivoca cuando afirma que "la inmensa mayoría del conocimiento humano no tendrá su origen en humanos" (Sabán) y considero que no se podría decir que lo habrá "generado", solo habrá ayudado a construirlo o desarrollarlo sobre la base de un conocimiento existente mediante un procesamiento mecánico.

Recordemos que la IA generativa solo opera con números y selecciona/construye secuencias con las letras que les corresponden para formar palabras y luego oraciones coherentes. (cfr. Racovsky) 

¿De dónde provienen los datos? De lo que los humanos han publicado a través de internet. Es decir que todo lo que procesa la IA es de origen humano. Por cierto, las respuestas a las consultas en los chats de IA pueden ser novedosas y hay que reconocer que se pueden dar descubrimientos importantes - ya los hay en diversos campos - gracias a esta nueva forma de explorar y relacionar los datos. 

Huang llama a estas respuestas una "fuente sintética" y la separa de la "fuente humana". Pero, a mi juicio, no existe tal diferencia de "fuente": la diferencia radica en el procedimiento de "construcción" del conocimiento asociado.

Pero tiene razón en otro aspecto: "la clave no es el origen del dato (humano o sintético), sino la validez del mismo" (Sabán). Por ello, "seguimos teniendo que verificar los hechos, seguimos teniendo que asegurarnos de que está basado en principios fundamentales (...) la responsabilidad de la verdad sigue siendo humana" (ibidem).


El conocimiento adquirido también es humano y no propio de la IA.

Referencias

Sabán, A: El CEO de NVIDIA predice que "el 90% del conocimiento será generado por IA en dos o tres años". Y "eso está bien", defiende, Genbeta, 4/412/2025. 

Racovsky, R.: Cómo aprende la inteligencia artificial y por qué los modelos de lenguaje funcionan sin imitar la mente humana, Infobae, 14/12/2025.