jueves, 14 de abril de 2016

Como los algoritmos distorsionan el conocimiento


Los algoritmos son las secuencias de órdenes que conforman la base de la programación de los computadores y, ahora, de las respuestas que obtenemos cuando navegamos por internet. 

Las redes sociales utilizan los algoritmos para ordenar lo que nos mostran al abrir su página. Así, Twitter cambió la forma de presentación cronológica de los tuits por una basada en la estadística ("los más vistos"), es decir basados en un algoritmo. Instagram anunció que pronto haría lo mismo. Facebook selecciona los "News Feeds" del mismo modo desde hace tiempo y lo hace ahora con las actualizaciones de estado. (Fortune, 28/03/2016). 

Google Search selecciona los resultados de nuestras búsquedas utilizando un algoritmo ultra-complejo (más de 200 reglas). Además, "para facilitar las búsquedas" ha instalado un sistema de predicción de los términos de búsqueda, basado en este algoritmo combinado además con sus propios sistemas de clasificación. Pretende ser "objetivo" y "reflejar la realidad" pero no toma en cuenta la relativa facilidad para torcer los resultados, por ejemplo utilizando "generadores de búsquedas" que repiten centenares de veces términos que pueden ser ofensivos.
"Supongamos que un enemigo suyo, en un esfuerzo deliberado por manchar su reputación, decide pagarles a los usuarios para que busquen su nombre seguido de la palabra "pedófilo". Un ejército de entusiastas colaboradores, reclutados a través de sitios como Craiglist y Mechanical Turk, de Amazon, está generando el volumen suficiente de búsquedas para que esa palabra reemplace otros términos más positivos que se han asociado a su nombre. Ahora, cualquiera que lo busque también sabrá que quizá usted sea un pedófilo y, recuerde, no hay manera de apelar porque los algoritmos de Google son los que están a cargo y jamás se equivocan." (E.Morozov, "La locura del solucionismo tecnológico", p.168)
Lo más grave es que altera de este modo el conocimiento a nivel global. Y podríamos ir de mal en peor, porque hoy en día los algoritmos son la base del aprendizaje automático que está más que nunca al alcance de cualquier programador y que es también la base del análisis de "big data". (Vea mis posts anteriores sobre "Cambios en el acceso al conocimiento" e "¿Inteligencia? artificial") 

Los algoritmos analíticos son la base de una de las líneas de desarrollo de la "inteligencia artificial", el llamado "aprendizaje supervisado" porque -al menos- los humanos deben intervenir para dar inicialmente a la máquina algunos modelos de lo que se podría considerar útil. El principio básico, tomado del modelo humano (puesto en evidencia por Pavlov), es el "aprendizaje por refuerzo", es decir por medio de la repetición, lo cual es fácil de traducir en un mecanismo estadístico, pero es claramente más mecánico que inteligente. 

Imagine ahora que los medios de prensa empiecen a utilizar este tipo de análisis (¡y las empresas de marketing lo recomiendan!, basándose en lo que más leen sus lectores: orientarán su selección y sus reportajes en función de lo preferido por la mayoría. Y, como se sabe que las noticias deprimentes gustan poco y no se reenvíen (recuerde que los ponen también en Facebook y Twitter), terminaremos con un panorama irreal de "mundo feliz". 

¿Que podemos esperar si, como se lo proponen los expertos en inteligencia rtificial, se pasa de este aprendizaje de máquina supervisado a uno no-supervisado en que la máquina "decidiría" lo que es importante? ¿En base a qué criterios? ¿Funcionaría sin algoritmos? Se habla de "algoritmos capaces de aprender": pero son algoritmos capaces de generar otros algoritmos. Y un programador debe haber determinado el qué y el cómo. Ningún computador puede crear su propia programación. Incluso las redes neuronales (que pretenden emular el cerebro humano) deben ser diseñadas, incluir reglas de valoración y luego entrenadas, al menos para verificar que operen adecuadamente (¿y quien determina lo "adecuado"?). 

Aunque se diga que "No tenemos más remedio que recurrir a máquinas y además necesitamos que estas máquinas sean capaces de interpretar los datos, comprenderlos y sacar conclusiones de forma inteligente" porque "existe un gran valor oculto en los millones y millones de toneladas de datos que una organización puede recabar" (Xataka, 28/03/2016), es el ser humano que aporta la inteligencia, debiendo evaluar estas conclusiones. 
    "Debemos dejar de creer que los nuevos filtros y prácticas algorítmicas impulsados por los recientes intermediarios digitales (y sus entusiastas genios de internet) son aproblemáticos, objetivos y superiores por naturaleza a los filtros y prácticas que los precedieron. Esos nuevos filtros podrán ser más veloces, baratos y eficaces pero la velocidad, el costo y la eficacia guardan solo una relación periférica con las funciones civiles que los nuevos filtros y algoritmos desempeñarán en nuestra vida. Si no sometemos a esos filtros más veloces, baratos y eficaces al estricto escrutinio ético que merecen, corremos el riesgo de caer en una de las tantas falacias del solucionismo y celebrar avances relacionados con problemas menos importantes, al tiempo que desatendemos cuestiones más acuciantes aunque menos obvias." (Morozov, p.174)
La cultura misma puede verse afectada en forma global, sobretodo si se deja que sean los algoritmos que determinen lo "más interesante" sobre la base de lo más consultado, leído, visto u oído. Los "clics" y "megusta" tienden a concentrarse en opiniones no calificadas mientras las críticas de expertos resultan poco atractivas para la mayoría.

Más sobre algoritmos en internet:

No hay comentarios:

Publicar un comentario

Nota: solo los miembros de este blog pueden publicar comentarios.