martes, 25 de junio de 2024

La IA, el lenguaje y la ética

 Se han hecho numerosas críticas a los programas de IA generativa. Señalé los principales problemas en mi post pasado, al recordar que no se debe generalizar y que la IA es mucho más que los chatbots y los LLM.

En enero de 2023, una investigación del Time expuso "el lado más oscuro de la industria de chatbots de IA, destacando cómo al menos una startup ha estado utilizando prácticas cuestionables para mejorar su tecnología", refiriéndose a OpenAI (Bastarrica).

"OpenAI utilizó los servicios de un equipo en Kenia para estudiar detenidamente el texto que incluía temas perturbadores como el abuso sexual infantil, la bestialidad, el asesinato, el suicidio, la tortura, las autolesiones y el incesto. Y por sus esfuerzos para etiquetar el contenido aborrecible, muchos en el equipo recibieron menos de $ 2 por hora." (ibidem)

Aunque el fin era mejorar ChatGPT-3, para que evitase respuestas ofensivas, el método era evidentemente más que cuestionable. ¿Utilizar un procedimiento inmoral para asegurar la moralidad de las respuestas? Para ser más ética infringió la ética. ¿El fin justifica los medios?  Esto ha puesto en evidencia que, ya en su raíz misma, en el entrenamiento de la IA generativa (IAG), hay serios problemas éticos.

Las compañías que las desarrollan se han puesto de acuerdo en ser más transparente "acerca de lo que la tecnología puede y no puede hacer". "Queremos asegurarnos de que los medios sintéticos no se utilicen para dañar, quitar poder o privar de derechos, sino más bien para apoyar la creatividad, el intercambio de conocimientos y los comentarios", dijo Claire Leibowicz, directora de IA e integridad de los medios de Partnership on AI (PAI) (Heikkilä). Pero no han hablado de transparentar sus métodos de entrenamiento.

En marzo de 2023, la UNESCO pidió a los Gobiernos aplicar él "Marco Ético Mundial" sobre IA adoptado en 2021 de forma unánime por sus 193 Estados miembros. "El mundo necesita normas éticas más estrictas para la inteligencia artificial: este es el gran reto de nuestro tiempo" dijo su directora (Deutsche Welle, 30/03/23).

Según un estudio de investigadores de la Universidad de Ciencias Aplicadas de Ingolstadt (Alemania) publicado en Scientific Reports, "las respuestas humanas a los dilemas morales pueden verse influidas por las afirmaciones escritas por el chatbot de inteligencia artificial ChatGPT" (Deutsche Welle, 13/04/23). Recurrieron al "dilema del transvío": cambiar su trayecto, desviándolo de una vía en la que mataría a cinco personas a otra empujando un desconocido desde un puente para que se cambiara. "Los participantes eran más propensos a considerar aceptable o inaceptable sacrificar una vida para salvar cinco dependiendo de si la declaración leída argumentaba a favor o en contra del sacrificio. Esto era así incluso cuando la afirmación se atribuía a un ChatGPT." Los investigadores propusieron que los chatbots "se nieguen a responder a preguntas que requieran un juicio moral, o bien respondan a estas preguntas proporcionando múltiples argumentos y advertencias". (ibidem)

Recordemos que los programas basado en LLM "alucinan", según decía M.D. Heaven. No son en absoluto confiables, por la forma en que operan (se explica en mi post pasado). Dice Piacente, apoyado en un estudio del MIT: 

"Los sistemas de Inteligencia Artificial (IA), incluyendo a los modelos de lenguaje de gran tamaño (LLM) y otros, han desarrollado una importante capacidad para engañar a los seres humanos. El propósito es conseguir mejores resultados y lograr las metas fijadas en los entrenamientos."

Engañar para lograr objetivos propios: ¡una extraña forma de "prestar servicio"! Peter S. Park, autor principal del estudio, advierte que 

"A medida que las capacidades engañosas de los sistemas de IA se vuelvan más avanzadas, los peligros que representan para la sociedad serán cada vez más graves. (...)

Necesitamos prepararnos como sociedad para el engaño más avanzado de los futuros productos de IA y modelos de código abierto. Si prohibir el engaño de la IA es políticamente inviable en este momento, recomendamos que los sistemas de IA engañosos se clasifiquen como de alto riesgo." (citado por Piacente).

Así, el tema de la ética de la IA ha estado presente desde, al menos, fines de 2022. Y ha llegado al Vaticano. Lo recalcó en enero de esta año Fray Paolo Benanti, consejero del Papa Francisco con una formación en ingeniería y un doctorado en teología moral, después del mensaje de año nuevo del Papa Francisco (20/12/2023) en que aludió a la falta de regulación de la IA. Pero lo podemos ver mejor reflejado en su reciente discurso en la conferencia del G7 (14 de junio 2024). "No podemos dudar, ciertamente, de que la llegada de la inteligencia artificial representa una auténtica revolución cognitiva-industrial, que contribuirá a la creación de un nuevo sistema social caracterizado por complejas transformaciones de época" dice el papa. Pero "el uso de nuestras herramientas no siempre está dirigido unívocamente al bien" y "debemos tener bien claro que al ser humano le corresponde siempre la decisión". 

"Condenaríamos a la humanidad a un futuro sin esperanza si quitáramos a las personas la capacidad de decidir por sí mismas y por sus vidas, condenándolas a depender de las elecciones de las máquinas. Necesitamos garantizar y proteger un espacio de control significativo del ser humano sobre el proceso de elección utilizado por los programas de inteligencia artificial. Está en juego la misma dignidad humana. (...)

Si en el pasado, los seres humanos que utilizaron herramientas simples vieron su existencia modelada por estos últimos —el cuchillo les permitió sobrevivir al frío pero también desarrollar el arte de la guerra—, ahora que los seres humanos han modelado un instrumento complejo, verán que este modelará aún más su existencia." (Francisco)

Y refiriéndose específicamente a la IA generativa, agregó que "en sentido estricto, no es propiamente “generativa” (...) repite lo que encuentra, dándole una forma atractiva, y cuanto más repetida encuentra una noción o una hipótesis, más la considera legítima y válida", lo cual es gravísimo. "Con el fin de que estos instrumentos sean para la construcción del bien y de un futuro mejor, deben estar siempre ordenados al bien de todo ser humano. Deben contener una inspiración ética." (ibidem) "¿Estamos seguros de querer seguir llamando ‘inteligencia’ a lo que no lo es?", repitió al dirigirse a la Fundación Centesimus Annus Pro Pontifice en la clausura de la Conferencia Internacional dedicada este año a la Inteligencia Artificial Generativa, reiterando también "la necesidad de un desarrollo ético de los algoritmos en el que los valores guíen los caminos de las nuevas tecnologías" (Vatican News, 22/06/24).

Pero no es el único tipo de crítica. 

Noam Chomsky se sumó ahora al escepticismo acerca de los programas como ChatGPT y DALL-E en un artículo escrito con dos colegas en el New York Times. Les reconoce "una posible utilidad" y eficacia "en la tarea de almacenar inmensas cantidades de información", recalca que "no tienen una “inteligencia” como la de las personas":

"Sabemos por la ciencia de la lingüística y la filosofía del conocimiento que difieren profundamente de la forma en que los seres humanos razonan y utilizan el lenguaje; estas diferencias imponen limitaciones significativas a lo que pueden hacer, codificándolos con defectos inerradicables. (...)

A diferencia de los motores de apps como ChatGPT —que operan en base a la recolección de numerosos datos— , la mente humana puede funcionar con pequeñas cantidades de información, mediante las cuales “no busca inferir correlaciones brutas entre puntos (...) sino crear explicaciones.” (Paiva)

Además - lo que más nos interesa aquí - "Chomsky, Roberts y Watumull consideraron en su análisis que los sistemas de IA carecen de razonamiento desde una perspectiva moral, por lo que son incapaces de distinguir bajo marcos éticos lo que se debe o no hacer", proponiendo así también "que se mantengan alejados de contenidos moralmente censurables” (ibidem).

Henri Bergson ya escribió en 1932, que "el alma de la sociedad es inmanente al lenguaje que se habla" (Bergson: 9), pero no hay ningún alma en las cifras (las estadísticas) que los grandes modelos de lenguaje utilizan. La IAG usa el lenguaje sin su alma,  una aberración semiótica. 

Los chatbots no pueden tener en cuenta las consecuencias de sus respuestas; son incapaces de evaluarlas y se duda de que alguna vez lo serán (se requeriría une tecnología diferente dicen algunos). Sería como pedir que sean dotados de consciencia.

Aunque una IA declaró "sentirse viva", esto es una más de sus alucinaciones.


Referencias

Bastarrica, D. (2023): Investigación expone el lado más turbio de ChatGPT y la industria de chatbots de IA, Digital Trends, 19/01/2023. 

Bergson, H. (1932): Les deux sources de la morale et de la religion, Les Échos du Maquis, 2013.

Deutsche Welle (2023): 1. Unesco pide aplicar Marco Ético para inteligencia artificial, Deutsche Welle, 30/03/2023. 

2. Estudio: ChatGPT puede influir en juicios morales humanos, Deutsche Welle, 13/04/202313. 

Euronews (2024): Fraile Tech: El mayor experto en ética de la IA del Vaticano que asesora al Papa Francisco, a la ONU y a Silicon Valley, AP via Euronews 22/01/2024.

Heaven, W.D. (2024): Why does AI hallucinate?, MIT Technology Review, 18/06/2024. 

Heikkilä, M. (2023): How to create, release, and share generative AI responsibly, MIT Technology Review, 27/02/2023. 

Paiva, A. (2024): La inquietante opinión de Noam Chomsky sobre la Inteligencia Artificial, La Tercera, 19/06/2024.

Piacente, P. (2024): La IA ya es una maestra de la mentira y el engaño, Levante 13/05/2024.

Santo Padre Francisco (2024): Discurso en la cumbre del G7, Santa Sede, 14/06/204. 

miércoles, 19 de junio de 2024

Confusiones en torno a la inteligencia artificial

 En estos días, casi todas las conversaciones en torno a la IA dan vuelta en torno a los chatbots y su aparente enorme poder. Pero cuando se entra en precisiones, en realidad el tema es el de los grandes modelos de lenguaje (large lenguage models, LLM) y la IA generativa, y se cuestionan los resultados que ofrecen. Pero la IA es mucho más que los LLM. Como dice Claudio Gutiérrez, del Departamento de Ciencias de la Computación de la Universidad de Chile, "en términos muy gruesos, la IA es una tecnología que esencialmente apunta a simular ciertos procesos mentales humanos", y agrega:

"La IA nació como un intento de simular ciertos procesos mentales humanos por medios artificiales, tecnológicos, en particular, digitales. Inicialmente cosas que se creían eran propiamente humanas: jugar damas y ajedrez, hacer razonamientos lógicos, traducir de un idoma a otro, resolver un puzzle o encontrar la salida de un laberinto, etc. También se enfocó en simular a expertos médicos, constructores, etc. Luego automatizar (...) funciones mentales humanas bien definidas, como buscar en un archivo, hacer operaciones matemáticas complejas, etc. Todo ello es la IA tradicional."

Como podemos deducir, hay muchos campos en que se ha desarrollado la IA, y no solo la "IA tradicional": hoy "intenta simular las redes neuronales biológicas, y ha logrado construir máquinas que tienen capacidades muy potentes para simular muchas actividades mentales humanas" (Gutiérrez). Esto ha llevado a construir máquinas capaces de aprender: el “aprendizaje de máquinas” es la línea de desarrollo en la que se inscriben los programas (como los chatbots) basados en LLM.

Como bien explica M.D. Heaven, lo que producen los programas basados en LLM son meras alucinaciones: 

"Abra un modelo de lenguaje grande y no verá información ya preparada esperando a ser recuperada. En cambio, encontrará miles de millones de números. Utiliza estos números para calcular sus respuestas desde cero, produciendo nuevas secuencias de palabras sobre la marcha. (...)

Piense en los miles de millones de números que hay dentro de un gran modelo de lenguaje como si fuera una enorme hoja de cálculo que capta la probabilidad estadística de que ciertas palabras aparezcan junto a otras palabras. (...)

Para adivinar una palabra, el modelo simplemente ejecuta sus números. Calcula una puntuación para cada palabra de su vocabulario que refleja la probabilidad de que esa palabra sea la siguiente en la secuencia en juego. La palabra con mejor puntuación gana. En resumen, los grandes modelos lingüísticos son máquinas tragamonedas estadísticas." (Heaven)

Hay que tener en cuenta también que el procesamiento de los LLM es realizado por redes neuronales, que no se diseñan directamente: en su lugar, se diseñan los algoritmos que las entrenan, resultando en redes que no se comprenden completamente y que no pueden descomponerse fácilmente en partes identificables. Aunque OpenAI ha logrado identificar 16 millones de patrones en GPT-4, hay  decenas de millones de características en modelos de IA avanzados y los patrones encontrados todavía son difíciles de interpretar y no siempre funcionan de manera consistente (Merino).

El producto puede ser una oración con sentido y con alguna relación con la pregunta, pero es como el resultado de un juego de ruleta... y pocas veces acierta. Por ésto dice Heaven que "todo es alucinación". Pero no es un defecto de "la IA" sino de los chatbots basados en LLM. Algunos investigadores creen que pueden ser mejorados aumentando el contenido acumulado como base de entrenamiento y hemos visto algunos progresos en este sentido, pero es dudoso que se llegue a algo confiable sin un sistema de "control de salida", como un "fact checking", lo cual parece actualmente imposible. Ya en marzo pasado, declaraba Javier Pastor en Xataka que "La IA generativa lo está contaminando todo desde 2023, cuando las imágenes y textos generados por modelos de IA como los de OpenAI comenzaron a infiltrarse en las redes sociales. No estamos ante modelos de IA generativa, sino degenerativa: la calidad de internet se va a pique" (Pastor).

La ley europea de IA le pone condiciones al uso de IA generativa: se deberá "especificar si un texto, una canción o una fotografía se han generado a través de la inteligencia artificial y garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor" (Euronews), pero ésto no impide en absoluto las alucinaciones ni sus posibles consecuencias perversas, aunque "el reglamento permite o prohíbe el uso de la inteligencia artificial en función del riesgo que genera para las personas", algo difícil de predecir ante consultas a un chatbot. 

Existe sin embargo otra vía y otro uso de la IA generativa, con la misma tecnología de aprendizaje de máquina, pero que no se basan en LLM sino en conjuntos de datos específicos de un área del conocimiento. Es lo que explica, por ejemplo, el descubrimiento de nuevos posibles medicamentos, diagnósticos y tratamiento de enfermedades, así como de componentes químicos y aleaciones ("metamateriales"). Es también lo que permite a El País y Le Monde, gracias a un acuerdo de colaboración que han firmado Prisa Media con OpenAI, producir resúmenes de las mejores noticias del día o de los propios artículos y permitir a los usuarios de ChatGPT interactuar con las noticias de todos los medios de estos grupos. "A través de la navegación con la IA generativa, entrenada con sus propios datos, se van a poder encontrar también enlaces de atribución para que siempre se tenga acceso a la fuente original de la noticia" (Lizana).

Ya informé acerca de varios modelos de IA generativa disponibles en la plataforma de código abierto GitHub que pueden incluso ser utilizados en un PC con una base de datos local (ver mi post "La IA llega a la documentación personal"), y el anuncio de Microsoft de que Windows 11 traerá "una IA local a la que le podremos consultar mediante lenguaje natural cualquier cosa relacionada con los archivos de nuestros PCs y más" (Vallejo). Y desde febrero pasado es posible "chatear" con documentos propios en Adobe, cuyo "motor conversacional" puede resumir archivos, responder preguntas y recomendar más (@DigitalTrendsEs, 20/02/24).

Chile se propone regular por ley la IA en el país, siguiendo, al parecer, lo que ocurre en la Unión Europea (ver Euronews): el objeto de esta ley es "promover la creación, desarrollo, innovación e implementación de sistemas de inteligencia artificial (“IA”) al servicio del ser humano, que sean respetuosos de los principios democráticos, el Estado de Derecho y los derechos fundamentales de las personas frente a los efectos nocivos que determinados usos pudieran irrogar". Parece que se quieren imponer obligaciones a los programas de IA, pero "no es a estos nuevos objetos técnicos a quienes se les debe exigir respeto por determinados principios, sino a los agentes humanos involucrados en su puesta en actividad" (Gutiérrez), y más aún - como se intenta a nivel internacional - exigirlo de los desarrolladores.

Referencias

Euronews (2023): Así es la ley de la UE para regular la IA: pionera en el mundo para proteger de los riesgos de la IA, Euronews 9/12/2023.   Análisis de la ley europea en https://artificialintelligenceact.eu/es/

Gutiérrez, C. (2024): Chile busca regular por ley la Inteligencia Artificial, Aula Magna, 17/06/2024. 

Heaven, W.D. (2024): Why does AI hallucinate?, MIT Technology Review, 18/06/2024. 

Lizana, J.A. (2024): Interactuar con noticias en ChatGPT será posible: El País y Le Monde serán los primeros, y podrá entrenarse con sus datos, Genbeta, 14/03/2024. 

Merino, M. (2024): La inteligencia artificial es una caja negra cuyo interior no puede ver ni quien la crea. OpenAI se ha propuesto arreglar eso, Genbeta, 7/06/2024. 

Pastor, J. (2024): Internet tal y como la conocíamos está muriendo: la IA generativa se la está cargando, Xataka, 12/03/2024. 

Vallejo, A. (2024): Windows 11 tendrá una gigantesca actualización con IA local: así quiere Microsoft impulsar su explorador y otras funciones, Genbeta, 15/04/2024. 

jueves, 6 de junio de 2024

Acerca de la divulgación científica

 Las redes sociales son actualmente una gran fuente de confusión en materia de difusión de la ciencia, mezclando información cierta con información falsa, de movimientos anticiencia y pseudociencia. Para la población general puede resultar difícil reconocer lo verdadero (o, más bien, lo verosímil o lo realmente sostenido por los científicos). Como dice Antonio Diéguez, catedrático de Lógica y Filosofía de la Ciencia de la Universidad de Málaga: "La alfabetización científica de la población a través del sistema educativo o de la divulgación científica de calidad es admitida hoy como una necesidad en cualquier país democrático desarrollado." (p.135)

La importancia del conocimiento y de la capacidad de discriminar no es menor: sin ello, no es posible tomar decisiones acertadas, especialmente a nivel político, ya que estas afectan a la vida de los ciudadanos.

Agrega Diéguez que es importante que la ciencia tenga una buena imagen pública. Por ello, "la buena divulgación científica puede ayudar en la labor de lucha contra las fuentes de la desinformación" (p.137). Aquí juega la prensa un papel importantísimo no solo dando a conocer los descubrimientos o avances, sino también "el papel de los valores en la investigación y la existencia de intereses económicos, profesionales, sociales, estratégicos, morales, etc.". "Eso contribuiría a dar una imagen menos estereotipada de la ciencia, atenta a los condicionantes y límites de la práctica investigadora." (ibidem) Además:

"Una buena divulgación científica debería asimismo —y este es un asunto tan importante como poco cuidado— ayudar a fomentar la capacidad para la valoración social del desarrollo científico. Los ciudadanos no deberían sentirse ajenos a la cíencia." (ibidem)

También hay que reconocer con él que "son numerosos los temas que ha de tratar y resulta difícil saber qué seleccionar en función de lo que el público demanda y cómo hacer llegar su mensaje con efectividad". (139)

El Premio Nobel de Física, Saul Perlmutter, entre otros, quiere llevar el pensamiento científico y crítico a las masas "empoderando a las personas y brindándoles las herramientas que utilizan los científicos para resolver problemas" (citado por Mottram). "Si un médico asegura que tienes un tumor cerebral, en lugar de tomarlo al pie de la letra, deberíamos abordar la situación como un científico y pedirle que describa su confianza en el diagnóstico, incluso pidiendo un porcentaje. Esto puede parecer simple, pero si el médico dice que el 99% está seguro en lugar del 5%, podría marcar una gran diferencia en lo que hará a continuación." Y agrega que "este tipo de conversaciones también podrían ser útiles en política". (...) "Es necesario desarrollar la capacidad de observar, probar cosas, ver qué va mal, qué va bien y luego probar una nueva versión". (ibidem)

También señala la importancia de saber en qué expertos confiar y "un experto que es realista sobre cuánto sabe debería ser creíble" (ibidem). Esto es evidentemente de suma importancia para los periodistas. Lamentablemente, como señala también Diéguez, hay un número enorme de revistas que pretenden ser científicas pero no siguen los procedimientos de verificación (por ejemplo la evaluación por pares). Conocer las más importantes realmente científicas y reconocidas en la academia va en el mismo sentido. Y hay que estar atento a las retractaciones: "Se ha dicho que durante la última década cada año se han retractado de 500 a 600 artículos. La base de datos "The Retraction  Watch" incluía en 2018, en el momento de su puesta a disposición del público para búsquedas, más de 18.000 artículos y ahora  tiene más dde 30.000." (Diéguez, p.106) ¡He aquí una excelente pista para las verificaciones, aunque no incluye los artículos de pseudociencia en revistas pseudocientíficas! Aclara Diéguez: "Un 40% de las retractaciones no se debe a conductas reprobables o a fraude, sino a simples errores." (ibidem)


Referencias

Diéguez, A. (2024): "La ciencia en cuestión", Herder.

Mottram, K. (2024): Los consejos de un premio Nobel para reducir el temor a reconocer públicamente que te has equivocado, BBC News 5/06/24.