miércoles, 19 de junio de 2024

Confusiones en torno a la inteligencia artificial

 En estos días, casi todas las conversaciones en torno a la IA dan vuelta en torno a los chatbots y su aparente enorme poder. Pero cuando se entra en precisiones, en realidad el tema es el de los grandes modelos de lenguaje (large lenguage models, LLM) y la IA generativa, y se cuestionan los resultados que ofrecen. Pero la IA es mucho más que los LLM. Como dice Claudio Gutiérrez, del Departamento de Ciencias de la Computación de la Universidad de Chile, "en términos muy gruesos, la IA es una tecnología que esencialmente apunta a simular ciertos procesos mentales humanos", y agrega:

"La IA nació como un intento de simular ciertos procesos mentales humanos por medios artificiales, tecnológicos, en particular, digitales. Inicialmente cosas que se creían eran propiamente humanas: jugar damas y ajedrez, hacer razonamientos lógicos, traducir de un idoma a otro, resolver un puzzle o encontrar la salida de un laberinto, etc. También se enfocó en simular a expertos médicos, constructores, etc. Luego automatizar (...) funciones mentales humanas bien definidas, como buscar en un archivo, hacer operaciones matemáticas complejas, etc. Todo ello es la IA tradicional."

Como podemos deducir, hay muchos campos en que se ha desarrollado la IA, y no solo la "IA tradicional": hoy "intenta simular las redes neuronales biológicas, y ha logrado construir máquinas que tienen capacidades muy potentes para simular muchas actividades mentales humanas" (Gutiérrez). Esto ha llevado a construir máquinas capaces de aprender: el “aprendizaje de máquinas” es la línea de desarrollo en la que se inscriben los programas (como los chatbots) basados en LLM.

Como bien explica M.D. Heaven, lo que producen los programas basados en LLM son meras alucinaciones: 

"Abra un modelo de lenguaje grande y no verá información ya preparada esperando a ser recuperada. En cambio, encontrará miles de millones de números. Utiliza estos números para calcular sus respuestas desde cero, produciendo nuevas secuencias de palabras sobre la marcha. (...)

Piense en los miles de millones de números que hay dentro de un gran modelo de lenguaje como si fuera una enorme hoja de cálculo que capta la probabilidad estadística de que ciertas palabras aparezcan junto a otras palabras. (...)

Para adivinar una palabra, el modelo simplemente ejecuta sus números. Calcula una puntuación para cada palabra de su vocabulario que refleja la probabilidad de que esa palabra sea la siguiente en la secuencia en juego. La palabra con mejor puntuación gana. En resumen, los grandes modelos lingüísticos son máquinas tragamonedas estadísticas." (Heaven)

Hay que tener en cuenta también que el procesamiento de los LLM es realizado por redes neuronales, que no se diseñan directamente: en su lugar, se diseñan los algoritmos que las entrenan, resultando en redes que no se comprenden completamente y que no pueden descomponerse fácilmente en partes identificables. Aunque OpenAI ha logrado identificar 16 millones de patrones en GPT-4, hay  decenas de millones de características en modelos de IA avanzados y los patrones encontrados todavía son difíciles de interpretar y no siempre funcionan de manera consistente (Merino).

El producto puede ser una oración con sentido y con alguna relación con la pregunta, pero es como el resultado de un juego de ruleta... y pocas veces acierta. Por ésto dice Heaven que "todo es alucinación". Pero no es un defecto de "la IA" sino de los chatbots basados en LLM. Algunos investigadores creen que pueden ser mejorados aumentando el contenido acumulado como base de entrenamiento y hemos visto algunos progresos en este sentido, pero es dudoso que se llegue a algo confiable sin un sistema de "control de salida", como un "fact checking", lo cual parece actualmente imposible. Ya en marzo pasado, declaraba Javier Pastor en Xataka que "La IA generativa lo está contaminando todo desde 2023, cuando las imágenes y textos generados por modelos de IA como los de OpenAI comenzaron a infiltrarse en las redes sociales. No estamos ante modelos de IA generativa, sino degenerativa: la calidad de internet se va a pique" (Pastor).

La ley europea de IA le pone condiciones al uso de IA generativa: se deberá "especificar si un texto, una canción o una fotografía se han generado a través de la inteligencia artificial y garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor" (Euronews), pero ésto no impide en absoluto las alucinaciones ni sus posibles consecuencias perversas, aunque "el reglamento permite o prohíbe el uso de la inteligencia artificial en función del riesgo que genera para las personas", algo difícil de predecir ante consultas a un chatbot. 

Existe sin embargo otra vía y otro uso de la IA generativa, con la misma tecnología de aprendizaje de máquina, pero que no se basan en LLM sino en conjuntos de datos específicos de un área del conocimiento. Es lo que explica, por ejemplo, el descubrimiento de nuevos posibles medicamentos, diagnósticos y tratamiento de enfermedades, así como de componentes químicos y aleaciones ("metamateriales"). Es también lo que permite a El País y Le Monde, gracias a un acuerdo de colaboración que han firmado Prisa Media con OpenAI, producir resúmenes de las mejores noticias del día o de los propios artículos y permitir a los usuarios de ChatGPT interactuar con las noticias de todos los medios de estos grupos. "A través de la navegación con la IA generativa, entrenada con sus propios datos, se van a poder encontrar también enlaces de atribución para que siempre se tenga acceso a la fuente original de la noticia" (Lizana).

Ya informé acerca de varios modelos de IA generativa disponibles en la plataforma de código abierto GitHub que pueden incluso ser utilizados en un PC con una base de datos local (ver mi post "La IA llega a la documentación personal"), y el anuncio de Microsoft de que Windows 11 traerá "una IA local a la que le podremos consultar mediante lenguaje natural cualquier cosa relacionada con los archivos de nuestros PCs y más" (Vallejo). Y desde febrero pasado es posible "chatear" con documentos propios en Adobe, cuyo "motor conversacional" puede resumir archivos, responder preguntas y recomendar más (@DigitalTrendsEs, 20/02/24).

Chile se propone regular por ley la IA en el país, siguiendo, al parecer, lo que ocurre en la Unión Europea (ver Euronews): el objeto de esta ley es "promover la creación, desarrollo, innovación e implementación de sistemas de inteligencia artificial (“IA”) al servicio del ser humano, que sean respetuosos de los principios democráticos, el Estado de Derecho y los derechos fundamentales de las personas frente a los efectos nocivos que determinados usos pudieran irrogar". Parece que se quieren imponer obligaciones a los programas de IA, pero "no es a estos nuevos objetos técnicos a quienes se les debe exigir respeto por determinados principios, sino a los agentes humanos involucrados en su puesta en actividad" (Gutiérrez), y más aún - como se intenta a nivel internacional - exigirlo de los desarrolladores.

Referencias

Euronews (2023): Así es la ley de la UE para regular la IA: pionera en el mundo para proteger de los riesgos de la IA, Euronews 9/12/2023.   Análisis de la ley europea en https://artificialintelligenceact.eu/es/

Gutiérrez, C. (2024): Chile busca regular por ley la Inteligencia Artificial, Aula Magna, 17/06/2024. 

Heaven, W.D. (2024): Why does AI hallucinate?, MIT Technology Review, 18/06/2024. 

Lizana, J.A. (2024): Interactuar con noticias en ChatGPT será posible: El País y Le Monde serán los primeros, y podrá entrenarse con sus datos, Genbeta, 14/03/2024. 

Merino, M. (2024): La inteligencia artificial es una caja negra cuyo interior no puede ver ni quien la crea. OpenAI se ha propuesto arreglar eso, Genbeta, 7/06/2024. 

Pastor, J. (2024): Internet tal y como la conocíamos está muriendo: la IA generativa se la está cargando, Xataka, 12/03/2024. 

Vallejo, A. (2024): Windows 11 tendrá una gigantesca actualización con IA local: así quiere Microsoft impulsar su explorador y otras funciones, Genbeta, 15/04/2024. 

No hay comentarios:

Publicar un comentario

Nota: solo los miembros de este blog pueden publicar comentarios.