viernes, 27 de enero de 2023

La nueva realidad de los buscadores

No es posible pasar por alto la nueva realidad de internet que introducen los chatbots de IA generativa como ChatGPT, de la compañía OpenAI, lanzado el 30 de noviembre pasado. Este chatbot es capaz de responder a las más variadas preguntas

y "de mantener con mucha naturalidad conversaciones sobre casi cualquier tema, de responder a infinidad de preguntas y de crear contenidos casi a la carta!" (Deutsche Welle, 10/12/2022). 

Otros chatbots podrían ir aún más lejos:

"Character.ai, una empresa emergente fundada por exingenieros de Google, puso en línea un chatbot experimental en octubre, el cual puede adoptar cualquier personalidad. Los usuarios crean personajes según una breve descripción y enseguida pueden "conversar" con un falso Sherlock Holmes, Sócrates o incluso Donald Trump. Este grado de sofisticación fascina, pero también inquieta a numerosos observadores con la idea de que estas tecnologías no sean utilizadas para engañar a los humanos, difundiendo informaciones falsas, por ejemplo, o creando estafas cada vez más creíbles." (ibidem)

El primer peligro es que ChatGPT extrae los contenidos de internet sin verificar la validez de las fuentes. OpenAI admite que "el chatbot puede generar informaciones incorrectas" (ibidem).

El segundo peligro es que combina extractos de variadas fuentes, pero no domina el sentido y no puede explicar por qué seleccionó las palabras que forman sus respuestas. OpenAI admite que "las personas podrían creer que interactúan con un individuo real" (ibidem). Recordemos que el conocimiento es una suma de creencias y que, si se cre en las respuestas del chatbot, el conocimiento será cada vez más erróneo.

El tercer peligro, que es el que motiva el presente post, es que muchos de estos resultados vuelven a ser publicados en internet por los usuarios de estos chatbots. Se prooduce de este modo un efecto de bola de nieve, en que los buscadores y los mismos chatbots se ven alimentados por sus propios resultados, poniendo en entredicho - cada vez más - la confiabilidad de los resultados de las búsquedas.

Que los buscadores pudieron detectar este tipo de contenido y advertir sobre ellos o incluso pasarlos por alto sería evidentemente un solución. Sin embargo, los actuales "detectores" no parecen particularmente útiles. Un experto de la revista Xataka evaluó tres de ellos constatando que no ofrecen un resultado consistente a la hora de detectar cuando un texto ha sido generado por una IA: "Estas herramientas nos pueden servir en algunos casos, pero el "problema" es que es una carrera de fondo. Todavía no hemos terminado de digerir ChatGPT y ya estamos a la espera de una nueva y aún más completa versión, así que sí, estamos en un juego del gato y el ratón y, por ahora, el ratón parece ir ganando"(José García, Xataka, 21/01).

En este momento existiría una alternativa, según @cscolari (23/01): Perplexity AI: "Perplexity AI is an answer engine that delivers accurate answers to complex questions using large language models. Ask is powered by large language models and search engines. Accuracy is limited by search results and AI capabilities."(https://www.perplexity.ai). En efecto, incluye información sobre las fuentes de sus respuestas. Combina las API de OpenAI y del buscador Bing.

Referencias

Deutsche Welle: ChatGPT: el bot viral y futuro de la IA que podría cambiarlo todo

García, J.: Hay detectores de ChatGPT para saber si un texto lo ha escrito una IA o un humano. Los he probado. Xataka, 21/01/2022