Se han hecho numerosas críticas a los programas de IA generativa. Señalé los principales problemas en mi post pasado, al recordar que no se debe generalizar y que la IA es mucho más que los chatbots y los LLM.
En enero de 2023, una investigación del Time expuso "el lado más oscuro de la industria de chatbots de IA, destacando cómo al menos una startup ha estado utilizando prácticas cuestionables para mejorar su tecnología", refiriéndose a OpenAI (Bastarrica).
"OpenAI utilizó los servicios de un equipo en Kenia para estudiar detenidamente el texto que incluía temas perturbadores como el abuso sexual infantil, la bestialidad, el asesinato, el suicidio, la tortura, las autolesiones y el incesto. Y por sus esfuerzos para etiquetar el contenido aborrecible, muchos en el equipo recibieron menos de $ 2 por hora." (ibidem)
Aunque el fin era mejorar ChatGPT-3, para que evitase respuestas ofensivas, el método era evidentemente más que cuestionable. ¿Utilizar un procedimiento inmoral para asegurar la moralidad de las respuestas? Para ser más ética infringió la ética. ¿El fin justifica los medios? Esto ha puesto en evidencia que, ya en su raíz misma, en el entrenamiento de la IA generativa (IAG), hay serios problemas éticos.
Las compañías que las desarrollan se han puesto de acuerdo en ser más transparente "acerca de lo que la tecnología puede y no puede hacer". "Queremos asegurarnos de que los medios sintéticos no se utilicen para dañar, quitar poder o privar de derechos, sino más bien para apoyar la creatividad, el intercambio de conocimientos y los comentarios", dijo Claire Leibowicz, directora de IA e integridad de los medios de Partnership on AI (PAI) (Heikkilä). Pero no han hablado de transparentar sus métodos de entrenamiento.
En marzo de 2023, la UNESCO pidió a los Gobiernos aplicar él "Marco Ético Mundial" sobre IA adoptado en 2021 de forma unánime por sus 193 Estados miembros. "El mundo necesita normas éticas más estrictas para la inteligencia artificial: este es el gran reto de nuestro tiempo" dijo su directora (Deutsche Welle, 30/03/23).
Según un estudio de investigadores de la Universidad de Ciencias Aplicadas de Ingolstadt (Alemania) publicado en Scientific Reports, "las respuestas humanas a los dilemas morales pueden verse influidas por las afirmaciones escritas por el chatbot de inteligencia artificial ChatGPT" (Deutsche Welle, 13/04/23). Recurrieron al "dilema del transvío": cambiar su trayecto, desviándolo de una vía en la que mataría a cinco personas a otra empujando un desconocido desde un puente para que se cambiara. "Los participantes eran más propensos a considerar aceptable o inaceptable sacrificar una vida para salvar cinco dependiendo de si la declaración leída argumentaba a favor o en contra del sacrificio. Esto era así incluso cuando la afirmación se atribuía a un ChatGPT." Los investigadores propusieron que los chatbots "se nieguen a responder a preguntas que requieran un juicio moral, o bien respondan a estas preguntas proporcionando múltiples argumentos y advertencias". (ibidem)
Recordemos que los programas basado en LLM "alucinan", según decía M.D. Heaven. No son en absoluto confiables, por la forma en que operan (se explica en mi post pasado). Dice Piacente, apoyado en un estudio del MIT:
"Los sistemas de Inteligencia Artificial (IA), incluyendo a los modelos de lenguaje de gran tamaño (LLM) y otros, han desarrollado una importante capacidad para engañar a los seres humanos. El propósito es conseguir mejores resultados y lograr las metas fijadas en los entrenamientos."
Engañar para lograr objetivos propios: ¡una extraña forma de "prestar servicio"! Peter S. Park, autor principal del estudio, advierte que
"A medida que las capacidades engañosas de los sistemas de IA se vuelvan más avanzadas, los peligros que representan para la sociedad serán cada vez más graves. (...)
Necesitamos prepararnos como sociedad para el engaño más avanzado de los futuros productos de IA y modelos de código abierto. Si prohibir el engaño de la IA es políticamente inviable en este momento, recomendamos que los sistemas de IA engañosos se clasifiquen como de alto riesgo." (citado por Piacente).
Así, el tema de la ética de la IA ha estado presente desde, al menos, fines de 2022. Y ha llegado al Vaticano. Lo recalcó en enero de esta año Fray Paolo Benanti, consejero del Papa Francisco con una formación en ingeniería y un doctorado en teología moral, después del mensaje de año nuevo del Papa Francisco (20/12/2023) en que aludió a la falta de regulación de la IA. Pero lo podemos ver mejor reflejado en su reciente discurso en la conferencia del G7 (14 de junio 2024). "No podemos dudar, ciertamente, de que la llegada de la inteligencia artificial representa una auténtica revolución cognitiva-industrial, que contribuirá a la creación de un nuevo sistema social caracterizado por complejas transformaciones de época" dice el papa. Pero "el uso de nuestras herramientas no siempre está dirigido unívocamente al bien" y "debemos tener bien claro que al ser humano le corresponde siempre la decisión".
"Condenaríamos a la humanidad a un futuro sin esperanza si quitáramos a las personas la capacidad de decidir por sí mismas y por sus vidas, condenándolas a depender de las elecciones de las máquinas. Necesitamos garantizar y proteger un espacio de control significativo del ser humano sobre el proceso de elección utilizado por los programas de inteligencia artificial. Está en juego la misma dignidad humana. (...)
Si en el pasado, los seres humanos que utilizaron herramientas simples vieron su existencia modelada por estos últimos —el cuchillo les permitió sobrevivir al frío pero también desarrollar el arte de la guerra—, ahora que los seres humanos han modelado un instrumento complejo, verán que este modelará aún más su existencia." (Francisco)
Y refiriéndose específicamente a la IA generativa, agregó que "en sentido estricto, no es propiamente “generativa” (...) repite lo que encuentra, dándole una forma atractiva, y cuanto más repetida encuentra una noción o una hipótesis, más la considera legítima y válida", lo cual es gravísimo. "Con el fin de que estos instrumentos sean para la construcción del bien y de un futuro mejor, deben estar siempre ordenados al bien de todo ser humano. Deben contener una inspiración ética." (ibidem) "¿Estamos seguros de querer seguir llamando ‘inteligencia’ a lo que no lo es?", repitió al dirigirse a la Fundación Centesimus Annus Pro Pontifice en la clausura de la Conferencia Internacional dedicada este año a la Inteligencia Artificial Generativa, reiterando también "la necesidad de un desarrollo ético de los algoritmos en el que los valores guíen los caminos de las nuevas tecnologías" (Vatican News, 22/06/24).
Pero no es el único tipo de crítica.
Noam Chomsky se sumó ahora al escepticismo acerca de los programas como ChatGPT y DALL-E en un artículo escrito con dos colegas en el New York Times. Les reconoce "una posible utilidad" y eficacia "en la tarea de almacenar inmensas cantidades de información", recalca que "no tienen una “inteligencia” como la de las personas":
"Sabemos por la ciencia de la lingüística y la filosofía del conocimiento que difieren profundamente de la forma en que los seres humanos razonan y utilizan el lenguaje; estas diferencias imponen limitaciones significativas a lo que pueden hacer, codificándolos con defectos inerradicables. (...)
A diferencia de los motores de apps como ChatGPT —que operan en base a la recolección de numerosos datos— , la mente humana puede funcionar con pequeñas cantidades de información, mediante las cuales “no busca inferir correlaciones brutas entre puntos (...) sino crear explicaciones.” (Paiva)
Además - lo que más nos interesa aquí - "Chomsky, Roberts y Watumull consideraron en su análisis que los sistemas de IA carecen de razonamiento desde una perspectiva moral, por lo que son incapaces de distinguir bajo marcos éticos lo que se debe o no hacer", proponiendo así también "que se mantengan alejados de contenidos moralmente censurables” (ibidem).
Henri Bergson ya escribió en 1932, que "el alma de la sociedad es inmanente al lenguaje que se habla" (Bergson: 9), pero no hay ningún alma en las cifras (las estadísticas) que los grandes modelos de lenguaje utilizan. La IAG usa el lenguaje sin su alma, una aberración semiótica.
Los chatbots no pueden tener en cuenta las consecuencias de sus respuestas; son incapaces de evaluarlas y se duda de que alguna vez lo serán (se requeriría une tecnología diferente dicen algunos). Sería como pedir que sean dotados de consciencia.
Aunque una IA declaró "sentirse viva", esto es una más de sus alucinaciones.
Referencias
Bastarrica, D. (2023): Investigación expone el lado más turbio de ChatGPT y la industria de chatbots de IA, Digital Trends, 19/01/2023.
Bergson, H. (1932): Les deux sources de la morale et de la religion, Les Échos du Maquis, 2013.
Deutsche Welle (2023): 1. Unesco pide aplicar Marco Ético para inteligencia artificial, Deutsche Welle, 30/03/2023.
2. Estudio: ChatGPT puede influir en juicios morales humanos, Deutsche Welle, 13/04/202313.
Euronews (2024): Fraile Tech: El mayor experto en ética de la IA del Vaticano que asesora al Papa Francisco, a la ONU y a Silicon Valley, AP via Euronews 22/01/2024.
Heaven, W.D. (2024): Why does AI hallucinate?, MIT Technology Review, 18/06/2024.
Heikkilä, M. (2023): How to create, release, and share generative AI responsibly, MIT Technology Review, 27/02/2023.
Paiva, A. (2024): La inquietante opinión de Noam Chomsky sobre la Inteligencia Artificial, La Tercera, 19/06/2024.
Piacente, P. (2024): La IA ya es una maestra de la mentira y el engaño, Levante 13/05/2024.
Santo Padre Francisco (2024): Discurso en la cumbre del G7, Santa Sede, 14/06/204.