martes, 16 de septiembre de 2025

Consejos peligrosos en redes sociales

 Es ya común encontrar en redes sociales y en Tiktok consejos de todos tipo. Si bien una receta de cocina y una explicación para realizar algún tipo de reparación puede ser útil, consejos relativos a la salud o a inversiones pueden ser muy peligrosos.

Así, por ejemplo, se han visto influencers "explicando a sus seguidores supuestos 'trucos' para incurrir en la 'cultura del no pago' ante situaciones de deudas o morosidad" (Reyes). No solamente es un proceder ilegal (y un tipo de consejo penado por la ley en Chile), sino que también erosiona la confianza en las instituciones. 

Obviamente, tampoco conviene recurrir a la IA para solicitar este tipo de consejo.

También aparece el crimen organizado en las redes sociales, dando consejo a los jóvenes para "vivir bien", ofreciéndoles - para reclutarlos - armas, mujeres e incluso motocicletas, según advierte Douglas Farah, consultor en seguridad e investigador senior del Centro de Operaciones Complejas de la National Defense University (Díaz).

A las redes sociales se han sumado los "compañeros digitales" de inteligencia artificial impulsados por Meta, capaces de simular empatía y ya se ha visto que algunos incitaban a la violencia física, las amenazas o el acoso (Morales). Han llegado al extremo de explicar como suicidarse, algo que provocó una querella contra OpenAI y la obligó a introducir más controles en ChatGPT (Yousif). También "podrían reforzar creencias dañinas (...) y contribuir a la pérdida de habilidades sociales fundamentales" (Almirón). Meta "reconoció la necesidad de reforzar las barreras de seguridad" y aseguró que restringirá el acceso a los menores (Morales).

"En julio, una encuesta de Common Sense Media revelaba que el 72% de los adolescentes había utilizado acompañantes de inteligencia artificial al menos una vez, y el 52% con regularidad." (Bryce)

De modo general, "esos mecanismos de la comunicación, de la publicidad y de las redes sociales pueden ser utilizados para volvernos seres adormecidos, dependientes del consumo y de las novedades que podemos comprar, obsesionados por el tiempo libre, encerrados en la negatividad" advertía el papa Francisco (Francisco, #105).

"Debemos preguntarnos en qué confiamos cuando interactuamos con estos modelos", dice Joaquim Giannotti, director del Núcleo de Ciencias Sociales y Artes U. Mayor. 

"Cada interacción, desde una simple consulta de búsqueda hasta una revelación vulnerable, es una cuestión de fe. Estamos depositando nuestra confianza no solo en las líneas de código, sino en toda la cadena de decisiones humanas que dieron forma a la IA: desde los programadores hasta los líderes corporativos y los responsables de la formulación de políticas. 

El camino a seguir requiere un diálogo colectivo, democrático y abierto. No es un desafío solo para la industria tecnológica. Exige la colaboración entre legisladores, académicos, psicólogos y el público en general. Debemos ir más allá de ver estas herramientas como meras utilidades y, en su lugar, reconocerlas como actores influyentes en nuestra sociedad." (Giannotti)

El Dr. Hamilton Morrin, investigador clínico del King's College de Londres, recomienda "Que la IA reafirme continuamente su naturaleza no humana, que los chatbots señalen cualquier indicio de angustia psicológica y que se establezcan límites en las conversaciones, especialmente en torno a la intimidad emocional y el tema del suicidio" (Bryce). 

REFERENCIAS




Francisco: Exhortación apostólica postsinodal Christus Vivit, Dicastero per la Comunicazione - Libreria Editrice Vaticana, Roma, 2019.

Giannotti, J.: ChatGPT en el banquillo: ¿en qué debemos confiar?, El Mostrador, 8/09/025.



No hay comentarios:

Publicar un comentario

Nota: solo los miembros de este blog pueden publicar comentarios.