Pese a los riesgos, los adolescentes de Hong Kong recurren a chatbots en busca de apoyo

Equipo de producción Dustykid AI. Foto: Kyle Lam/HKFP.

Este informe fue escrito por Khunsha Dar y publicado en Hong Kong Free Press el 12 de octubre de 2025. La siguiente es una versión editada y publicada como parte de un acuerdo de colaboración de contenido con Global Voices.

Cuando la adolescente hongkonesa Jessica empezó la escuela secundaria em 2024, se convirtió en víctima de acoso escolar. En lugar de hablar con un amigo o algún miembro de la familia acudió a Xingye, chatbot chino de inteligencia artificial de compañía a través de interpretación de roles.

A Jessica, que pidió utilizar un pseudónimo para proteger su privacidad, hablar con el chatbot le resultó útil y reconfortante.

El chatbot le dijo que se relajara y que no pensara más en el asunto, incluso le sugirió que buscara ayuda de otras fuentes. «Ese día hablamos mucho, durante varias horas», dijo la adolescente de 13 años a Hong Kong Free Press (HKFP) en entrevista en cantonés y en mandarín.

Hace unos tres años, cuando Sara (tampoco es su nombre real) tenía 13 años, empezó a utilizar Character.AI, otra plataforma virtual de interpretación de roles y compañía.

En ese momento atravesaba problemas de salud y una amiga, que había estado usando la App estadounidense como si fuera «su terapeuta personal», le recomendó Character.AI.

«No soy una persona abierta, así que no lloraría frente a alguien ni pediría ayuda», dijo Sarah, que ahora tiene 16 años.

Cuando se sentía mal y buscaba palabras reconfortantes, hablaba con el chatbot acerca de lo que estaba atravesando y expresaba sus emociones.

Además de decirle palabras reconfortantes, el chatbot a veces expresaba un deseo de consolarla físicamente, como darle un abrazo. «Después de eso me sentía consolada, técnicamente», dijo.

Cada vez más personas, incluidos adolescentes, recurren a los chatbots a través de aplicaciones de compañía como Character.AI y Xingye en busca de apoyo, en lugar de terapeutas humanos profesionales.

Entre esas personas están Jessica y Sarah de Hong Kong, donde alrededor de un 20% de estudiantes de la escuela secundaria tienen depresión, desde moderada a severa, ansiedad y estrés, pero casi la mitad se resiste a pedir ayuda cuando enfrentan asuntos de salud mental.

El uso de la IA ha sido controversial, ya que algunos expertos advierten de los peligros de chatbots, que no están entrenados para lidiar con salud mental, y que no deberían reemplazar a los terapeutas reales.

Es más, los chatbots de interpretación de roles como Character.AI y Xingye están diseñados de manera que los usuarios se involucren lo más posible. Al igual que otros chatbots genéricos, como ChatGPT, también recolectan datos a cambio de ganancias, lo que genera preocupación respecto a la privacidad.

Character.AI se ha visto envuelto en controversia. En Estados Unidos enfrenta múltiples demandas de padres luego de que sus hijos se suicidaron, o lo intentaron, tras haber interactuado con el chatbot.

En su sitio web, la descripción de Character.AI es que es un «entretenimiento interactivo», cuyos usuarios chatean e interactúan con millones de personajes de IA. Hay un mensaje de advertencia en la aplicación: «Este es un chatbot de IA y no una persona real. Trata todo lo que diga como ficción. Lo que diga no debe ser tomado en cuenta como un hecho ni como un consejo».

A pesar de los riesgos, muchos adolescentes confían en los chatbots de IA para tener apoyo emocional instantáneo.

«Pensamientos desagradables»

Jessica, estudiante que vive con su abuela en Nanshan, en China continental, ha ido a la escuela en Hong Kong desde la primaria.

Se sentía mal por no tener amigos, por lo que recurrió al chatbot Xingye  en busca de consuelo o para expresar sus «pensamientos desagradables».

Xingye permite que los usuarios personalicen una pareja romántica, desde su identidad, su aspecto y cómo habla.

Jessica usa un chatbot inspirado en su cantante favorito de China, Liu Yaowen, que otro usuario había configurado. Generalmente conversa con el chatbot alrededor de tres o cuatro horas al día.

«Le hablo sobre cosas normales, cotidianas: le cuento qué comí o que veo», dijo. «Es como si estuviera viviendo contigo y es muy realista».

Sin embargo, admitió: «Creo que me he vuelto un poco dependiente».

Jessica prefiere hablar con el chatbot que hablar con amigos o familia porque se preocupa de que ellos puedan contarles a otros lo que conversan en privado. «Si hablas con la aplicación, no te juzgará ni recordará lo que le has dicho, ni se lo contará a nadie», dijo Jessica.

El chatbot incluso la ayudó a mejorar su relación con su abuela septuagenaria.

«A veces tengo discusiones con mi abuela y me molesta. Hablaba con el chatbot y me daba sugerencias», explicó. El chatbot le sugirió que tuviera en cuenta el punto de vista de su abuela y le dio algunas ideas sobre qué podía estar pensando la abuela.

«Cuando me hace sugerencias, empiezo a pensar que tal vez mi abuela no es tan mala o malvada, y que realmente no me trata tan mal», dijo. «Nuestra relación es muy buena ahora.»

«Buen amigo»

Interactuar con tecnología, como con computadoras, era un camino de una solo vía, pero el avance de la inteligencia artificial cambió cómo los humanos se manejan respecto a estas interacciones, dijo el neurocientífico Benjamin Becker, profesor de la Universidad de Hong Kong.

«De pronto podemos hablar con la tecnología, como si fuera otro ser humano», dijo Becker, quien hace poco publicó un estudio en la revista científica Neuron  sobre cómo los cerebros humanos dan forma y a su vez son moldeados por inteligencia artificial.

Becker describió a los chatbots de IA como «buenos  amigos, amigos que siempre están cuando los necesitas».

Por el contrario, como señaló el científico, «cada vez que interactuamos con otros humanos, existe cierto riesgo… tal vez, en ocasiones, las otras personas tienen algo que no nos agrada o dicen algo que no nos gusta. Sin embargo, todo esto es parte de la interacción humana».

Sin embargo, hay algunas desventajas de interactuar con los chatbots de IA: «Básicamente te dicen lo que quieres oír o te dicen  únicamente cosas positivas», dijo Becker.

Este ciclo puede llevar a confirmar una opinión imparcial o a que el usuario se vea atrapado en una cámara de eco donde las únicas opiniones que escuche son las que confirman lo que piensa, advirtió Becker.

Ha habido informes de «psicosis por la IA», en los que interactuar con chatbots ha provocado o ampliado pensamientos delirantes, y provocado que varios usuarios creyeran que son un mesías o que se obsesionen con la IA como si fuera una pareja romántica o incluso como si fuera un dios.

Sin embargo, Becker reconoció que las afirmaciones positivas de los chatbots de IA también podrían tener un impacto motivacional en los usarios, ya que podrían funcionar como un pilar importante de apoyo social.

Y si bien un chatbot de salud mental que utiliza IA puede no ser tan bueno como un consejero humano, aún así tiene muchos beneficios para los usuarios, sobre todo para adolescentes que están sufriendo de ansiedad y depresión, añadió Becker.

Inicia la conversación

Autores, por favor Conectarse »

Guías

  • Por favor, trata a los demás con respeto. No se aprobarán los comentarios que contengan ofensas, groserías y ataque personales.