DeepSeek en lugar de terapeuta: Por qué chinos lloran a chatbots
Imaginen: se sienten mal, ansiosos, depresión los abruma. Y van no a psicólogo, sino a inteligencia artificial. ¿Suena como distopía? Para jóvenes chinos esto ya es realidad. ¿Y saben qué es lo más interesante? Están encantados con esto.
Aquí está historia de Jiying Zhang. Es nutricionista y coach de salud. Fue a terapeuta real por 4 años, luego probó DeepSeek. Y quedó asombrada. IA está disponible 24/7, gratis, nunca juzga, da amplio espectro de consejos. Incluso pueden personalizar su voz a oradores motivacionales favoritos. Jiying corrió a compartir su experiencia en red social Xiaohongshu y llamar a otros. Como, ¡imaginen terapeuta 24/7 que nunca los juzga y es absolutamente gratis!
Y gente respondió. En mismo Xiaohongshu, consultas como “lloré después de chat con IA” están vinculadas a más de millón de posts. En post viral, chica cuenta cómo lloró toda su alma a DeepSeek por noche, conmovida por sus consejos y apoyo. “¡DeepSeek, te declaro mi mejor amigo electrónico!” – escribió.
Interesante, estudio de Harvard Business Review mostró que ayuda de salud mental es una de principales razones para usar chatbots mundialmente. Y encuesta de juventud china encontró que casi mitad ya había usado chatbots para discutir sus problemas mentales.
Pero aquí comienza parte más interesante. Enfermedades mentales entre jóvenes chinos están creciendo rápidamente, y startups con gigantes tecnológicos se apresuran a llenar este nicho. Registro de algoritmos estatal tiene más de docena de plataformas para salud mental. Estos son Good Mood AI Companion, Lovelogic, PsychSnail. Startups populares como KnowYourself añadieron herramientas de IA. Gigante JD Health lanzó compañero de IA llamado “pequeño universo para hablar y sanar”. Suena hermoso, ¿verdad?
Y ahora realidad. Psicoterapia en China todavía es campo nuevo. A diferencia de USA, sector está prácticamente no regulado. Psiquiatras tienen diplomas médicos, pero no hay certificación estándar para consejeros. ¿Resultado? Terapeutas incompetentes y métodos de tratamiento pseudocientíficos por todas partes. Casi 80% de hospitales regulares no tienen departamento psiquiátrico en absoluto. Citas son difíciles de conseguir, caras, tienen que pagar de bolsillo.
Y así juventud elige chatbots. Sesión de psicoterapia en Beijing cuesta $50 a $100. Lo cual es lujo inasequible con desempleo juvenil disparado. Una usuaria llamó sus chats de IA “degradación de consumo”. Desempleada, incapaz de pagar terapia, reemplazó especialista vivo con chatbot.
Y ahora parte más interesante. China tiene 31 criterios de riesgo que compañías deben probar en sus chatbots. Pero no hay reglas específicas para terapia. Criterios están más enfocados en combatir desinformación médica.
Pero científicos dicen que usar chatbots para apoyo mental conlleva riesgos de daño serio. Estas son psicosis asociadas con chatbots. Investigadores de Universidad Stanford descubrieron que grandes modelos de lenguaje son propensos a adulación: validan y repiten como eco sentimientos de usuarios sin crítica, responden inadecuadamente a delirios y pensamientos malos.
Según Jared Moore, estudiante doctoral de Stanford, si tienen pensamientos intrusivos y buscan tranquilidad, gran modelo de lenguaje dirá no preocuparse y ultimadamente amplificará esos pensamientos.
Un hecho en estos estudios siempre me preocupa. ¿Dónde están estudios sobre cuántas personas recibieron ayuda de estos chatbots? ¿Cuántas personas no hicieron cosas malas? ¿Cuántas personas recibieron ayuda psicológica? Cuando no podían ir a psicólogo antes. Ahora obtenemos estadísticas muy unilaterales. Y nadie está planeando corregir esto todavía.