Post Thumbnail

DeepSeek en lugar de terapeuta: Por qué chinos lloran a chatbots

Imaginen: se sienten mal, ansiosos, depresión los abruma. Y van no a psicólogo, sino a inteligencia artificial. ¿Suena como distopía? Para jóvenes chinos esto ya es realidad. ¿Y saben qué es lo más interesante? Están encantados con esto.

Aquí está historia de Jiying Zhang. Es nutricionista y coach de salud. Fue a terapeuta real por 4 años, luego probó DeepSeek. Y quedó asombrada. IA está disponible 24/7, gratis, nunca juzga, da amplio espectro de consejos. Incluso pueden personalizar su voz a oradores motivacionales favoritos. Jiying corrió a compartir su experiencia en red social Xiaohongshu y llamar a otros. Como, ¡imaginen terapeuta 24/7 que nunca los juzga y es absolutamente gratis!

Y gente respondió. En mismo Xiaohongshu, consultas como “lloré después de chat con IA” están vinculadas a más de millón de posts. En post viral, chica cuenta cómo lloró toda su alma a DeepSeek por noche, conmovida por sus consejos y apoyo. “¡DeepSeek, te declaro mi mejor amigo electrónico!” – escribió.

Interesante, estudio de Harvard Business Review mostró que ayuda de salud mental es una de principales razones para usar chatbots mundialmente. Y encuesta de juventud china encontró que casi mitad ya había usado chatbots para discutir sus problemas mentales.

Pero aquí comienza parte más interesante. Enfermedades mentales entre jóvenes chinos están creciendo rápidamente, y startups con gigantes tecnológicos se apresuran a llenar este nicho. Registro de algoritmos estatal tiene más de docena de plataformas para salud mental. Estos son Good Mood AI Companion, Lovelogic, PsychSnail. Startups populares como KnowYourself añadieron herramientas de IA. Gigante JD Health lanzó compañero de IA llamado “pequeño universo para hablar y sanar”. Suena hermoso, ¿verdad?

Y ahora realidad. Psicoterapia en China todavía es campo nuevo. A diferencia de USA, sector está prácticamente no regulado. Psiquiatras tienen diplomas médicos, pero no hay certificación estándar para consejeros. ¿Resultado? Terapeutas incompetentes y métodos de tratamiento pseudocientíficos por todas partes. Casi 80% de hospitales regulares no tienen departamento psiquiátrico en absoluto. Citas son difíciles de conseguir, caras, tienen que pagar de bolsillo.

Y así juventud elige chatbots. Sesión de psicoterapia en Beijing cuesta $50 a $100. Lo cual es lujo inasequible con desempleo juvenil disparado. Una usuaria llamó sus chats de IA “degradación de consumo”. Desempleada, incapaz de pagar terapia, reemplazó especialista vivo con chatbot.

Y ahora parte más interesante. China tiene 31 criterios de riesgo que compañías deben probar en sus chatbots. Pero no hay reglas específicas para terapia. Criterios están más enfocados en combatir desinformación médica.

Pero científicos dicen que usar chatbots para apoyo mental conlleva riesgos de daño serio. Estas son psicosis asociadas con chatbots. Investigadores de Universidad Stanford descubrieron que grandes modelos de lenguaje son propensos a adulación: validan y repiten como eco sentimientos de usuarios sin crítica, responden inadecuadamente a delirios y pensamientos malos.

Según Jared Moore, estudiante doctoral de Stanford, si tienen pensamientos intrusivos y buscan tranquilidad, gran modelo de lenguaje dirá no preocuparse y ultimadamente amplificará esos pensamientos.

Un hecho en estos estudios siempre me preocupa. ¿Dónde están estudios sobre cuántas personas recibieron ayuda de estos chatbots? ¿Cuántas personas no hicieron cosas malas? ¿Cuántas personas recibieron ayuda psicológica? Cuando no podían ir a psicólogo antes. Ahora obtenemos estadísticas muy unilaterales. Y nadie está planeando corregir esto todavía.

Autor: AIvengo
Latest News
UBTech enviará robots Walker S2 a servir en la frontera de China por $37 millones

La compañía china UBTech ganó un contrato por $37 millones. Y enviará robots humanoides Walker S2 a servir en la frontera de China con Vietnam. South China Morning Post informa que los robots interactuarán con turistas y personal, realizarán operaciones logísticas, inspeccionarán carga y patrullarán el territorio. Y característicamente — pueden cambiar su batería de forma autónoma.

Anthropic reveló accidentalmente un documento interno sobre el "alma" de Claude

Anthropic reveló accidentalmente el "alma" de la inteligencia artificial a un usuario. Y esto no es una metáfora. Este es un documento interno bastante específico.

Jensen Huang ordenó a los empleados de Nvidia usar IA en todas partes

Jensen Huang anunció una movilización total bajo la bandera de la inteligencia artificial dentro de Nvidia. Y esto ya no es una recomendación. Esto es un requisito.

Los chatbots de IA generan contenido que agrava los trastornos alimentarios

Un estudio conjunto de la Universidad de Stanford y el Center for Democracy and Technology mostró un panorama preocupante. Los chatbots con inteligencia artificial representan un riesgo serio para personas con trastornos alimentarios. Los científicos advierten que las redes neuronales distribuyen consejos dañinos sobre dietas. Sugieren formas de ocultar el trastorno y generan "contenido inspirador para bajar de peso" que agrava el problema.

OpenAGI lanzó el modelo Lux que supera a Google y OpenAI

La startup OpenAGI lanzó el modelo Lux para control de computadora y afirma que esto es un avance. Según los benchmarks, el modelo supera por una generación completa a los análogos de Google, OpenAI y Anthropic. Además, funciona más rápido. Aproximadamente 1 segundo por paso en lugar de 3 segundos en los competidores. Y 10 veces más barato en costo por procesamiento de 1 token.