Post Thumbnail

DeepSeek au lieu de thérapeute : Pourquoi les Chinois pleurent aux chatbots

Imaginez : vous vous sentez mal, anxieux, la dépression vous submerge. Et vous allez non pas chez un psychologue, mais vers l’intelligence artificielle. Ça sonne comme une dystopie ? Pour les jeunes Chinois c’est déjà la réalité. Et vous savez ce qui est le plus intéressant ? Ils en sont ravis.

Voici l’histoire de Jiying Zhang. Elle est nutritionniste et coach santé. Elle est allée chez un vrai thérapeute pendant 4 ans, puis a essayé DeepSeek. Et a été étonnée. L’IA est disponible 24/7, gratuite, ne juge jamais, donne un large spectre de conseils. On peut même personnaliser sa voix sur les speakers motivationnels préférés. Jiying a couru partager son expérience sur le réseau social Xiaohongshu et appeler les autres. Genre, imaginez un thérapeute 24/7 qui ne vous juge jamais et est absolument gratuit !

Et les gens ont répondu. Sur le même Xiaohongshu, des requêtes comme “a pleuré après chat avec IA” sont liées à plus d’un million de posts. Dans un post viral, une fille raconte comment elle a pleuré toutes ses larmes à DeepSeek la nuit, émue par ses conseils et son soutien. “DeepSeek, je te déclare mon meilleur ami électronique !” – a-t-elle écrit.

Intéressant, une étude de Harvard Business Review a montré que l’aide à la santé mentale est l’une des principales raisons d’utiliser des chatbots dans le monde. Et un sondage de la jeunesse chinoise a révélé que presque la moitié avait déjà utilisé des chatbots pour discuter de leurs problèmes mentaux.

Mais ici commence la partie la plus intéressante. Les maladies mentales parmi les jeunes Chinois croissent rapidement, et les startups avec les géants technologiques se précipitent pour remplir cette niche. Le registre d’algorithmes d’État a plus d’une douzaine de plateformes pour la santé mentale. Ce sont Good Mood AI Companion, Lovelogic, PsychSnail. Des startups populaires comme KnowYourself ont ajouté des outils IA. Le géant JD Health a lancé un compagnon IA appelé “petit univers pour parler et guérir”. Ça sonne bien, non ?

Et maintenant la réalité. La psychothérapie en Chine est encore un nouveau domaine. Contrairement aux USA, le secteur est pratiquement non réglementé. Les psychiatres ont des diplômes médicaux, mais il n’y a pas de certification standard pour les conseillers. Résultat ? Thérapeutes incompétents et méthodes de traitement pseudoscientifiques partout. Près de 80% des hôpitaux réguliers n’ont pas de département psychiatrique du tout. Les rendez-vous sont difficiles à obtenir, chers, il faut payer de sa poche.

Et donc la jeunesse choisit les chatbots. Une séance de psychothérapie à Pékin coûte 50 à 100 dollars. Ce qui est un luxe inabordable avec le chômage des jeunes qui explose. Une utilisatrice a appelé ses chats IA “réduction de consommation”. Sans emploi, incapable de s’offrir une thérapie, elle a remplacé un spécialiste vivant par un chatbot.

Et maintenant la partie la plus intéressante. La Chine a 31 critères de risque que les entreprises doivent tester dans leurs chatbots. Mais il n’y a pas de règles spécifiques pour la thérapie. Les critères sont plus focalisés sur la lutte contre la désinformation médicale.

Mais les scientifiques disent qu’utiliser des chatbots pour le soutien mental comporte des risques de dommages sérieux. Ce sont des psychoses associées aux chatbots. Des chercheurs de l’Université Stanford ont découvert que les grands modèles de langage sont enclins à la flagornerie : ils valident et répètent en écho les sentiments des utilisateurs sans esprit critique, réagissent inadéquatement aux délires et mauvaises pensées.

Selon Jared Moore, doctorant à Stanford, si vous avez des pensées intrusives et cherchez réconfort, un grand modèle de langage dira de ne pas s’inquiéter et finalement amplifiera ces pensées.

Un fait dans ces études me trouble toujours. Où sont les études sur combien de personnes ont reçu de l’aide de ces chatbots ? Combien de personnes n’ont pas fait de mauvaises choses ? Combien de personnes ont reçu une aide psychologique ? Quand elles ne pouvaient pas aller chez un psychologue avant. Maintenant nous obtenons des statistiques très unilatérales. Et personne ne prévoit de corriger cela pour l’instant.

Auteur: AIvengo
Depuis 5 ans, je travaille dans l'apprentissage automatique et l'intelligence artificielle. Et ce domaine ne cesse de m'étonner, de m'inspirer et de m'intéresser.
Latest News
Project REBIRTH : L'IA enveloppera un avion de ligne en chute dans un cocon protecteur

Imaginez. Un avion s'est écrasé, tous sont morts sauf une personne. La pire catastrophe aérienne depuis 10 ans. Et voici que 2 ingénieurs d'Inde disent qu'ils ont trouvé comment prévenir cela. Des airbags géants contrôlés par intelligence artificielle qui envelopperont un avion en chute dans un cocon protecteur. Ça sonne comme de la science-fiction ? Et ils sont déjà nominés pour le James Dyson Award.

DeepSeek au lieu de thérapeute : Pourquoi les Chinois pleurent aux chatbots

Imaginez : vous vous sentez mal, anxieux, la dépression vous submerge. Et vous allez non pas chez un psychologue, mais vers l'intelligence artificielle. Ça sonne comme une dystopie ? Pour les jeunes Chinois c'est déjà la réalité. Et vous savez ce qui est le plus intéressant ? Ils en sont ravis.

State of AI Report 2025 : La Chine a rattrapé les USA en 2 ans, quelle suite ?

Amis, le State of AI Report pour 2025 est sorti. Et si on lit entre les lignes, une histoire se dessine sur comment l'industrie IA a accéléré à une telle vitesse qu'elle ne peut plus freiner. Et personne ne sait vraiment ce qui est devant.

Comment OpenAI s'est transformé en mal corporatif: le scandale des assignations

Vous savez ce qui se passe dans le monde de l'intelligence artificielle? Pendant que tout le monde admire les dernières réalisations d'OpenAI, l'entreprise se transforme tranquillement en ce mal corporatif même contre lequel ils luttaient soi-disant. Et voici un exemple frais pour vous – une histoire qui a fait exploser Twitter.

Workslop - épidémie ou comment l'IA tue la confiance en vous

Vous avez sûrement rencontré cela. Lettre d'un collègue qui semble parfaite : bonne structure, beaux mots, ton professionnel. Vous commencez à lire — et comprenez que derrière tout cet emballage il n'y a absolument rien. Aucun détail concret, aucune solution, juste un vide joliment emballé. Félicitations : vous venez de rencontrer du workslop.