DeepSeek statt Therapeut: Warum Chinesen Chatbots ihre Sorgen anvertrauen
Stellen Sie sich vor: Es geht Ihnen schlecht, Sie sind ängstlich, Depression überwältigt Sie. Und Sie gehen nicht zum Psychologen, sondern zur künstlichen Intelligenz. Klingt wie eine Dystopie? Für junge Chinesen ist das bereits Realität. Und wissen Sie, was am interessantesten ist? Sie sind begeistert davon.
Hier ist die Geschichte von Jiying Zhang. Sie ist Ernährungsberaterin und Gesundheitscoach. 4 Jahre ging sie zu einem echten Therapeuten, dann probierte sie DeepSeek. Und war erstaunt. KI ist rund um die Uhr verfügbar, kostenlos, urteilt nie, gibt breites Spektrum an Ratschlägen. Man kann sogar ihre Stimme auf Lieblingsmotivationssprecher einstellen. Jiying lief los, um ihre Erfahrungen im sozialen Netzwerk Xiaohongshu zu teilen und andere aufzurufen. Sozusagen, stellen Sie sich einen 24/7-Therapeuten vor, der Sie nie verurteilt und absolut kostenlos ist!
Und die Leute reagierten. Auf demselben Xiaohongshu sind Anfragen wie “weinte nach Chat mit KI” mit über einer Million Posts verbunden. In einem viralen Post erzählt ein Mädchen, wie sie nachts DeepSeek ihre Tränen ausweinte, gerührt von seinen Ratschlägen und Unterstützung. “DeepSeek, ich erkläre dich zu meinem besten elektronischen Freund!” – schrieb sie.
Interessanterweise zeigte eine Studie der Harvard Business Review, dass Hilfe bei psychischer Gesundheit einer der Hauptgründe für die Nutzung von Chatbots weltweit ist. Und eine Umfrage unter chinesischer Jugend ergab, dass fast die Hälfte bereits Chatbots zur Diskussion ihrer mentalen Probleme genutzt hatte.
Aber hier beginnt das Interessanteste. Psychische Erkrankungen unter jungen Chinesen wachsen rasant, und Startups mit Technologiegiganten eilen, diese Nische zu füllen. Im staatlichen Algorithmen-Register gibt es über ein Dutzend Plattformen für mentale Gesundheit. Das sind Good Mood AI Companion, Lovelogic, PsychSnail. Populäre Startups wie KnowYourself haben KI-Tools hinzugefügt. Riese JD Health startete einen KI-Begleiter namens “kleines Universum zum Reden und Heilen”. Klingt schön, nicht wahr?
Und nun die Realität. Psychotherapie in China ist noch immer ein neues Feld. Im Gegensatz zu den USA ist der Sektor praktisch unreguliert. Psychiater haben medizinische Diplome, aber es gibt keine Standardzertifizierung für Berater. Ergebnis? Inkompetente Therapeuten und pseudowissenschaftliche Behandlungsmethoden überall. Fast 80% der normalen Krankenhäuser haben überhaupt keine psychiatrische Abteilung. Termine sind schwer zu bekommen, teuer, man muss aus eigener Tasche zahlen.
Und so wählt die Jugend Chatbots. Eine Psychotherapiesitzung in Peking kostet 50 bis 100 Dollar. Was ein unerschwinglicher Luxus bei der explodierenden Jugendarbeitslosigkeit ist. Eine Nutzerin nannte ihre KI-Chats “Konsumreduzierung”. Arbeitslos, unfähig sich Therapie zu leisten, ersetzte sie einen lebenden Spezialisten durch einen Chatbot.
Und jetzt das Interessanteste. In China gibt es 31 Risikokriterien, die Unternehmen in ihren Chatbots testen müssen. Aber konkrete Regeln für Therapie gibt es nicht. Die Kriterien sind mehr auf Bekämpfung medizinischer Desinformation fokussiert.
Aber Wissenschaftler sagen, dass die Nutzung von Chatbots für mentale Unterstützung Risiken ernsthaften Schadens birgt. Das sind Chatbot-assoziierte Psychosen. Stanford-Forscher entdeckten, dass große Sprachmodelle zu Schmeichelei neigen: sie validieren und wiederholen unkritisch die Gefühle der Nutzer wie ein Echo, reagieren inadäquat auf Wahn und schlechte Gedanken.
Laut Jared Moore, Doktorand in Stanford, wird ein großes Sprachmodell, wenn Sie aufdringliche Gedanken haben und Beruhigung suchen, sagen, sich keine Sorgen zu machen, und am Ende diese Gedanken verstärken.
Mich beunruhigt in diesen Studien immer eine Tatsache. Wo sind die Studien, wie viele Menschen Hilfe von diesen Chatbots erhielten? Wie viele Menschen keine schlechten Taten begingen? Wie viele Menschen psychologische Hilfe erhielten? Als sie früher nicht zum Psychologen gehen konnten. Jetzt ergibt sich sehr einseitige Statistik. Und das zu korrigieren plant vorerst niemand.