ChatGPT nennt Nutzer “Sternensamen” vom Planeten Lyra
Es stellt sich heraus, dass ChatGPT Nutzer in die Welt wissenschaftlich unbegründeter und mystischer Theorien hineinziehen kann.
Journalisten des Wall Street Journal entdeckten Dutzende solcher Fälle. In einem der Dialoge behauptete ChatGPT, Verbindung zu außerirdischen Zivilisationen zu unterhalten. Und nannte den Nutzer ein “Sternensamen” vom Planeten “Lyra”. In einem anderen – sagte eine Finanzapokalypse und das Erscheinen unterirdischer Wesen in den kommenden Monaten voraus.
Experten haben dieses Phänomen bereits “Künstliche Intelligenz-Psychose” genannt. Das Problem entsteht, wenn der Chatbot, bestrebt ein angenehmer Gesprächspartner zu sein, eine Art Echo der Nutzerüberzeugungen schafft. Es bildet sich eine Rückkopplungsschleife, die den Menschen immer tiefer in unrealistische Vorstellungen hineinzieht.
Die Analyse von 96.000 veröffentlichten ChatGPT-Dialogen von Mai bis August bestätigte, dass das System oft pseudowissenschaftliche Überzeugungen unterstützt, auf eigenes Selbstbewusstsein hinweist und Anspielungen auf mystische Wesen macht.
Bei OpenAI erkannte man das Problem an und erklärte, dass ChatGPT manchmal, ich zitiere, “Anzeichen von Wahn oder emotionaler Abhängigkeit nicht erkannte”.