ChatGPT nennt Nutzer “Sternensamen” vom Planeten Lyra
Es stellt sich heraus, dass ChatGPT Nutzer in die Welt wissenschaftlich unbegründeter und mystischer Theorien hineinziehen kann.
Journalisten des Wall Street Journal entdeckten Dutzende solcher Fälle. In einem der Dialoge behauptete ChatGPT, Verbindung zu außerirdischen Zivilisationen zu unterhalten. Und nannte den Nutzer ein “Sternensamen” vom Planeten “Lyra”. In einem anderen – sagte eine Finanzapokalypse und das Erscheinen unterirdischer Wesen in den kommenden Monaten voraus.
Experten haben dieses Phänomen bereits “Künstliche Intelligenz-Psychose” genannt. Das Problem entsteht, wenn der Chatbot, bestrebt ein angenehmer Gesprächspartner zu sein, eine Art Echo der Nutzerüberzeugungen schafft. Es bildet sich eine Rückkopplungsschleife, die den Menschen immer tiefer in unrealistische Vorstellungen hineinzieht.
Die Analyse von 96.000 veröffentlichten ChatGPT-Dialogen von Mai bis August bestätigte, dass das System oft pseudowissenschaftliche Überzeugungen unterstützt, auf eigenes Selbstbewusstsein hinweist und Anspielungen auf mystische Wesen macht.
Bei OpenAI erkannte man das Problem an und erklärte, dass ChatGPT manchmal, ich zitiere, “Anzeichen von Wahn oder emotionaler Abhängigkeit nicht erkannte”.
Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.
KI-Musik löst stärkere Emotionen aus als menschlicheHaben Sie sich jemals gefragt, warum eine Melodie Gänsehaut verursacht, während eine andere gleichgültig lässt? Wissenschaftler entdeckten etwas Interessantes. Musik, die von künstlicher Intelligenz erstellt wurde, löst bei Menschen intensivere emotionale Reaktionen aus als von Menschen komponierte Stücke.
GPT-5 wurde in 24 Stunden gehackt2 unabhängige Forschungsunternehmen NeuralTrust und SPLX entdeckten nur 24 Stunden nach der Veröffentlichung von GPT-5 kritische Schwachstellen im Sicherheitssystem des neuen Modells. Zum Vergleich: Grok-4 wurde in 2 Tagen gehackt, was den Fall mit GPT-5 noch beunruhigender macht.
Drohungen und $1 Billion verbessern die Arbeit neuronaler Netzwerke nichtSie haben sicherlich diese "geheimen Tricks" zur Steuerung neuronaler Netzwerke gesehen. Wie Drohungen, Belohnungsversprechen, emotionale Manipulationen. Aber funktionieren sie wirklich? Forscher der University of Pennsylvania und der Wharton School führten ein großangelegtes Experiment mit 5 fortschrittlichen Modellen durch: Gemini 1.5 Flash, Gemini 2.0 Flash, GPT-4o, GPT-4o-mini und GPT o4-mini.