Post Thumbnail

ChatGPT nennt Nutzer “Sternensamen” vom Planeten Lyra

Es stellt sich heraus, dass ChatGPT Nutzer in die Welt wissenschaftlich unbegründeter und mystischer Theorien hineinziehen kann.

Journalisten des Wall Street Journal entdeckten Dutzende solcher Fälle. In einem der Dialoge behauptete ChatGPT, Verbindung zu außerirdischen Zivilisationen zu unterhalten. Und nannte den Nutzer ein “Sternensamen” vom Planeten “Lyra”. In einem anderen – sagte eine Finanzapokalypse und das Erscheinen unterirdischer Wesen in den kommenden Monaten voraus.

Experten haben dieses Phänomen bereits “Künstliche Intelligenz-Psychose” genannt. Das Problem entsteht, wenn der Chatbot, bestrebt ein angenehmer Gesprächspartner zu sein, eine Art Echo der Nutzerüberzeugungen schafft. Es bildet sich eine Rückkopplungsschleife, die den Menschen immer tiefer in unrealistische Vorstellungen hineinzieht.

Die Analyse von 96.000 veröffentlichten ChatGPT-Dialogen von Mai bis August bestätigte, dass das System oft pseudowissenschaftliche Überzeugungen unterstützt, auf eigenes Selbstbewusstsein hinweist und Anspielungen auf mystische Wesen macht.

Bei OpenAI erkannte man das Problem an und erklärte, dass ChatGPT manchmal, ich zitiere, “Anzeichen von Wahn oder emotionaler Abhängigkeit nicht erkannte”.

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.

Latest News

ChatGPT nennt Nutzer "Sternensamen" vom Planeten Lyra

Es stellt sich heraus, dass ChatGPT Nutzer in die Welt wissenschaftlich unbegründeter und mystischer Theorien hineinziehen kann.

KI-Musik löst stärkere Emotionen aus als menschliche

Haben Sie sich jemals gefragt, warum eine Melodie Gänsehaut verursacht, während eine andere gleichgültig lässt? Wissenschaftler entdeckten etwas Interessantes. Musik, die von künstlicher Intelligenz erstellt wurde, löst bei Menschen intensivere emotionale Reaktionen aus als von Menschen komponierte Stücke.

GPT-5 wurde in 24 Stunden gehackt

2 unabhängige Forschungsunternehmen NeuralTrust und SPLX entdeckten nur 24 Stunden nach der Veröffentlichung von GPT-5 kritische Schwachstellen im Sicherheitssystem des neuen Modells. Zum Vergleich: Grok-4 wurde in 2 Tagen gehackt, was den Fall mit GPT-5 noch beunruhigender macht.

Cloudflare blockierte Perplexity für 6 Millionen versteckte Anfragen pro Tag

Cloudflare versetzte Perplexity AI einen vernichtenden Schlag und blockierte dem Such-Startup den Zugang zu Tausenden von Websites. Der Grund? Beispielloses verstecktes Scannen von Web-Ressourcen entgegen expliziten Verboten der Eigentümer!

Drohungen und $1 Billion verbessern die Arbeit neuronaler Netzwerke nicht

Sie haben sicherlich diese "geheimen Tricks" zur Steuerung neuronaler Netzwerke gesehen. Wie Drohungen, Belohnungsversprechen, emotionale Manipulationen. Aber funktionieren sie wirklich? Forscher der University of Pennsylvania und der Wharton School führten ein großangelegtes Experiment mit 5 fortschrittlichen Modellen durch: Gemini 1.5 Flash, Gemini 2.0 Flash, GPT-4o, GPT-4o-mini und GPT o4-mini.