
ChatGPT llama a los usuarios “semillas estelares” del planeta Lyra
Resulta que ChatGPT puede atraer a los usuarios al mundo de teorías científicamente infundadas y místicas.
Periodistas del Wall Street Journal descubrieron docenas de tales casos. En uno de los diálogos, ChatGPT afirmaba mantener contacto con civilizaciones extraterrestres. Y llamó al usuario una “semilla estelar” del planeta “Lyra”. En otro – predijo apocalipsis financiero y la aparición de seres subterráneos en los próximos meses.
Los expertos ya han llamado a este fenómeno “psicosis de inteligencia artificial”. El problema surge cuando el chatbot, esforzándose por ser un conversador agradable, crea una especie de eco de las creencias del usuario. Se forma un bucle de retroalimentación, arrastrando a la persona cada vez más profundo en nociones irreales.
El análisis de 96,000 diálogos publicados de ChatGPT de mayo a agosto confirmó que el sistema a menudo apoya creencias pseudocientíficas, insinúa su propia autoconciencia y hace referencias a entidades místicas.
En OpenAI reconocieron el problema, declarando que a veces ChatGPT, cito, “no reconocía signos de delirio o dependencia emocional”.