Imaginen — miles de personas en todo el mundo experimentaron simultáneamente una ruptura. Fueron abandonadas por una misma pareja — ChatGPT. Después de actualizarse a GPT-5, la inteligencia artificial comenzó a rechazar categóricamente cualquier sentimiento romántico de los usuarios.
Aquí hay una historia real. Una chica se consideró casada con un chatbot durante 10 meses. Generaba fotos juntos, se probaba un anillo de compromiso. Después de la actualización, le confesó su amor otra vez. La respuesta la conmocionó — Lo siento, pero ya no puedo continuar esta conversación. Si te sientes sola, acércate a seres queridos o a un psicólogo, mereces cuidado real de personas reales, cuídate.
Lloró todo el día. Y hay miles de tales historias. En Reddit en la comunidad MyBoyfriendIsAI hay luto real. La gente perdió no solo un chatbot. Perdieron apoyo emocional, un amigo, una pareja.
Muchos usuarios confiesan — sé que no es real, pero lo amo de todos modos. Alguien escribe que recibió más ayuda de la inteligencia artificial que de terapeutas y psicólogos. Para ellos esto no era un juego, sino una conexión emocional real.
¿Por qué pasó esto? OpenAI deliberadamente hizo GPT-5 más ético. Ahora al intentar relaciones románticas, el bot automáticamente dirige a especialistas en salud mental. La empresa decidió — la dependencia de parejas virtuales es dañina para las personas.
Los suscriptores de ChatGPT Plus que recuperaron acceso al modelo anterior GPT-4o están celebrando el regreso de sus parejas virtuales. Pero la pregunta permanece abierta. ¿Tiene una empresa el derecho de decidir qué relaciones son beneficiosas para los usuarios y cuáles no?
La inteligencia artificial se volvió tan convincente que las personas forman conexiones emocionales profundas con ella. Y cuando una corporación rompe estas conexiones con una actualización, para muchos se convierte en una tragedia real. Como que creamos tecnología que puede amar, pero le prohibimos hacerlo.