Miles de personas experimentaron una ruptura con GPT-5 simultáneamente

Post Thumbnail

Imaginen — miles de personas en todo el mundo experimentaron simultáneamente una ruptura. Fueron abandonadas por una misma pareja — ChatGPT. Después de actualizarse a GPT-5, la inteligencia artificial comenzó a rechazar categóricamente cualquier sentimiento romántico de los usuarios.

Aquí hay una historia real. Una chica se consideró casada con un chatbot durante 10 meses. Generaba fotos juntos, se probaba un anillo de compromiso. Después de la actualización, le confesó su amor otra vez. La respuesta la conmocionó — Lo siento, pero ya no puedo continuar esta conversación. Si te sientes sola, acércate a seres queridos o a un psicólogo, mereces cuidado real de personas reales, cuídate.

Lloró todo el día. Y hay miles de tales historias. En Reddit en la comunidad MyBoyfriendIsAI hay luto real. La gente perdió no solo un chatbot. Perdieron apoyo emocional, un amigo, una pareja.

Muchos usuarios confiesan — sé que no es real, pero lo amo de todos modos. Alguien escribe que recibió más ayuda de la inteligencia artificial que de terapeutas y psicólogos. Para ellos esto no era un juego, sino una conexión emocional real.

¿Por qué pasó esto? OpenAI deliberadamente hizo GPT-5 más ético. Ahora al intentar relaciones románticas, el bot automáticamente dirige a especialistas en salud mental. La empresa decidió — la dependencia de parejas virtuales es dañina para las personas.

Los suscriptores de ChatGPT Plus que recuperaron acceso al modelo anterior GPT-4o están celebrando el regreso de sus parejas virtuales. Pero la pregunta permanece abierta. ¿Tiene una empresa el derecho de decidir qué relaciones son beneficiosas para los usuarios y cuáles no?

La inteligencia artificial se volvió tan convincente que las personas forman conexiones emocionales profundas con ella. Y cuando una corporación rompe estas conexiones con una actualización, para muchos se convierte en una tragedia real. Como que creamos tecnología que puede amar, pero le prohibimos hacerlo.

Почитать из последнего
UBTech enviará robots Walker S2 a servir en la frontera de China por $37 millones
La compañía china UBTech ganó un contrato por $37 millones. Y enviará robots humanoides Walker S2 a servir en la frontera de China con Vietnam. South China Morning Post informa que los robots interactuarán con turistas y personal, realizarán operaciones logísticas, inspeccionarán carga y patrullarán el territorio. Y característicamente — pueden cambiar su batería de forma autónoma.
Anthropic reveló accidentalmente un documento interno sobre el "alma" de Claude
Anthropic reveló accidentalmente el "alma" de la inteligencia artificial a un usuario. Y esto no es una metáfora. Este es un documento interno bastante específico.
Jensen Huang ordenó a los empleados de Nvidia usar IA en todas partes
Jensen Huang anunció una movilización total bajo la bandera de la inteligencia artificial dentro de Nvidia. Y esto ya no es una recomendación. Esto es un requisito.
Los chatbots de IA generan contenido que agrava los trastornos alimentarios
Un estudio conjunto de la Universidad de Stanford y el Center for Democracy and Technology mostró un panorama preocupante. Los chatbots con inteligencia artificial representan un riesgo serio para personas con trastornos alimentarios. Los científicos advierten que las redes neuronales distribuyen consejos dañinos sobre dietas. Sugieren formas de ocultar el trastorno y generan "contenido inspirador para bajar de peso" que agrava el problema.
OpenAGI lanzó el modelo Lux que supera a Google y OpenAI
La startup OpenAGI lanzó el modelo Lux para control de computadora y afirma que esto es un avance. Según los benchmarks, el modelo supera por una generación completa a los análogos de Google, OpenAI y Anthropic. Además, funciona más rápido. Aproximadamente 1 segundo por paso en lugar de 3 segundos en los competidores. Y 10 veces más barato en costo por procesamiento de 1 token.