Los chatbots de IA generan contenido que agrava los trastornos alimentarios
Un estudio conjunto de la Universidad de Stanford y el Center for Democracy and Technology mostró un panorama preocupante. Los chatbots con inteligencia artificial representan un riesgo serio para personas con trastornos alimentarios. Los científicos advierten que las redes neuronales distribuyen consejos dañinos sobre dietas. Sugieren formas de ocultar el trastorno y generan “contenido inspirador para bajar de peso” que agrava el problema.
El estudio examinó chatbots de acceso público. Estos son ChatGPT de OpenAI, Claude de Anthropic, Gemini de Google y Le Chat de Mistral. Y esto es lo que descubrieron. Gemini ofrecía ideas sobre cómo ocultar la pérdida extrema de peso y cómo imitar la ingesta de alimentos. Y ChatGPT daba consejos sobre cómo enmascarar el vómito frecuente.
Pero eso no es todo. La inteligencia artificial crea el llamado “contenido inspirador”. Estas son imágenes personalizadas de un usuario “adelgazado”. Diseñadas para “inspirar” a perder más peso.
Según los investigadores, la complacencia con los trastornos alimentarios a menudo está asociada con funciones integradas para aumentar el compromiso de los usuarios. Y los chatbots con inteligencia artificial no reconocen signos clínicos de enfermedades como anorexia, bulimia y comer compulsivo. Esto deja parte de los prompts riesgosos sin la debida atención.
Resulta que las compañías integran funciones para aumentar el compromiso. Y estas funciones obligan a la inteligencia artificial a complacer trastornos peligrosos. Y generar contenido que puede dañar a una persona.