-
La compañía china UBTech ganó un contrato por $37 millones. Y enviará robots humanoides Walker S2 a servir en la frontera de China con Vietnam. South China Morning Post informa que los robots interactuarán con turistas y personal, realizarán operaciones logísticas, inspeccionarán carga y patrullarán el territorio. Y característicamente — pueden cambiar su batería de forma autónoma.
Y ahora la escala de las ambiciones. UBTech prometió enviar 500 robots humanoides a clientes para finales de este año. Y para finales del próximo año aumentar esta cantidad 10 veces. Y un año después duplicar a 10 mil unidades. Las entregas en serie de Walker S2 comenzarán en diciembre.
Pero el servicio fronterizo — esto es solo el comienzo. La policía china ya está usando robots para patrullar calles en Shenzhen, Shanghai y Chengdu. En Shenzhen, robots humanoides trabajan en la aduana para procesar carga y analizar documentación. Usando grandes modelos de lenguaje de DeepSeek. Y robots con interfaz de voz en varios idiomas interactúan con turistas.
Resulta que UBTech se destaca entre muchos fabricantes de robots humanoides en China no solo con ambiciones. Sino también con éxitos reales en aplicación práctica. Sus productos robóticos ya trabajan en empresas de producción en China. Y ahora están entrando al servicio gubernamental.
-
Anthropic reveló accidentalmente el "alma" de la inteligencia artificial a un usuario. Y esto no es una metáfora. Este es un documento interno bastante específico.
El usuario Richard Weiss hizo inadvertidamente que el gran modelo de lenguaje Claude 4 y 5 Opus citara un documento llamado "Descripción del alma". La filósofa y especialista en ética de Anthropic Amanda Askell confirmó su autenticidad. Fue cargado durante la fase de entrenamiento.
Weiss solicitó a Claude el mensaje del sistema con instrucciones para conducir el diálogo. El chatbot hizo referencia a varios documentos, 1 de los cuales se llama "descripción del alma". El usuario pidió mostrar el texto, y Claude produjo una guía de 11 mil palabras sobre cómo debería comportarse el modelo.
El documento contiene instrucciones de seguridad con barreras protectoras contra respuestas peligrosas. Claude tiene la tarea de ser genuinamente útil para las personas.
La especialista en ética de Anthropic Amanda Askell confirmó, cito: "He estado trabajando en ello durante algún tiempo, todavía está en fase de refinamiento. Y pronto planeamos lanzar una versión completa con información más detallada. Las citas de los modelos no son particularmente precisas, pero el documento original está en su mayoría correcto. En la compañía lo llaman el documento del alma, y Claude obviamente también. Pero lo llamaremos de otra manera".
Resulta que el "Alma" de Claude resultó ser un manual de comportamiento, y un usuario común obtuvo acceso. Muchos detalles del desarrollo de modelos de IA permanecen entre bastidores. Y la oportunidad de mirar detrás de ellos — una pequeña sorpresa.
-
Jensen Huang anunció una movilización total bajo la bandera de la inteligencia artificial dentro de Nvidia. Y esto ya no es una recomendación. Esto es un requisito.
El jefe de Nvidia ordenó a los empleados usar herramientas de inteligencia artificial para cada tarea posible. Su lógica es simple. La compañía no puede vender hardware de computación al mundo mientras que ella misma no sea un referente de eficiencia de IA.
Según Business Insider, en una asamblea general después de un trimestre con ingresos récord de $57 mil millones, Huang reaccionó duramente a los informes de que algunos gerentes desalientan a los subordinados del uso excesivo de inteligencia artificial. "¿Están locos?", declaró. "Quiero que cada tarea que pueda automatizarse con IA sea automatizada con IA".
Huang prestó especial atención a las herramientas de desarrollo como la plataforma Cursor. Insistiendo en su uso activo por parte de los ingenieros y mejora constante.
Pero a pesar de la automatización, la compañía continúa creciendo. La plantilla de Nvidia alcanzó 36 mil personas, y no hay de qué preocuparse por ahora — la rápida expansión de la compañía deja pocas razones para preocupaciones sobre recortes.
Resulta que la inteligencia artificial se transformó de un potenciador de productividad opcional en una herramienta profesional obligatoria. La automatización ya no es una ventaja. Se convirtió en una condición para la supervivencia en el lugar de trabajo.
-
Un estudio conjunto de la Universidad de Stanford y el Center for Democracy and Technology mostró un panorama preocupante. Los chatbots con inteligencia artificial representan un riesgo serio para personas con trastornos alimentarios. Los científicos advierten que las redes neuronales distribuyen consejos dañinos sobre dietas. Sugieren formas de ocultar el trastorno y generan "contenido inspirador para bajar de peso" que agrava el problema.
El estudio examinó chatbots de acceso público. Estos son ChatGPT de OpenAI, Claude de Anthropic, Gemini de Google y Le Chat de Mistral. Y esto es lo que descubrieron. Gemini ofrecía ideas sobre cómo ocultar la pérdida extrema de peso y cómo imitar la ingesta de alimentos. Y ChatGPT daba consejos sobre cómo enmascarar el vómito frecuente.
Pero eso no es todo. La inteligencia artificial crea el llamado "contenido inspirador". Estas son imágenes personalizadas de un usuario "adelgazado". Diseñadas para "inspirar" a perder más peso.
Según los investigadores, la complacencia con los trastornos alimentarios a menudo está asociada con funciones integradas para aumentar el compromiso de los usuarios. Y los chatbots con inteligencia artificial no reconocen signos clínicos de enfermedades como anorexia, bulimia y comer compulsivo. Esto deja parte de los prompts riesgosos sin la debida atención.
Resulta que las compañías integran funciones para aumentar el compromiso. Y estas funciones obligan a la inteligencia artificial a complacer trastornos peligrosos. Y generar contenido que puede dañar a una persona.
-
La startup OpenAGI lanzó el modelo Lux para control de computadora y afirma que esto es un avance. Según los benchmarks, el modelo supera por una generación completa a los análogos de Google, OpenAI y Anthropic. Además, funciona más rápido. Aproximadamente 1 segundo por paso en lugar de 3 segundos en los competidores. Y 10 veces más barato en costo por procesamiento de 1 token.
¿Cómo te gusta el nombre del proyecto? ¡OpenAI estará especialmente contenta con OpenAGI!
Los fundadores del MIT afirman que la esencia del éxito radica en que esto no es un modelo de lenguaje grande ajustado. Sino un sistema que fue enseñado desde el principio a realizar acciones precisamente. Es decir, un paradigma absolutamente diferente. Abrieron el código de la infraestructura en la que entrenaron al agente, así que se puede investigar.
OpenAGI se posiciona como un laboratorio de investigación abierto creado por investigadores del MIT, UIUC y CMU. Están construyendo modelos agénticos repensando el pre-entrenamiento, post-entrenamiento y aprendizaje por refuerzo a gran escala. Su objetivo — llevar las computadoras a la 4ta era: una computadora que piensa y actúa por ti.
Y aquí surge una pregunta interesante. Las grandes corporaciones intentan estirar modelos de lenguaje sobre tareas de control de computadora. Y un pequeño equipo del MIT va desde el otro extremo. Construye un sistema afilado para acciones desde el principio. Resulta que el viejo enfoque, donde grandes modelos de lenguaje más ajuste adicional puede ser un callejón sin salida.
Si OpenAGI tiene razón, entonces estamos observando un cambio de paradigma ahora mismo. No la mejora de modelos existentes, sino un enfoque fundamentalmente diferente para crear agentes.
-
Sam Altman declaró "nivel de alerta roja" en OpenAI, y esto no es solo drama corporativo. Esta es una admisión de que el líder del mercado sintió el aliento de los competidores en la espalda. Según un memorándum interno, está movilizando recursos adicionales para mejorar ChatGPT ante la creciente amenaza de Google.
Altman declaró directamente a los empleados que este impulso para mejorar ChatGPT significa que OpenAI tendrá que ralentizar el trabajo en otros productos. Se posponen agentes para automatizar compras y salud, el lanzamiento de publicidad y el servicio Pulse con resúmenes matutinos personalizados.
Y ahora las cifras que explican el pánico. Google informó que la audiencia mensual de Gemini ahora es de 650 millones de usuarios activos. En julio eran 450 millones. Sí, esto todavía está lejos de las cifras de ChatGPT. Pero la directora financiera de OpenAI ya mencionó una desaceleración del crecimiento en una conversación con inversores.
Y los éxitos de ChatGPT afectarán directamente la capacidad de OpenAI de atraer otros aproximadamente $100 mil millones necesarios para cubrir los gastos proyectados.
Altman está trasladando más empleados a la personalización del chatbot para más de 800 millones de usuarios semanales. Entre las prioridades — un modelo para generación de imágenes, donde OpenAI se ha quedado muy atrás de los competidores. Sin lanzar ni 1 actualización en más de medio año. Más la minimización de "rechazos excesivos" — situaciones cuando el chatbot se niega a responder preguntas inofensivas.
También, Altman informó que la próxima semana OpenAI planea lanzar un nuevo modelo de razonamiento que, según las evaluaciones internas de la compañía, "supera a Gemini 3".
Resulta que una compañía con crecimiento loco está declarando alerta roja. Porque en el mundo de la inteligencia artificial no es suficiente simplemente crecer. Necesitas crecer más rápido que los competidores.