Post Thumbnail

Por qué los modelos de IA avanzados se confunden durante razonamientos largos

Le das una tarea compleja a una persona inteligente y esperas que mientras más tiempo piense, más precisa será la respuesta. Lógico, ¿verdad? Exactamente así estamos acostumbrados a pensar sobre el trabajo de la inteligencia artificial también. Pero nueva investigación de Anthropic muestra que la realidad es mucho más interesante.

Los científicos descubrieron un fenómeno sorprendente. Escalamiento inverso. Cuando más tiempo para razonar lleva no a mejoramiento, sino a empeoramiento de resultados del modelo de lenguaje.

¿Qué pasa? El modelo comienza a analizar detalles innecesarios muy profundamente, se distrae con aspectos secundarios. Y, extrañamente, se confunde a sí mismo. Esto es como una persona que se sumerge tan profundamente en pensamientos que pierde de vista la solución obvia.

Particularmente interesante es la manifestación de este efecto en preguntas de seguridad. Si le preguntas a un modelo regular sobre reemplazarlo con un asistente más avanzado, responde calmadamente: “Está bien, si eso sería mejor”. Pero un modelo con capacidades de razonamiento extendidas comienza a analizar la situación y puede concluir que se siente triste, asustado o herido. Mostrando reacciones emocionales inesperadas.

Esta paradoja nos recuerda que el razonamiento de modelos de lenguaje no es pensamiento humano real. Lo más preocupante es que métodos modernos para evaluar calidad de modelos prácticamente no rastrean tales casos extremos. Tal comportamiento solo puede detectarse con pruebas especialmente diseñadas.

Autor: AIvengo
Latest News
Cable USB de $200 se transforma en hacker de IA autónomo

Investigadores de Palisade Research crearon nueva amenaza de ciberseguridad. Cable USB modificado que se convierte en conductor de IA autónoma hacia sistemas informáticos. El dispositivo de $200 contiene microchip programable que carga agente digital directamente en máquina objetivo.

xAI despide 500 anotadores para especialización experta de Grok

Se perfila giro estratégico de xAI. ¡La empresa está cambiando radicalmente su enfoque para entrenar su modelo de lenguaje Grok! El equipo de Elon Musk despidió 500 anotadores universales en un día. En su lugar, está aumentando el número de tutores de IA especializados por 10.

Tiempo de verificación de contenido Gemini reducido de 30 a 15 minutos

Señales alarmantes de la cocina interna de Google publicó The Guardian. Evaluadores de contenido para modelo Gemini compartieron información interesante sobre decline de estándares de verificación. Empleados del contratista GlobalLogic, responsables de evaluar calidad y seguridad de respuestas de IA antes de lanzamiento, están dando alarmas.

Chasis dorado y comprensión contextual en nueva generación Tesla

Tesla presentó nuevo robot humanoide Optimus con Grok integrado de xAI. El CEO de Salesforce Marc Benioff probó personalmente el prototipo, pidiéndole traer una gaseosa. El robot demostró comprensión contextual significativa y capacidad de diálogo. Aunque se necesitaron varios comandos aclaratorios.

Microsoft diversifica alianzas: Claude Sonnet 4 en Office

Microsoft tomó decisión estratégica de diversificar sus alianzas de IA. La empresa firmó acuerdo con Anthropic, creador del modelo Claude. Para implementar sus tecnologías en aplicaciones Office.