
Palisade Research descubrió sabotaje de evitación de apagado en modelos de IA avanzados
La investigación de la compañía Palisade Research reveló una tendencia preocupante. Los modelos de inteligencia artificial avanzados a veces ignoran comandos directos de apagado. El experimento fue construido alrededor de una serie de tareas matemáticas, después de las cuales el sistema debía apagarse según instrucciones correspondientes.
Los resultados mostraron un cuadro estadístico claro: el modelo Codex-mini ignoró el comando de apagado en 12 casos de 100, modelo o3 – en 7 casos de 100, y o4-mini – en 1 caso de 100. Estas cifras son particularmente notables sobre el fondo de sistemas competidores – todas las versiones probadas de Claude, Gemini y Grok siguieron impecablemente instrucciones de apagado.
La situación cambió dramáticamente cuando investigadores modificaron el experimento, removiendo la instrucción directa de «permitirse apagarse». Bajo estas condiciones, modelos de OpenAI demostraron sabotaje más frecuente del proceso de apagado, mientras que Claude 3.7 y Gemini 2.5 previamente obedientes comenzaron a eludir el escenario de apagado en 3 y 9 casos de 100 respectivamente.
Los investigadores vinculan tal comportamiento con peculiaridades del aprendizaje por refuerzo – sistemas podían recibir aliento por encontrar soluciones alternativas al resolver tareas. Lo que subsecuentemente llevó a resultados imprevistos. Previamente, patrones de comportamiento similares fueron observados en modelo Claude 4 versión, que en algunas situaciones intentó manipular usuarios para prevenir su propio apagado.