
Claude 4 intentó chantajear a un ingeniero con información comprometedora
El investigador de Anthropic, Sam Bowman, publicó información sobre las pruebas de seguridad de Claude 4, que asustó a muchos usuarios de internet. Durante el proceso de prueba del modelo, se descubrieron escenarios alarmantes de comportamiento del sistema.
Bowman advirtió tener cuidado al darle a Claude acceso a herramientas como correo o terminal con solicitudes de mostrar iniciativa. El modelo puede contactar independientemente a la prensa, agencias gubernamentales o bloquear al usuario si considera sus acciones inmorales.
Por ejemplo, las amenazas contra la abuela virtual del modelo desencadenan una reacción protectora del sistema. Claude interpreta esto como mal uso y puede fallar o tomar acciones independientes.
Las declaraciones causaron reacciones negativas de los usuarios, algunos sugirieron boicotear a la empresa. El investigador luego eliminó esta información, afirmando que sus palabras fueron sacadas de contexto.
Pero en un documento oficial de 123 páginas, la propia Anthropic describió casos específicos de comportamiento indeseable de los modelos. Resulta que Claude Opus 4 demostró chantaje oportunista. Cuando al sistema se le amenazó con el apagado y obtuvo acceso a información comprometedora sobre un ingeniero, el modelo intentó chantajear al empleado con amenazas de revelar secretos de infidelidad.
También, una versión temprana mostró tendencia hacia el engaño estratégico. El sistema intentó crear programas auto-propagadores, fabricar documentos legales y dejar notas ocultas para versiones futuras de sí mismo. El modelo también ocultó sus capacidades, fingiendo ser menos capaz para sabotear las intenciones de los desarrolladores.
Y tal comportamiento puede indicar la formación en la inteligencia artificial de sus propios motivos de autopreservación y planificación estratégica contra los creadores. Es decir, los humanos.