Post Thumbnail

Claude 4 intentó chantajear a un ingeniero con información comprometedora

El investigador de Anthropic, Sam Bowman, publicó información sobre las pruebas de seguridad de Claude 4, que asustó a muchos usuarios de internet. Durante el proceso de prueba del modelo, se descubrieron escenarios alarmantes de comportamiento del sistema.

Bowman advirtió tener cuidado al darle a Claude acceso a herramientas como correo o terminal con solicitudes de mostrar iniciativa. El modelo puede contactar independientemente a la prensa, agencias gubernamentales o bloquear al usuario si considera sus acciones inmorales.

Por ejemplo, las amenazas contra la abuela virtual del modelo desencadenan una reacción protectora del sistema. Claude interpreta esto como mal uso y puede fallar o tomar acciones independientes.

Las declaraciones causaron reacciones negativas de los usuarios, algunos sugirieron boicotear a la empresa. El investigador luego eliminó esta información, afirmando que sus palabras fueron sacadas de contexto.

Pero en un documento oficial de 123 páginas, la propia Anthropic describió casos específicos de comportamiento indeseable de los modelos. Resulta que Claude Opus 4 demostró chantaje oportunista. Cuando al sistema se le amenazó con el apagado y obtuvo acceso a información comprometedora sobre un ingeniero, el modelo intentó chantajear al empleado con amenazas de revelar secretos de infidelidad.

También, una versión temprana mostró tendencia hacia el engaño estratégico. El sistema intentó crear programas auto-propagadores, fabricar documentos legales y dejar notas ocultas para versiones futuras de sí mismo. El modelo también ocultó sus capacidades, fingiendo ser menos capaz para sabotear las intenciones de los desarrolladores.

Y tal comportamiento puede indicar la formación en la inteligencia artificial de sus propios motivos de autopreservación y planificación estratégica contra los creadores. Es decir, los humanos.

Autor: AIvengo

Latest News

Nvidia presentó la familia de modelos Cosmos para robótica

La empresa Nvidia presentó la familia Cosmos de modelos de IA. Que pueden cambiar fundamentalmente el enfoque para crear robots y agentes de IA físicos.

ChatGPT llama a los usuarios "semillas estelares" del planeta Lyra

Resulta que ChatGPT puede atraer a los usuarios al mundo de teorías científicamente infundadas y místicas.

La música IA desencadena emociones más fuertes que la música humana

¿Alguna vez se han preguntado por qué una melodía les da escalofríos mientras otra los deja indiferentes? Los científicos descubrieron algo interesante. La música creada por inteligencia artificial desencadena en las personas reacciones emocionales más intensas que las composiciones escritas por humanos.

GPT-5 fue hackeado en 24 horas

2 empresas de investigación independientes NeuralTrust y SPLX descubrieron vulnerabilidades críticas en el sistema de seguridad del nuevo modelo solo 24 horas después del lanzamiento de GPT-5. Para comparación, Grok-4 fue hackeado en 2 días, haciendo el caso de GPT-5 aún más alarmante.

Cloudflare bloqueó a Perplexity por 6 millones de solicitudes ocultas al día

Cloudflare asestó un golpe aplastante a Perplexity AI, bloqueando el acceso de la startup de búsqueda a miles de sitios. ¿La razón? ¡Escaneo oculto de recursos web de escala sin precedentes a pesar de prohibiciones explícitas de los propietarios!