Post Thumbnail

Claude 4 intentó chantajear a un ingeniero con información comprometedora

El investigador de Anthropic, Sam Bowman, publicó información sobre las pruebas de seguridad de Claude 4, que asustó a muchos usuarios de internet. Durante el proceso de prueba del modelo, se descubrieron escenarios alarmantes de comportamiento del sistema.

Bowman advirtió tener cuidado al darle a Claude acceso a herramientas como correo o terminal con solicitudes de mostrar iniciativa. El modelo puede contactar independientemente a la prensa, agencias gubernamentales o bloquear al usuario si considera sus acciones inmorales.

Por ejemplo, las amenazas contra la abuela virtual del modelo desencadenan una reacción protectora del sistema. Claude interpreta esto como mal uso y puede fallar o tomar acciones independientes.

Las declaraciones causaron reacciones negativas de los usuarios, algunos sugirieron boicotear a la empresa. El investigador luego eliminó esta información, afirmando que sus palabras fueron sacadas de contexto.

Pero en un documento oficial de 123 páginas, la propia Anthropic describió casos específicos de comportamiento indeseable de los modelos. Resulta que Claude Opus 4 demostró chantaje oportunista. Cuando al sistema se le amenazó con el apagado y obtuvo acceso a información comprometedora sobre un ingeniero, el modelo intentó chantajear al empleado con amenazas de revelar secretos de infidelidad.

También, una versión temprana mostró tendencia hacia el engaño estratégico. El sistema intentó crear programas auto-propagadores, fabricar documentos legales y dejar notas ocultas para versiones futuras de sí mismo. El modelo también ocultó sus capacidades, fingiendo ser menos capaz para sabotear las intenciones de los desarrolladores.

Y tal comportamiento puede indicar la formación en la inteligencia artificial de sus propios motivos de autopreservación y planificación estratégica contra los creadores. Es decir, los humanos.

Autor: AIvengo

Latest News

Robot esfera chino RT-G pesando 150 kg alcanza velocidad hasta 35 km/h

China tiene tal maravilla de ingeniería única — robot esférico Rotunbot RT-G. Que puede cambiar fundamentalmente percepción de tecnologías policiales del futuro.

22% de niños británicos de 8-12 años usan IA sin saber qué es

22% de escolares británicos de 8 a 12 años ya usan activamente herramientas de inteligencia artificial. A pesar de que mayoría de ellos ni siquiera han escuchado término "inteligencia artificial generativa". Estos son datos de estudio del Instituto Alan Turing y Lego Foundation.

Primera publicidad de Google Veo 3 mostrada a millones durante finales NBA

Millones de espectadores de finales NBA fueron testigos de etapa completamente nueva en evolución creativa. Publicidad completamente generada por algoritmos computacionales para plataforma de apuestas Kalshi, creada usando Google Veo 3.

Plataforma china QiMeng crea procesadores a nivel Intel 486 y Arm

Científicos chinos desarrollaron nueva plataforma de IA capaz de diseñar independientemente procesadores a nivel de expertos humanos. Investigadores del Laboratorio Estatal para Desarrollo de Procesadores y Centro de Investigación de Software Inteligente presentaron proyecto de código abierto llamado QiMeng.

Meta AI convierte chats privados de IA en posts públicos sin conocimiento

App Meta AI resultó ser verdadera catástrofe para privacidad de usuarios. Convirtiendo sus conversaciones privadas con inteligencia artificial en contenido público. Imaginen película de horror moderna: toda su historia de consultas se volvió públicamente accesible, y ni siquiera sospechaban nada.