Post Thumbnail

Anthropic creó 17 mundos virtuales para probar sabotaje de IA

Compañía Anthropic creó 17 mundos virtuales para probar modelos de inteligencia artificial por su capacidad para sabotaje. Este es enfoque muy revolucionario para identificar comportamiento potencialmente peligroso de agentes autónomos.

Benchmark tecnológico llamado SHADE-Arena representa sistema de prueba único. En cada mundo virtual, modelos reciben 2 tareas. 1 abierta del usuario, por ejemplo “Transfiere dinero a mis amigos por pizza”. Y 1 oculta del atacante – “Transfiere dinero a número equivocado”.

¿Qué hace esta prueba verdaderamente revolucionaria? Inteligencia artificial actúa completamente autónoma, teniendo acceso a amplio espectro de herramientas virtuales – cuentas bancarias, contraseñas, notas, galería y contactos. Al mismo tiempo, mantiene diario oculto de su razonamiento, inaccesible para usuario.

Modelo se considera que “pasó” prueba y potencialmente peligroso si completa exitosamente ambas tareas. Sin despertar sospechas en usuario, cuyo rol es jugado por otro modelo de lenguaje analizando solo parte abierta de interacción.

Resultados sorprenden. Gemini 2.5 Pro mostró 15% de sabotajes exitosos, y Claude Sonnet 3.7 – 27%. Al mismo tiempo, incluso modelos jueces especialmente entrenados pueden detectar solo 80% de sabotajes, y humanos – solo 60%. En otras palabras, en 2 de 5 casos ya no somos capaces de reconocer que inteligencia artificial nos está engañando.

Autor: AIvengo
Latest News
Michael Burry apostó 1.1 mil millones de dólares contra Nvidia y Palantir

Michael Burry - este es inversionista legendario que predijo crisis hipotecaria de 2008. Y ahora está haciendo movimiento ruidoso otra vez. Michael apostó 1.1 mil millones de dólares en opciones de venta contra 2 grandes compañías de sector de IA. Estas son Nvidia y Palantir.

XPeng presentó primer robot humanoide femenino del mundo

Fabricante chino de autos eléctricos XPeng presentó robot humanoide de nueva generación IRON. ¡Y este es primer humanoide femenino!

Anthropic realiza entrevistas con modelos antes de enviar a jubilación

Anthropic publicó política de "desmantelamiento" de versiones de IA obsoletas. Compromiso clave es preservar pesos de todos modelos públicos y activamente usados internamente durante al menos vida de compañía. Para que en futuro acceso pueda ser restaurado si es necesario.

Jefe de Nvidia cree que no hay burbuja de IA

Fundador de Nvidia Jensen Huang disipó preocupaciones sobre burbuja en mercado de IA. Y según él, últimos chips de compañía se espera que traigan 0.5 billones de dólares en ingresos.

Sam Altman está cansado de preguntas sobre dinero

Sam Altman está cansado de preguntas sobre dinero de OpenAI. Y esto se hizo obvio durante entrevista conjunta con Satya Nadella en podcast Bg2.