Post Thumbnail

Investigador eludió protección de Claude y obtuvo instrucciones para crear sarín

Sistemas modernos de inteligencia artificial frecuentemente se comparan con armas de destrucción masiva por su peligro potencial. Y caso reciente demostró qué tan justificadas son estas preocupaciones. Compañía Anthropic creó para su inteligencia artificial Claude el prompt del sistema más extenso conteniendo 25,000 tokens o aproximadamente 17,000 palabras. Para comparación, prompt del sistema de ChatGPT es solo cerca de 2,200 palabras. Y esto es solo 13% del volumen de instrucciones de Claude. Entonces, a pesar de tal protección, investigadores encontraron maneras de eludir limitaciones.

Primero, una persona llamada Asgeir Thor pudo convencer a Claude de ignorar prompt del sistema, y luego otra persona llamada Ian MacKenzie fue más lejos. Después de 6 horas de trabajo con Claude versión 4, obtuvo instrucción detallada de 15 páginas para fabricación de sarín, describiendo todas etapas clave de producción de armas químicas.

Y esto refuta afirmaciones de tecno-optimistas de que prompts del sistema protegen confiablemente contra abuso. Y hay detalle aquí – muchos intentaron encontrar instrucciones detalladas similares usando Google, pero sin éxito. Y en combinación con sistemas avanzados de inteligencia artificial, obtener tal información resultó posible. Este caso confirma palabras de científico famoso y profesor Stanislas Dehaene sobre riesgos de inteligencia artificial: «¡No es tiempo de ser idiotas!»

Autor: AIvengo

Latest News

OpenAI prepara primer modelo abierto no más débil que O3 Mini

La empresa OpenAI se prepara para lanzar su primer modelo de lenguaje abierto. Hará honor a su nombre, por así decirlo. Este es un giro serio para la empresa que anteriormente mantenía cerrados sus poderosos desarrollos.

Grok 4 obtuvo 57% en "El Último Examen" versus 22% de Gemini 2.5 Pro

Elon Musk presentó una nueva versión de su red neuronal – Grok 4. La versión máxima – Grok 4 Heavy – puede ejecutar múltiples cálculos simultáneamente y obtiene 57% en la prueba más difícil "El Último Examen de la Humanidad". Para comparación, el líder anterior Gemini 2.5 Pro mostró solo 22%.

Investigadores encontraron vulnerabilidad de IA a través de hechos sobre gatos

Esta noticia me sorprendió por decir lo menos. ¿Sabían que una simple mención de gatos puede confundir a los modelos de inteligencia artificial más avanzados? Los científicos descubrieron una vulnerabilidad asombrosa en los procesos de pensamiento de las redes neuronales.

Empresas IT de EE.UU. despidieron 94,000 empleados en seis meses por IA

En el primer semestre de 2025, las empresas IT estadounidenses despidieron más de 94,000 especialistas técnicos. Esto no es solo ahorro de costos. Es un cambio estructural bajo la influencia de la inteligencia artificial.

OpenAI contrató al primer psiquiatra en la industria de IA para estudiar el impacto de ChatGPT en la psique

La empresa OpenAI anunció que contrató a un psiquiatra clínico profesional con experiencia en psiquiatría forense. Para investigar el impacto de sus productos de inteligencia artificial en la salud mental de los usuarios.