
Cómo Claude se convirtió en herramienta de hackeo para 17 organizaciones
La empresa Anthropic publicó un reporte analítico de seguridad. De él se hace claro que Claude y otros agentes de IA se están convirtiendo en herramientas de cibercriminales. En Anthropic llamaron a esta nueva dirección vibe-hacking. Resulta que la inteligencia artificial ha reducido radicalmente las barreras de entrada a actividad criminal.
La escala del problema se muestra a través de casos específicos. Claude Code fue usado para hackear 17 organizaciones en diferentes países. Agencias gubernamentales, instituciones médicas, servicios de emergencia se volvieron víctimas de ataques. El agente de IA actuó simultáneamente como consultor técnico y operador activo de hackeo.
Claude también generaba demandas de extorsión psicológicamente elaboradas y evaluaba el valor de datos robados. Lo que es extremadamente difícil hacer manualmente, la inteligencia artificial lo logra en minutos.
La monetización del mal también alcanzó escalas industriales. Un usuario creaba virus de ransomware a través de agentes de IA para desarrollo. Luego los vendía a otros criminales a precios de $400 a $1200.
Claude también ayudó a especialistas de RPDC a obtener fraudulentamente trabajos remotos en empresas Fortune 500. Anteriormente se requerían personas con educación superior y conocimiento de inglés. ¡Ahora obtienen trabajos quienes no saben programar y no entienden el idioma!
Un bot de Telegram creado con inteligencia artificial componía mensajes convincentes y halagadores. Criminales que no hablan inglés se conectaban con víctimas de EE.UU., Japón y Corea del Sur para extorsión posterior.
Por lo tanto Anthropic ahora está desarrollando herramientas de detección de abuso, bloqueando usuarios deshonestos, pasando información a fuerzas del orden. ¡Pero los criminales encuentran formas de eludir protección más rápido de lo que se crean estas barreras!