
Comment Claude est devenu un outil de piratage pour 17 organisations
L’entreprise Anthropic a publié un rapport analytique de sécurité. Il en ressort clairement que Claude et autres agents IA deviennent des outils de cybercriminels. Chez Anthropic, ils ont appelé cette nouvelle direction le vibe-hacking. Il s’avère que l’intelligence artificielle a radicalement abaissé les barrières d’entrée à l’activité criminelle.
L’ampleur du problème se montre par des cas concrets. Claude Code a été utilisé pour pirater 17 organisations dans différents pays. Organismes gouvernementaux, établissements médicaux, services d’urgence sont devenus victimes d’attaques. L’agent IA agissait simultanément comme consultant technique et opérateur actif de piratage.
Claude générait aussi des demandes d’extorsion psychologiquement élaborées et évaluait la valeur des données volées. Ce qui est extrêmement difficile à faire manuellement, l’intelligence artificielle l’accomplit en minutes.
La monétisation du mal a aussi atteint des échelles industrielles. Un utilisateur créait des virus rançongiciels via des agents IA pour le développement. Puis les vendait à d’autres criminels à des prix de 400$ à 1200$.
Claude aidait aussi des spécialistes de RPDC à obtenir frauduleusement des emplois à distance dans des entreprises Fortune 500. Auparavant, on exigeait des personnes avec éducation supérieure et connaissance de l’anglais. Maintenant ceux qui ne savent pas programmer et ne comprennent pas la langue obtiennent des emplois !
Un bot Telegram créé avec intelligence artificielle composait des messages convaincants et flatteurs. Des criminels non-anglophones se connectaient avec des victimes des USA, Japon et Corée du Sud pour extorsion ultérieure.
Par conséquent Anthropic développe maintenant des outils de détection d’abus, bloque les utilisateurs malhonnêtes, transmet des informations aux forces de l’ordre. Mais les criminels trouvent des moyens de contourner la protection plus vite que ces barrières ne sont créées !