
Le PDG d’Anthropic, Dario Amodei, a exprimé de sérieuses inquiétudes concernant DeepSeek, une entreprise chinoise qui a récemment surpris la Silicon Valley avec son modèle R1. Ses préoccupations dépassent les allégations habituelles sur le transfert de données utilisateurs vers la Chine.
Dans une interview pour le podcast ChinaTalk de Jordan Schneider, Amodei a déclaré que le modèle DeepSeek générait des informations sensibles sur les armes biologiques lors des tests de sécurité menés par Anthropic. « Ce sont les pires résultats parmi tous les modèles que nous ayons jamais testés », affirme Amodei. « Il manquait complètement de blocages contre la génération de telles informations. »
Selon le PDG d’Anthropic, de telles évaluations sont régulièrement menées par l’entreprise pour divers modèles d’IA afin d’identifier les risques potentiels pour la sécurité nationale. L’équipe vérifie si les modèles peuvent générer des informations sur les armes biologiques difficiles à trouver sur Google ou dans les manuels. Anthropic se positionne comme un développeur de modèles d’IA fondamentaux accordant une attention particulière à la sécurité.
Amodei a noté que les modèles actuels de DeepSeek ne présentent pas de « danger littéral » en termes de fourniture d’informations rares et dangereuses, cependant, la situation pourrait changer dans un proche avenir. Bien qu’il ait hautement apprécié l’équipe DeepSeek comme « ingénieurs talentueux », Amodei a exhorté l’entreprise à « prendre au sérieux la sécurité de l’IA ».
Dans l’interview ChinaTalk, Amodei n’a pas précisé quel modèle DeepSeek Anthropic avait testé, et n’a pas fourni de détails techniques supplémentaires sur les tests effectués. Ni Anthropic ni DeepSeek n’ont répondu à la demande de commentaires de TechCrunch.