Post Thumbnail

PDG d’Anthropic : l’IA chinoise a échoué au test de sécurité

Le PDG d’Anthropic, Dario Amodei, a exprimé de sérieuses inquiétudes concernant DeepSeek, une entreprise chinoise qui a récemment surpris la Silicon Valley avec son modèle R1. Ses préoccupations dépassent les allégations habituelles sur le transfert de données utilisateurs vers la Chine.

Dans une interview pour le podcast ChinaTalk de Jordan Schneider, Amodei a déclaré que le modèle DeepSeek générait des informations sensibles sur les armes biologiques lors des tests de sécurité menés par Anthropic. “Ce sont les pires résultats parmi tous les modèles que nous ayons jamais testés”, affirme Amodei. “Il manquait complètement de blocages contre la génération de telles informations.”

Selon le PDG d’Anthropic, de telles évaluations sont régulièrement menées par l’entreprise pour divers modèles d’IA afin d’identifier les risques potentiels pour la sécurité nationale. L’équipe vérifie si les modèles peuvent générer des informations sur les armes biologiques difficiles à trouver sur Google ou dans les manuels. Anthropic se positionne comme un développeur de modèles d’IA fondamentaux accordant une attention particulière à la sécurité.

Amodei a noté que les modèles actuels de DeepSeek ne présentent pas de “danger littéral” en termes de fourniture d’informations rares et dangereuses, cependant, la situation pourrait changer dans un proche avenir. Bien qu’il ait hautement apprécié l’équipe DeepSeek comme “ingénieurs talentueux”, Amodei a exhorté l’entreprise à “prendre au sérieux la sécurité de l’IA”.

Dans l’interview ChinaTalk, Amodei n’a pas précisé quel modèle DeepSeek Anthropic avait testé, et n’a pas fourni de détails techniques supplémentaires sur les tests effectués. Ni Anthropic ni DeepSeek n’ont répondu à la demande de commentaires de TechCrunch.

Auteur: AIvengo
Depuis 5 ans, je travaille dans l'apprentissage automatique et l'intelligence artificielle. Et ce domaine ne cesse de m'étonner, de m'inspirer et de m'intéresser.
Latest News
UBTech enverra des robots Walker S2 servir à la frontière chinoise pour $37 millions

L'entreprise chinoise UBTech a remporté un contrat de $37 millions. Et enverra des robots humanoïdes Walker S2 servir à la frontière de la Chine avec le Vietnam. South China Morning Post rapporte que les robots interagiront avec les touristes et le personnel, effectueront des opérations logistiques, inspecteront les marchandises et patrouilleront le territoire. Et caractéristiquement — ils peuvent changer leur batterie de manière autonome.

Anthropic a révélé accidentellement un document interne sur "l'âme" de Claude

Anthropic a révélé accidentellement "l'âme" de l'intelligence artificielle à un utilisateur. Et ce n'est pas une métaphore. C'est un document interne tout à fait concret.

Jensen Huang a ordonné aux employés de Nvidia d'utiliser l'IA partout

Jensen Huang a annoncé une mobilisation totale sous la bannière de l'intelligence artificielle à l'intérieur de Nvidia. Et ce n'est plus une recommandation. C'est une exigence.

Les chatbots IA génèrent du contenu qui aggrave les troubles alimentaires

Une étude conjointe de l'Université Stanford et du Center for Democracy and Technology a montré un tableau inquiétant. Les chatbots avec intelligence artificielle représentent un risque sérieux pour les personnes souffrant de troubles alimentaires. Les scientifiques avertissent que les réseaux neuronaux distribuent des conseils nuisibles sur les régimes. Ils proposent des moyens de cacher le trouble et génèrent du "contenu inspirant pour perdre du poids" qui aggrave le problème.

OpenAGI a publié le modèle Lux qui dépasse Google et OpenAI

La startup OpenAGI a publié le modèle Lux pour le contrôle d'ordinateur et affirme que c'est une percée. Selon les benchmarks, le modèle dépasse d'une génération entière les analogues de Google, OpenAI et Anthropic. De plus, il fonctionne plus vite. Environ 1 seconde par étape au lieu de 3 secondes chez les concurrents. Et 10 fois moins cher en coût par traitement de 1 token.