Post Thumbnail

PDG d’Anthropic : l’IA chinoise a échoué au test de sécurité

Le PDG d’Anthropic, Dario Amodei, a exprimé de sérieuses inquiétudes concernant DeepSeek, une entreprise chinoise qui a récemment surpris la Silicon Valley avec son modèle R1. Ses préoccupations dépassent les allégations habituelles sur le transfert de données utilisateurs vers la Chine.

Dans une interview pour le podcast ChinaTalk de Jordan Schneider, Amodei a déclaré que le modèle DeepSeek générait des informations sensibles sur les armes biologiques lors des tests de sécurité menés par Anthropic. “Ce sont les pires résultats parmi tous les modèles que nous ayons jamais testés”, affirme Amodei. “Il manquait complètement de blocages contre la génération de telles informations.”

Selon le PDG d’Anthropic, de telles évaluations sont régulièrement menées par l’entreprise pour divers modèles d’IA afin d’identifier les risques potentiels pour la sécurité nationale. L’équipe vérifie si les modèles peuvent générer des informations sur les armes biologiques difficiles à trouver sur Google ou dans les manuels. Anthropic se positionne comme un développeur de modèles d’IA fondamentaux accordant une attention particulière à la sécurité.

Amodei a noté que les modèles actuels de DeepSeek ne présentent pas de “danger littéral” en termes de fourniture d’informations rares et dangereuses, cependant, la situation pourrait changer dans un proche avenir. Bien qu’il ait hautement apprécié l’équipe DeepSeek comme “ingénieurs talentueux”, Amodei a exhorté l’entreprise à “prendre au sérieux la sécurité de l’IA”.

Dans l’interview ChinaTalk, Amodei n’a pas précisé quel modèle DeepSeek Anthropic avait testé, et n’a pas fourni de détails techniques supplémentaires sur les tests effectués. Ni Anthropic ni DeepSeek n’ont répondu à la demande de commentaires de TechCrunch.

Auteur: AIvengo
Depuis 5 ans, je travaille dans l'apprentissage automatique et l'intelligence artificielle. Et ce domaine ne cesse de m'étonner, de m'inspirer et de m'intéresser.
Latest News
L'économiste en chef du FMI a comparé le boom de l'IA à la bulle dotcom

L'économiste en chef du FMI Pierre-Olivier Gourinchas a déclaré que le monde a déjà parcouru la moitié du chemin jusqu'à l'éclatement de la bulle IA et une nouvelle crise financière.

Des chercheurs ont cracké 12 systèmes de protection IA

Vous savez ce que des chercheurs d'OpenAI, Anthropic, Google DeepMind et Harvard viennent de découvrir ? Ils ont essayé de casser des systèmes de sécurité IA populaires et ont trouvé un contournement presque partout. Ils ont vérifié 12 approches de protection courantes. Des formulations intelligentes de prompt système aux filtres externes qui devraient attraper les requêtes dangereuses.

OpenAI a 5 ans pour transformer 13 milliards $ en billion

Vous savez dans quelle position se trouve OpenAI maintenant ? Selon Financial Times, l'entreprise a 5 ans pour transformer 13 milliards de dollars en billion. Et voici à quoi cela ressemble en pratique.

Sam Altman promet de ramener l'humanité dans ChatGPT

Le chef d'OpenAI Sam Altman a fait une déclaration après de nombreuses protestations hors ligne et en ligne contre la fermeture du modèle GPT-4o. Et puis mise en marche, mais avec un routeur sauvage. J'ai parlé de cela la semaine dernière en détail maximum. Citation directe du chef d'OpenAI.

L'IA prend vie : Pourquoi le cofondateur d'Anthropic craint sa création

Le cofondateur d'Anthropic Jack Clark a publié un essai qui rend mal à l'aise. Il a écrit sur la nature de l'intelligence artificielle moderne, et ses conclusions sonnent comme un avertissement.