Post Thumbnail

DeepSeek R1 est soupçonné de copier Google Gemini 2.5 Pro

Récemment, le laboratoire chinois DeepSeek a publié une version mise à jour de son modèle d’intelligence artificielle R1, qui gère excellemment les tâches de mathématiques et de programmation.

Et le développeur de Melbourne Sam Peach a publié des découvertes curieuses.

Le nouveau modèle DeepSeek R1 préfère des mots et expressions étonnamment similaires à ceux utilisés par Google Gemini 2.5 Pro. Et un autre chercheur a remarqué que les soi-disant “traces de pensée” de ce modèle DeepSeek semblent pratiquement identiques aux traces de travail de Gemini.

Au fait, DeepSeek avait déjà une histoire similaire. Plus tôt cette année, OpenAI a rapporté au Financial Times des preuves d’utilisation par DeepSeek de la méthode de distillation — une technique qui permet d’extraire des connaissances de modèles plus puissants. Et Bloomberg a écrit que Microsoft a enregistré une extraction massive de données via les comptes de développeurs OpenAI à la fin de 2024. Et les comptes étaient supposément connectés à DeepSeek.

Eh bien, cela ressemble à une ère de “cannibalisme de modèles”. Quand les systèmes avancés apprennent non seulement des données humaines, mais aussi des signaux de sortie de modèles concurrents, créant une boucle fermée unique d’évolution numérique. Bien qu’il y ait aussi une nuance ici. Toutes les compagnies leaders qui ont leurs modèles d’intelligence artificielle font face à des poursuites pour violation de droits d’auteur. Tout le monde vole à tout le monde.

Auteur: AIvengo
Depuis 5 ans, je travaille dans l'apprentissage automatique et l'intelligence artificielle. Et ce domaine ne cesse de m'étonner, de m'inspirer et de m'intéresser.
Latest News
L'économiste en chef du FMI a comparé le boom de l'IA à la bulle dotcom

L'économiste en chef du FMI Pierre-Olivier Gourinchas a déclaré que le monde a déjà parcouru la moitié du chemin jusqu'à l'éclatement de la bulle IA et une nouvelle crise financière.

Des chercheurs ont cracké 12 systèmes de protection IA

Vous savez ce que des chercheurs d'OpenAI, Anthropic, Google DeepMind et Harvard viennent de découvrir ? Ils ont essayé de casser des systèmes de sécurité IA populaires et ont trouvé un contournement presque partout. Ils ont vérifié 12 approches de protection courantes. Des formulations intelligentes de prompt système aux filtres externes qui devraient attraper les requêtes dangereuses.

OpenAI a 5 ans pour transformer 13 milliards $ en billion

Vous savez dans quelle position se trouve OpenAI maintenant ? Selon Financial Times, l'entreprise a 5 ans pour transformer 13 milliards de dollars en billion. Et voici à quoi cela ressemble en pratique.

Sam Altman promet de ramener l'humanité dans ChatGPT

Le chef d'OpenAI Sam Altman a fait une déclaration après de nombreuses protestations hors ligne et en ligne contre la fermeture du modèle GPT-4o. Et puis mise en marche, mais avec un routeur sauvage. J'ai parlé de cela la semaine dernière en détail maximum. Citation directe du chef d'OpenAI.

L'IA prend vie : Pourquoi le cofondateur d'Anthropic craint sa création

Le cofondateur d'Anthropic Jack Clark a publié un essai qui rend mal à l'aise. Il a écrit sur la nature de l'intelligence artificielle moderne, et ses conclusions sonnent comme un avertissement.