
Nouveau modèle de DeepSeek reconnaît documents à bas prix et efficacement
DeepSeek a déployé un nouveau modèle pour la reconnaissance de documents. Et vous savez quoi ? Il ne lit pas seulement le texte des pages – il comprend la structure. Et fait cela à bas prix et efficacement, ce qui est rare dans le monde de l’IA.
Cette merveille s’appelle DeepSeek-OCR, et la différence avec les systèmes classiques de reconnaissance optique de caractères est fondamentale. Les OCR réguliers extraient simplement le texte. Mais ce modèle restaure immédiatement la structure du document : titres, listes, tableaux, légendes de figures. Sort le résultat au format Markdown, qui est pratique pour l’indexation et le travail ultérieur des réseaux neuronaux.
La caractéristique principale – compression de contexte optique soi-disant. Le modèle ne raconte pas chaque détail de la page, mais extrait seulement ce qui est nécessaire : texte et structure sémantique. Cela réduit le volume de données de 20 fois. Et moins de tokens – traitement moins cher et plus rapide par n’importe quel modèle de langage ultérieur.
DeepSeek-OCR utilise des tokens visuels. Ce sont des regards conditionnels sur des parties de l’image. Même avec un petit budget de 100 tokens, la précision de reconnaissance se maintient à 97%. Si la page est trop complexe, le mode Gundam s’active. Le document est automatiquement divisé en fragments, et les zones difficiles sont analysées séparément sans perte de vitesse.
Dans les benchmarks, le système a montré des résultats impressionnants. Et la précision ne baisse pratiquement pas même avec un nombre minimal de tokens visuels, et le taux de compression atteint 20 fois. L’efficacité sous forme pure.