Neues Modell von DeepSeek erkennt Dokumente günstig und effizient
DeepSeek hat ein neues Modell zur Dokumentenerkennung herausgebracht. Und wissen Sie was? Es liest nicht nur Text von Seiten – es versteht die Struktur. Und macht dies günstig und effizient, was eine Seltenheit in der Welt der künstlichen Intelligenz ist.
Dieses Wunder heißt DeepSeek-OCR, und der Unterschied zu klassischen optischen Zeichenerkennungssystemen ist grundlegend. Gewöhnliche OCR extrahieren einfach Text. Aber dieses Modell stellt sofort die Dokumentstruktur wieder her: Überschriften, Listen, Tabellen, Bildunterschriften. Das Ergebnis gibt es im Markdown-Format aus, das bequem für Indizierung und nachfolgende Arbeit neuronaler Netze ist.
Das Hauptfeature – sogenannte optische Kontextkompression. Das Modell erzählt nicht jede Kleinigkeit von der Seite nach, sondern presst nur das Nötige heraus: Text und semantische Struktur. Dies reduziert das Datenvolumen um das 20-fache. Und weniger Tokens – günstigere und schnellere Verarbeitung durch jedes nachfolgende Sprachmodell.
DeepSeek-OCR verwendet visuelle Tokens. Das sind bedingte Blicke auf Teile des Bildes. Selbst bei einem kleinen Budget von 100 Tokens hält sich die Erkennungsgenauigkeit auf 97%. Wenn die Seite zu komplex ist, schaltet sich der Gundam-Modus ein. Dabei wird das Dokument automatisch in Fragmente geteilt, und schwierige Bereiche werden separat analysiert ohne Geschwindigkeitsverlust.
In Benchmarks zeigte das System beeindruckende Ergebnisse. Und die Genauigkeit fällt praktisch nicht ab, selbst bei minimaler Anzahl visueller Tokens, und der Kompressionsgrad erreicht das 20-fache. Effizienz in Reinform.