
DeepSeek开源3B OCR模型突破长文本压缩极限,精度高达97%
DeepSeek推出的开源3B OCR模型实现了高达97%的识别精度,成功刷新了长文本压缩的极限,该模型具备出色的性能表现,能够在各种场景下实现高效、准确的文本识别,为长文本图像处理领域带来革命性的进步。
10月21日消息,据媒体报道,DeepSeek在GitHub上开源了其最新研究成果——DeepSeek-OCR模型。
据介绍,DeepSeek-OCR的参数量约为3B,是研究团队对光学二维映射压缩技术在长文本上下文处理中可行性的首次探索。
该模型核心由DeepEncoder与DeepSeek3B-MoE-A570M解码器构成:DeepEncoder能够在高分辨率输入条件下保持低激活状态,实现高压缩比并生成适量的视觉token;解码器则负责将这些视觉token准确转化为文本信息。
实验数据显示,当文本token数量控制在视觉token的10倍以内(压缩率<10 x )时,OCR识别精度可达97%;即使压缩率提升至20×,模型准确率仍能维持在60%左右。
研究团队表示,这一成果为长上下文压缩技术以及大语言模型的记忆与遗忘机制研究提供了新的思路与方向。
论文标题:DeepSeek-OCR: Contexts Optical Compression
项目地址:https://github.com/deepseek-ai/DeepSeek-OCR
论文地址:https://github.com/deepseek-ai/DeepSeek-OCR/blob/main/DeepSeek_OCR_paper.pdf
Hugging Face:https://huggingface.co/deepseek-ai/DeepSeek-OCR