DeepSeek新功能上线:AI再进化,“王炸”能力全解析
AI领域最近又有了新突破——DeepSeek团队悄然开源了一个参数规模达300亿的小型模型,命名为DeepSeek-OCR。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
别看它体量不大,设计理念却相当炸裂:他们竟打算让人工智能通过"看图"的方式去理解文本内容。
没错,这是真正的"以图识字"。
不仅如此,这不仅仅是简单的文字识别,而是将"视觉模态"作为一种文本压缩媒介,用图像来代表文字,以"视觉token"替代"文本token",实现所谓的光学压缩(Optical Compression)。
说实话,当我初次看到这篇论文时,第一反应是:难道他们想让语言模型也去上美术课?
不过静心思考后,这个思路确实有其合理之处。
大语言模型(LLM)最突出的痛点是什么?处理长文本时算力消耗巨大。
众所周知,大型模型的注意力机制复杂度呈平方级增长。输入长度翻倍,其计算量就要增加四倍;若要让它记住整篇长文档,模型立刻就会"高负荷运转"。
那么,能否换个思路解决问题?DeepSeek团队提出:既然一张图片能承载大量文字信息,不如直接将文本转化为图像,再让模型去"读图"!

论文中展示了一个特别直观的案例:原本需要1000个token才能表达的内容,现在仅用100个视觉token就能搞定,压缩率达到10倍,同时还能保持97%的OCR准确率。
即便进行20倍极限压缩,仍能维持约60%的准确度。这意味着,模型"读图"的效率竟然比"读文字"还高。
换句话说,模型在几乎不丢失关键信息的前提下,计算负担减轻了十倍。

不少网友看到这里都感到惊讶:AI处理图像的资源消耗竟然比处理长文本还少?这完全颠覆了人类的直觉认知!
也有网友感叹道:DeepSeek这是要让模型"读文档"像刷朋友圈一样轻松。
在我看来,这套操作堪称"降维打击"。
过去我们一直在想办法让模型更懂文字、看得更远;而DeepSeek却反其道而行:让模型把文字变成画,再通过"看画识文"来理解内容。这有点像回到了人类最原始的沟通方式:象形文字。
说到这里,让我们深入了解这个模型的具体构成。DeepSeek-OCR由两部分组成:DeepEncoder(图像压缩模块)+DeepSeek3B-MoE(解码还原模块)。
前者是整个系统的"压缩引擎",它巧妙地将两大视觉强者SAM-base和CLIP-large串联起来:
SAM负责捕捉细节的"局部注意力",CLIP则把握整体的"全局注意力"。中间还嵌入了一个16倍卷积压缩模块,专门用于削减token数量。
举例来说,一张1024×1024的图像,理论上需要切割成4096个区块进行处理,现在经过这个压缩模块的优化,直接缩减为几百个token。
经过这样的处理,既保留了足够的清晰度,又大幅降低了计算开销。

而且它还支持多分辨率模式:Tiny、Small、Base、Large,还有一个命名为"Gundam(高达)"的动态模式。
你没看错,这个模型连命名都带着点"二次元"风格。
解码器部分则是DeepSeek的拿手好戏:MoE(混合专家)架构。
64个专家中每次只激活6个,外加两个共享专家,实际算力仅动用了约5.7亿参数,但性能却媲美300亿模型。又快又省电,堪称"节能灯中的战斗机"。
它的任务也并不复杂:从那些压缩后的视觉token中,将文字信息"解码"还原。
整个过程就像是OCR的升级版——不过这次是模型自己在"看图猜字",而非人类教它识字,而且猜得相当准确。
当然,要让这套玩法真正奏效,必须准备充足的训练素材。DeepSeek这次可谓下足了本钱:整整3000万页PDF文档,涵盖100多种语言,其中中英文就占了2500万页。
他们还构建了一个"模型飞轮":先用版面分析模型进行粗标注,再用GOT-OCR之类的模型做精标,训练一遍后再反馈更多数据。如此循环往复,模型通过自我喂养不断成长。

除此之外,还有300万条Word文档,专门用于训练公式识别、HTML表格提取,甚至包括金融图表、化学结构式、几何图形等特殊图像结构,也都被纳入了训练集中。
DeepSeek还从LAION、Wukong这些开源数据集抓取了中英文各1000万张场景图,用PaddleOCR进行标注。
可以说,这一轮训练真正实现了"从理工科到艺术科全覆盖",是用海量数据喂养出来的聪明模型。
那么实际效果如何?论文中展示了几组测试结果,表现相当亮眼。
在OmniDocBench测试集上,DeepSeek-OCR仅用100个视觉token就超越了GOT-OCR2.0(每页256token)。用不到800个视觉token,又超越了MinerU2.0(每页6000+token)。
性能更强、输入更短、推理更快。

这样的处理速度,简直如同"AI印刷机"。
不过,最让我拍案叫绝的,是论文最后那个脑洞:光学压缩还能模拟人类遗忘?
人脑的记忆会随时间衰退,旧事逐渐模糊,新事清晰如昨。DeepSeek团队于是琢磨:AI能不能也学会"选择性记忆"?
如果AI也能像人一样"选择性记忆",是不是就能在超长对话中运转得更轻松?
他们设计了一个实验构想:超过k轮的历史对话内容就直接渲染成图像;先压缩一遍,减少10倍token;再把图像尺寸缩小一些;图像越小,信息越模糊,最终就"遗忘"了。

有网友看完直接感叹:这不就是在模拟人脑的记忆机制嘛!

当然,也有人泼冷水:DeepSeek的想象力已经够惊人了,要是再让它学会"遗忘",恐怕忘得比人还快。
我看完这部分内容,确实觉得颇具哲学意味。AI的记忆,究竟该无限扩展,还是该学会适时遗忘?
DeepSeek给出的答案是后者——它通过视觉方式,让模型在"压缩"的同时,也"过滤"掉冗余信息。就像人脑那样:只保留有用的内容。
这背后的意义,其实比OCR技术本身更为深远。
它重新定义了"上下文"的概念:不是记得越多越好,而是记得越精越妙。

说到底,DeepSeek-OCR看似是个OCR模型,实则是在探索一种新范式:能否用视觉模态来高效承载语言信息?
在所有人都追求"更大、更长、更贵"的方向时,DeepSeek却反手做了个"更小、更快、更巧"的模型。
这件事本身就很有DeepSeek的风格。
最后我想说的是:AI的进化路径,未必总是做加法,有时候做减法反而更显智慧。
DeepSeek-OCR就是一个鲜活的例子:一个30亿参数的小模型,却玩出了长文本压缩的新思路,甚至触碰到了"记忆与遗忘"的边界。
如果说去年的关键词是"谁能记住更多",那么今年,或许是"谁能忘得更聪明"。
而DeepSeek,这一次又走在了前列。
热门专题
热门推荐
洛克王国世界隐藏极品精灵蛋获取方法全解析 各位《洛克王国:世界》的训练家们,你是否已经探索了地图上的每一个角落?游戏中其实散布着一些极易被忽略的隐藏宝藏——属性近乎完美的极品精灵蛋。它们潜藏在特定遗迹中,即便完成了主线剧情,许多玩家也可能与之失之交臂。本文将为你悉数揭秘这些稀有精灵蛋的精准位置与获取
需求人群 首先,艺术创作领域的工作者。无论是绘画、设计,还是数字媒体艺术家,一个能够持续激发灵感的工具总是备受青睐。 上图所示平台,正是为这一群体量身打造的解决方案。 产品特色 那么,它具体能带来哪些不一样的助力?我们不妨拆开来看。 首当其冲的,自然是利用AI技术生成创作灵感。创意枯竭的瓶颈期,谁没
「小K电商图」是什么 简单来说,这是一款商用级的电商AIGC图片工具。它的核心价值,就在于能用极低的成本,帮电商从业者产出高质量的营销图片。对于预算和效率都有要求的团队,这无疑是个值得关注的解决方案。 功能解析 功能设计直击行业痛点,每一项都很有针对性: 无需模特和摄影师:这是成本控制的关键。理论上
洛克王国世界炫彩翼王和龙息帕尔怎么选?平民玩家棱镜球使用指南 许多《洛克王国:世界》的玩家手中仅有一颗珍贵的棱镜球,面对炫彩翼王和炫彩龙息帕尔这两只人气宠物,常常陷入难以抉择的困境。毕竟,棱镜球作为一种稀有的养成资源,获取途径有限,一旦用错便会感到十分可惜。那么,这两只炫彩宠物究竟哪一只更值得你投入
明日方舟终末地洛茜值得抽吗 全面分析卡池价值与阵容搭配 《明日方舟:终末地》全新六星干员洛茜,将于3月29日12:00正式进驻下半段限定卡池【狼珀】特许寻访。这位备受期待的物理 火焰混伤干员,其抽取价值主要取决于玩家现有阵容的构建需求。本文将为你深入解析洛茜的强度定位与适用场景,助你做出最明





