Workflow
DeepSeek“悄悄”上线全新模型,或触发硬件光计算革命

技术突破 - DeepSeek发布全新多模态模型DeepSeek-OCR,其核心构件视觉encoder的高效解码为光计算和量子计算在LLM领域的引入提供了明确技术路径[1] - DeepSeek首次提出“上下文光学压缩”技术,通过将文本作为图像处理实现信息高效压缩,理论上可实现无限上下文,模拟人脑遗忘机制[2] - 将文本作为图像处理可实现7-20倍的token压缩,一页文本通常需要2000-5000个文本tokens,转换为图像后仅需200-400个视觉tokens,10倍压缩时保持97%解码精度,20倍压缩时仍有60%精度[2] 技术原理与应用 - 通过将多轮对话中的历史上下文渲染成图像实现LLM Memory遗忘机制,近期对话保持高分辨率文本形态,更早历史被压缩成图像并随时间逐步降采样[3] - 该技术将文本渲染为图像后作为视觉信息处理,大幅降低数据分割和组装操作次数,从而降低整体计算负荷和对后端计算硬件在规模精度上的压力[3] - 该模型同样可以减少光电转化次数,更有效发挥光计算高并行性和低功耗优势,预计很快会有光计算芯片结合大模型应用出现[1][3] 硬件革命机遇 - DeepSeek-OCR技术为光计算芯片进入大语言模型领域铺平道路,光计算芯片利用光速传输、高并行性和低功耗特性,被誉为“后摩尔时代”潜力技术[3] - 光计算核心优势是以极高速度和极低功耗执行特定计算,如图形处理中的傅里叶变换和大规模并行处理,DeepSeek-OCR解决了引入光芯片的最大问题即序列上下文过长[4] - DeepSeek-OCR的DeepEncoder部分适合由光学协处理器执行,文本解码部分仍由电子芯片处理,记忆压缩可完全交给光计算芯片实现最优分工[4] 产业现状与挑战 - 光计算芯片目前仍处于产业化早期,受技术、制造、生态等多种边际条件制约[4] - 光芯片需要解决先进光电融合封装问题,确保光源、芯片和探测器件高效集成并与电子控制单元稳定协作,同时整个光计算软件生态还不够成熟[5] - 光计算芯片已进入产业化早期车道,但距离在数据中心与GPU同台竞技可能还需要3-5年时间攻克工程、成本和生态难题[5]