Workflow
光计算
icon
搜索文档
中国科学院高精度光计算研究取得进展
环球网资讯· 2026-01-11 12:13
文章核心观点 - 中国科学院半导体研究所团队提出了一种创新的端到端闭环光电混合计算架构,该架构通过硬件—算法协同设计,解决了传统光计算中训练与推理分离、信息熵劣化等问题,在低硬件精度下实现了接近传统高精度架构的推理准确度,并展现出极高的运算速率、计算密度和能效,为高性能计算提供了新方向 [1][2][3] 技术突破与架构创新 - 研究团队提出了一种基于相位像素阵列的可编程光学处理单元,并结合李雅普诺夫稳定性理论实现对其灵活编程 [2] - 团队构建了端到端闭环光电混合计算架构,通过硬件—算法协同设计,实现了训练与推理的全流程闭环优化,有效补偿信息熵损失 [2] - 该架构打破了光计算中计算精度与准确度之间的强耦合关系 [2] - 架构通过噪声自学习机制,实现了光学与电学参数的联合优化与自适应计算精度补偿 [2] 性能表现与实验结果 - 在采用4-bit光学处理单元时,该架构在MNIST手写数字识别任务上的推理准确率达到90.8%,接近8-bit传统计算架构90.9%的理论极限 [2] - 实验结果表明,光计算系统在低硬件精度情况下仍能实现高精度推理 [2] - 该光学处理单元支持30.67GBaud/s的运算速率,实现981.3GOPS的计算能力与3.97TOPS/mm²的计算密度 [3] - 理论分析表明,该结构可扩展至128×128规模,计算能力可达1005TOPS,计算密度为4.09TOPS/mm²,能效可达37.81fJ/MAC [3] 行业背景与应用潜力 - 在人工智能神经网络高速发展的背景下,大规模的矩阵运算与频繁的数据迭代给传统电子处理器带来了巨大压力 [1] - 传统光电混合计算受限于训练与推理环节分离、离线权重更新等问题,造成信息熵劣化、计算精度下降,导致推理准确度低 [1] - 该技术显示出在微波光子信号处理、光通信与神经形态人工智能等领域的应用潜力 [3]
2025国际十大科技新闻解读
科技日报· 2025-12-25 09:00
人工智能与机器学习 - 中国公司“深度求索”在2025年开源其大模型DeepSeek-R1 该模型开创性地采用纯强化学习训练大规模推理模型 在提升能力的同时显著降低了对标注数据的依赖[2] - 美国得克萨斯大学奥斯汀分校开发的新型脑机接口 能将人的思维解码为连续文本 解码器仅需约1小时就能适应个人脑活动模式 大幅缩短了传统所需的数十小时校准时间[3] - 诺贝尔奖得主大卫·贝克团队首次实现AI“从零开始”设计具有复杂活性位点的丝氨酸水解酶 其设计的酶展现出与天然酶相媲美的活性 并发现了5种自然界未曾存在的全新酶折叠方式[4][5] 计算技术与硬件 - 谷歌公司在105比特的“Willow”量子处理器上 首次完成具有可验证性的量子优势演示 在特定计算任务中速度达到经典超级计算机的约13000倍 该处理器用2.1小时完成的任务需全球最快超算“前沿”约3.2年[10][11] - 新加坡Lightelligence公司演示了名为PACE的光子加速器 由逾16000个光子元件组成 能解决“伊辛问题”等复杂计算[6] - 美国Lightmatter团队描述了一种能以高准确度执行AI模型的光子处理器 由4个128×128矩阵组成 执行自然语言处理和图像处理神经网络的准确度与传统电子处理器不相上下[6] 天文与物理科学 - 薇拉·C·鲁宾天文台发布其首批测试图像 在短短十余小时测试中发现了2104颗太阳系内新小行星 其拍摄的三叶星云与礁湖星云马赛克图仅用7小时便捕捉到数千光年外恒星摇篮的细节[7] - 国际科研团队通过分析LIGO探测到的引力波信号GW250114 以高达99.999%的置信度证实了霍金于1971年提出的黑洞面积定理 观测到两个约32倍太阳质量的黑洞并合后 视界面积从24万平方公里增至40万平方公里[12] 医疗与生命科学 - 美国约翰斯·霍普金斯大学团队研发的智能机器人SRT-H 在没有人工协助的情况下成功完成了一例完整的胆囊切除手术 在包含17个复杂步骤的手术中实现了100%的成功率[8][9] - 全球多国科学家联合发布最详尽跨物种哺乳动物脑细胞发育图谱 覆盖从小鼠到人类的多种哺乳动物 在其中一项突破中 系统追踪了小鼠大脑中超过120万个抑制性神经元的发育路径[15] - 另一项研究通过对小鼠视觉皮层77万个细胞的追踪表明 脑细胞的多样化在出生后接受感官刺激的过程中持续塑造 揭示了后天经验对神经回路成熟的关键作用[15] 气候与环境 - 来自23个国家87个机构的160名科学家共同发布的《全球临界点报告》指出 随着全球变暖突破1.5℃临界阈值 温水珊瑚礁大规模死亡已成为首个显著的气候临界点标志 当前全球气温已较工业化前上升约1.4℃ 而珊瑚礁的热临界点约为1.2℃[13] - 报告指出格陵兰和西南极冰盖的失控融化、亚马孙雨林的大规模退化、大西洋环流的潜在崩溃等更多临界点也近在眼前 变化将是剧烈、系统且不可逆的[13] - 报告同时指出 人类仍可通过触发“积极临界点”来扭转危局 可再生能源、电动汽车等绿色技术的成本下降与快速普及已展现出向可持续方向转型的强大潜力[13][14]
DeepSeek-OCR实现光学压缩 光计算可为大模型“减负”
36氪· 2025-11-27 16:49
文章核心观点 - 注意力机制是大语言模型成功的基石,但长上下文窗口导致算力需求指数级增长,例如上下文窗口长度达到1000K时,存储注意力矩阵需要约2TB显存[2] - DeepSeek提出的上下文光学压缩方法利用视觉token压缩文本token,其DeepSeek-OCR论文验证了可行性,并启发业内探索类似人脑的遗忘机制[2] - 光本位科技认为上下文光学压缩的验证说明光计算将成为大语言模型的未来,公司正积极推进光计算与大模型接轨[2] 视觉Token压缩文本技术 - DeepSeek-OCR方法在10倍压缩率下仍能保持96.5%的精度,展示了视觉压缩的可行性[3] - 当文本Token为600-700时,64个视觉Token可实现96.5%精度和10.5倍压缩,100个视觉Token可实现98.5%精度和6.7倍压缩[4] - DeepEncoder模块是实现压缩的核心引擎,包含SAM、两层卷积块和CLIP三个模块[5] - SAM模块通过窗口注意力机制分割图像,ViT模型关联局部窗口,关联性高的区域融合特征,空白区域因关联性差保持低特征值并被卷积块丢弃[5] - 压缩后的视觉token输入CLIP,利用全局注意力机制捕捉图像整体语义和上下文,最终将1000文本token压缩成100个视觉token[5] 光计算技术优势 - DeepSeek-OCR用到的ViT和CNN结构本质是信息聚合计算,需要高效硬件载体,光计算的并行架构天然适合此类计算[7] - 光计算芯片处理信息压缩的速度和能耗远优于电芯片,灵活性更高,计算逻辑可根据需求调整[7] - 光本位科技的全域可编程存算一体光计算引擎加速DeepEncoder后,计算效率提升100倍,能效比提升10倍[7] - 光计算简化计算过程,图像信息通过光学方式处理,卷积、缩放等计算在传播过程中完成,无需额外功耗[9] - 特有存算一体架构使光计算引擎在处理批量任务时保持"零静态维持功耗"[9] - 光计算芯片可扩展性更强,阵列规模扩大和参数刷新频率提升比电子芯片上限更高、能耗更少[11] 光计算硬件与大模型融合前景 - DeepSeek-OCR为光计算芯片通用化设计提供新思路,可能成为连接光计算硬件与大模型的突破点[13] - 光本位科技计划利用相变材料的非易失性模拟人脑神经元,实现高效计算和类脑信息编码存储[13] - 公司未来将推出上下文压缩专用硬件、AI任务专用硬件及配套软件栈,与大模型实现接轨[13] - 光计算可在大模型上提升近百倍算力和超过十倍能效比,为未来新计算范式提供高效计算基座[13] - 传统GPU受限于内存墙和功耗密度,光计算利用其大算力、高带宽、低功耗优势改变大模型现状[15] - 光本位科技计划构建全光大规模AI计算的下一代颠覆式平台系统,提供全场景覆盖的全栈光计算解决方案[15]