光计算
搜索文档
我国科学家实现新一代光计算芯片研究新突破!
每日经济新闻· 2025-12-20 00:45
陈一彤课题组此次提出并实现了全光大规模语义生成芯片LightGen,采用极严格算力评价标准的实测表 明:即便采用性能较滞后的输入设备,LightGen仍可取得相比顶尖数字芯片2个数量级的算力和能效提 升。团队表示,LightGen之所以实现性能飞跃,在于其在单枚芯片上同时突破了"单片上百万级光学神 经元集成""全光维度转换""不依赖真值的光学生成模型训练算法"三项关键瓶颈,使得面向大规模生成 任务的全光端到端实现成为可能。 据介绍,LightGen可完整实现"输入—理解—语义操控—生成"的闭环,完成高分辨率(≥512×512)图像语 义生成、3D生成(NeRF)、高清视频生成及语义调控,同时支持去噪、局部与全局特征迁移等多项大规 模生成式任务。 "LightGen为新一代光计算芯片助力前沿人工智能开辟了新路径,也为探索更高速、更高能效的生成式 智能计算提供了新的研究方向。"陈一彤说。 记者从上海交通大学获悉,该校科研人员近日在新一代光计算芯片领域取得突破,首次实现了支持大规 模语义媒体生成模型的全光计算芯片。相关成果12月19日发表于《科学》杂志。 编辑|段炼易启江 据了解,随着深度神经网络和大规模生成模型迅 ...
中国光计算芯片,新突破
上海证券报· 2025-12-19 23:38
我国科学家实现新一代光计算芯片研究新突破 新华社上海12月19日电(记者陈潇雨)记者从上海交通大学获悉,该校科研人员近日在新一代光计算芯 片领域取得突破,首次实现了支持大规模语义媒体生成模型的全光计算芯片。相关成果12月19日发表于 《科学》杂志。 据了解,随着深度神经网络和大规模生成模型迅猛演进带来超高算力和能耗需求,传统芯片架构的性能 增长速度已出现严重缺口,光计算等新型架构受到广泛关注。 "所谓光计算,可以理解为,不是让电子在晶体管中运行,而是让光在芯片中传播,用光场的变化完成 计算。光天然具备高速和并行的优势,因此被视为突破算力与能耗瓶颈的重要方向。"论文作者、上海 交大集成电路学院助理教授陈一彤表示,把光计算真正用到生成式AI上并不简单,已有的全光计算芯 片主要局限于小规模、分类任务,光电级联或复用又会严重削弱光计算速度。如何让下一代算力光芯片 运行复杂生成模型,是全球智能计算领域公认的难题。 陈一彤课题组此次提出并实现了全光大规模语义生成芯片LightGen,采用极严格算力评价标准的实测表 明:即便采用性能较滞后的输入设备,LightGen仍可取得相比顶尖数字芯片2个数量级的算力和能效提 升。团队 ...
光计算芯片,新突破
财联社· 2025-12-19 23:04
光计算芯片技术突破 - 上海交通大学科研团队在新一代光计算芯片领域取得突破,首次实现了支持大规模语义媒体生成模型的全光计算芯片,相关成果于12月19日发表于《科学》杂志 [1] - 随着深度神经网络和大规模生成模型演进带来超高算力和能耗需求,传统芯片架构性能增长出现严重缺口,光计算等新型架构受到广泛关注 [1] - 光计算是让光在芯片中传播,利用光场变化完成计算,光天然具备高速和并行优势,被视为突破算力与能耗瓶颈的重要方向 [1] 技术实现与性能 - 研究团队提出并实现了全光大规模语义生成芯片LightGen,该芯片在单枚芯片上同时突破了“单片上百万级光学神经元集成”、“全光维度转换”、“不依赖真值的光学生成模型训练算法”三项关键瓶颈 [2] - 采用极严格算力评价标准的实测表明,即便采用性能较滞后的输入设备,LightGen仍可取得相比顶尖数字芯片2个数量级的算力和能效提升 [2] - LightGen可完整实现“输入—理解—语义操控—生成”的闭环,完成高分辨率(≥512×512)图像语义生成、3D生成(NeRF)、高清视频生成及语义调控,同时支持去噪、局部与全局特征迁移等多项大规模生成式任务 [2] 行业意义与前景 - 把光计算真正用到生成式AI上并不简单,已有的全光计算芯片主要局限于小规模、分类任务,光电级联或复用又会严重削弱光计算速度,如何让下一代算力光芯片运行复杂生成模型是全球智能计算领域公认的难题 [1] - LightGen为新一代光计算芯片助力前沿人工智能开辟了新路径,也为探索更高速、更高能效的生成式智能计算提供了新的研究方向 [2]
我国科学家实现新一代光计算芯片研究新突破
新华社· 2025-12-19 22:33
据介绍,LightGen可完整实现"输入—理解—语义操控—生成"的闭环,完成高分辨率(≥512×512)图像 语义生成、3D生成(NeRF)、高清视频生成及语义调控,同时支持去噪、局部与全局特征迁移等多项 大规模生成式任务。 "LightGen为新一代光计算芯片助力前沿人工智能开辟了新路径,也为探索更高速、更高能效的生成式 智能计算提供了新的研究方向。"陈一彤说。(完) "所谓光计算,可以理解为,不是让电子在晶体管中运行,而是让光在芯片中传播,用光场的变化完成 计算。光天然具备高速和并行的优势,因此被视为突破算力与能耗瓶颈的重要方向。"论文作者、上海 交大集成电路学院助理教授陈一彤表示,把光计算真正用到生成式AI上并不简单,已有的全光计算芯 片主要局限于小规模、分类任务,光电级联或复用又会严重削弱光计算速度。如何让下一代算力光芯片 运行复杂生成模型,是全球智能计算领域公认的难题。 陈一彤课题组此次提出并实现了全光大规模语义生成芯片LightGen,采用极严格算力评价标准的实测表 明:即便采用性能较滞后的输入设备,LightGen仍可取得相比顶尖数字芯片2个数量级的算力和能效提 升。团队表示,LightGen之 ...
光芯片,最新进展
半导体行业观察· 2025-12-12 09:12
文章核心观点 - 光计算领域正通过光子平台、存储架构和光开关等多项关键技术的最新进展而不断发展,这些进展旨在降低数据密集型系统的延迟或提高带宽,以支持未来的人工智能、高性能计算和实时决策工作负载 [2] 硅锗光子平台进展 - IHP发布了首个硅锗光子平台,其电吸收调制器的外推3 dB截止频率为140 GHz,鳍式光电二极管的外推3 dB截止频率高达200 GHz,远超当前硅光子极限 [3] - 该平台工作在C波段,采用单一工艺流程制造,是实现200Gbaud以上互连扩展的必要条件 [3] - IHP开发了一种SiGe外延方法,利用硅δ层控制吸收边,并采用紧凑型波导集成EAM结构和可调谐鳍式光电二极管设计 [3] - 该团队计划将该光子平台与其BiCMOS技术结合,以支持未来人工智能和高性能计算系统中的高性能光链路 [3] 集成光子存储器 - 威斯康星大学麦迪逊分校的研究人员开发了一种完全由商用硅光子代工厂现有组件构建的集成光子存储芯片 [4] - 该器件采用“交叉耦合差分再生光子锁存器”,模拟运行速度可达20 GHz,读取速度高达50-60 GHz [5] - 该设计完全依赖于AIM Photonics和GlobalFoundries等代工厂的标准工艺,无需新材料或新制造技术即可实现批量生产,适用于连接数据中心和高性能计算系统中处理器的大型光中介层 [5] 单光子光开关 - 普渡大学的研究人员展示了一种单光子光开关,利用雪崩倍增效应产生异常大的非线性折射率,实现了以单光子强度运行的“光子晶体管”,并有可能扩展到数百吉赫兹的时钟频率 [6] - 该器件可在室温下工作,并且兼容CMOS工艺,速度已达到吉赫兹级别,通过优化几何结构还可进一步提升 [6] - 该开关可应用于从量子信息协议到经典光子逻辑和高速光互连等多种领域,团队正在开发定制的SPAD结构,旨在进一步提高非线性 [6] 光学特征提取引擎 - 清华大学团队构建了一个12.5 GHz的光学特征提取引擎,利用集成衍射算子和片上数据准备模块实现了亚250 ps的矩阵矢量运算,解决了用于实时AI工作负载的电子处理器中的延迟瓶颈问题 [7] - 该装置在250.5 ps内完成矩阵向量乘法运算,是同类光计算中目前报道的最短延迟 [7] - 同样的硬件也应用于量化交易,其中光场效应晶体管以光子速度处理时间序列市场数据并生成买卖决策,展现出持续的盈利能力 [7] 高速电吸收调制器 - Imec在其300毫米硅光子平台上展示了GeSi电吸收调制器,带宽超过110 GHz,支持每通道400 Gb/s IM/DD传输 [8] - 该调制器面向数据中心和AI训练集群内部的短距离光链路,利用锗硅中的弗朗茨-凯尔迪什效应,实现了紧凑的几何结构、高速传输以及与晶圆级CMOS工艺的兼容性 [8] - 系统级演示采用PAM-4 IM/DD链路验证了400 Gb/s的净数据速率,测试带宽被限制在110 GHz是由于测量设备的限制,而非设备本身限制 [8][9]
DeepSeek-OCR实现光学压缩 光计算可为大模型“减负”
36氪· 2025-11-27 16:49
文章核心观点 - 注意力机制是大语言模型成功的基石,但长上下文窗口导致算力需求指数级增长,例如上下文窗口长度达到1000K时,存储注意力矩阵需要约2TB显存[2] - DeepSeek提出的上下文光学压缩方法利用视觉token压缩文本token,其DeepSeek-OCR论文验证了可行性,并启发业内探索类似人脑的遗忘机制[2] - 光本位科技认为上下文光学压缩的验证说明光计算将成为大语言模型的未来,公司正积极推进光计算与大模型接轨[2] 视觉Token压缩文本技术 - DeepSeek-OCR方法在10倍压缩率下仍能保持96.5%的精度,展示了视觉压缩的可行性[3] - 当文本Token为600-700时,64个视觉Token可实现96.5%精度和10.5倍压缩,100个视觉Token可实现98.5%精度和6.7倍压缩[4] - DeepEncoder模块是实现压缩的核心引擎,包含SAM、两层卷积块和CLIP三个模块[5] - SAM模块通过窗口注意力机制分割图像,ViT模型关联局部窗口,关联性高的区域融合特征,空白区域因关联性差保持低特征值并被卷积块丢弃[5] - 压缩后的视觉token输入CLIP,利用全局注意力机制捕捉图像整体语义和上下文,最终将1000文本token压缩成100个视觉token[5] 光计算技术优势 - DeepSeek-OCR用到的ViT和CNN结构本质是信息聚合计算,需要高效硬件载体,光计算的并行架构天然适合此类计算[7] - 光计算芯片处理信息压缩的速度和能耗远优于电芯片,灵活性更高,计算逻辑可根据需求调整[7] - 光本位科技的全域可编程存算一体光计算引擎加速DeepEncoder后,计算效率提升100倍,能效比提升10倍[7] - 光计算简化计算过程,图像信息通过光学方式处理,卷积、缩放等计算在传播过程中完成,无需额外功耗[9] - 特有存算一体架构使光计算引擎在处理批量任务时保持"零静态维持功耗"[9] - 光计算芯片可扩展性更强,阵列规模扩大和参数刷新频率提升比电子芯片上限更高、能耗更少[11] 光计算硬件与大模型融合前景 - DeepSeek-OCR为光计算芯片通用化设计提供新思路,可能成为连接光计算硬件与大模型的突破点[13] - 光本位科技计划利用相变材料的非易失性模拟人脑神经元,实现高效计算和类脑信息编码存储[13] - 公司未来将推出上下文压缩专用硬件、AI任务专用硬件及配套软件栈,与大模型实现接轨[13] - 光计算可在大模型上提升近百倍算力和超过十倍能效比,为未来新计算范式提供高效计算基座[13] - 传统GPU受限于内存墙和功耗密度,光计算利用其大算力、高带宽、低功耗优势改变大模型现状[15] - 光本位科技计划构建全光大规模AI计算的下一代颠覆式平台系统,提供全场景覆盖的全栈光计算解决方案[15]
行情结束?明天A股怎么走?预测出来了...
搜狐财经· 2025-10-30 23:25
今日行情解读 - 主要指数普遍下滑,上证指数收跌0.73%,深证成指下跌1.16%,创业板指数跌幅达1.84% [1] - 沪深两市成交额高达2.42万亿元,较前一交易日增加1656亿元 [1] - 市场超4000只个股下跌,锂矿、量子科技、电池、储能板块表现强劲,算力硬件和游戏板块遭遇重挫 [1] - 市场下跌原因包括4000点心理关口压力、TMT板块公募基金持仓比例较高触发仓位调整 [1] - 人民币汇率短线异动可能影响北向资金,美联储降息25基点的短期刺激效应减弱 [2] - 光模块龙头股新易盛和天孚通信三季报被解读为不及预期,股价分别大跌近8%和超10%,拖累AI算力及科技板块人气 [2] 策略预判 - 市场冲高回落和科技股大跌被视为阶段性调整,并非行情结束的征兆 [4] - 短期A股大概率围绕4000点附近震荡,长线继续看涨 [4] 消息面分析:政策与监管 - 金管局鼓励试点理财公司发行10年期以上或最短持有期5年以上的养老理财产品,利好银行、保险、证券等金融板块 [4] - 五部门自11月1日起完善免税店政策,支持国产品销售并扩大经营品类,利好免税店运营商、旅游零售及国产消费品公司 [5] 消息面分析:宏观经济与市场 - 美联储宣布降息25基点,但鲍威尔称12月进一步降息不确定,短期利好全球流动性但增加未来政策不确定性 [7] - 世界黄金协会数据显示三季度全球央行净购金量总计220吨,环比增长28%,利好黄金开采公司,但避险情绪对整体市场略偏利空 [11] 消息面分析:行业与公司动态 - 英伟达市值突破5万亿美元,反映AI算力需求强劲,利好A股AI、算力、半导体及服务器相关公司 [8][9] - DeepSeek发布多模态模型,技术路径可能推动光计算在AI中的应用,利好AI、量子计算、光计算相关芯片及硬件公司 [12]
DeepSeek“悄悄”上线全新模型,或触发硬件光计算革命
21世纪经济报道· 2025-10-30 13:54
技术突破 - DeepSeek发布全新多模态模型DeepSeek-OCR,其核心构件视觉encoder的高效解码为光计算和量子计算在LLM领域的引入提供了明确技术路径[1] - DeepSeek首次提出“上下文光学压缩”技术,通过将文本作为图像处理实现信息高效压缩,理论上可实现无限上下文,模拟人脑遗忘机制[2] - 将文本作为图像处理可实现7-20倍的token压缩,一页文本通常需要2000-5000个文本tokens,转换为图像后仅需200-400个视觉tokens,10倍压缩时保持97%解码精度,20倍压缩时仍有60%精度[2] 技术原理与应用 - 通过将多轮对话中的历史上下文渲染成图像实现LLM Memory遗忘机制,近期对话保持高分辨率文本形态,更早历史被压缩成图像并随时间逐步降采样[3] - 该技术将文本渲染为图像后作为视觉信息处理,大幅降低数据分割和组装操作次数,从而降低整体计算负荷和对后端计算硬件在规模精度上的压力[3] - 该模型同样可以减少光电转化次数,更有效发挥光计算高并行性和低功耗优势,预计很快会有光计算芯片结合大模型应用出现[1][3] 硬件革命机遇 - DeepSeek-OCR技术为光计算芯片进入大语言模型领域铺平道路,光计算芯片利用光速传输、高并行性和低功耗特性,被誉为“后摩尔时代”潜力技术[3] - 光计算核心优势是以极高速度和极低功耗执行特定计算,如图形处理中的傅里叶变换和大规模并行处理,DeepSeek-OCR解决了引入光芯片的最大问题即序列上下文过长[4] - DeepSeek-OCR的DeepEncoder部分适合由光学协处理器执行,文本解码部分仍由电子芯片处理,记忆压缩可完全交给光计算芯片实现最优分工[4] 产业现状与挑战 - 光计算芯片目前仍处于产业化早期,受技术、制造、生态等多种边际条件制约[4] - 光芯片需要解决先进光电融合封装问题,确保光源、芯片和探测器件高效集成并与电子控制单元稳定协作,同时整个光计算软件生态还不够成熟[5] - 光计算芯片已进入产业化早期车道,但距离在数据中心与GPU同台竞技可能还需要3-5年时间攻克工程、成本和生态难题[5]
AI算力饥渴和高能耗困局谁来解?两位95后创始人用相变材料光计算构建新范式
机器之心· 2025-10-28 12:31
行业背景与算力瓶颈 - AI算力需求每3.4个月翻倍,与传统电芯片性能提升放缓形成尖锐矛盾,导致供需失衡 [3] - 以GPT-4为例,其模型训练在14周内消耗42.4吉瓦时电力,日均耗电0.43吉瓦时,相当于2.85万户欧美家庭的日均用电量 [3] - 2024年全球数据中心耗电量达415太瓦时,占全球用电量1.5%,预计到2030年将翻倍至945太瓦时 [3] 光计算技术优势与公司突破 - 光计算凭借光速传输、大算力、低功耗等固有优势,成为破解算力困境的重要方向 [5] - 公司采用“硅光加相变材料异质集成”技术路线,于2024年6月成功流片全球首颗128×128矩阵规模光计算芯片,突破行业矩阵规模瓶颈 [5] - 该芯片集成16000+节点,每个节点可实时编程,打破传统光芯片“固定权重只能处理单一任务”的局限,算力与计算效率显著提高 [12] - 128×128矩阵规模被视为光计算商业化的“临界点”,低于此规模则算力不足、密度偏低,无法支撑大模型推理/训练等复杂应用 [12] 公司发展历程与技术积累 - 两位联合创始人分别于牛津大学主导相变材料光计算芯片研发,以及在芝加哥大学聚焦AI算法,深切感受到现有计算范式在算力与能效上的局限 [8] - 2021年成为关键转折,实验室突破实现大规模矩阵光子存内计算,同时认识到光计算在矩阵运算中高出电芯片千倍的能效与AI算力需求高度契合 [8] - 公司于2022年4月正式成立,创业初期即面临首轮流片决定项目存续的关键考验,最终顺利完成小矩阵芯片的功能验证 [9][10] 产品商业化与产业链布局 - 公司第一代光电融合计算卡即将给下游用户送样,256×256及更大矩阵规模的光计算芯片流片计划也在快速推进 [14] - 上游与国内多条硅光产线深度合作,覆盖8寸到12寸制造资源,确保工艺稳定与供应链可控 [15] - 下游与互联网巨头联合研发定制化产品,并参与标准化地方政府智算中心建设 [15] - 公司已构建完整的光计算产品体系,率先在光计算领域打通“材料-设计-制造-应用”的全链条能力 [15][17] 融资进展与战略合作 - 2023年6月获得天使轮投资,8个月后完成天使+轮融资,加速了128×128芯片流片进程 [17] - 2024年12月与国内互联网巨头达成战略合作,实现深度的生态协同 [17] - 2025年6月由敦鸿资产领投的新一轮融资,整合了上海、苏州等地的产业链资源,为后续量产爬坡提供保障 [17] 未来应用前景与行业愿景 - 当前通过光电协同形成精密配合的光电融合计算系统,光芯片处理AI线性运算,电芯片负责调度与非线性处理 [19] - 光计算的突围可能让低碳甚至零碳AI大模型推理/训练成为现实,中国有望在新型AI计算范式定义权之争中实现“换道超车” [22] - 未来应用场景包括:智算中心将演进为高效的“城市数字心脏”;自动驾驶领域利用光芯片纳秒级处理速度提升决策响应;医疗影像中心加速模型重建与分析 [22]
引领边缘AI新时代——湾芯展“边缘AI赋能硬件未来创新论坛”成功落幕
半导体行业观察· 2025-10-21 08:51
边缘AI产业背景与政策环境 - 人工智能技术革命正重塑产业格局,边缘AI崛起推动智能计算从云端走向终端设备,催生个人智能体、端侧大模型等创新应用场景[1] - 深圳凭借雄厚的电子信息产业基础和供应链体系,正加速成长为全球AI产业重要增长极,2025年以来密集出台全方位AI产业扶持政策,目标打造具有全球影响力的人工智能先锋城市[1] - 2025年10月15日举办的"边缘AI赋能硬件未来创新论坛"吸引了学界、产业界和政策研究领域专家,共同探讨技术前沿与政策红利下的发展机遇[2][3] 端侧AI芯片技术创新 - 深港微电子学院余浩教授团队开发面向个人智能体的端侧大模型芯片,基于28nm国产工艺集成3D-DRAM,实现93mm²单元面积、5W典型功耗,带宽400GBps、利用率80%,7B模型token速度超80token/s,售价为同类产品三分之一到五分之一[5][6] - 安谋科技即将推出新一代"周易"NPU IP,支持AI算力灵活配置和多种精度融合计算,针对大模型硬件支持W4A8/W4A16加速模式,配套软件平台已实现对多种主流模型的成熟支持[8][9] - 知合计算推出"通推一体"RISC-V CPU A210,采用8核大小核架构,主频2.5GHz,AI推理算力达12 TOPS@Int8,定位端侧性价比之王,能效比优于同价位竞品[26][27] AI计算架构与生态发展 - 阿里巴巴达摩院玄铁RISC-V处理器覆盖E、R、C三大系列,其中玄铁C930性能SpecINT2K6超过15/GHz,玄铁C908X聚焦边缘AI,单核算力达1TOPS/Core/GHz,基于玄铁内核的芯片累计出货超45亿颗[20][21] - 光本位智能科技开发光计算芯片,采用"相变材料+CrossBar架构",突破传统MZI路线局限,实现256*256以上矩阵规模,算力密度更高,零维持功耗、无热电串扰,已完成128*128光计算芯片流片[29][30][31] - 云天励飞推出GPNPU架构,兼具GPU通用性与NPU高能效特性,通过自研"算力积木"架构实现芯片灵活组合,覆盖8T至256T算力区间,满足各类应用场景算力需求[11][12] 全球算力基础设施与解决方案 - 中国联通国际构建全球算力网络,拥有300+全球骨干云、100+PELOPS海外自建算力、138个境外城市数据中心,配合204T海缆容量,实现香港到深圳1ms、到广州2ms的低时延协同[14][15] - 浪潮云以香港为战略支点辐射"一带一路"市场,创新提出"AI工厂"模式,构建城市级、行业级、企业级三级形态,信创服务器出货量全国第一,ARM架构性能全球第一[17][18] - 中国电信国际构建"全球云网智算"底座,拥有53条海缆、超162T国际传输带宽、251个国际网络节点和15个海外智算数据中心,为客户提供从海外公有云到AI智能体的全栈服务[23][24] 半导体产业链支撑技术 - 联想凌拓专注EDA存储解决方案,Data ONTAP系统服务全球65%以上Top 300 EDA企业,全闪存储AFF系列高效处理占比90%的<32KB海量小文件,FlexGroup技术使元数据访问效率提升23倍[33][34] - 智现未来推出"灵犀"垂直大模型,构建从设备智能到系统智能的工程智能体系,在晶合集成客户实现单wafer缺陷下降1000倍,团队工作时长减少60%,晶圆溯因时间从2-3天缩短至1-5分钟[36][37] - 工业和信息化部电子第五研究所推动AI芯片测试标准制定,计划至2027年制定45项国家/行业标准,已构建面向大模型的稳定性测试体系,为紫光国芯、景嘉微等企业提供技术支撑[39]