新一代光计算芯片研究获突破
新浪财经·2025-12-22 03:38

文章核心观点 - 上海交通大学集成电路学院陈一彤课题组在新一代算力光芯片方向取得重大突破,首次实现了支持大规模语义视觉生成模型的全光计算芯片LightGen [1] - LightGen芯片在单枚芯片上同时突破了百万级光学神经元集成、全光维度转换、不依赖真值的光学生成模型训练算法三项关键瓶颈,实现了面向大规模生成任务的全光端到端闭环 [2] - 该突破为新一代算力芯片助力前沿人工智能开辟了新路径,为探索更高速、更高能效的生成式智能计算提供了新的研究方向 [2] 技术突破与芯片性能 - 芯片实现了“全光计算”,即让光在芯片中传播,利用光场变化完成计算,以发挥光的高速和并行优势 [1] - 芯片突破了三大瓶颈:单片上百万级光学神经元集成、全光维度转换、不依赖真值的光学生成模型训练算法 [2] - 芯片能够完整实现“输入—理解—语义操控—生成”的闭环,让光“理解”和“认知”语义,并生成全新媒体数据 [2] - 实验验证芯片可完成高分辨率图像语义生成、3D生成、高清视频生成及语义调控,同时支持去噪、局部与全局特征迁移等多项大规模生成式任务 [2] 行业背景与挑战 - 生成式人工智能正走向更复杂的真实世界应用,模型越大、分辨率越高、生成内容越丰富,对算力与能耗的需求就越惊人 [1] - 光计算长期被视为突破算力与能耗瓶颈的重要方向 [1] - 当前光电芯片主要擅长加速判别类任务,距离支撑前沿大规模生成模型还有不小距离 [1] - 将光计算用于生成式AI的难点在于:生成模型规模大且需在不同维度间变换,小规模芯片需频繁在光与电之间级联或复用,会抵消速度优势并增加延迟与能耗 [1]