模拟计算
搜索文档
能效比提升超228倍 我国科学家研制出新型芯片
科技日报· 2026-01-23 08:55
核心观点 - 北京大学团队成功研制出一种基于阻变存储器的非负矩阵分解模拟计算芯片,该芯片在计算速度和能效比上相比先进数字芯片有数量级的提升,为大规模数据处理提供了高效新方案 [1][2] 技术突破与原理 - 该技术针对非负矩阵分解这一核心数据降维技术,旨在解决传统数字硬件在处理百万级规模数据集时面临的计算复杂度和内存瓶颈问题 [1] - 团队采用模拟计算路径,直接利用物理定律实现并行运算,具有延时低、功耗低的先天优势 [1] - 芯片创新性地设计了基于阻变存储器的求解器和可重构紧凑型广义逆电路,通过电导补偿原理优化核心计算步骤,实现一步求解,从而优化了芯片面积与能耗 [1] 性能表现 - 在图像压缩任务中,芯片处理结果与全精度数字计算机相比精度损失极小,并可节省一半的存储空间 [2] - 在推荐系统应用中,芯片的预测误差率与数字芯片计算结果高度相近 [2] - 在MovieLens 100k数据集推荐系统训练任务中,与主流可编程数字硬件相比,该模拟计算器实现了212倍的速度提升和4.6万倍的能效提升 [2] - 在网飞规模数据集的推荐系统训练任务中,其计算速度较先进数字芯片提升约12倍,能效比提升超过228倍 [1][2] 应用前景与行业影响 - 该技术为非负矩阵分解这类约束优化问题的实时求解开辟了新路径,展现了模拟计算处理现实复杂数据的巨大潜力 [2] - 研究成果可为实时推荐系统、高清图像处理、基因数据分析等场景带来技术革新 [2] - 该技术将助力人工智能应用向更高效、更低功耗的方向发展 [2]
国产芯片上新!能效比提升超228倍
新浪财经· 2026-01-22 19:00
核心观点 - 北京大学团队成功研制出一种基于阻变存储器的非负矩阵分解模拟计算芯片,该芯片在计算速度和能效比上相比当前先进数字芯片有数量级提升,为大规模数据处理提供了高效新方案 [1][2] 技术突破与原理 - 该技术针对非负矩阵分解这一核心数据降维技术,旨在解决传统数字硬件在处理百万级规模数据集时面临的计算复杂度和内存瓶颈问题 [1] - 团队采用模拟计算路径,直接利用物理定律实现并行运算,具有延时低、功耗低的先天优势 [1] - 核心创新在于研制了基于阻变存储器的模拟计算求解器,并设计了可重构紧凑型广义逆电路,通过电导补偿原理以最少的计算单元实现相同功能,对核心计算步骤进行优化,实现一步求解,极大优化了芯片面积与能耗 [1] 性能验证结果 - 在图像压缩任务中,与全精度数字计算机结果相比,图片精度损失相差无几,同时节省了一半的存储空间 [2] - 在推荐系统应用中,其预测误差率与数字芯片计算结果高度相近 [2] - 在MovieLens 100k数据集推荐系统训练任务中,与主流可编程数字硬件相比,实现了212倍的速度提升和4.6万倍的能效提升 [2] - 在网飞规模数据集的推荐系统训练任务中,计算速度较先进数字芯片提升约12倍,能效比提升超过228倍 [2] 应用前景与行业影响 - 该技术为非负矩阵分解这类约束优化问题的实时求解开辟了新路径,展现了模拟计算处理现实复杂数据的巨大潜力 [2] - 该研究可为实时推荐系统、高清图像处理、基因数据分析等场景带来技术革新 [2] - 该成果将助力人工智能应用向更高效、更低功耗的方向发展 [2]
能效比提升超228倍 我国科学家研制出新芯片
科技日报· 2026-01-22 14:27
核心观点 - 北京大学团队研发出基于阻变存储器的非负矩阵分解模拟计算芯片,在计算速度和能效上相比先进数字芯片实现数量级提升,为大规模数据处理提供了高效新方案 [1][2] 技术突破与性能 - 团队设计了一种基于阻变存储器的非负矩阵分解模拟计算求解器,并创新设计了可重构紧凑型广义逆电路,通过电导补偿原理优化核心计算步骤,实现一步求解,优化了芯片面积与能耗 [1] - 与当前先进数字芯片相比,该模拟计算芯片的计算速度可提升约12倍,能效比提升超过228倍 [1] - 在MovieLens 100k数据集推荐系统训练任务中,与主流可编程数字硬件相比,实现了212倍的速度提升和4.6万倍的能效提升 [2] - 在网飞规模数据集的推荐系统训练任务中,计算速度较先进数字芯片提升约12倍,能效比提升超过228倍 [2] 应用验证与效果 - 在图像压缩任务中,与全精度数字计算机结果相比,图片精度损失相差无几,并节省了一半的存储空间 [2] - 在推荐系统应用中,其预测误差率与数字芯片计算结果高度相近 [2] - 该技术为非负矩阵分解这类约束优化问题的实时求解开辟了新路径,展现了模拟计算处理现实复杂数据的巨大潜力 [2] 技术背景与行业意义 - 非负矩阵分解是一种强大的数据降维技术,能从巨量庞杂信息中提炼潜在模式与特征,广泛应用于图像分析、信息聚类、个性化推荐等领域 [1] - 面对百万级规模的数据集,传统数字硬件受计算复杂度和内存瓶颈限制,难以满足实时处理需求 [1] - 模拟计算直接利用物理定律实现并行运算,具有延时低、功耗低的先天优势 [1] - 该研究可为实时推荐系统、高清图像处理、基因数据分析等场景带来技术革新,助力人工智能应用向更高效、更低功耗方向发展 [2]
新型专用计算芯片成功研发
环球网资讯· 2026-01-22 09:12
核心观点 - 北京大学研究团队成功研发出一种基于模拟计算架构的新型专用计算芯片 该芯片针对机器学习中的非负矩阵分解任务进行了硬件加速 在计算速度和能效比上相比先进数字芯片实现了数量级的提升 展现了模拟计算在应对AI算力挑战方面的巨大潜力 并为下一代智能计算技术发展提供了创新解决方案 [1][2] 技术突破与性能 - 团队创新性地采用基于阻变存储器的模拟计算架构 为非负矩阵分解任务研制了专用求解器 通过精巧的电路设计与算法协同 并采用原创的电导补偿技术 实现了核心计算步骤的“一步求解” 极大优化了芯片面积与能耗 [2] - 实验原型系统成功完成了对彩色图像的高质量分解 信噪比损失微乎其微 同时也高效处理了电影推荐数据集训练任务 精度几乎与数字芯片无异 [2] - 系统级评估显示 在处理网飞规模数据集的推荐系统训练任务时 该模拟求解器的计算速度较先进数字芯片提升约12倍 能效比提升超过228倍 [1][2] 应用与影响 - 该技术针对的非负矩阵分解是机器学习的核心任务之一 能从海量庞杂数据中提炼潜在模式与特征 广泛应用于图像分析、信息聚类和个性化推荐等领域 [1] - 传统数字芯片的串行计算模式在处理此类繁复计算时往往力不从心 成为制约实时智能的瓶颈 而新型专用芯片有望大幅提升个性化推荐的实时响应能力 [1][2] - 此类高能效专用芯片未来还有望为生成式AI训练提供更节能、更快的算力支持 [2] - 该成果拓展了高效计算架构的应用边界 为应对人工智能时代的算力挑战提供了创新解决方案 后续产业化推进有望在更多关键领域应用 有助于在下一代智能计算技术竞争中构建核心优势 [2]
绕开光刻机“卡脖子” 中国新型芯片问世!专访北大孙仲:支撑AI训练和具身智能 可在28纳米及以上成熟工艺量产
每日经济新闻· 2025-12-30 08:36
文章核心观点 - 北京大学团队成功研制出基于阻变存储器的高精度、可扩展模拟矩阵计算芯片,在全球范围内首次将模拟计算的相对误差从1%降低至千万分之一(10^-7),精度提升至24位定点精度,相当于数字计算的浮点32位(FP32)[1][7][12] - 该芯片采用模拟计算范式,利用物理定律直接进行计算,无需二进制编码和逻辑门操作,在能效和算力上相比数字计算有显著优势,能效提升百倍,算力吞吐量提升千倍[5][9] - 该技术可在28纳米及以上成熟制程量产,绕开先进光刻机限制,为应对AI算力与能耗挑战、降低对单一技术路径依赖提供了新的可能性[1][4][10] 技术原理与突破 - **计算范式**:模拟计算是一种不同于当前主流数字计算(GPU/TPU/CPU/NPU)的范式,它通过物理定律直接对物理量进行运算,省去了数字计算中二进制编码和逻辑门操作的“翻译”环节,因此速度更快、能耗更低[3][5] - **精度突破**:研究团队通过器件、电路和算法协同创新,将模拟计算的相对误差从1%量级大幅压降至千万分之一(10^-7)量级,解决了长期制约模拟计算应用的精度瓶颈,使其精度首次能够满足AI训练等高精度计算场景的刚性需求[7][9][12] - **核心创新**:1) 器件层面,首次采用可量产的阻变存储器作为核心器件,形成“现代模拟计算”范式;2) 电路层面,设计全新反馈电路,在不显著增加能耗与延时的前提下实现高精度;3) 算法层面,引入迭代优化及“位切片”算法,高效实现高精度矩阵方程求解[9][15] 性能优势与比较 - **能效与算力**:相较于数字计算,该模拟计算芯片能效提升百倍,算力吞吐量提升千倍[9] - **硬件效率**:数字计算完成一次“1+1”需要28个晶体管,完成两个10位数的乘法需要约1万个晶体管,而模拟计算在电子尺度通过物理定律直接完成,硬件资源开销与能耗下降数个量级[3][5] - **工艺优势**:芯片可在28纳米及以上成熟工艺节点量产,无需依赖最先进的制程和EUV光刻机,利用现有芯片生产线即可[1][9][22] 应用场景与前景 - **目标领域**:芯片面向矩阵计算,是AI大模型训练(尤其二阶训练)、6G大规模MIMO、具身智能、超级计算(如气象预报、量子力学模拟)等前沿领域的核心运算的理想载体[1][9][10][20] - **当前阶段**:目前处于实验室原理验证阶段,矩阵规模为16x16,更适用于中等规模场景,在小规模任务上性能优势不明显,尚未进行大规模应用[9][18] - **二阶训练潜力**:当前主流AI训练为一阶方法,二阶方法迭代次数更少但计算量巨大,该技术擅长快速求解矩阵方程,理论上非常适合加速AI二阶训练[18][19] 发展路径与规划 - **规模扩展**:团队计划在2年内将芯片阵列规模从16x16提升至128x128,并力争扩展至512x512,以达到在具身智能、6G通信等中等规模场景产生实际效用的水平[10][24] - **产业化路径**:芯片制造流程与数字芯片相同,可委托现有代工厂生产流片,产业化路径清晰,但走向消费端仍需大量工程化、可靠性验证和商业推广工作[10][22][23] - **战略意义**:该技术为中国算力发展提供了一条“换道超车”的可能性,有望降低对先进制程和英伟达GPU的单一依赖,团队在该赛道上处于全球领先位置,但距离真正“摆脱依赖”还有很长的路要走,需要持续投入进行技术储备[10][25] 技术载体与扩展性 - **核心载体**:当前研究以阻变存储器为硬件载体实现高速、低功耗矩阵方程求解,但模拟计算的核心是数学到物理的映射,原则上其他非易失存储器(如相变、磁性、铁电存储器等)也可承载该电路[16][17] - **规模扩大逻辑**:对于超算等需要求解“百万×百万”级别大规模矩阵方程的场景,可通过算法设计实现“以小博大”,例如用512x512的硬件求解1024x1024的方程[21]
绕开光刻机“卡脖子”,中国新型芯片问世!专访北大孙仲:支撑AI训练和具身智能,可在28纳米及以上成熟工艺量产
每日经济新闻· 2025-12-29 18:20
技术突破与核心优势 - 北京大学团队成功研制出基于阻变存储器的高精度、可扩展模拟矩阵计算芯片,在全球范围内首次将模拟计算的精度提升至24位定点精度[2] - 该芯片将模拟计算的相对误差从1%大幅降低至千万分之一(10⁻⁷),精度提升了5个数量级,首次使模拟计算具备与主流数字计算(如FP32)接轨的数值可靠性[8][13] - 核心创新点包括:器件层面采用可量产的阻变存储器实现“现代模拟计算”范式;电路层面设计全新反馈电路实现快速近似求解;算法层面结合“位切片”与迭代优化算法高效实现高精度矩阵方程求解[15] - 相较于数字计算,模拟计算通过物理定律直接进行运算,无需二进制编码和逻辑门操作,因此在硬件资源开销与能耗上均下降数个量级,能效提升百倍,算力吞吐量提升千倍[6][10] - 该芯片可在28纳米及以上成熟制程量产,能够利用现有芯片生产线,有效绕开先进光刻机等“卡脖子”环节[2][10] 应用场景与市场定位 - 该芯片面向矩阵计算,是AI推理(矩阵乘法)、AI二阶训练(矩阵方程求解)、6G通信、具身智能及科学计算等前沿领域的核心运算单元[2][10] - 该技术特别适用于AI模型的二阶训练加速,因为二阶训练每次迭代都需解矩阵方程,计算量巨大,而该芯片擅长快速矩阵方程求解[19] - 除AI与6G外,超级计算(如气象预报、量子力学模拟)是更庞大且契合的应用场景,因为超算中心的大量算力实质上都用于求解矩阵方程[21] - 目前芯片处于实验室原理验证阶段,矩阵规模为16x16,更适用于中等规模场景,在小规模任务上性能优势不明显,尚未进行大规模应用[11][18] - 团队计划在2年内将芯片阵列规模从16x16提升至128x128,并力争达到512x512,以在具身智能、6G通信等中等规模场景产生实际效用[11][25] 行业影响与战略意义 - 该技术为算力领域提供了一条全新的“模拟计算”技术路线,有助于减少对单一数字计算范式(如GPU)的依赖[4] - 随着摩尔定律趋于终结,晶体管微缩困难,数字计算陷入能耗困局,横向堆叠计算卡(从百卡到十万卡)的方式在能耗和碳排放上不可持续,模拟计算被视为一种潜在的突破路径[5] - 该成果由中国团队在全球范围内首次实现,在模拟计算赛道上处于领先位置,为中国在算力领域提供了“换道超车”的可能性,有望降低对先进制程和英伟达GPU的单一依赖[11] - 新型芯片的问世证实了新路径的可行性,但距离真正大规模应用和“摆脱依赖”仍有很长的路,需要国家、科技界和产业界持续投入进行技术储备,以抓住未来算力需求爆发的窗口期[11][26]
【科技日报】2025国内十大科技新闻解读
科技日报· 2025-12-25 14:46
人工智能 - 国产大模型DeepSeek-R1于2025年1月发布,凭借极低的训练成本以及在数学推理、代码生成等任务中比肩国际领先水平的突出表现,引发全球AI领域震动[2] - 该模型通过纯强化学习的训练方式,首次证明无需海量标注数据也可实现顶尖推理能力,使训练成本大幅下降,并能自主生成和验证推理步骤,实现自我反思和校正[2] - DeepSeek以开源姿态开放模型架构、训练工具及数据处理全流程,吸引全球数十万开发者参与生态共建,其成果于2025年9月登上《自然》杂志封面,成为全球首个经过权威同行评议的主流大语言模型[2] - 其发展道路有望推动全球AI竞争从“算力竞赛”转向“效率革命”,重塑以技术创新为核心驱动力的AI产业生态[3] 可控核聚变 - 2025年1月20日,中国全超导托卡马克核聚变实验装置(EAST)首次完成1亿摄氏度1000秒稳态长脉冲高约束模等离子体运行,创造新的世界纪录[4] - 实验参数跨越“亿度千秒”意味着人类首次在实验装置上模拟出未来聚变堆运行所需的环境,标志着聚变能源研究正从基础探索迈向工程实践[4] - EAST装置汇聚多项前沿技术于一体,拥有核心技术200多项、专利2000余项,自2006年建成以来,等离子体运行次数已超过15万次,在相关领域持续保持国际引领[4] 量子计算 - 2025年3月3日,中国科学技术大学等机构构建的超导量子计算原型机“祖冲之三号”打破超导体系量子计算优越性世界纪录[5] - 该原型机完成83比特32层的随机线路采样,以目前最优经典算法为标准,计算速度比当前最快的超级计算机快千万亿倍,比谷歌公开发表的最新成果快百万倍[5][6] - “祖冲之三号”包含105个可读取比特和182个耦合比特,量子比特相干时间达到72微秒,并行单比特门保真度达99.90%,两比特门保真度达99.62%,读取保真度达99.13%,综合性能国际领先[6] 材料科学 - 2025年3月13日,中国科学院物理研究所团队在国际上首次实现大面积二维金属材料制备,创造出单原子层超薄金属,其厚度仅为头发丝直径的二十万分之一[7] - 该团队发展了原子级制造的范德华挤压技术,成功实现原子极限厚度下各种二维金属的普适制备,被《自然》审稿人认为是二维材料研究领域的重大进展[7] 脑机接口 - 2025年6月14日,我国成功开展首例侵入式脑机接口前瞻性临床试验,成为全球第二个该技术进入临床试验阶段的国家[8] - 受试者植入设备后,经过2—3周训练便能通过意念控制电脑触摸板,完成打字、发信息、玩游戏等操作,达到与普通人相近的操控水平[8] - 临床试验采用的柔性神经电极是全球最小尺寸、柔性最强的神经电极,最大程度降低脑组织损伤;脑控植入体仅硬币大小,同样为全球最小尺寸,结合微创术式有效降低了手术风险并缩短康复周期[8][9] 月球探测 - 2025年7月9日,基于嫦娥六号月球样品的研究成果以封面文章形式发表于《自然》杂志,首次揭示了月球背面的演化历史[11] - 研究成果包括:首次揭示月背在约42亿年前和28亿年前存在两期不同的玄武质火山活动;首次获得月背古磁场信息,发现月球磁场强度可能在28亿年前发生过反弹;首次获得月球背面月幔的水含量,发现其显著低于正面月幔;首次发现月球背面玄武岩来自异常“贫瘠”的月幔区域[12] 生物技术 - 2025年9月16日,山东农业大学研究团队在《细胞》发表论文,首次揭示了单个体细胞发育成完整植株背后的分子机制,破解了植物细胞全能性机制之谜[13] - 该发现为破解农业生物技术长期存在的“再生瓶颈”开辟了新路径[13] 计算芯片 - 2025年10月13日,北京大学团队成功研制出基于阻变存储器的高精度、可扩展模拟矩阵计算芯片,首次实现了在精度上可与数字计算媲美的模拟计算系统[14] - 该芯片将模拟计算的精度提升至24位定点精度,标志着在突破模拟计算世纪难题、后摩尔时代计算范式变革中取得重大突破,为应对AI与6G通信等领域的算力挑战开辟了新路径[15] 政策规划 - 2025年10月23日,党的二十届四中全会审议通过“十五五”规划《建议》,将“加快高水平科技自立自强,引领发展新质生产力”列为专章[16] - 具体部署包括:加强原始创新和关键核心技术攻关、推动科技创新和产业创新深度融合、一体推进教育科技人才发展、深入推进数字中国建设[16] 高端制造 - 2025年11月5日,我国第一艘完全自主设计建造的电磁弹射型航空母舰福建舰入列,这是全球首艘采用常规动力电磁弹射技术的航母[18] - 福建舰跳过了蒸汽弹射阶段,直接采用最先进的电磁弹射技术,该技术由我国自主设计、研发和制造,处于世界先进水平[18] - 电磁弹射能使战斗机满负荷起飞并搭载固定翼舰载预警机,其装置相比蒸汽弹射重量更轻、体积更小,优化了航母内部布置[18]
2025国内十大科技新闻解读
科技日报· 2025-12-25 09:00
人工智能 - 国产大模型DeepSeek-R1于2025年1月发布,凭借极低的训练成本以及在数学推理、代码生成等任务中比肩国际领先水平的突出表现,引发全球AI领域震动[2] - 该模型的核心竞争力源于对算力效率的系统性革新,通过纯强化学习的训练方式,首次证明无需海量标注数据也可实现顶尖推理能力,使训练成本大幅下降[2] - DeepSeek-R1能够自主生成和验证推理步骤,实现自我反思和校正,展现出强大的智能水平[2] - DeepSeek以开源姿态开放模型架构、训练工具及数据处理全流程,吸引全球数十万开发者参与生态共建[2] - 2025年9月,DeepSeek-R1相关成果登上《自然》杂志封面,成为全球首个经过权威同行评议的主流大语言模型[2] - 该模型的发展道路证明通过算法与工程创新可在有限算力下达到顶尖性能,有望推动全球AI竞争从“算力竞赛”转向“效率革命”[3] 可控核聚变 - 2025年1月20日,中国全超导托卡马克核聚变实验装置(EAST)首次完成1亿摄氏度1000秒稳态长脉冲高约束模等离子体运行,创造新的世界纪录[4] - 实验参数跨越“亿度千秒”意味着人类首次在实验装置上模拟出未来聚变堆运行所需的环境,标志着聚变能源研究正从基础探索迈向工程实践[4] - EAST装置汇聚“超高温”“超低温”等前沿技术于一体,拥有核心技术200多项、专利2000余项[4] - 自2006年建成以来,EAST装置等离子体运行次数已超过15万次,在稳态等离子体运行工程和物理领域持续保持国际引领[4] 量子计算 - 2025年3月3日,中国科学技术大学等机构构建的超导量子计算原型机“祖冲之三号”打破超导体系量子计算优越性世界纪录[5] - 该原型机完成83比特32层的随机线路采样,以目前最优经典算法为比较标准,计算速度比当前最快的超级计算机快千万亿倍,比谷歌公开发表的最新成果快百万倍[5][6] - “祖冲之三号”包含105个可读取比特和182个耦合比特,量子比特相干时间达到72微秒,并行单比特门保真度达到99.90%,并行两比特门保真度达到99.62%,并行读取保真度达到99.13%,综合性能达到国际领先水平[6] 前沿材料科学 - 2025年3月13日,中国科学院物理研究所科研团队在国际上首次实现大面积二维金属材料制备,创造出单原子层超薄金属,其厚度仅为头发丝直径的二十万分之一[7] - 该团队发展了原子级制造的范德华挤压技术,通过将金属熔化并利用单层二硫化钼作为范德华压砧挤压,成功实现原子极限厚度下各种二维金属的普适制备[7] - 这一成果将有力推动二维金属领域科学研究,是二维材料研究领域的一个重大进展[7] 脑机接口 - 2025年6月14日,中国科学院脑科学与智能技术卓越创新中心联合复旦大学附属华山医院等,成功开展我国首例侵入式脑机接口前瞻性临床试验,标志着我国成为全球第二个该技术进入临床试验阶段的国家[8] - 受试者植入脑机接口设备后,经过2—3周训练,便能够通过意念控制电脑触摸板,完成打字、发信息、玩电脑游戏等操作,达到与普通人相近的操控水平[8] - 临床试验采用的柔性神经电极具备高密度、大范围、高通量、长时间的稳定在体神经信号采集能力,是目前全球最小尺寸、柔性最强的神经电极[8] - 采用的脑控植入体仅硬币大小,同样为全球最小尺寸,叠加神经外科微创术式,有效降低手术期风险,显著缩短术后康复周期[8] 月球探测与科研 - 2025年7月9日,中国科学院发布嫦娥六号月球样品系列研究成果,其中4项成果以封面文章形式发表于《自然》杂志,首次揭示了月球背面的演化历史[11] - 研究成果首次揭示月背在约42亿年前和28亿年前存在两期不同的玄武质火山活动[12] - 首次获得月背古磁场信息,发现月球磁场强度可能在28亿年前发生过反弹[12] - 首次获得月球背面月幔的水含量,发现其显著低于正面月幔[12] - 首次发现月球背面玄武岩来自异常“贫瘠”的月幔区域,揭示大型撞击事件可能对月球深部圈层演化产生巨大影响[12] 生物技术与农业科学 - 2025年9月16日,《细胞》在线发表山东农业大学研究团队论文,首次揭示了单个体细胞发育成完整植株背后的分子机制,破解了植物细胞全能性机制之谜[13] - 研究团队经过十几万次实验积累,发现拟南芥叶片体细胞内合成大量生长素是“普通细胞”变身“全能干细胞”的关键[13] - 该发现为破解农业生物技术长期存在的“再生瓶颈”开辟了新路径[13] 计算芯片与架构 - 2025年10月13日,北京大学研究团队成功研制出基于阻变存储器的高精度、可扩展模拟矩阵计算芯片,首次实现了在精度上可与数字计算媲美的模拟计算系统[14] - 该团队通过新型信息器件、原创电路和经典算法的协同设计,构建了一个基于阻变存储器阵列的高精度、可拓展的全模拟矩阵方程求解器,首次将模拟计算的精度提升至24位定点精度[15] - 这一成果标志着在突破模拟计算世纪难题上取得重大突破,为应对人工智能与6G通信等领域的算力挑战开辟了全新路径[15] 政策与战略规划 - 2025年10月23日,党的二十届四中全会审议通过《中共中央关于制定国民经济和社会发展第十五个五年规划的建议》,将“加快高水平科技自立自强,引领发展新质生产力”列为专章[16] - 《建议》作出四方面具体部署:加强原始创新和关键核心技术攻关、推动科技创新和产业创新深度融合、一体推进教育科技人才发展、深入推进数字中国建设[16] 高端装备制造 - 2025年11月5日,我国第一艘电磁弹射型航空母舰福建舰入列,这是全球首艘采用常规动力电磁弹射技术的航母[18] - 福建舰跳过了蒸汽弹射阶段,直接采用最先进的电磁弹射技术,该技术由我国自主设计、研发和制造,处于世界先进水平[18] - 与传统起飞方式相比,电磁弹射能使战斗机满负荷起飞,并让航母具备搭载固定翼舰载预警机的能力,大幅提升预警探测和指挥调度能力[18] - 电磁弹射装置重量更轻、体积更小,优化了航母内部布置,潜在地提升了航母的生存能力[18]
成立仅2月,这家AI初创公司种子轮融资33亿,贝索斯也出手了
搜狐财经· 2025-12-13 18:20
公司融资与估值 - 2025年12月8日,AI神经形态计算芯片初创公司Unconventional AI在种子轮融资中筹集了4.75亿美元(约合33亿元),投后估值飙升至45亿美元(约合318亿元),创下AI芯片领域早期融资纪录之一 [2] - 本轮融资由Andreessen Horowitz(a16z)和Lightspeed Venture Partners共同领投,其他投资者包括Lux Capital、DCVC、Databricks以及亚马逊创始人杰夫·贝索斯,创始人Naveen Rao本人也投资了1000万美元 [2] - 此轮融资是公司更大规模融资计划的第一步,后续计划融资总额可能高达10亿美元 [2] 创始团队背景 - 公司由前Databricks人工智能主管Naveen Rao牵头创立,联合创始人包括麻省理工学院副教授Michael Carbin、斯坦福大学助理教授Sara Achour以及前谷歌工程师MeeLan Lee,背景覆盖硬件、软件和神经科学领域 [3] - 创始人Naveen Rao对类脑计算的探索始于25年前,拥有布朗大学神经科学博士学位,曾担任高通神经形态研究员,是一位成功的连续创业者 [5][6] - Rao的创业履历是硅谷AI芯片发展的缩影:2014年联合创立AI芯片公司Nervana Systems,该公司于2016年被英特尔以约4亿美元收购;2021年联合创立生成式AI工具平台MosaicML,该公司于2023年被Databricks以13亿美元收购 [8][9] 公司创立与技术愿景 - 2025年10月,Rao离开Databricks创立Unconventional AI,旨在开发“下一代数字计算机”,借鉴神经科学原理设计模拟芯片,以解决AI训练电力需求已接近全球数据中心总能耗2%的问题 [10] - 公司核心是重新设计AI计算的底层硬件架构,开发专为人工智能工作负载优化的高能效模拟计算芯片及完整配套系统,以突破当前GPU架构的能效墙 [11] - 技术灵感来源于人脑仅约20瓦的功耗却能完成复杂工作,公司目标是追求“生物规模的能源效率”,并重拾模拟计算路径,利用半导体材料本身的物理特性直接进行计算 [12][13] 技术路径与研发策略 - 公司探索利用半导体材料的物理特性进行模拟计算,这种方法能显著降低能源消耗,提升计算适应性,使芯片更自然地处理不确定性数据 [13][14] - 技术路线图计划花费五年时间开发一种新型模拟芯片,第一个原型芯片“很可能是有史以来最大的模拟芯片之一” [14] - 研发策略采取开放探索态度,未来几年将测试一系列想法和原型以确定最高效、最具可扩展性的范式,公司专注于长期基础研究,目标是成为一家真正的系统公司 [14][15] 行业背景与Neo-Lab热潮 - 行业共识认为,过去依赖“扩展定律”通过扩大数据与模型规模提升AI能力的单一路线已不可持续,单纯堆算力、堆电力的传统路径已走到极限 [16] - 一种名为“Neo-Lab”的新研发范式兴起,指的是一批从AI巨头出走的顶尖研究员创立的、专注于高风险长周期基础研究的新型实验室,它们不再追逐规模竞赛,转而探索智能本质、神经形态计算等基础方向 [17] - Neo-Lab的共同特点是创始人履历显赫、研究方向大胆、没有成熟产品,却在早期获得极高估值,例如前OpenAI首席科学家Ilya Sutskever创立的SSI估值达320亿美元,前OpenAI CTO Mira Murati创立的Thinking Machines Lab估值达100亿美元 [18][19] 资本逻辑与市场趋势 - Unconventional AI的高估值反映了资本逻辑的转变,押注重点已不是短期产品路线图,而是创始人被两次成功创业验证的卓越判断力与执行力,以及团队挑战行业根本问题的抱负 [19] - 投资方a16z表示,其投资的是“一家旨在为人工智能构建更高效计算基础的公司”,资本在用巨额资金购买创始人“用履历兑换一个不一样未来”的可能 [20] - 在扩展定律边际效应递减、电力成为新瓶颈的背景下,市场更愿意为系统级、基础性的计算创新支付高额溢价 [20]
成立仅2月,这家AI初创公司种子轮融资33亿,贝索斯也出手了
创业邦· 2025-12-13 11:05
公司融资与估值 - 人工智能硬件初创公司Unconventional AI在成立仅两个月后,于种子轮融资中筹集了4.75亿美元(约合33亿元人民币),投后估值达到45亿美元(约合318亿元人民币)[3][4] - 此轮融资由Andreessen Horowitz (a16z) 和 Lightspeed Venture Partners共同领投,其他投资者包括Lux Capital、DCVC、Databricks以及亚马逊创始人杰夫·贝索斯,创始人Naveen Rao本人也投资了1000万美元[4] - 该笔融资是公司更大规模融资计划的第一步,后续计划融资总额可能高达10亿美元[4] 创始团队背景 - 公司的核心竞争力源于其豪华的创始团队,由前Databricks人工智能主管Naveen Rao牵头创立[5] - 联合创始人包括麻省理工学院副教授Michael Carbin、斯坦福大学助理教授Sara Achour以及前谷歌工程师MeeLan Lee,背景覆盖硬件、软件和神经科学领域[5] - 创始人Naveen Rao是一位成功的连续创业者,其履历是硅谷AI硬件发展的缩影[10] 创始人创业历程 - Naveen Rao于2014年首次创业,联合创立了AI芯片公司Nervana Systems,该公司在成立两年内完成三轮共超过2400万美元融资,并于2016年被英特尔以约4亿美元收购[12][13] - 2021年初,Rao联合创立生成式AI工具平台MosaicML,该公司在2023年6月被Databricks以13亿美元的全现金交易收购[13][14] - 2025年10月,Rao离开Databricks,组建Unconventional AI,旨在开发下一代数字计算机[15] 公司技术愿景与路线 - Unconventional AI的核心是重新设计AI计算的底层硬件架构,开发专为人工智能工作负载优化的高能效模拟计算芯片及完整系统[17] - 公司旨在解决当前GPU架构的局限性,即能源消耗过高,无法支撑万亿参数模型的持续迭代,AI训练的电力需求已接近全球数据中心总能耗的2%[14][15] - 技术灵感来源于人脑的高能效,人脑功耗仅约20瓦,公司目标是追求“生物规模的能源效率”[19] 模拟计算技术路径 - 公司选择了一条不同于主流数字芯片的技术道路,重拾“模拟计算”路径,利用半导体材料本身的物理特性来直接进行计算[19] - 该方法的核心优势在于能显著降低能源消耗,同时提升计算的适应性,使芯片能更自然地处理AI任务中的不确定性数据[20] - 公司计划花费五年时间开发一种新型模拟芯片,第一个原型芯片“很可能是有史以来最大的模拟芯片之一”,目前处于原型设计和验证阶段[20][21] 行业背景与Neo-Lab热潮 - 过去近十年,AI领域的重大突破主要由OpenAI、DeepMind等“前沿实验室”推动,遵循“扩展定律”,但暴露出高成本、高能耗与路径趋同等问题[23] - 2025年7月的一项元分析研究显示,在可验证的实验中,仅39%的任务表现出稳定的线性缩放关系,其余61%呈现非线性、非单调或完全不可预测的行为,“逆扩展现象”也被确认[23] - 行业共识认为“只靠规模”的单一路线已不可持续,这催生了名为“Neo-Lab”的新研发范式,即由顶尖研究员创立、专注于高风险长周期基础研究的新型实验室[24][25] 市场估值逻辑与资本押注 - Unconventional AI身处Neo-Lab资本热潮中,类似企业包括前OpenAI首席科学家Ilya Sutskever创立的SSI(估值320亿美元)和前OpenAI CTO Mira Murati创立的Thinking Machines Lab(估值100亿美元)[26][27] - 资本押注的并非短期的产品路线图,而是创始人被两次成功创业验证的卓越判断力与执行力,以及团队挑战行业根本问题的抱负[27] - 投资方a16z表示,他们投资的是一家旨在为人工智能构建更高效计算基础的公司,这代表市场愿意为系统级、基础性的计算创新支付高额溢价[28]