非负矩阵分解
搜索文档
能效比提升超228倍 我国科学家研制出新型芯片
科技日报· 2026-01-23 08:55
核心观点 - 北京大学团队成功研制出一种基于阻变存储器的非负矩阵分解模拟计算芯片,该芯片在计算速度和能效比上相比先进数字芯片有数量级的提升,为大规模数据处理提供了高效新方案 [1][2] 技术突破与原理 - 该技术针对非负矩阵分解这一核心数据降维技术,旨在解决传统数字硬件在处理百万级规模数据集时面临的计算复杂度和内存瓶颈问题 [1] - 团队采用模拟计算路径,直接利用物理定律实现并行运算,具有延时低、功耗低的先天优势 [1] - 芯片创新性地设计了基于阻变存储器的求解器和可重构紧凑型广义逆电路,通过电导补偿原理优化核心计算步骤,实现一步求解,从而优化了芯片面积与能耗 [1] 性能表现 - 在图像压缩任务中,芯片处理结果与全精度数字计算机相比精度损失极小,并可节省一半的存储空间 [2] - 在推荐系统应用中,芯片的预测误差率与数字芯片计算结果高度相近 [2] - 在MovieLens 100k数据集推荐系统训练任务中,与主流可编程数字硬件相比,该模拟计算器实现了212倍的速度提升和4.6万倍的能效提升 [2] - 在网飞规模数据集的推荐系统训练任务中,其计算速度较先进数字芯片提升约12倍,能效比提升超过228倍 [1][2] 应用前景与行业影响 - 该技术为非负矩阵分解这类约束优化问题的实时求解开辟了新路径,展现了模拟计算处理现实复杂数据的巨大潜力 [2] - 研究成果可为实时推荐系统、高清图像处理、基因数据分析等场景带来技术革新 [2] - 该技术将助力人工智能应用向更高效、更低功耗的方向发展 [2]
国产芯片上新!能效比提升超228倍
新浪财经· 2026-01-22 19:00
核心观点 - 北京大学团队成功研制出一种基于阻变存储器的非负矩阵分解模拟计算芯片,该芯片在计算速度和能效比上相比当前先进数字芯片有数量级提升,为大规模数据处理提供了高效新方案 [1][2] 技术突破与原理 - 该技术针对非负矩阵分解这一核心数据降维技术,旨在解决传统数字硬件在处理百万级规模数据集时面临的计算复杂度和内存瓶颈问题 [1] - 团队采用模拟计算路径,直接利用物理定律实现并行运算,具有延时低、功耗低的先天优势 [1] - 核心创新在于研制了基于阻变存储器的模拟计算求解器,并设计了可重构紧凑型广义逆电路,通过电导补偿原理以最少的计算单元实现相同功能,对核心计算步骤进行优化,实现一步求解,极大优化了芯片面积与能耗 [1] 性能验证结果 - 在图像压缩任务中,与全精度数字计算机结果相比,图片精度损失相差无几,同时节省了一半的存储空间 [2] - 在推荐系统应用中,其预测误差率与数字芯片计算结果高度相近 [2] - 在MovieLens 100k数据集推荐系统训练任务中,与主流可编程数字硬件相比,实现了212倍的速度提升和4.6万倍的能效提升 [2] - 在网飞规模数据集的推荐系统训练任务中,计算速度较先进数字芯片提升约12倍,能效比提升超过228倍 [2] 应用前景与行业影响 - 该技术为非负矩阵分解这类约束优化问题的实时求解开辟了新路径,展现了模拟计算处理现实复杂数据的巨大潜力 [2] - 该研究可为实时推荐系统、高清图像处理、基因数据分析等场景带来技术革新 [2] - 该成果将助力人工智能应用向更高效、更低功耗的方向发展 [2]
能效比提升超228倍 我国科学家研制出新芯片
科技日报· 2026-01-22 14:27
核心观点 - 北京大学团队研发出基于阻变存储器的非负矩阵分解模拟计算芯片,在计算速度和能效上相比先进数字芯片实现数量级提升,为大规模数据处理提供了高效新方案 [1][2] 技术突破与性能 - 团队设计了一种基于阻变存储器的非负矩阵分解模拟计算求解器,并创新设计了可重构紧凑型广义逆电路,通过电导补偿原理优化核心计算步骤,实现一步求解,优化了芯片面积与能耗 [1] - 与当前先进数字芯片相比,该模拟计算芯片的计算速度可提升约12倍,能效比提升超过228倍 [1] - 在MovieLens 100k数据集推荐系统训练任务中,与主流可编程数字硬件相比,实现了212倍的速度提升和4.6万倍的能效提升 [2] - 在网飞规模数据集的推荐系统训练任务中,计算速度较先进数字芯片提升约12倍,能效比提升超过228倍 [2] 应用验证与效果 - 在图像压缩任务中,与全精度数字计算机结果相比,图片精度损失相差无几,并节省了一半的存储空间 [2] - 在推荐系统应用中,其预测误差率与数字芯片计算结果高度相近 [2] - 该技术为非负矩阵分解这类约束优化问题的实时求解开辟了新路径,展现了模拟计算处理现实复杂数据的巨大潜力 [2] 技术背景与行业意义 - 非负矩阵分解是一种强大的数据降维技术,能从巨量庞杂信息中提炼潜在模式与特征,广泛应用于图像分析、信息聚类、个性化推荐等领域 [1] - 面对百万级规模的数据集,传统数字硬件受计算复杂度和内存瓶颈限制,难以满足实时处理需求 [1] - 模拟计算直接利用物理定律实现并行运算,具有延时低、功耗低的先天优势 [1] - 该研究可为实时推荐系统、高清图像处理、基因数据分析等场景带来技术革新,助力人工智能应用向更高效、更低功耗方向发展 [2]
新型专用计算芯片成功研发
环球网资讯· 2026-01-22 09:12
核心观点 - 北京大学研究团队成功研发出一种基于模拟计算架构的新型专用计算芯片 该芯片针对机器学习中的非负矩阵分解任务进行了硬件加速 在计算速度和能效比上相比先进数字芯片实现了数量级的提升 展现了模拟计算在应对AI算力挑战方面的巨大潜力 并为下一代智能计算技术发展提供了创新解决方案 [1][2] 技术突破与性能 - 团队创新性地采用基于阻变存储器的模拟计算架构 为非负矩阵分解任务研制了专用求解器 通过精巧的电路设计与算法协同 并采用原创的电导补偿技术 实现了核心计算步骤的“一步求解” 极大优化了芯片面积与能耗 [2] - 实验原型系统成功完成了对彩色图像的高质量分解 信噪比损失微乎其微 同时也高效处理了电影推荐数据集训练任务 精度几乎与数字芯片无异 [2] - 系统级评估显示 在处理网飞规模数据集的推荐系统训练任务时 该模拟求解器的计算速度较先进数字芯片提升约12倍 能效比提升超过228倍 [1][2] 应用与影响 - 该技术针对的非负矩阵分解是机器学习的核心任务之一 能从海量庞杂数据中提炼潜在模式与特征 广泛应用于图像分析、信息聚类和个性化推荐等领域 [1] - 传统数字芯片的串行计算模式在处理此类繁复计算时往往力不从心 成为制约实时智能的瓶颈 而新型专用芯片有望大幅提升个性化推荐的实时响应能力 [1][2] - 此类高能效专用芯片未来还有望为生成式AI训练提供更节能、更快的算力支持 [2] - 该成果拓展了高效计算架构的应用边界 为应对人工智能时代的算力挑战提供了创新解决方案 后续产业化推进有望在更多关键领域应用 有助于在下一代智能计算技术竞争中构建核心优势 [2]