算力效率
搜索文档
大模型产业化最好的时代,中国AI「杀死」了参数崇拜
36氪· 2026-02-10 21:58
全球AI产业趋势转变 - 2025年被视为大模型的“祛魅”之年,行业焦点从对AGI的狂热想象和“参数竞赛”转向“推理成本”和“实用性”等工业化难题[3] - 大模型加速从技术探索进入技术与需求双向赛跑的商业化深水区,OpenAI、Google等巨头纷纷转向推出针对企业级市场的高性价比推理模型[3] - 模型迭代周期因市场适应性被极速压缩,从数年压缩到每月甚至每周,为中国AI创造了“变道超车”的时机[3] 中国AI的差异化优势与战略 - 中国大模型在2025年出现分水岭,从参数为王转向产业为本,从技术跟随走向先验,算力封锁反而带来了架构创新上的实用主义、商业化上的全栈服务深入以及生态布局上的策略等韧性[4] - 中国AI通过“工程化红利”开启新的增长曲线,其特质在于将技术转化为先进生产力,而非焦虑Scaling Law是否见顶[20] - 在产业化深水区,大模型必须成为实用、好用、企业可负担的“超级配角”,主角是企业与人的经验积累[10] 产业化落地:智能驾驶与制造业案例 - 在智能驾驶领域,大模型成为驱动智驾进化的“超级底座”和“隐形”的云端大脑,阿里云支撑了中国100%车企的智能化落地[7][9] - 小鹏汽车基于阿里云建成国内汽车行业首个10 EFLOPS规模的AI算力集群,打造“云端模型工厂”,全链路迭代周期可达平均5天一次[9] - 小鹏第二代VLA基于1亿clips数据训练,相当于人类司机驾驶65000年遇到的极限场景总和[9] - 在制造业,三一重工基于千问大模型打造了50多个AI Agent,覆盖研发、生产、销售、服务全链路,将数十年的非标经验与行业know-how通过全参数微调“焊”进大模型[10] 大模型效率与生产力进化 - 国产大模型重新定义SOTA,关注单位算力下的效率和生产力,致力于解决“算力贵、推理慢、部署难”三大产业化难题[14] - 千问大模型在由真人用户随机出题的盲测平台Chatbot Arena中成绩跻身全球前三,并拿到代码、数学等5项能力第一[15] - 千问3通过混合推理架构与高稀疏度MoE技术,将800亿参数的智力压缩进每次仅需激活30亿参数的推理中,训练与推理成本降低了90%[16] - 万相Wan 2.2作为业界首个MoE视频生成模型,直接节省了50%的算力[16] - 千问2.5-1M将长文本推理速度提升近7倍,让处理百万字文档从“分钟级”变为“秒级”[17] - 千问3-4B和千问3-30B-A3B等模型让性能媲美GPT-4o的国产大模型可直接在手机等消费级硬件上流畅运行[17] - 生产力提升实例:海艺AI接入万相2.6后,用户内容创作效率提升6倍;智联招聘利用AI将人岗匹配率平均提升超70%[20] 开源生态与全球影响力 - 在全球巨头转向闭源的趋势下,阿里云坚持开源,千问大模型系列通过全球开发者的“众包迭代”,进化速度超越了实验室封闭模型[22][25] - 阿里云是全球唯一一家同时拥有全模态开源大模型和全栈AI服务的厂商,其“全栈+开源+可参考行业解决方案”模式降低了企业AI落地门槛[23][26] - “Qwen Architecture”正在成为全球AI行业事实上的通用标准,2025年出现“硅谷反向学习”现象,硅谷巨头和创业公司开始将中国开源模型作为创新起点[26] - Airbnb CEO坦言其核心客服Agent主要依赖千问系列模型;硅谷AI初创公司Nexusflow的旗舰模型Athene-V2基于Qwen-2.5-72B微调[27] - 在Hugging Face上,全球开源模型排行榜Top10中大部分是基于千问二次开发的衍生模型,千问扮演了“AI时代的安卓”角色[27]
大模型产业化最好的时代,中国AI「杀死」了参数崇拜
36氪· 2026-02-10 21:30
文章核心观点 - 2025年全球大模型产业进入以“推理成本”和“实用性”为核心的“祛魅”与工业化深水区,竞争焦点从技术探索转向技术与需求的双向赛跑[3] - 市场视角的转变为中国AI创造了“变道超车”的时机,中国大模型的发展路径从“参数为王”转向“产业为本”,展现出架构创新实用主义、商业化全栈服务深入和生态布局全球化责任等韧性[4] - 坚持长期主义道路,使得“中国方案”在AI工业化时代比以往任何时候都更有可能拔得头筹[2][5] 大模型产业化趋势与角色转变 - 大模型在产品形态上呈现“隐形”趋势,从台前走向幕后,成为驱动产业智能化的“超级底座”或“超级配角”[6][7][8] - 在智能驾驶领域,大模型成为驱动智驾进化的“超级底座”,例如小鹏汽车基于阿里云算力支持,建成国内汽车行业首个10 EFLOPS规模的AI算力集群,实现从云到端全链路迭代周期平均5天一次[10] - 在制造业,大模型深入生产线,例如三一重工基于千问大模型打造50多个AI Agent覆盖全链路,通过全参数微调将数十年非标经验内化为可复制的数字资产[11] - 产业化反向定义技术,大模型必须成为实用、好用、企业可负担的“配角”,解决工厂流水线延迟、金融风控零容忍、智能硬件端侧功耗等具体场景问题[12] 中国大模型的效率进化与生产力提升 - 国产大模型重新定义SOTA标准,从追求榜单高分转向关注单位算力下的效率和生产力,核心是让每一块钱投入换回实际效率提升[16] - 在“卷效率”道路上实现降维打击,重点解决“算力贵、推理慢、部署难”三大产业化难题[18] - 千问大模型通过架构创新提升效率,例如千问3采用混合推理架构与高稀疏度MoE技术,将800亿参数智力压缩进每次仅激活30亿参数的推理中,训练与推理成本降低90%[18] - 在多模态可控性方面取得工业化突破,万相Wan 2.2作为业界首个MoE视频生成模型节省50%算力,万相Wan 2.6成为国内首个支持角色扮演功能的视频模型[19] - 算力效率进化打破云与端界限,千问3-4B和千问3-30B-A3B等模型让性能媲美GPT-4o的大模型可在手机等消费级硬件上流畅运行[19] - 在长文本处理上实现速度飞跃,千问2.5-1M将推理速度提升近7倍,使处理百万字级别文档从“分钟级”变为“秒级”[20] - 效率进化直接转化为生产力质变,例如海艺AI接入万相2.6后用户内容创作效率提升6倍,智联招聘利用AI将人岗匹配率平均提升超70%[23] 开源生态与中国AI的全球竞争力 - 生态决定AI企业能走多远,在全球巨头转向闭源趋势下,阿里云坚持开源大模型系列,将其作为有效的生态竞争策略[25][26] - 阿里云是全球唯一同时拥有全模态开源大模型和全栈AI服务的厂商,“左手模型、右手基建”的生态位使其在算力调度与应用开发底层逻辑中具备独特竞争力[26] - 开源策略带来“众包迭代”,千问大模型系列被全球开发者在极端场景下测试与魔改,其进化速度超越了实验室封闭模型,甚至反向推动了架构与产业化突破[28] - 开源生态降低门槛并共享标准,“全栈+开源+可参考行业解决方案”模式帮助中小企业迅速将基模能力转化为生产力,并对技术黑箱与不合理溢价形成打击[28] - “Qwen Architecture”正在成为全球AI行业事实上的通用标准,出现“硅谷反向学习”现象,硅谷巨头和创业公司开始将中国开源模型作为创新起点[28] - 具体案例包括Airbnb核心客服Agent主要依赖千问系列模型,硅谷AI初创Nexusflow旗舰模型Athene-V2基于Qwen-2.5-72B微调[29] - 在开发者社区Hugging Face上,全球开源模型排行榜Top10中大部分是基于千问二次开发的衍生模型,千问已扮演“AI时代的安卓”角色[29]
云天励飞董事长陈宁:以GPNPU架构推动算力效率大幅提升
中证网· 2025-12-04 18:37
核心观点 - AI行业竞争焦点正从追求“更聪明”转向追求“更高效、更安全、更普惠”的系统性竞争 [1] - 实现AI普惠未来的关键在于显著降低计算成本与能耗,并推动技术大规模落地应用 [1][2] AI行业发展趋势与瓶颈 - 现有计算体系在能耗和效率上面临巨大压力,算力成本急剧攀升成为AI发展的真正瓶颈 [1] - 模拟计算、类脑芯片及基于类器官的计算等新方向在理论上具备功耗和通信优势,但基于脑细胞类器官的计算研究仍处早期,不足以承担大规模AI负载 [1] - GPU本质是通用计算架构,并非为神经网络量身定制,在大模型时代面临效率挑战 [1] - 全球AI芯片产业规模到2030年有望达到约5万亿美元,其中训练芯片约占1万亿美元,面向终端与行业侧的推理/处理芯片有望达到4万亿美元,占比约80% [3] - 随着智能体能力下沉,AI处理芯片将被广泛嵌入眼镜、耳机、手机、笔记本、家电及各类企业设备 [3] 公司战略与技术路径 - 云天励飞将以NPU为核心,推出通用神经网络处理器架构,走“推理优先架构”路线 [1][2] - 公司目标是通过深度优化矩阵/向量单元、存储层级和带宽利用,将100万个token的生成成本从约1美元压到1美分,实现百倍级效率提升 [2] - 公司已向国际相关机构建议,推动建立统一的AI处理芯片与推理网络标准,以实现不同国家和地区在互联互通的推理网络上共享能力,尤其在医疗与教育领域实现“AI for All” [3] 区域产业生态与竞争力构建 - 中国长三角地区在算法与软件开发方面优势明显,粤港澳大湾区在硬件制造与应用落地上更具活力 [2] - 仅做基础研究不落地应用会变成“象牙塔”,仅追逐短期应用不推动底层架构演进则会透支未来竞争力 [2] - 真正具备全球影响力的AI生态,是“基础理论+专用算力+大规模场景”相互强化的结果 [2]
性能损耗压至1/3以下,立体密算破解“安全与算力两难”
21世纪经济报道· 2025-11-26 18:48
技术体系核心观点 - 立体密算体系通过融合国产芯片、国密算法与可信计算3.0,构建覆盖算力、网络、存储、数据与AI全流程的内生安全防护体系[1][2] - 该体系实现了从“单点防御”到“体系化内生安全”的范式跃迁,将防护范围扩展至数据处理全生命周期的每一个环节,实现“可用不可见”的安全目标[2] - 通过芯片底层的可信硬件加速、国密算法硬件化等机制,将安全方案带来的性能损耗降至传统加密方案的1/3以下[2] 技术架构与优势 - 体系采用五层架构,从底层的算力与密码能力层到顶层的可信AI计算层,依托国产芯片构建“信任根”,实现从硬件、操作系统到云平台的全域可信[2] - CPU内生安全技术在推广中基本处于免费状态,解决了成本难题;分布式密码资源池技术汇聚数据中心所有CPU的密码算力,数据在本地CPU直接加密,降低网络延迟并规避明文传输风险[3] - 该体系是业界首个将云、AI模型、算力与数据端到端安全融为一体的体系[3] 行业应用与落地 - 公司首先将技术应用于自身运营的50多个云计算中心,承载政府与大型国企关键业务,随后推向交通、公安政法、金融等高敏感数据行业[4] - 在交通领域,于西部某智慧高速项目规模化部署,以立体密电箱和超融合一体机本地化部署,在ETC支付场景中兼顾数据安全与通行效率,例如广州至深圳虎门路段通过匝道预交费提升通行能力[4] - 在公安与金融领域,通过分布式密码资源池技术解决跨区域数据传输安全难题,使每个CPU具备独立密码算力且与计算资源解耦,已在多个公安机房与金融跨数据中心场景落地[5] - 在医疗领域,与中国国新控股合作,在密态环境中开展医疗数据建模,实现数据全量计算无特征损失并可远程验证彻底销毁[5] 未来发展规划 - 2024至2026年,公司将重点推进立体密算在智慧高速、智慧路网、车路协同等交通场景的深化应用,并持续拓展公安、金融、医疗等领域的落地实践[5] 生态合作与战略 - 公司确立开放合作的生态战略,致力于联合产业链上下游构建标准化、可监督的安全基础框架,将自身定位为AI开放架构中的“安全操作系统”[6] - 通过开放可信的API接口与主流AI框架无缝对接,赋能算力供应商、算法开发者与应用方,并建立生态合伙人机制实现战略协同[6] - 计划联合科研机构与实验室,围绕大模型训练、智能体协作等方向推动行业标准制定,为我国人工智能产业建立长期安全护栏[7] - 生态合作模式为基于立体密算底座与伙伴共同研发行业解决方案,例如在金融领域实现政府数据与金融机构的安全对接,支撑快速放贷等业务[7][8]
联想集团召开2025创新科技大会 充分释放AI价值
经济观察网· 2025-05-09 09:57
算力效率升级 - 公司推出AI推理加速算法集,融合MLA多头潜在注意力机制与混合精度量化技术,推理性能较业界最优方案领先20% [1] - AI编译优化器通过自动化算子替换与路径优化,降低训练与推理成本各15%以上 [1] - 专家并行通信算法针对MoE架构通信瓶颈,推理延时降低3倍,网络带宽利用率达90% [1] - AI训推慢节点自愈系统首创故障预测技术,实现百卡秒级、万卡十分钟级故障自愈,集群稳定性行业领先 [1] - 万全异构智算3.0版本发布,已在国家级高质量AI集群、行业级与科研级智算等场景取得领先实践成果 [1] 绿色算力技术 - 单相浸没"飞鱼"仿生散热技术支持下一代600W芯片散热,最大功耗提升20% [2] - 双循环相变浸没系统散热能力较传统方案翻倍,系统PUE低至1.035,全球领先 [2] 算力服务优化 - 算力服务"成本-效能"双优运营系统包含智能调度引擎与FinOps引擎,提升集群资源利用率13%,精准识别58%无效实例 [2] 存储解决方案 - 推出全新存储组合包括Lenovo ThinkSystem DM/DG/DE系列及联想问天DXN分布式存储系列,覆盖AI、HPC、大数据分析等场景 [2] - 存储方案提供高性能、高可靠且可扩展的解决方案,打造跨边缘到核心云的统一数据基座 [2] 战略方向 - 公司通过构建强大、高效、稳定、绿色的混合式基础设施,助力混合式人工智能快速落地 [3] - 产品组合旨在助力行业客户在AI时代加速创新并释放AI价值 [3]