寒武纪(688256)
搜索文档
智谱发布GLM-4.6 寒武纪、摩尔线程已适配
每日经济新闻· 2025-09-30 15:47
公司技术发布 - 智谱于9月30日正式发布并开源新一代大模型GLM-4.6 [1] - GLM-4.6在Agentic Coding等核心能力上实现大幅跃升 [1] - 这是继DeepSeek-V3.2-Exp与Claude Sonnet4.5之后,国庆节前业界的又一重大技术发布 [1] 技术部署与合作 - GLM-4.6已在寒武纪领先的国产AI芯片上实现FP8+Int4混合量化推理部署 [1] - 这是首次在国产芯片上投产的FP8+Int4模型-芯片一体化解决方案 [1] - 摩尔线程基于vLLM推理框架完成了对GLM-4.6的适配,新一代GPU可在原生FP8精度下稳定运行模型 [1]
智谱正式发布并开源新一代大模型GLM-4.6 寒武纪、摩尔线程完成适配
每日经济新闻· 2025-09-30 15:42
公司产品发布 - 智谱公司于9月30日正式发布并开源新一代大模型GLM-4-6 [1] - GLM-4-6在Agentic Coding(代理式编码)等核心能力上实现大幅跃升 [1] 技术合作与适配 - GLM-4-6已在寒武纪AI芯片上实现FP8+Int4混合量化推理部署,为首次在国产芯片上投产的FP8+Int4模型—芯片一体化解决方案 [1] - 该方案在保持模型精度不变的前提下大幅降低了推理成本 [1] - 摩尔线程基于vLLM推理框架完成了对GLM-4-6的适配,其新一代GPU可在原生FP8精度下稳定运行模型 [1] - 摩尔线程的MUSA架构及全功能GPU在生态兼容性和快速适配能力方面得到验证 [1] 行业生态意义 - 寒武纪与摩尔线程完成对GLM-4-6的适配,标志着国产GPU已具备与前沿大模型协同迭代的能力 [1] - 此次合作加速了构建自主可控的AI技术生态的进程 [1] - GLM-4-6搭配国产芯片的组合将率先通过智谱MaaS平台面向企业与公众提供服务 [1]
科创人工智能ETF(588730)涨3.14%,DeepSeek、寒武纪同步发布相关重要事项
格隆汇· 2025-09-30 15:39
板块市场表现 - 节前最后一个交易日芯片和科创人工智能板块领涨 澜起科技股价上涨超过7% [1] - 科创人工智能ETF上涨3.14% 盘中净值创下历史新高 [1] - 科创人工智能ETF跟踪上证科创板人工智能指数 聚焦AI产业链核心的算力芯片和智能硬件环节 半导体权重达54.1% [1] - 前三大权重股包含寒武纪权重16.62% 澜起科技权重10% 以及芯原股份 [1] - 近5日资金净流入科创人工智能ETF达1.14亿元 最新规模为17.47亿元 [1] 行业动态与催化剂 - 9月29日DeepSeek宣布官方App、网页端、小程序同步更新为DeepSeek-V3.2-Exp [1] - DeepSeek新模型服务成本大幅降低 API价格相应下调 新价格即刻生效 [1] - 新价格政策下开发者调用DeepSeek API的成本将降低50%以上 [1] - 多家国产芯片厂商宣布完成对DeepSeek-V3.2-Exp的适配 [2] - 寒武纪同步实现对DeepSeek-V3.2-Exp的适配 并开源大模型推理引擎vLLM-MLU源代码 [2] - 9月28日腾讯混元正式发布并开源原生多模态生图模型混元图像3.0 参数规模达80B [2] 行业前景与产业链 - 华鑫证券表示国产AI芯片大时代已经来临 [2] - 国产AI产业链从上游先进制程到先进封装 再到下游字节阿里腾讯的模型加速迭代升级 已实现全产业链打通 [2] - 坚定看好国产AI算力设施的加速突破 [2]
智谱联手寒武纪,推出模型芯片一体解决方案
第一财经· 2025-09-30 15:38
模型性能升级 - GLM-4.6新模型在真实编程、长上下文处理、推理能力、信息搜索、写作能力与智能体应用等多个方面能力提升 [3] - 模型代码能力在公开基准与真实编程任务中对齐Claude Sonnet 4 [3] - 上下文窗口由128K提升至200K,以适应更长的代码和智能体任务 [3] - 新模型提升推理能力并支持在推理过程中调用工具,同时增强工具调用和搜索智能体 [3] 芯片适配与量化技术 - GLM-4.6在寒武纪国产芯片上实现行业首次FP8+Int4混合量化部署,形成模型芯片一体解决方案 [3] - FP8+Int4混合模式根据大模型模块功能差异针对性分配量化格式,实现合理资源分配 [4] - 占总内存60%-80%的大模型核心参数通过Int4量化后,权重体积压缩为FP16的1/4,大幅降低芯片显存占用压力 [5] - 推理环节的临时对话数据通过Int4压缩内存,精度损失控制在轻微范围,FP8则针对数值敏感模块以降低精度损失 [5] 行业生态与合作 - 除寒武纪外,摩尔线程已基于vLLM推理框架完成对GLM-4.6的适配,其新一代GPU可在原生FP8精度下稳定运行模型 [5] - 国产GPU完成对前沿大模型GLM-4.6的适配,标志其已具备与前沿大模型协同迭代的能力,加速构建自主可控AI技术生态 [5] - GLM-4.6搭配国产芯片的组合将率先通过智谱MaaS平台面向企业与公众提供服务 [5]
寒武纪、摩尔线程完成智谱GLM-4.6适配
新浪财经· 2025-09-30 15:33
模型发布与技术进展 - 智谱于9月30日正式发布并开源新一代大模型GLM-4-6 [1] - GLM-4-6在Agentic Coding等核心能力上实现较大提升 [1] - 模型代码生成能力对齐Claude Sonnet 4 [1] 国产芯片适配与部署 - GLM-4-6已在寒武纪国产AI芯片上实现FP8+Int4混合量化推理部署 [1] - 这是首次在国产芯片上投产的FP8+Int4模型-芯片一体化解决方案 [1] - 摩尔线程基于vLLM推理框架完成对GLM-4-6的适配 [1] - 新一代GPU可在原生FP8精度下稳定运行模型 [1]
智谱宣布 GLM-4.6发布,寒武纪、摩尔线程已完成适配
新浪科技· 2025-09-30 15:25
GLM-4 6模型技术发布 - 智谱发布并开源新一代大模型GLM-4 6,在Agentic Coding等核心能力上实现大幅跃升 [1] - GLM-4 6的代码生成能力在基准测试中已全面对齐Claude Sonnet 4,成为目前国内最强的Coding模型 [1] - 模型在长上下文处理、推理能力、信息检索、文本生成及智能体应用等方面均实现全面升级,性能超越DeepSeek-V3 2-Exp [1] 国产芯片适配与部署 - GLM-4 6已在寒武纪国产AI芯片上实现FP8+Int4混合量化推理部署,为首次在国产芯片上投产的模型-芯片一体化解决方案 [1] - 该方案在保持模型精度不变的前提下大幅降低了推理成本,为国产芯片本地化运行大模型提供了可行路径 [1] - 摩尔线程基于vLLM推理框架完成对GLM-4 6的适配,新一代GPU可在原生FP8精度下稳定运行模型,验证了MUSA架构的优势 [2] 商业化与产业协同 - GLM-4 6搭配国产芯片的组合将率先通过智谱MaaS平台面向企业与公众提供服务 [2] - 国产原创GLM系列大模型与国产芯片的深度协同,将在模型训练和推理环节持续推动性能与效率的双重优化 [2] - 技术协同旨在构建更加开放、可控、高效的人工智能基础设施 [2]
智谱旗舰模型GLM-4.6上线 寒武纪、摩尔线程已完成适配
华尔街见闻· 2025-09-30 15:13
模型性能提升 - GLM-4 6模型代码能力比前代GLM-4 5提升27% [1] - 模型在真实编程、长上下文处理、推理能力等多方面表现优异 [1] - 在74个真实编程任务中超越其他国产模型 [1] 技术成就与行业地位 - GLM-4 6在公开基准测试中达到国内最高水准 [1] - 首次在国产AI芯片上实现FP8+Int4混合量化推理部署 [1] - 这是首次在国产芯片上投产的FP8+Int4模型-芯片一体化解决方案 [1] 生态系统与合作伙伴 - GLM-4 6已在寒武纪领先的国产AI芯片上实现部署 [1] - 摩尔线程基于vLLM推理框架完成对GLM-4 6的适配 [1] - 摩尔线程新一代GPU可在原生FP8精度下稳定运行模型 [1]
智谱发布国内最强Coding模型「GLM-4.6」,寒武纪、摩尔线程完成对其适配
IPO早知道· 2025-09-30 15:13
文章核心观点 - 智谱于9月30日正式发布并开源新一代大模型GLM-4.6,在代码能力等核心性能上实现显著提升 [2] - GLM-4.6的代码生成能力已全面对齐Claude Sonnet 4,成为国内最强Coding模型,整体性能超越DeepSeek-V3.2-Exp [5] - 该模型与寒武纪、摩尔线程等国产AI芯片成功适配,标志着国产大模型与国产芯片协同进入新阶段,加速构建自主可控的AI技术生态 [7] 技术发布与性能表现 - GLM-4.6是继DeepSeek-V3.2-Exp与Claude Sonnet 4.5之后,国庆节前夕业界的又一重大技术发布 [2] - 模型在长上下文处理、推理能力、信息检索、文本生成及智能体应用等方面均实现全面升级 [5] - 作为开源模型,GLM-4.6是目前全球开源生态中性能最强的通用大模型之一,提升了国产大模型在全球竞争格局中的地位 [5] 国产芯片适配与协同 - GLM-4.6已在寒武纪领先的国产AI芯片上实现FP8+Int4混合量化推理部署,这是首次在国产芯片上投产的FP8+Int4模型-芯片一体化解决方案 [7] - 该方案在保持模型精度不变的前提下,大幅降低了推理成本,为国产芯片本地化运行大模型提供了可行路径 [7] - 摩尔线程基于vLLM推理框架完成了对GLM-4.6的适配,其新一代GPU可在原生FP8精度下稳定运行模型,验证了MUSA架构及全功能GPU在生态兼容性和快速适配能力方面的优势 [7] 产业应用与未来展望 - 寒武纪与摩尔线程完成对GLM-4.6的适配,标志着国产GPU已具备与前沿大模型协同迭代的能力 [7] - GLM-4.6搭配国产芯片的组合将率先通过智谱MaaS平台面向企业与公众提供服务,释放更广泛的社会与产业价值 [7] - 未来,国产原创的GLM系列大模型与国产芯片的深度协同,将在模型训练和推理环节持续推动性能与效率的双重优化,构建更加开放、可控、高效的人工智能基础设施 [7]
DeepSeek新模型上线,昇腾、寒武纪、海光等宣布适配
观察者网· 2025-09-30 14:16
模型发布与技术特点 - DeepSeek-V3.2-Exp模型于9月29日正式发布并开源,引入稀疏Attention架构,据称能有效降低计算资源消耗并提升模型推理效率 [1] - DeepSeek大幅下调API价格,降价幅度超过50% [1] 国产AI芯片适配进展 - 华为昇腾宣布基于vLLM/SGLang等推理框架完成DeepSeek-V3.2-Exp的0day支持适配部署,并向开发者开源所有推理代码和算子实现 [1] - 寒武纪同步实现对DeepSeek-V3.2-Exp的适配,依托DeepSeek Sparse Attention机制叠加寒武纪的极致计算效率,可大幅降低长序列场景下的训推成本 [1] - 海光信息宣布其DCU实现对DeepSeek-V3.2-Exp的无缝适配和深度调优,模型在海光DCU上展现出优异性能 [1] 市场反应与板块表现 - 受消息提振,9月30日市场早盘震荡拉升,科创50指数表现强势,AI芯片和华为昇腾概念活跃 [2] - 截至下午1点30分,品茗科技涨超19%,铂科新材涨超14%,恒烁股份涨超11%,云天励飞-U和昆仑万维等跟涨 [2] 行业意义与发展趋势 - 业界分析指出此次软硬件“双向奔赴”的意义远超单点技术突破,标志着国产AI生态从“可用”向“好用”演进,形成从底层算力到上层应用的闭环 [2] - 通过芯片与模型的联合创新,自主可控的技术链条降低了对外部供应链的依赖,为行业提供更具竞争力的软硬件一体化解决方案 [2] - 大模型与生成式AI正快速从云端走向消费终端,各巨头加紧构建软硬件一体的AI生态,短期有望提升产品附加值和用户黏性 [2] - 长期看谁能率先打造出“AI+硬件”的杀手级应用,谁就能在下一波计算平台竞争中占得先机,这也将成为资本市场衡量科技公司成长性的关键指标 [2]