摩尔线程新一代GPU
搜索文档
智谱发布GLM-4.6,联手寒武纪,摩尔线程推出模型芯片一体解决方案
观察者网· 2025-10-01 09:37
模型性能升级 - 新模型GLM-4.6在真实编程、长上下文处理、推理能力、信息搜索、写作能力与智能体应用等多个方面能力有所提升 [1] - 模型代码能力对齐Claude Sonnet4,上下文窗口由128K提升至200K,支持在推理过程中调用工具并增强搜索智能体 [4] - 采用"模芯联动"技术,GLM-4.6已在寒武纪国产芯片上实现FP8+Int4混合量化部署,为行业首次在国产芯片上投产的FP8+Int4模型芯片一体解决方案 [4] 技术实现细节 - FP8+Int4混合模式根据大模型模块功能差异针对性分配量化格式,占总内存60%-80%的核心参数通过Int4量化后权重体积压缩为FP16的1/4,大幅降低芯片显存占用压力 [5] - 推理环节临时对话数据通过Int4压缩内存且精度损失控制在轻微范围,FP8针对数值敏感模块以降低精度损失并保留精细语义信息 [5] - 除寒武纪外,摩尔线程已基于vLLM推理框架完成对GLM-4.6的适配,新一代GPU可在原生FP8精度下稳定运行模型 [5] 行业生态影响 - 寒武纪与摩尔线程完成对GLM-4.6的适配标志着国产GPU已具备与前沿大模型协同迭代的能力,加速构建自主可控的AI技术生态 [5] - GLM-4.6搭配国产芯片的组合将率先通过智谱MaaS平台面向企业与公众提供服务 [5]
智谱发布GLM-4.6,寒武纪,摩尔线程完成适配
观察者网· 2025-10-01 09:36
模型性能升级 - 新模型GLM-4-6在真实编程、长上下文处理、推理能力、信息搜索、写作能力与智能体应用等多个方面能力提升[1] - 模型代码能力对齐Claude Sonnet 4,上下文窗口从128K提升至200K以适应更长的代码和智能体任务[4] - 模型提升推理能力并支持在推理过程中调用工具,搜索方面增强工具调用和搜索智能体[4] 芯片适配与量化技术 - GLM-4-6在寒武纪国产芯片上实现FP8+Int4混合量化部署,为行业首次在国产芯片上投产的FP8+Int4模型芯片一体解决方案[4] - FP8+Int4混合模式根据大模型模块功能差异针对性分配量化格式,Int4用于压缩占总内存60%-80%的核心参数使权重体积压缩为FP16的1/4,FP8用于数值敏感模块以降低精度损失[4][5] - 摩尔线程基于vLLM推理框架完成对GLM-4-6的适配,其新一代GPU可在原生FP8精度下稳定运行模型[5] 行业生态影响 - 寒武纪与摩尔线程完成对GLM-4-6的适配标志着国产GPU已具备与前沿大模型协同迭代的能力,加速构建自主可控的AI技术生态[6] - GLM-4-6搭配国产芯片的组合将率先通过智谱MaaS平台面向企业与公众提供服务[6]
智谱正式发布并开源新一代大模型GLM-4.6 寒武纪、摩尔线程完成对智谱GLM-4.6的适配
证券时报网· 2025-09-30 15:58
大模型技术发布 - 智谱公司于9月30日正式发布并开源新一代大模型GLM-4-6 [1] - 新模型在Agentic Coding等核心能力上实现大幅跃升 [1] - 此次发布是继DeepSeek-V3-2-Exp与Claude Sonnet4-5之后业界的又一重大技术发布 [1] 模型性能表现 - GLM-4-6的代码生成能力在公开基准测试和真实编程任务中已全面对齐Claude Sonnet4 [1] - 该模型成为目前国内最强的Coding模型 [1] - 模型在长上下文处理、推理能力、信息检索、文本生成及智能体应用等方面均实现全面升级 [1] - 整体性能超越DeepSeek-V3-2-Exp [1] - GLM-4-6是目前全球开源生态中性能最强的通用大模型之一 [1] 国产芯片适配与部署 - GLM-4-6已在寒武纪领先的国产AI芯片上实现FP8+Int4混合量化推理部署 [1] - 这是首次在国产芯片上投产的FP8+Int4模型-芯片一体化解决方案 [1] - 该方案在保持模型精度不变的前提下大幅降低了推理成本 [1] - 摩尔线程基于vLLM推理框架完成了对GLM-4-6的适配 [2] - 新一代GPU可在原生FP8精度下稳定运行模型 [2] 产业生态协同 - 寒武纪与摩尔线程完成对GLM-4-6的适配标志着国产GPU已具备与前沿大模型协同迭代的能力 [2] - 此举加速构建自主可控的AI技术生态 [2] - GLM-4-6搭配国产芯片的组合将率先通过智谱MaaS平台面向企业与公众提供服务 [2] - 国产原创GLM系列大模型与国产芯片的深度协同将在模型训练和推理环节持续推动性能与效率的双重优化 [2]
智谱发布GLM-4.6 寒武纪、摩尔线程已适配
每日经济新闻· 2025-09-30 15:47
公司技术发布 - 智谱于9月30日正式发布并开源新一代大模型GLM-4.6 [1] - GLM-4.6在Agentic Coding等核心能力上实现大幅跃升 [1] - 这是继DeepSeek-V3.2-Exp与Claude Sonnet4.5之后,国庆节前业界的又一重大技术发布 [1] 技术部署与合作 - GLM-4.6已在寒武纪领先的国产AI芯片上实现FP8+Int4混合量化推理部署 [1] - 这是首次在国产芯片上投产的FP8+Int4模型-芯片一体化解决方案 [1] - 摩尔线程基于vLLM推理框架完成了对GLM-4.6的适配,新一代GPU可在原生FP8精度下稳定运行模型 [1]
智谱联手寒武纪,推出模型芯片一体解决方案
第一财经· 2025-09-30 15:38
模型性能升级 - GLM-4.6新模型在真实编程、长上下文处理、推理能力、信息搜索、写作能力与智能体应用等多个方面能力提升 [3] - 模型代码能力在公开基准与真实编程任务中对齐Claude Sonnet 4 [3] - 上下文窗口由128K提升至200K,以适应更长的代码和智能体任务 [3] - 新模型提升推理能力并支持在推理过程中调用工具,同时增强工具调用和搜索智能体 [3] 芯片适配与量化技术 - GLM-4.6在寒武纪国产芯片上实现行业首次FP8+Int4混合量化部署,形成模型芯片一体解决方案 [3] - FP8+Int4混合模式根据大模型模块功能差异针对性分配量化格式,实现合理资源分配 [4] - 占总内存60%-80%的大模型核心参数通过Int4量化后,权重体积压缩为FP16的1/4,大幅降低芯片显存占用压力 [5] - 推理环节的临时对话数据通过Int4压缩内存,精度损失控制在轻微范围,FP8则针对数值敏感模块以降低精度损失 [5] 行业生态与合作 - 除寒武纪外,摩尔线程已基于vLLM推理框架完成对GLM-4.6的适配,其新一代GPU可在原生FP8精度下稳定运行模型 [5] - 国产GPU完成对前沿大模型GLM-4.6的适配,标志其已具备与前沿大模型协同迭代的能力,加速构建自主可控AI技术生态 [5] - GLM-4.6搭配国产芯片的组合将率先通过智谱MaaS平台面向企业与公众提供服务 [5]
智谱旗舰模型GLM-4.6上线 寒武纪、摩尔线程已完成适配
华尔街见闻· 2025-09-30 15:13
模型性能提升 - GLM-4 6模型代码能力比前代GLM-4 5提升27% [1] - 模型在真实编程、长上下文处理、推理能力等多方面表现优异 [1] - 在74个真实编程任务中超越其他国产模型 [1] 技术成就与行业地位 - GLM-4 6在公开基准测试中达到国内最高水准 [1] - 首次在国产AI芯片上实现FP8+Int4混合量化推理部署 [1] - 这是首次在国产芯片上投产的FP8+Int4模型-芯片一体化解决方案 [1] 生态系统与合作伙伴 - GLM-4 6已在寒武纪领先的国产AI芯片上实现部署 [1] - 摩尔线程基于vLLM推理框架完成对GLM-4 6的适配 [1] - 摩尔线程新一代GPU可在原生FP8精度下稳定运行模型 [1]