信创模盒ModelHub XC
搜索文档
范式智能(06682)+智谱(02513)|全面适配智谱的26款模型 加速国产化AI部署
智通财经网· 2026-01-07 18:00
公司动态:范式智能与智谱完成模型适配 - 范式智能宣布其“信创模盒”ModelHub XC已完成对智谱共计26款主流模型的全面适配与深度优化 [1] - 适配覆盖多模态对话、文本生成、文生视频等丰富AI任务类型 [1] - 此次合作进一步强化了信创模盒在国产算力环境下即开即用的模型生态能力 [1] 技术协同与生态融合 - 适配的智谱系列模型可在信创模盒已支持的多种国产算力平台上稳定高效运行 [3] - 支持的国产芯片平台包括昇腾910B4、寒武纪MLU370-X4、天数智芯的智铠100、海光K100AI、沐曦曦云C500、曦望S2和壁仞166M等 [3] - 在适配与联合调优过程中,相关国产硬件平台展现出优异的兼容性与推理性能,能充分释放智谱模型在多种复杂场景下的能力 [3] - 此次合作是国产软硬件生态融合的又一实践,为企业用户提供了在自主可控算力基底上部署前沿大模型的新选择 [3] 市场定位与解决方案 - 此次与智谱模型的深度融合,丰富了信创模盒的即用模型库 [3] - 为金融、政务、能源、制造等对数据安全与技术自主性要求较高的行业,提供了从底层算力、框架到上层模型的一体化国产解决方案 [3] - 企业可基于信创模盒平台,快速调用、部署与管理经过适配优化的智谱模型,加速AI应用在关键业务场景中的落地 [3] 未来规划与公司背景 - 未来,范式智能将继续携手智谱等优秀模型方,以及海光、沐曦等算力伙伴,深化软硬协同优化,持续拓展模型生态边界 [4] - 公司旨在通过“信创模盒”这一枢纽平台,携手更多生态伙伴,共同推动AI技术在各行各业实现安全、高效、规模化的应用 [4] - 智谱是一家国内大模型领域的重要公司,专注于多模态对话、文本与视频生成等技术的商业化,即将于1月8日在香港联交所主板挂牌上市 [4] - 范式智能是一家2014年成立的上市公司,是中国AI+企业服务领域的领导者,2025年实现集团化升级后,主营业务涵盖面向企业服务的B端业务第四范式,以及面向消费电子市场的C端业务Phancy [4]
信创模盒+摩尔线程完成逾百个模型适配量化模型优势显著
金融时报· 2025-12-25 16:14
公司动态:范式智能与摩尔线程的合作进展 - 范式智能宣布其“信创模盒”ModelHub XC已完成108个主流AI模型在摩尔线程GPU上的适配认证,涵盖文本生成、视觉理解、多模态问答等多种任务类型 [1] - 平台预计未来半年内将扩展至千量级模型适配,为国产算力生态注入持续动能 [1] - 适配完成的模型系列包括Mata、千问、Deepseek、混元、Open Sora等 [3] 技术优势与产品特性 - 摩尔线程GPU在量化模型方面展现出显著优势,凭借对低精度数据类型的硬件级支持、优化的指令集与缓存机制,有效降低模型显存占用并提升推理速度 [1] - 通过精细化校准与优化,适配模型在提升性能的同时,确保了推理精度满足商业落地要求 [1] - 范式智能依托自研的EngineX引擎技术,重点突破模型在国产芯片上的兼容性与运行效率,实现了“引擎驱动、多模型即插即用”,有效解决了国产芯片在模型兼容性与规模支持上的瓶颈 [1][3] - “信创模盒”ModelHub XC是面向信创算力生态的AI模型与工具平台,提供涵盖模型训练、推理到部署的全流程解决方案 [6] 市场与行业背景 - 在AI推理效率成为产业落地核心挑战的背景下,实现模型在国产芯片上的高效、稳定运行,已成为推动算力生态走向成熟的关键 [1] - 摩尔线程作为年内登陆科创板的国产GPU企业,于11月24日正式启动科创板发行,发行价为114.28元/股,创下2025年以来A股新股发行价新高 [1] - “信创模盒”平台定位为国内开发者互帮互助的AI社区,旨在让模型在国产化算力上生根发芽 [6]
信创模盒ModelHub XC | 模型适配认证2000+ 补齐推理代码等关键能力类型
智通财经网· 2025-12-17 17:18
公司业务进展 - 范式智能公布信创模盒ModelHub XC最新节点进展,其适配认证模型数量已超2000个,比预期目标时间提前了半个月 [1] - 继11月达成“千模适配”里程碑后,平台加速升级算力引擎自动化适配能力,持续提升模型适配速度和质量 [1] - 此期间的模型适配认证来自100+个开源组织与开发者社区贡献 [1] - 新增/更新模型覆盖Qwen、Llama、Mistral、Phi、DeepSeek等主流开源体系,并进一步补齐推理、代码等关键能力类型 [1] 平台技术适配与覆盖 - 适配范围以昇腾910B3/910B4为主,同时扩展至沐曦曦云C500、海光K100AI、天数智芯智铠100等国产算力平台,覆盖主流国产算力平台 [1] - 信创模盒ModelHub XC通过模型—硬件—软件的标签化匹配,帮助开发者减少反复试错 [1] - 对于企业自研模型或复杂行业模型,平台提供适配增值服务,完成“最后一公里”调优,降低重复适配成本与部署门槛 [1] 行业意义与生态定位 - 信创模盒ModelHub XC的加速适配,正在实现大模型在国产算力上初步实现从“能跑”到“高效跑”的跨越 [2] - 随着大模型技术的迅猛发展,国产算力与大模型的适配成为我国人工智能产业自主可控的关键环节 [2] - 信创模盒ModelHub XC是面向信创算力生态的AI模型与工具平台,兼具社区和服务功能,致力于推动国产硬件平台上的人工智能创新与落地 [3] - 平台提供涵盖模型训练、推理到部署的全流程解决方案 [3] 应用场景与生态合作 - 平台加速AI在关键基础设施、公检法、交通、能源等关键信创场景的规模化落地 [1] - 公司诚邀广大开发者、企业与行业伙伴加入信创模盒生态,共同参与模型适配、技术优化与场景共建 [2] - 生态合作旨在携手推进国产算力与AI应用的深度融合,赋能千行万业的智能化转型 [2]
信创模盒ModelHub XC|模型适配认证2000+ 补齐推理代码等关键能力类型
格隆汇· 2025-12-17 17:16
公司业务进展 - 范式智能公布信创模盒ModelHub XC适配认证模型数量已超过2000个,比预期目标时间提前了半个月 [1] - 平台在11月达成“千模适配”里程碑后,加速升级算力引擎自动化适配能力,持续提升模型适配速度和质量 [1] - 新增及更新模型覆盖Qwen、Llama、Mistral、Phi、DeepSeek等主流开源体系,并进一步补齐推理、代码等关键能力类型 [1] - 适配范围以昇腾910B3/910B4为主,同时扩展至沐曦曦云C500、海光K100AI、天数智芯智铠100等国产算力平台,覆盖主流国产算力平台 [1] 生态建设与合作伙伴 - 模型适配认证来自超过100个开源组织与开发者社区的贡献 [1] - 公司邀请广大开发者、企业与行业伙伴加入信创模盒生态,共同参与模型适配、技术优化与场景共建 [2] 平台价值与解决方案 - 信创模盒ModelHub XC是面向信创算力生态的AI模型与工具平台,兼具社区和服务功能,致力于推动国产硬件平台上的人工智能创新与落地 [3] - 平台提供涵盖模型训练、推理到部署的全流程解决方案 [3] - 平台通过模型-硬件-软件的标签化匹配,帮助开发者减少反复试错 [1] - 对于企业自研模型或复杂行业模型,平台提供适配增值服务,完成“最后一公里”调优,降低重复适配成本与部署门槛 [1] 行业意义与影响 - 信创模盒的加速适配,正在实现大模型在国产算力上从“能跑”到“高效跑”的跨越 [2] - 此举提升了国产信创AI生态在模型覆盖广度与确定性 [1] - 平台加速AI在关键基础设施、公检法、交通、能源等关键信创场景的规模化落地 [1] - 国产算力与大模型的适配是我国人工智能产业自主可控的关键环节 [2] - 平台旨在携手推进国产算力与AI应用的深度融合,赋能千行万业的智能化转型 [2]
信创模盒ModelHub XC | 上线两个月模型适配破千 铸就国产AI算力与应用融合新基座
智通财经网· 2025-11-27 11:22
平台发展里程碑 - 「信创模盒」ModelHub XC上线两个月后,已完成适配并认证的模型数量突破1000个,比原计划提前了4个月[1] - 平台于2025年9月22日正式启动上线,旨在解决模型与底层芯片架构互不兼容的行业核心痛点[1][2] - 2025年11月25日,平台在摩尔线程芯片上一次性完成108个模型的规模化适配,为扩展至千量级模型库奠定基础[11] 核心技术突破与适配成果 - 2025年10月17日,在国产芯片曦望S2上完成风洞计算大模型的完整适配,实现单张图处理时间约1.5秒,性能比肩国际主流高端GPU[4] - 2025年11月1日,完成创新模型DeepSeek-OCR在昇腾、沐曦等信创算力卡上的适配测试,模型输出效果与NVIDIA平台完全一致,推理性能差距控制在30%以内[6] - 2025年11月17日,在昇腾910B4芯片上完成总参数量2300亿的顶尖开源Agent模型MiniMax-M2的适配,通过EngineX对GGML/MoE架构的深度优化实现“即插即用”部署[8][9] 平台核心能力与生态建设 - 平台以"EngineX引擎+批量适配"为核心,通过基础算法架构的深度适配实现模型在国产芯片上的“即插即用”[12] - 模型生态覆盖从通用大语言模型、垂直领域专业模型到前沿创新模型的多元化品类,已广泛支持华为昇腾、壁仞科技、天数智芯、昆仑芯、摩尔线程、曦望等主流国产算力[1][2][12] - 每个模型均标注可运行的芯片型号,支持用户快速匹配模型与算力[12] 未来发展规划 - 平台未来将加速向“万模互联”迈进,计划在一年之内冲刺十万模型,持续扩展模型规模与芯片支持范围[13] - 公司将保持快速更新节奏,以构建更完整、更高效的国产AI基础设施[13]
信创模盒ModelHub XC|上线两个月模型适配破千 铸就国产AI算力与应用融合新基座
格隆汇· 2025-11-27 11:12
平台发展里程碑 - 公司于2025年9月22日正式上线「信创模盒」ModelHub XC平台、信创社区及模型适配增值服务,旨在解决模型与底层芯片架构不兼容的行业核心痛点 [1][2] - 平台上线两个月后,已完成适配并认证的模型数量突破1000个,比原计划提前了4个月,标志着国产信创AI生态在模型覆盖广度上取得显著进展 [1][11] - 2025年10月17日,公司在国产芯片曦望S2上完成风洞计算大模型的完整适配与深度优化,实现单张图处理时间约1.5秒,性能比肩国际主流高端GPU [4] - 2025年11月1日,公司完成创新模型DeepSeek-OCR在昇腾、沐曦等信创算力卡上的适配测试,模型输出效果与NVIDIA平台完全一致,推理性能差距控制在30%以内 [6] - 2025年11月17日,公司在昇腾910B4芯片上完成高效Agent模型MiniMax-M2的适配,该模型为顶尖开源Agent模型,总参数量2300亿 [7] - 2025年11月25日,平台在摩尔线程芯片上实现108个模型的规模化适配,广泛覆盖文本生成、视觉理解、多模态问答等多种任务类型 [9] 平台核心能力与技术优势 - 平台以"EngineX引擎+批量适配"为核心,通过基础算法架构的深度适配实现模型在国产芯片上的"即插即用",极大缩短部署周期 [12] - EngineX体系对Transformer架构提供底层支持,并对GGML/MoE架构进行深度优化,实现了复杂模型在信创环境下的高效、稳定推理 [6][7] - 平台模型生态丰富多元,覆盖从通用大语言模型(如DeepSeek V3.1)、垂直领域专业模型(如风洞计算大模型)到前沿创新模型(如gpt-oss-20B,MiniMax-M2)的多元化品类 [1] - 平台广泛支持华为昇腾、壁仞科技、天数智芯、昆仑芯、摩尔线程、沐曦、曦望等主流国产算力芯片 [2][12] - 每个模型均标注可运行的芯片型号,支持用户快速匹配模型与算力,提供清晰的适配标签 [12] - 平台提供「信创模型适配增值服务」,由数百人工程师团队支撑,确保指定模型在国产环境中的成功适配与稳定运行 [12] 行业发展与未来规划 - 平台解决了AI产业发展的新矛盾:部署的模型与底层芯片架构互不兼容,采购的硬件缺乏充分适配的模型生态,这种"算力—模型"的二元割裂正成为制约AI规模化落地的隐形天花板 [1] - 平台为国产AI软硬件协同发展提供了坚实基础,将持续为产业智能化转型提供更为坚实与丰富的模型基座 [1] - 平台已按原计划提前4个月达成"千模适配"里程碑,未来将加速向"万模互联"迈进,计划一年之内冲刺十万模型 [14] - 公司将持续扩展模型规模与芯片支持范围,保持快速更新节奏,构建更完整、更高效的国产AI基础设施 [14]
信创模盒+摩尔线程|完成逾百个模型适配 量化模型优势显著
智通财经网· 2025-11-25 15:05
信创模盒ModelHub XC适配进展 - 范式智能宣布其信创模盒ModelHub XC已完成108个主流AI模型在摩尔线程GPU上的适配认证,涵盖文本生成、视觉理解、多模态问答等多种任务类型 [1] - 适配模型系列包括Mata、千问、Deepseek、混元、Open Sora等,预计未来半年内将扩展至千量级 [1][3] - 信创模盒ModelHub XC是面向信创算力生态的AI模型与工具平台,提供涵盖模型训练、推理到部署的全流程解决方案 [4] 摩尔线程GPU技术优势 - 摩尔线程GPU在量化模型方面展现出显著优势,凭借对低精度数据类型的硬件级支持、优化的指令集与缓存机制,有效降低模型显存占用并提升推理速度 [1] - 通过精细化校准与优化,适配模型在性能提升的同时确保推理精度满足商业落地要求 [1] - 摩尔线程于11月24日正式启动科创板发行,发行价为114.28元/股,创下2025年以来A股新股发行价新高 [1] EngineX引擎技术突破 - 范式智能依托自研EngineX引擎技术,重点突破模型在国产芯片上的兼容性与运行效率,显著降低开发者部署门槛 [1] - EngineX引擎实现“引擎驱动、多模型即插即用”,有效解决国产芯片在模型兼容性与规模支持上的瓶颈 [3] - 引擎支持多种国产算力卡,包括沐曦曦云C系列、天数智芯智铠/天垓系列等,覆盖文本生成、图片生成、语音合成等任务 [5] 国产算力生态合作 - 信创模盒平台支持多家国产硬件厂商,包括摩尔线程、寒武纪、昆仑芯、沐曦、海光等 [4] - 平台提供热门推理引擎如EngineX特制优化版本,基于transformer和diffusion架构,支持vLLM等 [5] - 平台定位为国内开发者互帮互助的AI社区,推动模型在国产化算力上生根发芽 [5]
完成逾百个模型适配 量化模型优势显著
智通财经· 2025-11-25 15:04
信创模盒ModelHub XC适配进展 - 范式智能宣布“信创模盒”ModelHub XC已完成108个主流AI模型在摩尔线程GPU上的适配认证,涵盖文本生成、视觉理解、多模态问答等多种任务类型 [1] - 平台预计未来半年内将扩展适配至千量级模型,为国产算力生态注入持续动能 [1] - 目前已完成包括Mata、千问、Deepseek、混元、Open Sora等模型系列的适配验证 [3] 摩尔线程GPU技术优势 - 摩尔线程GPU在量化模型方面展现出显著优势,其硬件凭借对低精度数据类型的硬件级支持、优化的指令集与缓存机制,有效降低模型显存占用并提升推理速度 [1] - 通过精细化校准与优化,适配模型在性能提升的同时,确保了推理精度满足商业落地要求 [1] - 摩尔线程于11月24日正式启动科创板发行,发行价为114.28元/股,创下2025年以来A股新股发行价新高 [1] EngineX引擎技术支撑 - 范式智能依托自研的EngineX引擎技术,重点突破模型在国产芯片上的兼容性与运行效率,显著降低开发者的部署门槛 [1] - EngineX引擎作为底层支撑体系,实现了“引擎驱动、多模型即插即用”,有效解决了国产芯片在模型兼容性与规模支持上的瓶颈 [3] - 该引擎是运行于国产算力卡(如沐曦曦云C系列、天数智芯智铠/天垓系列)的特制优化版本,基于transformer、diffusion等架构 [6] 信创模盒平台定位与服务 - 信创模盒ModelHub XC是面向信创算力生态的AI模型与工具平台,兼具社区和服务功能,致力于推动国产硬件平台上的人工智能创新与落地 [5] - 平台提供涵盖模型训练、推理到部署的全流程解决方案 [5] - 平台定位为国内开发者互帮互助的AI乐园,提供国产化算力开发经验分享,是最新最全的国产化算力社区 [6] 已适配的国产硬件与模型组合 - 适配工作覆盖多家国产GPU硬件,包括摩尔线程MTT S4000、沐曦曦云C500、天数智芯智铠100/天垓100、寒武纪MLU370-X4/X8、昆仑芯R200-8F、海光K100AI等 [4] - 已完成适配的模型包括姜子牙2-13B-Chat、Yi-1.5-9B、XVERSE-MoE-A4.2B、XVERSE-7B等多个文本生成与文本分类模型 [4] - 引擎支持的任务类型多样,包括文本生成、语音合成、图片生成等 [6]
第四范式发布“信创模盒”ModelHub XC
中证网· 2025-09-22 22:37
产品发布 - 公司于9月22日发布"信创模盒"ModelHub XC平台、信创社区及信创模型适配增值服务 [1] - 新产品旨在打破客户、算力与开发者之间的屏障 并为用户真实需求提供"兜底"服务 [1] 技术解决方案 - 针对国产算力生态中模型需分别适配的痛点 推出专门适配信创算力的AI引擎体系EngineX [1] - 通过基础算法架构适配实现批量化模型支持 解决耗时长且存在大量重复劳动的问题 [1] 模型生态 - 平台提供下载的模型种类丰富 已适配认证模型数量超过百个 [1] - 未来适配认证模型数量将保持快速更新 [1] 算力兼容 - 已适配信创算力包括华为昇腾、寒武纪、天数智芯、昆仑芯、沐曦和曦望等 [1] - 未来将覆盖市面上更多主流信创算力 [1] 增值服务 - 针对不了解国产算力适配模型及需要模型适配指定算力的用户 提供信创模型适配增值服务 [1] - 公司可对模型进行调整直至适配 实现适配"兜底"服务 [1]
第四范式携手昆仑芯、摩尔线程等头部芯片厂商,推进国产芯片与模型适配难的问题解决
格隆汇· 2025-09-22 19:38
产品发布 - 公司发布信创模盒ModelHub XC平台、信创社区及信创模型适配增值服务 [1] - 平台联合华为昇腾、壁仞科技、天数智芯、昆仑芯、摩尔线程、曦望等多家头部芯片厂商共同推进国产模型与国产芯片适配 [1] 技术解决方案 - 推出专门适配信创算力的AI引擎体系EngineX 通过基础算法架构适配实现批量模型支持 [1] - 引擎驱动实现多模型即插即用 缩短部署周期并解决兼容性问题 [1] 服务与规模 - 提供由数百名工程师支持的兜底增值服务 确保模型适配指定国产算力 [1] - 目前已适配认证模型上百个 预计一年内达十万数级 半年内覆盖所有常见算力平台 [1] 行业影响 - 打破算力与模型二元割裂现状 为AI产业规模化落地提供关键支撑 [1]