Workflow
算力—模型适配
icon
搜索文档
信创模盒ModelHub XC | 上线两个月模型适配破千 铸就国产AI算力与应用融合新基座
智通财经网· 2025-11-27 11:22
平台发展里程碑 - 「信创模盒」ModelHub XC上线两个月后,已完成适配并认证的模型数量突破1000个,比原计划提前了4个月[1] - 平台于2025年9月22日正式启动上线,旨在解决模型与底层芯片架构互不兼容的行业核心痛点[1][2] - 2025年11月25日,平台在摩尔线程芯片上一次性完成108个模型的规模化适配,为扩展至千量级模型库奠定基础[11] 核心技术突破与适配成果 - 2025年10月17日,在国产芯片曦望S2上完成风洞计算大模型的完整适配,实现单张图处理时间约1.5秒,性能比肩国际主流高端GPU[4] - 2025年11月1日,完成创新模型DeepSeek-OCR在昇腾、沐曦等信创算力卡上的适配测试,模型输出效果与NVIDIA平台完全一致,推理性能差距控制在30%以内[6] - 2025年11月17日,在昇腾910B4芯片上完成总参数量2300亿的顶尖开源Agent模型MiniMax-M2的适配,通过EngineX对GGML/MoE架构的深度优化实现“即插即用”部署[8][9] 平台核心能力与生态建设 - 平台以"EngineX引擎+批量适配"为核心,通过基础算法架构的深度适配实现模型在国产芯片上的“即插即用”[12] - 模型生态覆盖从通用大语言模型、垂直领域专业模型到前沿创新模型的多元化品类,已广泛支持华为昇腾、壁仞科技、天数智芯、昆仑芯、摩尔线程、曦望等主流国产算力[1][2][12] - 每个模型均标注可运行的芯片型号,支持用户快速匹配模型与算力[12] 未来发展规划 - 平台未来将加速向“万模互联”迈进,计划在一年之内冲刺十万模型,持续扩展模型规模与芯片支持范围[13] - 公司将保持快速更新节奏,以构建更完整、更高效的国产AI基础设施[13]
信创模盒ModelHub XC|上线两个月模型适配破千 铸就国产AI算力与应用融合新基座
格隆汇· 2025-11-27 11:12
平台发展里程碑 - 公司于2025年9月22日正式上线「信创模盒」ModelHub XC平台、信创社区及模型适配增值服务,旨在解决模型与底层芯片架构不兼容的行业核心痛点 [1][2] - 平台上线两个月后,已完成适配并认证的模型数量突破1000个,比原计划提前了4个月,标志着国产信创AI生态在模型覆盖广度上取得显著进展 [1][11] - 2025年10月17日,公司在国产芯片曦望S2上完成风洞计算大模型的完整适配与深度优化,实现单张图处理时间约1.5秒,性能比肩国际主流高端GPU [4] - 2025年11月1日,公司完成创新模型DeepSeek-OCR在昇腾、沐曦等信创算力卡上的适配测试,模型输出效果与NVIDIA平台完全一致,推理性能差距控制在30%以内 [6] - 2025年11月17日,公司在昇腾910B4芯片上完成高效Agent模型MiniMax-M2的适配,该模型为顶尖开源Agent模型,总参数量2300亿 [7] - 2025年11月25日,平台在摩尔线程芯片上实现108个模型的规模化适配,广泛覆盖文本生成、视觉理解、多模态问答等多种任务类型 [9] 平台核心能力与技术优势 - 平台以"EngineX引擎+批量适配"为核心,通过基础算法架构的深度适配实现模型在国产芯片上的"即插即用",极大缩短部署周期 [12] - EngineX体系对Transformer架构提供底层支持,并对GGML/MoE架构进行深度优化,实现了复杂模型在信创环境下的高效、稳定推理 [6][7] - 平台模型生态丰富多元,覆盖从通用大语言模型(如DeepSeek V3.1)、垂直领域专业模型(如风洞计算大模型)到前沿创新模型(如gpt-oss-20B,MiniMax-M2)的多元化品类 [1] - 平台广泛支持华为昇腾、壁仞科技、天数智芯、昆仑芯、摩尔线程、沐曦、曦望等主流国产算力芯片 [2][12] - 每个模型均标注可运行的芯片型号,支持用户快速匹配模型与算力,提供清晰的适配标签 [12] - 平台提供「信创模型适配增值服务」,由数百人工程师团队支撑,确保指定模型在国产环境中的成功适配与稳定运行 [12] 行业发展与未来规划 - 平台解决了AI产业发展的新矛盾:部署的模型与底层芯片架构互不兼容,采购的硬件缺乏充分适配的模型生态,这种"算力—模型"的二元割裂正成为制约AI规模化落地的隐形天花板 [1] - 平台为国产AI软硬件协同发展提供了坚实基础,将持续为产业智能化转型提供更为坚实与丰富的模型基座 [1] - 平台已按原计划提前4个月达成"千模适配"里程碑,未来将加速向"万模互联"迈进,计划一年之内冲刺十万模型 [14] - 公司将持续扩展模型规模与芯片支持范围,保持快速更新节奏,构建更完整、更高效的国产AI基础设施 [14]