Workflow
大模型适配
icon
搜索文档
龙虾最佳适配模型,OpenClaw之父给出了推荐
量子位· 2026-03-09 12:13
PinchBench榜单概况 - 榜单名为PinchBench,是专为评估大模型对OpenClaw适配程度而设计的实时更新评测工具,从成功率、速度和价格三个核心维度进行排名[1][3][6] - 该榜单由一家名为Kilo AI的Agent基础设施创业团队推出,并非传统大厂的标准基准测试[22][25] - PinchBench的评测定位更接近“Agent能力测试”,侧重于评估模型在包含约23个真实任务的工作流中的执行能力,而非传统的知识问答或数学推理[25][26] 中国模型在榜单中的表现 - 在成功率方面,国产模型表现突出:榜单中成功率排名第二和第三的分别是MiniMax M2.1 (93.6%) 和Kimi K2.5 (93.4%),仅次于第一名谷歌Gemini 3 Flash (95.1%)[7][11] - 在速度方面,国产模型MiniMax M2.5以105.96秒的最佳时间位列榜首,超越了谷歌Gemini 2.0 Flash (106.05秒) 和Meta Llama 3.1 70B (106.14秒) 等国际模型[10][12] - 在价格方面,国产模型与国际领先模型相比缺乏优势:最具性价比的模型是OpenAI的GPT-5-nano,输入价格低至0.05美元/百万tokens;而国产模型中最便宜的MiniMax M2.1,输入价格约为0.3美元/百万tokens,输出价格约为1.2美元/百万tokens,平均价格约为前者的3倍[14][15][16] - 综合成功率和价格的最佳平衡点分析显示,在表现不错的8个模型中,有4个是中国模型[18][20] 评测机制与行业洞察 - PinchBench的评分机制结合了自动化检查和LLM评审:部分任务通过脚本自动检查结果,另一部分任务则由LLM Judge来评判质量[29] - 该评测揭示了一个重要行业现象:在面向真实任务流程的评估中,更大的模型并非总是表现更好,那些针对Agent优化或推理效率更高的模型排名可能更靠前[31] - PinchBench是一个完全开源的工具,用户可以在平台上自行运行或添加新任务进行测试[33]
摩尔线程2025年实现营业收入超15亿元 同比增长243.37%
证券日报网· 2026-02-28 11:47
公司2025年度业绩快报 - 2025年公司实现营业收入15.05亿元,同比增长243.37% [1] - 2025年公司归属于母公司所有者的净利润为-10.24亿元,与上年同期相比亏损收窄 [1] - 公司基本每股收益、加权平均净资产收益率同比均有所改善,整体展现出稳健向好的发展态势 [1] 产品研发与商业化进展 - 公司专注全功能GPU研发创新,持续推进产品架构迭代,成功推出旗舰级训推一体全功能GPU智算卡MTTS5000 [1] - MTTS5000产品性能达市场领先水平并实现规模量产 [1] - 基于MTTS5000搭建的大规模集群已上线服务,可高效支持万亿参数大模型训练 [1] - 该大规模集群的计算效率达到同等规模国外同代系GPU集群先进水平 [1] 生态与市场适配 - 凭借MUSA架构卓越的生态兼容性和广泛的算子库,公司S5000已高效完成对GLM-5、MiniMaxM2.5、KimiK2.5、Qwen3.5等SOTA大模型的深度适配 [1]
太初元碁完成智谱GLM-5.0及阿里千问双开源模型深度适配
新浪财经· 2026-02-19 12:31
公司技术进展 - 太初元碁已完成对智谱GLM-5.0、阿里千问Qwen3.5-397B-A17B等多款国产主流开源大模型的深度适配工作 [1] - 公司的国产大模型适配工作均在其自研的T100加速卡上进行 [1] - 公司在SDAA软件栈中推出了阶梯式开发工具链,以覆盖从入门到高阶的多元化开发需求 [1] 产品与服务优势 - 公司的阶梯式开发工具链能够帮助开发者快速构建高性能算子 [1] - 该工具链可实现与主流AI生态的无缝兼容 [1] - 该工具链能显著降低从CUDA生态迁移的技术门槛与成本 [1]
摩尔线程MTT S5000完成对智谱GLM-5的适配
北京商报· 2026-02-12 11:32
公司技术进展与产品适配 - 摩尔线程公司于2月12日宣布,其基于SGLang推理框架,在旗舰级AI训推一体全功能GPU MTT S5000上,完成了对智谱新一代大模型GLM-5的Day-0全流程适配与验证 [1] - 公司凭借MUSA架构广泛的算子覆盖与强大的生态兼容能力,成功打通了模型推理全链路,并深度释放了MTT S5000的原生FP8加速能力,在确保模型精度的同时显著降低了显存占用,实现了GLM-5的高性能推理 [1] - 此次快速适配印证了MUSA软件栈的成熟度,展现了国产全功能GPU对最新大模型即时、高效的支持能力 [1] 产品性能与市场定位 - GLM-5大模型与MTT S5000 GPU的国产双强联合,为开发者带来了可对标国际顶尖模型的极致编程体验 [1] - 该组合在函数补全、漏洞检测和Debug场景中均表现卓越,以显著增强的逻辑规划能力,从容应对各类复杂的长程任务挑战 [1]
摩尔线程MTT S5000完成智谱GLM-5大模型适配
财经网· 2026-02-12 10:18
公司技术进展 - 摩尔线程于2月12日宣布,其旗舰级AI训推一体GPU MTT S5000已完成对智谱新一代大模型GLM-5的全流程适配与验证 [1] - MTT S5000是专为大模型训练、推理及高性能计算设计的全功能GPU智算卡,基于第四代MUSA架构“平湖”打造 [1] - 该GPU单卡AI算力最高可达1000 TFLOPS [1] 行业合作动态 - 摩尔线程的硬件产品与智谱AI的最新大模型GLM-5实现了技术适配,表明国内AI芯片公司与大模型开发商之间的生态合作正在推进 [1]
摩尔线程MTT S5000率先完成对GLM-5的适配
新浪财经· 2026-02-12 08:53
公司产品与技术进展 - 摩尔线程基于SGLang推理框架,在其旗舰级AI训推一体全功能GPU MTT S5000上,完成了对GLM-5大模型的Day-0全流程适配与验证 [1] - 公司成功打通了模型推理全链路,并深度释放了MTT S5000的原生FP8加速能力,在确保模型精度的同时显著降低了显存占用,实现了GLM-5的高性能推理 [1] - 此次快速适配印证了公司MUSA软件栈的成熟度,并展现了其国产全功能GPU对最新大模型即时、高效的支持能力 [1] 行业生态与合作 - 智谱于2月11日正式发布新一代大模型GLM-5 [1] - 摩尔线程凭借其MUSA架构广泛的算子覆盖与强大的生态兼容能力,完成了对GLM-5的快速适配 [1]
寒武纪、华为昇腾适配DeepSeek最新模型
财联社· 2025-09-30 08:59
模型发布与技术创新 - DeepSeek-V3.2-Exp模型于9月29日在Hugging Face平台正式发布并开源[1] - 模型引入稀疏Attention架构,能够降低计算资源消耗并提升模型推理效率[1] 昇腾适配与支持 - 昇腾已快速基于vLLM/SGLang等推理框架完成适配部署,实现DeepSeek-V3.2-Exp 0day支持[1] - 面向开发者开源所有推理代码和算子实现[1] 寒武纪技术适配 - 寒武纪宣布同步实现对DeepSeek-V3.2-Exp模型的适配,并开源大模型推理引擎vLLM-MLU源代码[1] - 依托DeepSeek Sparse Attention机制,叠加寒武纪的极致计算效率,可大幅降低长序列场景下的训推成本[1] 海光信息技术优势 - 海光信息DCU实现无缝适配加深度调优,做到大模型算力"零等待"部署[1] - DeepSeek-V3.2-Exp在海光DCU上展现出优异性能,验证海光DCU高通用性、高生态兼容度及自主可控的技术优势[1]
填补空白!第四范式发布「信创模盒」ModelHub XC,连接国产GPU和国产大模型
格隆汇· 2025-09-22 19:12
行业痛点 - 行业面临算力与模型二元割裂的隐形天花板 部署模型与芯片架构互不兼容 采购硬件缺乏适配模型[1] - 国产硬件使用国外优化模型时出现水土不服 不同模型需分别适配 导致耗时长且重复工作量大[8] 产品发布 - 公司正式发布信创模盒ModelHub XC平台 信创社区及信创模型适配增值服务 旨在打破客户 算力与开发者之间的屏障[3] - 产品获得华为昇腾 壁仞科技 天数智芯 昆仑芯 摩尔线程和曦望等头部芯片厂商现场支持[5] 技术方案 - 开创性发布AI引擎体系EngineX 通过基础算法架构适配驱动批量化模型支持 解决国产信创芯片在模型兼容性和支持数量的长期瓶颈[7] - 极大缩短模型上国产算力平台部署周期 实现引擎驱动和多模型即插即用[7] 平台能力 - 上线当日提供上百个适配认证模型 包含DeepSeek V3.1和OpenAI开源大语言模型gpt-oss-20B等热门模型[10] - 平台已适配华为昇腾 寒武纪 天数智芯 昆仑芯 沐曦和曦望等信创算力 未来将覆盖所有主流信创算力[10] - 模型标注可适配的国产芯片品牌 明确下载模型与采购芯片的对应关系[10] 发展目标 - 未来半年适配认证模型数量达千数级 一年内达十万数级 后续保持持续更新速度[10] 增值服务 - 提供信创模型适配增值服务 针对不了解国产算力适配模型或需要模型适配指定算力的用户提供调整服务[12] - 数百名专业工程师团队解决卡跑不了模型或模型不知匹配什么卡的问题 后续将开放更多定制化能力[12]