Workflow
MindIE
icon
搜索文档
Clawdbot国产芯片适配完成!清华特奖出手,开源框架直接一键部署
量子位· 2026-02-03 12:52
Clawdbot (OpenClaw) 的市场热度与核心价值 - 项目在不到一周内,GitHub Star数直冲12万,显示出极高的社区关注度 [1] - 其配套硬件Mac mini出现卖断货现象,同时阿里、腾讯等大型科技公司已火速接入,相关集成教程广泛传播 [1] - 项目的核心创新在于将AI从一个普通聊天机器人转变为“7×24小时不摸鱼的AI员工”,能够持续进行数据分析、市场监控等工作 [5] - 该AI员工可通过手机消息随时触发,并在完成任务后主动通知用户,实现了高响应性与自动化 [6] - 其火爆程度甚至迫使Anthropic公司两次要求其改名 [3] Clawdbot 面临的主要挑战与成本问题 - 用户在实际使用中面临高昂的Token费用,运行一天解决一个小问题就可能消耗数百美金 [8][10] 玄武CLI:国产开源解决方案 - 玄武CLI是一个国产开源框架,旨在让用户无需购买Mac mini,也无需支付API费用,即可在本地运行Clawdbot [13][14] - 该框架原生适配价格更实惠的国产芯片,为用户提供了成本更低的替代方案 [14] - 框架定位为“国产开源版的Ollama”,提供了类似应用商店的模型部署体验,简化了选型、下载和使用流程 [16][17][18] - 它封装了配环境、装驱动、调参数等复杂操作,大幅降低了使用门槛 [19] - 其命令体系(如 `xw pull`, `xw run`, `xw list`)与Ollama高度一致,便于用户无缝上手 [20] - 例如,使用 `xw pull qwen3-32b` 和 `xw run qwen3-32b` 命令,可在30秒内启动32B及以内的模型并进行对话 [21][22] - 本地运行模型使得模型、算力和数据均留在本地,不仅节省成本,也避免了Agent权限可能带来的信息泄露风险 [26] - 玄武CLI自身完全开源,支持GitHub/GitCode一键安装和解压即用,支持Docker容器化,实现0成本入门 [27][28] - 安装部署简单,无需复杂环境配置,依赖基础驱动,最快1分钟即可启动服务 [28][29] - 框架原生支持多卡、多实例并行,实例间相互隔离,提升了稳定性和可扩展性 [29] - 在应用层,它原生兼容OpenAI API规范,使得LangChain、LlamaIndex等框架只需更改一行API地址即可从云端调用切换为本地模型,极大降低了替换成本 [30] - 框架会按需加载模型,并结合量化精度动态分配显存和显卡资源,以充分利用本地硬件 [31] 玄武CLI的核心优势:国产芯片原生适配 - 与Ollama等主要围绕英伟达体系的方案不同,玄武CLI的核心优势在于对国产芯片的原生适配,提供了更高性价比的算力选择 [33][34][35] - 过去国产芯片跑模型面临配置复杂、性能波动、生态碎片化、文档不全、问题难复现等挑战 [36][37] - 玄武CLI通过在框架层封装复杂度来解决这些问题,构建了统一的算力资源池,自动识别芯片类型并匹配最合适的推理引擎,实现智能调度 [38][39] - 这种“黑盒化”处理解决了模型启动卡死和服务不稳定的问题 [40] - 其系统架构采用分层设计,关键能力集中在推理引擎层,采用多引擎并行架构 [41][43][44] - 多引擎包括侧重深度优化的自研引擎MLGuider、华为原生MindIE以及兼容社区标准的vLLM,并配套进程隔离和自动路由策略 [44] - 此架构抹平了不同国产芯片的底层技术差异,让开发者无需关注硬件细节即可实现跨芯片模型部署 [45][46] - 结合离线可用的特性,玄武CLI在国产算力环境中补齐了长期缺失的基础设施 [47] 清昴智能:玄武CLI的背后的公司 - 玄武CLI由清昴智能开发,该公司成立于2022年,核心聚焦于芯片适配以及模型-框架-算子的联合优化 [48][49] - 创始人兼CEO关超宇是清华特奖最年轻的获得者 [50] - 成立三年来,公司已获得华为哈勃的战略投资及多家国内一线基金的亿元级支持 [51] - 技术路线上,公司采用端到端的系统级优化,以自研异构推理引擎MLGuider为起点,向下协同硬件设计,向上支撑智算平台与Agentic AI平台 [51] - 在落地方面,公司曾推出多种国产一体机方案,达成稳定16+TPS的高性能吞吐表现 [52] - 目前MLGuider已完成超过15款主流芯片的适配,在满足预期推理效果下提供多种国产最优方案选择 [53] - 例如,支持Qwen 80B方案,并通过玄武CLI适配华为300I Duo、300I A2等多种高性价比硬件方案 [54] - 面向未来,公司提前布局Agentic AI平台,旨在为多智能体、多模态协作时代打下关键基础 [56] - Clawdbot被视为其面向未来的一个轻量级尝试,让用户能提前体验智能体时代的雏形 [57]
阿里Qwen3能否成为下一个DeepSeek?
36氪· 2025-05-07 19:38
模型发布与技术特点 - 阿里巴巴旗下通义千问团队发布并开源新一代模型Qwen3系列,包括2款参数规模为30B和235B的混合专家(MoE)模型,以及6款参数从0.6B到32B的密集模型 [1] - Qwen3采用混合专家(MoE)架构,旗舰模型Qwen3-235B-A22B总参数量235B但激活仅需22B,显著降低运行时算力需求 [3] - 预训练数据量跃升至36T,是Qwen2.5的三倍,多轮强化学习优化了模型在推理、指令遵循、工具调用及多语言能力等方面的表现 [5] - 在ArenaHard综合测试中得分95.6,AIME'24数学测试85.7,LiveCodeBench代码测试70.7,LiveBench决策测试77.1,显示多项能力提升 [5] 部署与成本优势 - 华为昇腾MindSpeed和MindIE实现Qwen3系列0Day适配,海光信息DCU完成全部8款模型无缝适配与调优 [2] - Qwen3-30B-A3B可单卡4090部署,Qwen3-235B-A22B仅需4张H20,显存占用为性能相近模型的三分之一,大幅降低部署成本 [2][6] - 与DeepSeek-R1相比参数量仅为其1/3,成本大幅下降,降低中小企业和个人开发者使用高性能模型的门槛 [6] 性能表现与局限性 - 在生成复杂代码、数学推理等方面思考模式表现明显优于非思考模式,但长文本能力表现不突出且存在一定幻觉率 [6] - 测试显示"普通"模式生成报告时出现较高幻觉率,而"深度思考"模式下幻觉率大幅降低,数据准确性提升 [6] 公司战略布局 - 阿里未来三年将投入超3800亿元用于云和AI硬件基础设施建设,强化通义千问与夸克的"双子星"格局 [7] - 通义千问专注云上智能支撑,夸克打造端侧入口,两大App所有用户均可免费使用Qwen3开源模型 [7] - 夸克2025年3月MAU达1.48亿登顶国内AI应用榜首,公司通过组织调整整合天猫精灵与夸克团队推进AI To C战略 [9] 行业竞争态势 - 腾讯混元大模型依托微信生态优势,字节跳动豆包借助抖音推流优势,2024年11月MAU达5998万长期霸榜AI应用前三 [10] - 阿里面临技术优势维持与使用门槛降低的双重挑战,中小企业技术对接与模型二次开发存在困难 [9] - 夸克用户体验稀释问题凸显,需优化技术架构与服务器性能以应对用户快速增长 [10]
华为昇腾全系列支持Qwen3
快讯· 2025-04-29 18:31
阿里通义千问模型Qwen3开源与华为昇腾支持 - 阿里通义千问模型Qwen3于4月29日开源数小时后即获得华为昇腾的全系列模型部署支持 [1] - 开发者可通过华为MindSpeed和MindIE工具实现千问3的0Day适配即开箱即用 [1] - 千问3是国内首个"混合推理模型"集成"快思考"与"慢思考"机制 [1] 千问3技术特性 - 模型对简单需求采用低算力"秒回"模式显著提升响应效率 [1] - 对复杂问题启用多步骤"深度思考"功能优化计算资源分配 [1] - 混合推理架构设计实现整体算力消耗的大幅节省 [1]