Workflow
玄武CLI
icon
搜索文档
Clawdbot国产芯片适配完成!清华特奖出手,开源框架直接一键部署
量子位· 2026-02-03 12:52
Clawdbot (OpenClaw) 的市场热度与核心价值 - 项目在不到一周内,GitHub Star数直冲12万,显示出极高的社区关注度 [1] - 其配套硬件Mac mini出现卖断货现象,同时阿里、腾讯等大型科技公司已火速接入,相关集成教程广泛传播 [1] - 项目的核心创新在于将AI从一个普通聊天机器人转变为“7×24小时不摸鱼的AI员工”,能够持续进行数据分析、市场监控等工作 [5] - 该AI员工可通过手机消息随时触发,并在完成任务后主动通知用户,实现了高响应性与自动化 [6] - 其火爆程度甚至迫使Anthropic公司两次要求其改名 [3] Clawdbot 面临的主要挑战与成本问题 - 用户在实际使用中面临高昂的Token费用,运行一天解决一个小问题就可能消耗数百美金 [8][10] 玄武CLI:国产开源解决方案 - 玄武CLI是一个国产开源框架,旨在让用户无需购买Mac mini,也无需支付API费用,即可在本地运行Clawdbot [13][14] - 该框架原生适配价格更实惠的国产芯片,为用户提供了成本更低的替代方案 [14] - 框架定位为“国产开源版的Ollama”,提供了类似应用商店的模型部署体验,简化了选型、下载和使用流程 [16][17][18] - 它封装了配环境、装驱动、调参数等复杂操作,大幅降低了使用门槛 [19] - 其命令体系(如 `xw pull`, `xw run`, `xw list`)与Ollama高度一致,便于用户无缝上手 [20] - 例如,使用 `xw pull qwen3-32b` 和 `xw run qwen3-32b` 命令,可在30秒内启动32B及以内的模型并进行对话 [21][22] - 本地运行模型使得模型、算力和数据均留在本地,不仅节省成本,也避免了Agent权限可能带来的信息泄露风险 [26] - 玄武CLI自身完全开源,支持GitHub/GitCode一键安装和解压即用,支持Docker容器化,实现0成本入门 [27][28] - 安装部署简单,无需复杂环境配置,依赖基础驱动,最快1分钟即可启动服务 [28][29] - 框架原生支持多卡、多实例并行,实例间相互隔离,提升了稳定性和可扩展性 [29] - 在应用层,它原生兼容OpenAI API规范,使得LangChain、LlamaIndex等框架只需更改一行API地址即可从云端调用切换为本地模型,极大降低了替换成本 [30] - 框架会按需加载模型,并结合量化精度动态分配显存和显卡资源,以充分利用本地硬件 [31] 玄武CLI的核心优势:国产芯片原生适配 - 与Ollama等主要围绕英伟达体系的方案不同,玄武CLI的核心优势在于对国产芯片的原生适配,提供了更高性价比的算力选择 [33][34][35] - 过去国产芯片跑模型面临配置复杂、性能波动、生态碎片化、文档不全、问题难复现等挑战 [36][37] - 玄武CLI通过在框架层封装复杂度来解决这些问题,构建了统一的算力资源池,自动识别芯片类型并匹配最合适的推理引擎,实现智能调度 [38][39] - 这种“黑盒化”处理解决了模型启动卡死和服务不稳定的问题 [40] - 其系统架构采用分层设计,关键能力集中在推理引擎层,采用多引擎并行架构 [41][43][44] - 多引擎包括侧重深度优化的自研引擎MLGuider、华为原生MindIE以及兼容社区标准的vLLM,并配套进程隔离和自动路由策略 [44] - 此架构抹平了不同国产芯片的底层技术差异,让开发者无需关注硬件细节即可实现跨芯片模型部署 [45][46] - 结合离线可用的特性,玄武CLI在国产算力环境中补齐了长期缺失的基础设施 [47] 清昴智能:玄武CLI的背后的公司 - 玄武CLI由清昴智能开发,该公司成立于2022年,核心聚焦于芯片适配以及模型-框架-算子的联合优化 [48][49] - 创始人兼CEO关超宇是清华特奖最年轻的获得者 [50] - 成立三年来,公司已获得华为哈勃的战略投资及多家国内一线基金的亿元级支持 [51] - 技术路线上,公司采用端到端的系统级优化,以自研异构推理引擎MLGuider为起点,向下协同硬件设计,向上支撑智算平台与Agentic AI平台 [51] - 在落地方面,公司曾推出多种国产一体机方案,达成稳定16+TPS的高性能吞吐表现 [52] - 目前MLGuider已完成超过15款主流芯片的适配,在满足预期推理效果下提供多种国产最优方案选择 [53] - 例如,支持Qwen 80B方案,并通过玄武CLI适配华为300I Duo、300I A2等多种高性价比硬件方案 [54] - 面向未来,公司提前布局Agentic AI平台,旨在为多智能体、多模态协作时代打下关键基础 [56] - Clawdbot被视为其面向未来的一个轻量级尝试,让用户能提前体验智能体时代的雏形 [57]
国产版Ollama来了,Clawdbot终于不只属于Mac和英伟达
机器之心· 2026-02-03 11:33
AI Agent发展趋势与本地化推理需求 - AI Agent(如Clawdbot/OpenClaw)正从“陪聊”向“实干派”转变,能够接管电脑执行写代码、修Bug等任务[3] - 伴随AI Agent发展,出现了Moltbook等AI社交平台,平台上已有150万个Agent通过自创语言进行交互与进化[3] - 云端Agent的广泛使用引发了数据隐私与API成本高昂的担忧,催生了将AI推理部署到本地的巨大需求[4] 国产算力生态面临的挑战 - 当前主流AI开发工具链(如Ollama)主要围绕macOS与NVIDIA GPU生态构建[5] - 尽管华为昇腾、燧原等国产算力硬件已具备运行大模型的能力,但在通用Agent工具链与社区生态适配方面存在明显差距[5] - 国产芯片架构呈现“百花齐放”态势,如华为CANN、摩尔线程MUSA等工具链彼此独立,导致开发者每换一张卡就需重新学习一套系统[14] - 在国产卡上部署模型面临“配置长征”,涉及驱动、固件、Toolkit、算子包的严格版本对齐,过程复杂且易出错[14] - 新一代模型架构(如MoE、FP8量化)在国产环境中缺乏成熟的高性能算子支持,易导致推理性能下降[15] 清昴智能玄武CLI的解决方案 - 清昴智能于2月2日发布了玄武CLI开源版本,旨在成为“国产版Ollama”[7] - 该工具核心目标是抹平底层硬件差异,提供统一的上层使用体验,让基于国产卡的大模型部署进入“零门槛时代”[9][17] - 玄武CLI能够自动识别华为昇腾全系列、沐曦、燧原等多款国产芯片,实现“零调试部署”[21] - 工具设计极简,用户无需安装Python或复杂依赖,基础驱动就绪后解压即可运行,最快1分钟启动服务[22] - 通过`xw serve`、`xw run`、`xw pull`等命令,可快速完成服务启动、模型交互与模型下载,命令设计与Ollama高度一致[23][24][25][27] - 玄武CLI目前已原生支持包括DeepSeek、Qwen3、GLM-4.7、MiniMax 2.1等在内的数十款主流模型,并已完成GLM-OCR的Day0适配[26] - 实测表明,即便是32B规模的模型,玄武CLI也能在30秒内完成启动[26] - 在应用层兼容OpenAI API接口,LangChain、LlamaIndex及各类IDE插件只需更改一行API地址即可接入[27] - 内置自研的清昴核心推理引擎MLGuider,支持多种推理引擎并行兼容,以保障性能并覆盖更广的模型版本[28][30] - 支持完全离线运行,不依赖云端服务,适合对数据安全和稳定性要求高的场景[31] - 可作为本地AI能力底座,与Clawdbot等热门本地AI工具联动,拓展应用场景[32] 清昴智能的公司背景与技术实力 - 清昴智能是一家专注于芯片适配和模型-框架-算子联合调优的AI基础设施企业[35] - 创始团队来自清华大学计算机系,并汇聚了来自斯坦福、新国立、爱丁堡大学以及华为、阿里、AMD等全球顶尖机构的精英[35] - 创始人关超宇15岁进入本科,21岁获得清华大学特奖、西贝尔学者等荣誉[35] - 公司成立3年,已获得华为哈勃的战略注资以及多家国内一线基金的上亿元财务投资[35] - 公司以自研的异构推理引擎MLGuider为核心,构建了从底层芯片到上层框架以及Agentic AI的全栈能力[35] - 玄武CLI是其技术愿景在开发者侧的“尖刀”产品,旨在通过极致的易用性打开市场缺口,构建生态护城河[36]