Workflow
端云协同
icon
搜索文档
智谱加入“龙虾局”,开盘涨超13%
第一财经· 2026-03-10 10:42
公司产品发布与市场反应 - 智谱于3月10日宣布加入“龙虾局”,正式上线国内首个“一键安装”本地版OpenClaw——AutoClaw(澳龙)[3] - 产品预置50+ Skills,并支持一键接入飞书等即时通讯工具[3] - 消息发布后,公司港股股价开盘涨超13%,随后回落至上涨9%[3] 行业竞争格局与产品模式 - 目前国内加入“龙虾局”的厂商包括Kimi的KimiClaw、MiniMax的MaxClaw、阿里云的CoPaw、火山引擎的ArkClaw、腾讯的WorkBuddy等[5] - AutoClaw初期提供一定免费额度,无需提前支付云端“养虾”方案的月租,支持任意模型的Coding Plan或API,推荐使用DeepSeek、Kimi、MiniMax、GLM等模型,后期计划通过积分方式收费[5] 产品开发背景与核心理念 - 智谱团队在2024年1月看到OpenClaw开源方案并体验后,基于同事与朋友的积极反馈,决定及时跟进与完善[5] - OpenClaw热度自2024年1月从硅谷传至国内,3月达到高峰,智谱团队为此加速了研发[5] - 团队认为OpenClaw的独特性在于其交互形态具备主动性,通过即时通讯软件连接,更像伙伴或数字员工,符合日常协作办公场景[5] - 产品引入了定时巡检功能,使AI能够主动根据用户意图发布消息、汇报进展,而不仅在被提问时工作[6] - AutoClaw的记忆机制通过长短期记忆组合实现了较大进步,使其能从单个任务执行者进化为个性化助手[6] - 团队认为,尽管OpenClaw在技术上未有本质提升,但通过优秀的产品设计与交互形态,为用户提供了颠覆式体验[6] 技术部署策略与行业展望 - 智谱的AutoGLM曾经历从本地到上云的转变,但此次AutoClaw选择直接推出本地版本[6] - 公司认为上云与本地化部署各有优劣,最理想的方式是端云协同,这需要未来模型厂商、硬件厂商与云厂商的共同努力[6] - 对于行业内“养虾”平台未来是否会统一为端云协同方案,公司认为这主要取决于厂商自身对用户群体的判断[7] 产品安全与使用门槛 - 针对安全问题,AutoClaw在安装方案上做了预处理,规避了公网暴露、端口暴露等问题,并对工作目录进行了规定,对重要操作有提醒与限制[7] - 由于OpenClaw本身是开源框架,拥有灵活的第三方Skills与插件生态,其部署和使用过程对非技术人员并不友好,用户需要提高自身能力与认知[7]
东吴证券:端云协同驱动AI入口重塑 端侧模型牵引硬件重构
智通财经网· 2026-02-27 15:07
云端大模型演进趋势 - 云端大模型的评价体系正从单纯的能力指标转向能否真正完成任务[1] - 2026年以来,海外头部厂商正围绕代码能力与多智能体体系展开密集布局[1][2] - 行业判断,“快交互+长推理”双能力栈将成为通用型智能体的重要演进方向[1][2] - 代码模型正沿长链复杂推理与实时交互两大方向演进,例如OpenAI的Codex-Spark追求低延迟交互,Claude 4.6通过提高上下文长度改善复杂任务成功率[2] - 多智能体框架正加速成为主流架构选择,是下一阶段智能体化落地的重要产业趋势[2] - 春节期间,国内模型厂商密集更新,呈现“性能逼近海外头部、价格快速下探”的特征,同时应用侧需求弹性开始释放[2] 端侧模型发展路径 - 端侧模型的终局是与云端形成分工协同架构,高频、轻量、强隐私任务在端侧本地处理,重推理、长生成和高算力任务上云执行[3] - 端侧模型演进的核心维度之一是发展多模态能力,这是关键竞争要点,全双工流式架构正成为主流交互范式[3] - 端侧模型演进的另一核心维度是通过算法压缩对抗硬件约束,主要手段包括模型架构优化、低比特量化和推理优化等[3] - 云端模型能力的验证为端侧模型提供了可参考的模板[2] 端侧硬件重构与升级 - 端侧模型的发展正牵引硬件重构,核心部件围绕内存与功耗等关键变量进行新一轮升级[1][4] - 从整机AI功能看,2024年行业以高频刚需场景为切入点,2025年厂商明显加速向多模态创作能力延展,竞争转向多模态体验与系统级整合深度[4] - 在存储侧,三星LPDDR6产品在支持更高性能的同时,实现了较上一代约21%的能效提升[4] - 在散热侧,三星Exynos 2600芯片引入High-k EMC材料,使热阻较Exynos 2500降低约16%,有效缓解了重载场景下的发热降频问题[4] - 展望未来,高通Snapdragon 8 Elite Gen 6等下一代旗舰SoC平台或将实现算力、存储与功耗散热的同步升级[5]
电子行业深度报告:端云协同驱动AI入口重塑与硬件范式重构
东吴证券· 2026-02-27 13:50
报告行业投资评级 - 增持(维持) [1] 报告的核心观点 - 端云协同正驱动AI入口重塑与硬件范式重构,云端模型能力外扩与成本下降,端侧模型聚焦效率优化与能力压缩,并牵引硬件在算力、存力与散热方面协同升级 [1][2][5] 根据相关目录分别进行总结 1. 云端模型:能力边界外扩与成本重构并行 - **海外模型加速迭代,竞争范式转向任务能力比拼**:2026年以来,海外头部厂商围绕代码能力与多Agent体系密集布局,大模型正从对话式助手升级为具备执行闭环能力的操作型智能体 [5][10] - **代码模型沿“低延迟交互”与“长链复杂推理”双路线演进**:以OpenAI的Codex-Spark为代表的交互型Agent追求“近乎即时”(每秒超1000 tokens)的响应速度;以Claude 4.6为代表的任务型Agent则提供一百万Token长上下文,提升金融、法律等复杂业务场景的任务成功率 [5][13][14] - **多智能体(Multi-Agent)框架加速成为主流架构**:xAI的Grok 4.20以C端免费形态推广多智能体,通过四个专家体协同运行,使复杂推理准确率提升、幻觉率下降约65% [5][15] - **模型迭代周期显著缩短**:行业模型更新节奏加快,例如Google在推出Gemini 3 Pro后约三个月发布能力翻倍的Gemini 3.1 Pro;xAI的Grok 4.20可实现“每周版本更新” [5][17] - **国内模型性能快速追赶且性价比优势扩大**:春节期间国内厂商密集更新,呈现“性能逼近海外头部、价格快速下探”特征,正从供给端拉低行业推理成本并带动需求释放 [5][18] - **具体厂商表现**: - MiniMax M2.5定价显著低于行业主流,在约100 Tokens/s吞吐条件下连续运行一小时成本约1美元,1万美元预算理论上可支撑约4个Agent全年7×24小时运行 [20] - 字节豆包2.0 Lite输入价格约0.6元/百万tokens,相较行业均值呈数量级下降 [20] - 阿里通义千问Qwen 3.5引入原生GUI理解能力,综合成本较前代下降约60%,大型工作负载处理能力提升约8倍 [20] - **需求弹性开始释放**:MiniMax M2.5上线后24小时内用户构建超过1万个“专家Agent”;智谱GLM-5发布后需求强劲,公司上调GLM Coding Plan价格超过30% [20][22][24] 2. 端侧模型:端云协同主线下的效率优化与能力压缩 - **端云协同成为主流架构范式**:端侧模型的终局并非替代云端,而是与云端分工协同。高频、轻量、强隐私任务在端侧本地处理;重推理、长生成和高算力任务上云执行 [5][26] - **多模态能力是端侧模型关键竞争要点**:端侧是实现多模态“零延迟”交互的理想路径,全双工流式架构正成为主流交互范式。视觉Token压缩(如MiniCPM 4.5的3D-Resampler技术)是提升效率的关键 [5][29][31] - **模型架构在探索中演进**:MoE(混合专家模型)在端侧受限于内存瓶颈,EdgeMoE等工程优化可带来约1.2–2.7倍的推理性能提升,并降低约5–18%的内存占用。行业同时探索Qwen的Gated Delta-Net、DeepSeek的mHC、Mamba与注意力结合的混合架构等替代方案 [7][29][32][33] - **低比特量化技术持续发展**:4-bit已成为行业标准部署配置。行业开始探索2-bit等更低精度量化,Microsoft的BitNet表明1.58-bit量化可行,但需从头训练模型 [7][36][37] - **推理优化决定端侧体验上限**: - **Attention效率优化**:FlashAttention系列通过IO-aware设计提升计算利用率,端侧模型采用local-global attention、grouped query attention以适配硬件 [7][40] - **KV Cache管理**:KV Cache压缩对内存占用至关重要,研究显示可压缩至约3bit而质量损失有限。ChunkKV等技术在保持语言结构的同时带来约26%的吞吐提升 [7][41][42] - **并行解码加速**:Medusa、EAGLE等技术通过小模型生成草稿token再由大模型并行校验,实现约2.2–3.6倍推理加速。Diffusion LLM与并行解码结合,推理速度有望较传统自回归提升约4–6倍 [7][43][44] 3. 端侧模型牵引硬件重构:算力、存力与散热协同升级 - **整机AI功能从单点走向多模态与系统级整合**:2024年行业以图像消除、文本摘要等低门槛功能为主;2025年加速向语音、生成式图像等多模态创作延展,并进一步向操作系统底层渗透,竞争转向多模态体验与系统级整合深度 [2][48] - **存储侧:LPDDR6实现系统性能效提升**:三星LPDDR6支持高达10.7 Gbps的数据传输速率,单颗容量最高支持16GB。通过架构与电源管理重构,实现较上一代约21%的能效提升 [2][50][51] - **散热侧:新材料与方案优化热管理**:三星Exynos 2600芯片首次引入High-k EMC材料,使热阻较Exynos 2500降低约16%,有效缓解重载场景下的降频问题 [2][51] - **下一代旗舰SoC实现协同升级**:高通Snapdragon 8 Elite Gen 6有望推出支持LPDDR6的Pro版本,频率或将达到5GHz-5.5GHz,并计划引入三星HPB(高性能散热方案) [2][55]
一场OpenClaw卖铲人的「春季大乱斗」
华尔街见闻· 2026-02-27 11:37
行业背景与事件驱动 - 2026年春季,OpenClaw等AI智能体框架的爆火,驱动了底层大模型API调用量的指数级飙升,为国内大模型厂商带来了巨大的流量和收入[1] - 智能体运行需要消耗大量Token,导致API需求激增,智谱、MiniMax、Kimi、阿里云等厂商成为直接受益者,推出了Coding Plan等API套餐,部分套餐被抢购一空[1][6][7] 市场表现与财务影响 - 智谱在港股单日股价暴涨近43%,收盘价达725港元,总市值突破3232亿港元[8] - MiniMax在港股市值同样突破3000亿港元大关,单日大涨超14%[9] - 未上市的月之暗面(Kimi)在短时间内完成超12亿美元融资,估值翻倍突破100亿美元,其新发布的K2.5大模型近20天累计收入超过2025年全年总收入[11] - 高盛给予MiniMax近390亿美元的估值预期,将其定义为全球顶尖基座模型中的稀缺资产[10] - 智谱的API编程订阅套餐在涨价30%后依然被抢空[8] - 春节期间,大模型厂商迎来了史无前例的营收狂飙,B端和开发者端的强劲购买力使其看到了明确的变现路径[7] 当前商业模式与潜在风险 - 当前“纯卖Token”的商业模式面临潜在危机,其技术壁垒不高且存在安全风险[1][5] - OpenClaw等开源框架在实际办公场景中调用不稳定,处理复杂任务时易陷入死循环[15][16] - 密集的API调用请求频繁触发平台的防刷机制,导致自动化工作流瘫痪[17] - 框架要求最高系统读写权限,存在企业核心数据泄露的重大安全隐患[5][18] - 开源框架的依赖包可能被植入恶意代码,导致灾难性的数据删除或泄露[18] 行业战略转型与未来趋势 - 各大模型厂商的战略重心正从“云端卖水”(提供API)转向“本地造城”(构建本地化生态)[2][3][5] - 未来的护城河在于通过自主研发的本地化开发工具与端侧智能体,深度绑定用户的数据上下文与业务场景[2][20] - 厂商正积极推出深度集成的IDE插件或本地电脑管家,以在合规环境下读取整个项目架构和历史数据,提升输出质量[22] - 例如,阿里将千问嵌入钉钉和高德地图;字节跳动发力MarsCode;阿里云迭代通义灵码私有化版本,旨在打造安全、合规的本地化工具[24][25][27] - 此举旨在争夺AI时代的操作系统控制权,一旦用户形成路径依赖,公司将建立不可轻易替换的护城河[29][30] 市场竞争与价格走势预判 - 随着模型能力趋同和算力基础设施大规模部署,基础API调用价格将走向价格战和内卷[32] - 未来API市场将走向分层:复杂任务所需的高阶API将保持高昂溢价;海量简单操作将转向“端云协同”架构[34] - “端云协同”指在用户端部署轻量级小模型处理基础任务,以降低云端Token成本并提升响应速度[34] - 尽管当前算力供不应求,但长期毛利率提升仍面临挑战[33] 行业长期发展展望 - 当前估值狂飙的独角兽们,核心任务已从堆砌参数转向将智力封装进坚不可摧的本地化工具和端侧应用[36][37] - 行业竞争的下半场将是生态整合,关键在于为AI大脑打造安全、顺手的“本地化身躯”,并最深地嵌入日常工作流[38][39] - 行业正经历从底层算力狂欢到应用层大洗牌的转折点[35]
2026年端侧AI产业深度:应用迭代驱动终端重构,见证端侧SoC芯片的价值重估与位阶提升
东吴证券· 2026-02-24 08:45
报告行业投资评级 - 增持(维持) [1] 报告核心观点 - 2026年端侧AI产业趋势明确,AI应用迭代驱动终端硬件重构,为端侧SoC芯片带来价值重估与位阶提升的机遇 [1] - 端侧AI是AI云算力与AI应用向物理世界延伸的必然阶段,其核心合理性在于隐私保护、安全、低延迟及多模态初步处理能力 [6] - 存储价格自2025年二季度启动上涨,是短期扰动,无法掩盖端侧AI长期的技术发展大趋势 [6] 按相关目录总结 1. 端侧AI开启物理世界入口,国产供应链迎来跨越性机遇 - 端侧AI已从技术构想转变为高度确定的产业演进路径,标志着大模型正由云端算力中心向物理世界入口实现战略级重心转移 [15] - 端侧硬件的深度重构为国产供应链提供了系统级的位阶提升机遇,国产厂商在AI眼镜、具身智能机器人等新型终端赛道已主导部分芯片创新与量产方案 [16] - 端云协同架构成为主流,AI在手机、PC、座舱及机器人等终端的本地化推理,成为驱动全球电子产业由周期性波动转向技术溢价的核心支柱 [15] 2. AI赋能核心基本盘手机与PC市场的存量革新 - PC与手机依然是大模型实现端侧全链条执行的主要物理载体,用户对让渡底层硬件控制权限的接受度较高,为端侧智能体落地提供需求基础 [17] - “端云协同”的混合计算架构,是目前平衡执行效率与隐私安全的有效方案 [17] 2.1 手机芯片高端化与AI驱动:性能体验升级及市场格局重塑 - **市场趋势**:AI手机渗透率持续增长,预计2028年达到54%,2026年90%的高端智能手机将支持端侧AI功能 [18]。市场向高端化发展,2025年四季度智能手机平均售价首次突破400美元,同比上涨8% [18]。预计2026年近三分之一的手机售价将超过500美元 [21] - **技术升级**:芯片制程由3nm向2nm迭代,台积电2nm工艺(N2)于2025年四季度量产,良率突破80% [23]。相比3nm,2nm在相同功耗下性能提升10%-15%,或在相同性能下降低功耗25%-30% [23]。主流旗舰手机SoC的NPU算力已普遍突破50TOPS,可满足7–13B量级端侧模型的落地算力标准 [25] - **竞争格局**:2025年全球智能手机SoC出货量份额:联发科34.4%、高通25.1%、苹果18.1%、紫光展锐12.1%、三星5.7% [29]。联发科以性价比优势开拓中高端市场,其同款性能芯片售价比高通低15%-20% [30]。高通在高端市场延续领先,其手机芯片业务毛利率高达52%,专利授权收入占比超30% [34]。华为麒麟芯片实现国产突围,2025年重返中国智能手机市场出货榜首 [38]。紫光展锐深耕4G中低端及5G入门级市场,2025年Q3全球市场份额达14% [45][51] 2.2 AI PC SoC:架构之争与算力重构 - **市场前景**:Windows 10停服换机潮或促使AI PC于2026年大规模普及,预计2026年全球AI PC出货量将达到1.43亿台 [60]。到2027年,中国支持AI的PC渗透率将增长至60% [63] - **架构博弈**:高阶AI PC需至少具备60TOPS以上算力 [64]。ARM架构在相同性能下功耗比x86低40%,其高能效优势在AI PC竞争中被放大 [64]。x86架构在PC和服务器市场仍占据主导,2025年在桌面CPU市场份额超90%,在服务器CPU市场份额达77% [70] - **竞争格局**:苹果凭借M系列芯片和软硬件一体化生态,在2024年AI PC市场份额达54% [74]。高通骁龙X Elite系列早期符合微软AI PC算力标准(NPU≥40TOPS),建立初期竞争优势 [78]。英特尔市场份额持续下滑,2025年在桌面和笔记本CPU市场份额已跌至60% [73]。AMD在2025年二季度台式机PC市场份额创下新高,达到32.2% [89] 2.3 AI NAS方案:存算一体破解核心痛点 - AI NAS凭借“本地智能+高效存储”的存算一体架构,解决AI基础设施中存储缺位与数据利用效率低的核心痛点,实现从消费级到企业级的全面渗透 [92] 3. 汽车电子的“算力军备竞赛”是端侧AI的第二增长极 - 车载场景是端侧AI落地的最佳实践场景,汽车产品形态天然搭载智驾所需的高算力芯片、人机交互界面以及物联互联控制所需的车载芯片 [5] - 车载芯片主要分为座舱芯片与智驾芯片两大品类,并正逐步向单芯片的终极形态融合演进 [5] 4. AIoT与具身智能是端侧AI的市场增量长尾与未来 - IoT市场是当前规模最大的蓝海市场,也是国产替代的核心机遇所在,覆盖穿戴、家居、工业等多元场景 [2] - AI眼镜仍是当下尚未被证伪的优质端侧场景,无论是作为手机的衍生产品,还是探索替代手机的产业方向,均在持续寻求最优解决方案 [2] - 具身智能有望实现与IoT、智能驾驶领域的技术能力平滑迁移,这些尚未完全定型的终端AI新场景,均为国产IoT芯片带来重要发展机遇 [2] 5. 互联网大厂构建端云协同闭环硬件生态 - 互联网与云算力大厂加速布局端云协同硬件生态、筑牢AI转型硬件底座,通过搭建端云协同的闭环硬件生态体系,夯实自身向AI全面转型的底层硬件支撑 [2] - 从投资视角出发,紧密跟踪国内外科技大厂的端侧战略布局动向,深度绑定大厂产业链、成功跻身其硬件核心供应链的相关企业,将充分受益于行业发展红利 [2] 产业链相关公司 - **端侧AI SoC芯片**:晶晨股份、瑞芯微、星宸科技、恒玄科技、乐鑫科技、地平线机器人、黑芝麻智能等 [6][7] - **端侧存储芯片**:兆易创新等 [6][7] - **消费电子终端与供应链**:立讯精密、歌尔股份、领益智造、东山精密、绿联科技等 [6][7] - **端云生态**:阿里巴巴等 [6][7]
9B 模型“平替”GPT-4o ?!面壁赌对OpenClaw端侧AI,内部上演一人月产65万行代码的效率核爆
AI前线· 2026-02-04 18:53
公司战略与市场定位 - 公司在2023年百模大战期间,战略转向端侧大模型,此决策在次年因苹果入局而获得市场验证 [2] - 公司当前战略清晰,火力全开,发布可“即时自由对话”的大模型及首款AI硬件松果派(Pinea Pi),以支持硬件场景的全栈开发 [2] - 公司核心理念是“知识密度定律”,即大模型知识密度约每100天提升一倍,因此持续推出优秀模型是保持行业前沿的关键 [17][18] - 公司目标是打造一个能够持续训练出高知识密度大模型的系统,这被视为其最重要的产品和技术核心 [18] - 公司认为端侧市场分散、长尾且存在高价值场景,是创业公司更适合切入的领域,避免了与大厂在统一市场的直接竞争 [19] - 公司内部正推动“AI原生”计划,不到两百人的团队在十个月内写了2000万行代码,效率远超传统模式,并出现“一人公司”趋势 [20][21] 新产品与技术发布:MiniCPM-o 4.5模型 - 公司于2月4日正式发布并开源新一代全模态旗舰模型MiniCPM-o 4.5,该模型是原生全双工的全模态大模型 [3] - 模型新引入端到端的“边看、边听、主动说”全模态能力,支持即时、自由的对话交互,弱化了传统“一问一答”的轮次概念 [3] - 该模型的核心创新在于全双工机制和全模态自主交互机制,实现了多模态输入输出互不阻塞,并能自主判断输出时机 [5] - 模型将所有能力统一训练到一个9B参数的模型中,克服了多维度训练难度大、系统负担重及知识冲突等挑战 [5][6] - 模型在保持文本和指令跟随能力不受损甚至有小幅提升的同时,实现了更低的显存占用、更快的响应速度及最佳的推理效率 [6] - 模型侧的低延迟优化得益于全双工状态下无需外部工具判断推理时机,以及采用“大主干模型+轻量级语音生成模块”的架构 [9] - 模型当前记忆时长约为一分钟,是其推理的“舒适区”,未来若需全天候陪伴式使用,需在方法和机制上创新 [9] - 公司判断全双工、全模态的自主交互机制可能是未来新的学习与增长方式,并已在统一建模、高效泛化及理解生成一体化方面迈出关键一步 [11] 开发者生态与硬件布局:松果派 - 公司今年发力重点之一是开发者生态,计划通过生态建设让开发者共同推动模型部署,而非单纯依靠商业化 [13] - 公司在深圳调研发现,超过一半涉及端侧模型的AI硬件项目都在使用MiniCPM,这是其建设生态和提供硬件的根本原因 [13] - 公司发布首款AI原生端侧智能开发板“松果派”,旨在通过软硬一体工具降低多模态模型在设备上运行、微调和应用开发的难度 [14] - 松果派基于NVIDIA Jetson系列模组打造,内置多模态硬件组件,构建了软硬一体、全栈覆盖的端侧AI软件体系 [16] - 松果派计划在年中量产上市,但今年主要承担市场教育作用,目标是打通端侧模型到应用的“最后一公里”硬件 [16] - 硬件定价不以盈利为主要目的,初期采用成熟方案,后续将推出国产化及不同算力版本,并根据开发者反馈调整 [16] - 公司强调其核心是聚焦端侧原生模型研发,硬件由合作伙伴设计,公司负责整合应用 [16] 技术理念与行业洞察 - 公司认为端侧与云端的协同将是未来长期存在的主流形态,智能终端是大模型能力向用户延伸的重要载体 [23] - 端侧模型在实时性要求高的任务中不可或缺,其核心价值在于本地即时处理数据并快速响应,这是端云协同中端侧不可替代的意义 [23] - 手机在大模型应用上仍有巨大拓展空间,未来需提升“输入”侧能力,使其能直接感知和理解现实环境,实现更自然的交互 [24] - 在具身智能领域,多模态大模型被视为突破模型通用性与泛化能力瓶颈的关键,是跨场景、跨本体适应能力的基础 [25] - 多模态乃至全模态能力是未来多智能体体系的基础,智能体可抽象为输入、模型、输出三个核心要素,未来将围绕这三要素不断强化 [25] - 通用人工智能的发展有两条主线:一是智能能力持续增强,二是智能的实现与使用不断变得高效 [25] - 公司判断未来一两年内,模型的专精能力和与现实世界交互能力将快速提升,逐步具备自主学习和成长能力 [26] - 随后,多智能体协同将成为重要突破,长远来看,模型还将展现出创新与创造能力 [26] - 未来三到五年,每个人都将拥有一个持续成长、越来越懂自己的大模型助手 [26]
longsys江波龙聚焦AI存储,端云协同有新招
全景网· 2026-02-04 11:01
行业背景与公司定位 - 在数字化与智能化深度融合的当下,AI技术正重塑各个行业,存储技术的战略地位愈发关键[1] - 中国存储企业江波龙在AI存储变革浪潮中脱颖而出,成为推动AI存储发展的核心力量[1] 全栈解决方案与核心产品 - 公司构建覆盖AI训推全场景的企业级存储矩阵,为AI服务器和算力一体机提供全栈解决方案[1] - 核心产品包括eSSD、RDIMM、SOCAMM2以及创新内存解决方案,精准匹配AI训练和推理的复杂需求[1] - 新一代UNCIA 3856 SATA eSSD采用高品质3D eTLC NAND和自研固件算法,实现大容量、低功耗与高耐写等级的平衡[1] - 在内存方面,DDR5 RDIMM和MRDIMM系列内存模块具有高带宽、低延迟和优异兼容性,是通用服务器和AI基础架构的核心选择[3] - DDR5 MRDIMM通过多路复用架构实现数据传输速率的显著提升,为AI算力一体机带来性能飞跃[3] 数据中心存储创新 - 面对数据中心对性能和能效的严苛要求,公司推出基于LPDDR5/5x颗粒与CAMM模块化设计的SOCAMM2新形态内存产品[3] - SOCAMM2具有超高传输速率(达8533Mbps)、超低功耗(仅为标准DDR5 RDIMM的1/3)以及紧凑尺寸,为智算中心带来容量与带宽的双重提升[3] - 其可替换模块化设计使数据中心在容量、功耗与弹性之间取得完美平衡,高效支撑AI模型的训练与推理任务[3] 端侧AI存储解决方案 - 在端侧AI领域,公司推出集成封装mSSD,采用Wafer级系统级封装技术,将主控、NAND、PMIC等元件高度集成于单一封装体内[5] - mSSD成为端侧AI设备的理想存储解决方案,为AI PC、AI机器人等场景提供更加灵活、高效的存储支持[5] 发展战略与未来展望 - 公司致力于通过端云协同策略,实现存储资源高效利用和算力灵活释放,以应对复杂多变的应用需求[7] - 通过加强与产业链伙伴合作,为AI智算中心建设注入关键存力,同时推动端侧AI存储技术的持续进步与广泛应用[7] - 公司未来将继续秉承创新驱动战略,围绕mSSD等核心介质,迭代出更多形态、更多场景的创新封装存储[7]
阶跃新模型快到“没推理”!印奇上任,果然气势一新
量子位· 2026-02-03 15:45
公司新产品发布 - 阶跃星辰正式发布新一代开源Agent基座模型 Step 3.5 Flash [2] - 新模型总参数为196B,激活参数为11B,支持256K上下文窗口 [2] - 模型在NVIDIA Hopper GPU上的推理峰值达到350 TPS [5][41] 模型性能表现 - 在AIME 2025基准测试中得分为97.3 [7] - 在SWE-bench Verified编码测试中达到74.4% [7] - 在τ²-Bench智能体任务测试中取得88.2的分数 [7] - 在实测中能快速准确完成数学计算、图像计算等复杂推理任务 [11][12][13] 技术架构与创新 - 采用MoE稀疏混合专家架构,通过稀疏激活控制计算与部署成本 [36] - 使用3:1滑动窗口注意力与全注意力交错的方案优化长上下文处理 [37] - 将SWA层的查询头数从64增加到96以增强表征能力 [38] - 集成头向门控注意力机制以维持推理过程的数值稳定性 [39] - 采用3路多Token预测技术提升推理效率 [40] - 搭载自研的MIS‑PO强化学习框架,优化长序列任务的训练稳定性 [42] 生态与兼容性 - 坚持软硬结合的技术路线,模型已与昇腾、沐曦股份、壁仞科技、燧原科技、天数智芯、阿里平头哥等多家国产AI加速芯片平台完成适配 [4] 应用场景演示 - **编程能力**:能够根据复杂需求生成功能完整的代码,例如开发出包含3D渲染、实时数据更新、异常处理等功能的医疗资源监控仪表盘和艺术化气象仪表盘 [16][17][19][20][21][22][24][25][26][27] - **端云协同能力**:核心思路为云端负责规划与推理,端侧负责安全的数据读取与本地执行,在电商比价等任务中能有效拆分任务、汇总信息,并保障数据隐私 [30][32][33][35] - **智能体能力**:官方称其能胜任复杂、长链条任务,在Agent场景上媲美闭源模型 [5] 公司发展动态 - 印奇上任后,公司气势一新 [1] - 据官方透露,下一代模型Step 4正在训练中 [43]
“华强北”们用千问开挂,“盘活”了AI硬件
南方都市报· 2026-01-12 13:27
文章核心观点 - 人工智能正从软件概念加速“显化”并嵌入到广泛的物理硬件中,通过改变产品功能与交互方式,重塑消费电子行业 [1] - 阿里云通义千问大模型及其开源生态正成为驱动此次“AI+硬件”创新的核心推手,通过提供全尺寸、全模态的模型及“端云协同”架构,显著降低了AI硬件开发与应用的门槛 [3][7][8] - 以“华强北”为代表的硬件创新生态展现出极高的效率,其探索预示着AI硬件正朝多模态交互、成为“关键入口”的方向演进,行业处于通过模型“重做”硬件以抢占用户心智的关键阶段 [5][9][10] AI硬件应用落地与案例 - 在阿里云通义智能硬件展上,超过1500款硬件接入了通义千问大模型,覆盖猫砂机、自拍神器、网球机器人、台灯、汽车等日常生活产品 [1][2] - 具体应用案例包括:小佩智能全自动猫厕所通过AI监测小猫如厕叫声与尿液PH值以掌握健康情况 [2];篮球自拍神器借助通义视觉模型实现轨迹追踪、精彩片段剪辑及投篮命中率等数据分析 [2];ACEMATE AI网球机器人能移动接球回球,并实时分析球员动作与预判球路 [2];Luma台灯能理解语音指令与情绪,完成呼吸引导、久坐提醒等功能 [3];方程豹汽车借助AI智能体可实现座舱屏幕智能感知与一句话买票点单等复杂任务 [3] 驱动创新的技术与生态 - 阿里云通义千问大模型系列具备“全尺寸、全模态”的开源优势,能满足硬件厂商对视觉、语音等不同模态及不同尺寸模型的多样化需求 [7] - 截至目前,阿里千问Qwen已开源300多款模型,涵盖文本、编程、图像、语音、视频等全模态,在全球主要模型社区的下载量突破7亿,衍生模型突破18万个 [7] - 阿里云发布了多模态交互套件,集成预置了十多款生活休闲、工作效率等领域的Agent和MCP插件,可应用于AI眼镜、学习机、陪伴玩具等设备,进一步降低应用门槛 [3] - 通过多模态套件,即使是不懂代码的开发者(如华强北档口老板)也能通过拖拉拽方式快速将千问模型植入硬件(如AI翻译器),一周时间即可实现产品出海 [4] 硬件创新生态与行业趋势 - “华强北”作为硬件创新风向标,凭借其电子元器件齐全、创新企业密集、技术转化高效的特点,能够实现“上午设计、下午打样、次日量产、一周出海”的极高效率 [5] - AI硬件行业当前处于“草莽时代”,抢占细分赛道用户心智是关键,已出现如销量超100万台的Plaud和智能健康单品Oura等成功案例 [7] - “端云协同”架构至关重要:端侧小模型处理实时翻译等轻量任务,结合云端大模型则可提供长文案创作、复杂逻辑推理等需要海量知识的“聪明”功能,这是培养专属用户心智的关键 [8] - 实现“端云协同”需要从模型到芯片的完整生态系统支持,阿里云已建立从AI算力、云平台、模型应用到开源生态的全栈技术能力 [8] AI硬件演进方向 - 多模态交互(语音、视觉等)正重塑硬件交互范式,使其向更自然、流畅、无感化的“无感化”方向演进,例如AI眼镜能基于用户所见场景通过语音交互解放双手 [9] - AI在硬件中的作用正从“叠加功能”转变为“关键入口”或“端侧智能体”,终端正演变为用户与数字服务之间的“超级入口” [9] - 行业的核心趋势是“用模型把硬件重做一遍”,硬件厂商正通过模型能力定义硬件并形成品牌效应,率先做出创新产品将有助于抢占用户心智、形成壁垒并定义新品类 [10]
从联网设备到智能体终端,阿里云开启AI硬件的普惠元年
36氪· 2026-01-09 21:26
文章核心观点 - 2026年AI硬件行业进入“物种大爆发”纪元,其核心是从“功能智能”向“系统级智能”的本质跃迁,AI硬件进化为具备独立思考能力的“端侧智能体”[1][5] - 中国硬件产业已跨越“代工厂”阶段,正从全球科技的“追随者”转变为“定义者”,向全球输出创新方案[3][25] - 阿里云通过提供全尺寸、普惠的通义大模型能力及端云协同解决方案,扮演“创新底座”角色,支持超过15万家硬件厂商创新,推动中国制造向中国创造转型[3][13][27] 行业趋势与演进 - **行业进入新纪元**:2026年标志着AI硬件“物种大爆发”,这是底层技术红利释放与商业逻辑向新范式迁徙的必然结果[5] - **智能本质跃迁**:AI硬件正从依赖网络连接的“伪智能”设备,经历从“功能智能”向“系统级智能”的本质跃迁,核心在于硬件具备了理解复杂世界的“大脑”[5] - **端云协同成为标准**:为解决硬件轻薄、续航要求与大模型高算力负荷间的矛盾,端云协同已成为行业默认标准,端侧负责低时延和意图捕捉,云端负责复杂推理[6][7] - **交互逻辑变革**:多模态模型等新技术使硬件能够识别环境并理解自然语言,系统开始围绕人的习惯调整,用户只需给出抽象需求,AI Agent即可完成任务拆解[8] - **商业逻辑成熟**:AI消费硬件面对的是成熟市场,用户更关心AI在真实场景中的稳定运行与实际价值,付费心智已建立,主流人群年均消费锚定在3000-5000元人民币区间[9][10] - **付费模式破冰**:用户开始接受为“可感知的价值”支付每月10到30元人民币的订阅费用,健康类AI功能的付费意愿是其他功能的两倍[10] - **演进路径清晰**:AI消费硬件遵循“自动化、决策支持、协作式”三位一体的螺旋式上升路径进化,最终目标是成为“端侧智能体”[12] 技术解决方案与突破 - **全尺寸模型覆盖**:通义大模型提供从0.5B到480B的全尺寸模型,为从智能戒指到智能座舱的不同硬件提供量体裁衣的“智力方案”[7] - **系统级工程优化**:通义实验室与达摩院玄铁架构协同,从芯片指令集到模型推理路径进行系统级优化,使大模型能在端侧高效运行,目前搭载玄铁处理器并运行通义大模型的智能终端已达亿级规模[7] - **广泛芯片兼容**:解决方案已兼容30余款基于RISC-V与MIPS架构的主流终端芯片平台,覆盖大多数硬件设备需求[8] - **技术能力获得认可**:根据国际研究机构报告,阿里云在云基础设施、工程体系、模型能力及知识管理应用四个关键维度均被评为“新兴领导者”,是亚太地区唯一四项全获认可的厂商[9] 中国硬件创新案例 - **新物种探索**:中国厂商推出多款“AI新物种”,如基于通义千问大模型的儿童AI对话智能体Mooni M1,其用户AI使用时长提升40分钟;与雷鸟创新合作的智能眼镜AI大模型,使雷鸟眼镜出货量位居AR行业前列[14] - **手机系统升级**:服务全球TOP 10手机厂商,例如OPPO“小布助手”引入通义多模态能力后增强了对屏幕内容的理解与问答能力;荣耀通过阿里云百炼平台落地视觉问答能力,并与垂直服务智能体联动[18] - **智能座舱演进**:理想汽车基于阿里云平台实现大模型快速迭代,并通过Agent能力构建长期记忆,在导航、支付等场景实现更连贯的智能体验,座舱正从工具演进为智能中枢[19] - **出海硬件全球化**:TCL、影石、安克创新等出海企业依托阿里云全球AI基础设施,将AI作为支撑全球化运营的基础设施,例如安克创新通过“全球一张网”统一调度资源,广泛应用通义系列模型[21] 阿里云的生态角色与影响 - **明确的生态定位**:阿里云公开承诺不做终端硬件,以“创新底座”角色为硬件企业提供技术及生态支持,消除了厂商“既是裁判又是选手”的戒心[4][13] - **实现技术普惠**:通过将大模型能力开源,使万亿级参数的重资产能力变为企业可触手可及的“数字化水电”,降低了硬件创新门槛,让超过15万家厂商获得了与全球巨头同台竞技的可能[27] - **重塑产业关系**:阿里云与终端厂商的关系从过去的存量博弈进化为深度共生,通过输出模型能力与生态土壤,帮助中国制造告别低毛利贴牌时代,以更具技术尊严的姿态参与全球竞争[24][28] - **推动价值链升级**:阿里云的生态支持让中国硬件从输出精密零部件进化为输出基于通义底座的“智能生命”,在全球价值链中实现了从“中国组装”到“中国定义”的坐标重塑[25][28]