离线智能

搜索文档
岩山科技:旗下RockAI亮相WAIC 2025,赋予AI离线记忆能力
证券时报网· 2025-07-28 17:00
WAIC 2025展会概况 - 展会规模创历届之最,汇聚800余家企业,覆盖模型应用、智能体、具身智能与人形机器人、智能硬件、AI芯片、智算基础设施等全产业链热门领域 [1] - 全方位呈现人工智能技术向纵深发展的蓬勃态势 [1] RockAI技术突破 - 展示新一代非Transformer大模型Yan 2 0 Preview,具备原生记忆与离线智能核心能力,可在PC、平板、机器狗、灵巧手等低功耗设备上离线部署并实时运算 [1] - Yan 2 0 Preview实现多模态能力升级,新增对视频模态的支持,可实时解析短视频中的动作轨迹、物体状态、环境变化等多维度信息 [2] - 新增记忆模块,使模型能够积累经验并自主优化行为,具备自主决策潜力,改变传统AI依赖预设程序的局限 [2] - 技术实现并非简单对大模型进行蒸馏或剪裁,而是从底层架构开始颠覆的创新成果 [2] 商业化进展 - 潜在客户群体包括消费电子品牌方、ODM厂商、手机、机器人、车载芯片、家电、XR眼镜等厂商 [3] - 与某头部出海品牌合作推进定制版AI PC [3] - 与AMD签署合作备忘录,将在AI PC领域展开深入技术合作 [3] 长期愿景与战略路径 - 目标直指通用人工智能(AGI),专注于群体学习能力、协同进化的群体智能路径 [3] - 通过设备间本地交互共享学习成果,实现让世界上每一台设备拥有自己的智能的使命 [3] - 技术路径有望推动智能硬件价值从一次性交付向全生命周期持续进化转变 [4]
离线+记忆,大模型进化的分水岭
36氪· 2025-07-26 20:21
行业趋势 - WAIC 2025显示行业风向转变,大模型概念已祛魅,市场更关注落地案例而非模型刷榜[4] - 2025年DeepSeek崛起导致大量AI明星项目折戟,行业进入洗牌期[4] - 离线智能成为海外刚需,尤其在网络不稳定的欧非俄中东地区[6][14] 公司定位 - RockAI定位为"水下独角兽",主打低调务实策略,专注华强北级市场[7][10] - 公司成立于2023年6月,为A股岩山科技控股子公司[11] - 核心差异化在于非Attention机制的Yan架构,实现低功耗设备离线部署[11][12] 技术突破 - Yan 2.0 Preview引入神经网络记忆单元,实现多模态视频处理与自主学习能力[11] - 颠覆传统Transformer架构,通过参数融合实现长期记忆而非外挂式调用[26] - 端侧部署保障隐私与响应速度,记忆能力使设备从工具进化为"数字大脑"[27] 商业化进展 - 产品已覆盖非洲/中东/欧美/东南亚/俄罗斯市场,客户包括消费电子品牌/ODM/家电厂商[6][21] - MWC 2025展会上搭载其技术的AIPC引发经销商抢购,智能会议助手成爆款功能[14][16] - 技术下探至千元机级别,推动AI功能向台灯/冰箱等家电渗透[20][21] 战略愿景 - 通过记忆机制构建分布式智能网络,探索群体智能与社会化学习路径[28] - 以端侧记忆为基石,推动大模型从工具向具备思维延续性的智能体演进[27][28] - 对标2017年手机AI芯片革命,试图引领新一轮离线AI浪潮[31][32] 行业现状 - 百模大战熄火,行业进入分水岭阶段,落地能力成为存活关键[25][30] - 设备商/品牌商真实需求旺盛,但多数项目无法满足工程化要求[30][31] - 离线部署与差异化升级成为产业链核心诉求[19][21]
在WAIC现场,全球首个拥有「原生记忆力」的大模型亮相,但不是Transformer
机器之心· 2025-07-26 17:32
机器之心原创 作者:张倩 视频中的这个灵巧手是由一个 离线的多模态大模型 驱动 的。虽然模型只有 3B 大小,但部署到端侧后,无论是对话效果还是延迟几乎都可以媲美云端运行的比它 要大得多的模型,而且它还拥有「看、听、想」等多模态能力。 重要的是,它并非基于 Transformer,而是基于 国内 AI 创企 RockAI 提出的非 Transformer 架构 Yan 2.0 Preview 。这个架构极大地降低了模型推理时的计算复杂 度,因此可以在算力非常有限的设备上离线运行,比如树莓派。 而且,和其他在设备端运行的「云端大模型的小参数版本」不同,这个模型拥有一定的 原生记忆能力 ,能够在执行推理任务的同时 把记忆融入自己的参数 。 也就是说,在和其他大模型对话时,你每次打开一个新的窗口,模型都不记得你们之前聊过什么,就像一个每天睡一觉就会把你忘了的朋友,每天都见但每天都 是「初见」。相比之下, 基于 Yan 架构的模型会随着时间推移越来越了解你 ,并基于这些信息去回答你的每一个问题。这是当前大多数基于 Transformer 的云端 大模型都做不到的,更不用提被剪枝、蒸馏等手段破坏了再学习能力的「小模型」 ...