端侧AI落地路径:从算力下沉到场景闭环
21世纪经济报道·2025-12-11 16:00

而要支撑这种转变,端侧设备必须满足一系列严苛条件:运行百亿参数级基座模型、加载企业专有知识 库、支持多智能体协作、处理超长上下文,并保障数据不出域。这些需求共同指向一个核心命题:端侧 AI如何真正落地? 在近期由MINISFORUM铭凡与AMD联合举办的AI产品体验会上,多位与会业内人士认为,端侧AI要真 正"落地",不能仅靠算力堆砌,还需在硬件架构、应用场景和生态协同上形成完整闭环。 2025年,人工智能正经历一场结构性迁移——大模型能力不再局限于云端数据中心,而是加速向终端设 备下沉。这一趋势被AMD大中华区市场营销副总裁纪朝晖称为"AI智能体元年"的开端:AI正从对话式 助手演变为具备任务执行能力的生产力工具。 算力下沉:端侧设备如何承载百亿参数大模型? 过去两年,尽管"端侧AI"概念火热,但实际部署仍面临三重障碍:算力不足、成本过高、生态割裂。传 统消费级PC或笔记本受限于显存容量与内存带宽,难以承载主流开源大模型(如Llama 3 70B、 DeepSeek-R1 70B等)。而企业若选择专用AI服务器,则需承担数十万元硬件投入、专用机房部署及持 续运维成本。云服务虽提供弹性算力,却在数据隐私、响应 ...