Workflow
端侧大模型
icon
搜索文档
面壁智能获新一轮数亿元融资:端侧大模型技术与商业化持续突破
格隆汇· 2025-05-21 13:19
自2024年起,面壁智能融资节奏稳健,已顺利完成三轮数亿元级别的融资。2024年4月,由春华创投领 投,北京市人工智能产业投资基金等跟投,知乎作为战略股东持续跟投;同年 12月,龙芯创投、鼎晖 百孚、中关村科学城基金和赛富投资基金联合领投,北京市人工智能产业投资基金与清科创投跟投;到 了2025年5月,便是此次洪泰基金等联合投资的新一轮融资。 《麻省理工科技评论》《经济学人》等媒体,一直将面壁智能与DeepSeek等并称为中国高效创新代表 的公司。在DeepSeek出现后,大模型公司的融资环境风云变幻,诸多企业陷入融资困境,而面壁智能 与智谱AI成为了市场上极少数能够持续、顺利融资的企业。这一现象背后,彰显的是市场对前者坚持 走"端侧路线"的高度认可。面壁智能聚焦端侧模型研发,致力于打造同等参数下性能更高、成本更低、 功耗更小、速度更快的高效大模型,这种独特发展战略使其在激烈竞争中脱颖而出,让投资者看到了巨 大潜力与广阔发展空间。 在全球人工智能竞赛白热化的当下,面壁智能于近日成功完成新一轮数亿元的融资,本轮融资由洪泰基 金、国中资本、清控金信和茅台基金联合投资。 此外,面壁智能在法律、教育等多个垂直领域加速 ...
面壁智能完成新一轮亿级融资
搜狐财经· 2025-05-21 10:37
经过几年的快速发展,面壁智能已形了成全模态、多模态与基座模型组成的完整矩阵,持续刷新端侧大 模型能力边界。MiniCPM凭借以小博大、高效低成本的特性享誉全球,接连实现端侧ChatGPT、GPT- 4V、GPT-4o时刻,并获评2024年Hugging Face"最多下载、最受欢迎中国大模型"。截至目前,面壁小钢 炮MiniCPM系列平台下载量累计破1000万。 在应用侧,面壁智能发布的"小钢炮超级助手cpmGO",是全球首个落地车端的纯端侧智能助手;面壁 智能作为联合研发团队参与的"法信法律基座大模型"也已在最高人民法院发布;与清华大学联合推出 AI 学生成长助手"清小搭",为清华大学所有本科生配备具有智能问答、智能伴学功能的专属智能助 手…… 据介绍,本轮融资的完成,将进一步为面壁智能构筑高效大模型技术、产品壁垒、加速行业赋能与生态 拓展奠定坚实基础,协同产业上下游推动「端侧大脑」在千行百业规模化应用。 近日,面壁智能完成新一轮数亿元融资,本轮融资由洪泰基金、国中资本、清控金信和茅台基金联合投 资,自 2024年以来,面壁智能已连续完成3轮融资。 2024年9月,面壁智能发布小钢炮 MiniCPM 3.0 ...
手机流畅处理128K长文本,vivo端侧新算法突破内存限制 | ACL 2025
量子位· 2025-05-20 13:12
vivo端侧大模型团队 投稿 量子位 | 公众号 QbitAI 在端侧设备上处理长文本常常面临计算和内存瓶颈。 vivo AI研究院 推出的EdgeInfinite算法专为端侧设备设计,让设备处理超长文本时更加高效流畅,该方法能够在不到10GB GPU内存的设 备上处理长达128K tokens的输入。 该研究成果已中稿ACL 2025。 以下是更多详细内容介绍。 EdgeInfinite:解决端侧设备长文本处理的高效算法 端侧LLM在实际应用中会遇到很多长文本输入的场景(例如通话摘要和个人文档总结),但由于端侧设备的资源限制,现有的LLM在部署到 端侧后都无法处理很长的上下文。 这是由于现在LLM都是基于Transformer架构,其计算耗时和内存占用会随着输入长度增加而显著增长,尤其当需要将Transformer类模型 部署到端侧设备上时,面临的挑战会愈发突出。 为了解决这类问题, vivo AI研究院 提出了一种用于端侧设备的长文本算法—— EdgeInfinite ,该算法通过一个可训练的 门控记忆模块 将记忆压缩算法集成到了 Transformer架构 中。 本方法与原生的Transformer架构 ...
AI原生手机之战:三大阵营的对决
36氪· 2025-05-07 20:23
现实状况是,没有AI卖点,智能新机都不好意思拿出手。 刚刚过去的4月,各大手机厂商密集发布新品,实则无形中掀起一场行业AI革命。好似喊了数十年的智能终端,现在才真正「智能兑现」。 比如,OPPO Find X8系列的AI一键闪记功能,「小布记忆」堪称「健忘症救星」;荣耀x70i则具备AI拍照聚焦的效果,还提供任意门、AI换脸检测、灵 动胶囊;华为畅享80也退出AI通话的卖点...... IDC最新数据显示,2024年中国AI手机出货量同比激增591%,渗透率已从2023年的3%跃升至22%,预计2025年将突破1.18亿台,占据整体市场的40.7%。 值得注意的是,2024年全球600美元以上高端机型占比突破30.9%,其中AI功能贡献了75%的溢价能力;头部厂商研发投入占比攀升至12%-15%,远超传统 硬件创新周期,2025年这一情况还将得到进一步增长。 数字背后折射出,手机厂商在硬件创新枯竭、用户换机周期拉长至51个月的困境压力下,集体押注AI。 传统语境下,厂商们比拼的卖点往往是前后主摄的范围或者超广角的大小,影像方面仅限于「拍的远和看得见」。AI时代,手机影像不仅仅是拍照需 求,还涉及视频创作,这意 ...
ICML 2025 Spotlight|华为诺亚提出端侧大模型新架构MoLE,内存搬运代价降低1000倍
机器之心· 2025-05-07 08:33
Mixture-of-Experts(MoE)在推理时仅激活每个 token 所需的一小部分专家,凭借其稀疏激活的特点,已成为当前 LLM 中的主流架构。然而,MoE 虽然显著降低 了推理时的计算量,但整体参数规模依然大于同等性能的 Dense 模型,因此在显存资源极为受限的端侧部署场景中,仍然面临较大挑战。 思考 现有的主流解决方案是专家卸载(Expert Offloading),即将专家模块存储在下层存储设备(如 CPU 内存甚至磁盘)中,在推理时按需加载激活的专家到显存进行 计算。但这一方法存在两大主要缺陷: 本文的核心思考是,在专家卸载方案中,需要将专家模块加载到显存,主要是为了在 GPU 上执行高效的矩阵运算。换句话说,如果专家的计算过程能够绕过矩阵 运算的需求,就可以避免将专家权重加载到显存,从而根本上规避频繁加载带来的开销。直观来看,专家模块本质上是一个神经网络,用于建模输入到输出的映 射。如果能够在推理前预先计算出所有可能的输入 - 输出对应关系,并将其存储为查找表,那么在推理时即可用简单的查找操作代替矩阵运算。 为了解决上述问题,来自北大和华为诺亚的研究人员提出了 Mixture-of-Lo ...
智能车速度刷新:仅10个月,首个纯端侧大模型上车量产!
量子位· 2025-04-24 18:29
金磊 发自 凹非寺 量子位 | 公众号 QbitAI 端侧大模型圈子的 《速度与激情》 ,就这么水灵灵地上演了。 坐标上海车展,在长安马自达新车发布之际,车上的 智能座舱 竟然成了大亮点之一。 因为速度着实有点太快——从零到量产,只花了10个月的时间! 要知道,这件事儿在汽车领域里面,一般都是要按"年"这个单位来计算。 而且啊,搞出这件事的,还是车圈的一位"新手"—— 面壁智能 。 没错,就是那个在大模型圈里用"以小搏大"姿势出圈的端侧大模型玩家。 他家当家模型产品"面壁小钢炮",一直引领全球端侧 AI 性能与算法创新之先,是响当当的端侧模型扛把子! 面壁在端侧以不足1B到8B的模型尺寸,实现了惊人的端侧GPT-4V、GPT-4o效果,前不久发布了全球首个全模态端侧模型。 超绝口碑,来自高效低成本、以小搏大,在今年年后也常被人称为 "端侧 DeepSeek " 。 它所发布的智能座舱产品,叫小钢炮超级助手 cpmGO ,是行业首个由纯端侧大模型驱动的智能助手。 整体来看,cpmGO具备以下几个特点: 快准稳 此举可谓是一鸣惊人,一举刷新行业纪录,一步迈进了"月"的计量单位。 91%超高执行准确率,交互如行云流 ...