量子位
搜索文档
打破视频推理「先看后想」惯性,实现真正的「边看边想」丨CVPR'26
量子位· 2026-03-18 09:37
为此,越来越多的方法采用"帧文交错"的方式实现流式感知视频,即:"看一会,说一会 " 。 这样的方式看起来够用,是因为模型"想得短"。 一旦引入Chain-of-Thought,推理变得更加复杂:模型一思考就占着生成通道不放,新的 帧进不来;打断会丢思路,不打断就会过时。 EIT-NLP 团队 投稿 量子位 | 公众号 QbitAI 今天的大型视觉语言模型 (VLM) 做离线视频分析很强,但一到实时场景就尴尬: 视频在往前走,模型还在"补作业"。 监控告警、机器人交互、自动驾驶——这些任务要的是 边看边想 ,不是 看完再想 。 这在离线任务没问题,但在流式视频里会出现两个硬伤: 宁波东方理工大学/宁波数字孪生 (东方理工) 研究院沈晓宇团队的研究提出TaYS,并给出一个明确结论: 要让VLM真正具备实时视频推理能力,必须从"帧文交错"切换到"并行"。 研究论文: 《Think-as-You-See: Streaming Chain-of-Thought Reasoning for Large Vision-Language Models》 目前,该论文已被 CVPR 2026 接收。 为什么现在的推理系统不适 ...
量子位编辑作者招聘
量子位· 2026-03-18 09:37
公司业务与市场地位 - 公司是一家以追踪AI新进展为核心的内容平台,拥有8年积累[1] - 公司在微信公众号拥有超240万订阅用户,全网用户超700万,日均阅读量200万+[12] - 公司在新榜和清博等第三方数据平台是AI及前沿科技行业TOP1新媒体[12] 招聘岗位方向与职责 - AI产业方向岗位关注基建层创新,包括芯片、AI Infra、云计算领域新进展及核心玩家动态[5][6] - AI财经方向岗位关注AI领域创投和财报,跟踪产业链资本动向,产出创投融资、招股书财报解析等稿件[6][11] - AI产品方向岗位关注AI在应用和硬件终端方向的进展,撰写AI应用产品深度评测,跟踪多终端新品发布[6][10] - 所有岗位均开放社招(编辑、主笔、主编)和校招(应届毕业生)[4][6] 岗位任职要求 - AI产业方向要求对芯片、GPU、NPU、服务器、模型训练架构、云计算等有基本理解,熟悉AI行业供应链与生态[11] - AI财经方向要求对数据敏感,对财报、股权结构、战略规划感兴趣,逻辑结构强且对商业叙事敏感[11] - AI产品方向要求对智能硬件、AI终端趋势敏锐,是重度AI产品体验人士,熟悉各大终端厂商业态[11] 员工发展机会与福利 - 员工可第一时间接触AI领域最新技术和产品,构建完整的AI认知体系[6] - 员工可将各种AI新工具应用于工作,提升效率和创造力[6] - 员工可通过撰写独家原创内容建立个人知名度,成为AI领域意见领袖[6] - 员工可与AI领域大咖零距离接触,参与重要科技活动,拓展行业人脉[6] - 应届新人会由主编级编辑提供一对一指导[6] - 公司提供行业TOP薪资待遇,五险一金、餐补、项目绩效、商务绩效、加班补助等福利[6] - 公司团队氛围扁平、简单、开放、多劳多得[6]
阿里“悟空”上线!钉钉给企业送来龙虾大军
量子位· 2026-03-18 09:37
产品发布与战略定位 - 阿里巴巴在AI toB领域推出旗舰应用“悟空”,这是钉钉成立11年来推出的第一款独立APP,也是一个面向全球的AI原生工作平台[3][4] - 产品发布正值Alibaba Token Hub成立第二天,阿里巴巴集团CEO吴泳铭现身发布会,显示出公司高层对该战略产品的重视[12] - 此次发布并非简单的“钉钉加AI按钮”,而是钉钉11年来的一次自我突破,也是阿里在AI toB领域的重要布局[64] 产品核心功能与能力 - “悟空”以企业智能体为核心,拥有超强执行力,能落地于企业办公场景,可操作电脑、编辑文件、调用各类应用程序[6] - 产品能高效承接串联多平台、多任务,实现“一人搞定一个团队的活”,从日常办公提效到垂直行业深耕,实现指令即交付[13] - 通过“场景化Skill套件+预编排工作流+行业数据沉淀”组合拳,用户可一键启用行业解决方案[37] - 产品同步发布OPT十大行业解决方案,覆盖电商、跨境电商、知识类博主、开发、门店、设计、制造、法律、财税、猎头十大核心场景[34] 技术架构与核心创新 - 团队为让AI能真正替人干活,重写底层代码,将所有产品能力全面CLI化[9] - 全面CLI化意味着将所有核心能力逐一拆解、重写为标准化的CLI指令,为AI Agent打造了一套“原生操作语言”,解决了AI与办公软件之间的语言壁垒[52] - CLI化为AI实现推理与行动闭环、大规模上下文吞吐提供了底层权限与灵活性,这是传统GUI界面难以企及的,是AI Agent从“能聊天”到“能干活”的核心支撑[54][58] - 钉钉是首家明确提出并全面推进CLI化的头部应用,显示出阿里对AI原生的深度理解[60][61] 企业级安全与合规 - “悟空”针对企业级应用的关键短板——安全,搭建了四层安全防护体系[44][46] - 安全体系包括:Agent权限控制、安全沙箱运行、专属模型部署、Skill安全认证,确保操作权限可控、全程留痕、数据隔离[48] - 产品从第一天起就是为企业设计,能自动继承企业既有权限规则,操作全程留痕可追溯,token消耗与使用成本清晰透明[46] 市场影响与生态整合 - “悟空”作为独立应用已开启全球邀测,同时其Agent也将内置到钉钉最新AI 2.0版本中,用户可通过双入口使用[7] - 这意味着中国超过2000万家企业组织,将拥有自己的“AI员工军团”[8] - 阿里巴巴集团旗下淘宝、天猫、1688、支付宝、阿里云等核心业务的Skills将逐步接入“悟空”,使其成为阿里AI能力在企业工作场景的统一出口[66] - 产品将联合开发者生态共建企业级Skill生态,并全面兼容开源Skill体系,目标指向打造“全球最大的toB Skill市场”[39][40] - 在全球化布局上,产品后续将打通微信、Slack等全球主流即时通讯平台,支持电脑、手机多端远程唤醒[67] 应用场景与效率提升案例 - 在本地生活获客场景中,“悟空”能自动拆解任务,完成竞品分析、内容创作、发布及评论区互动引导的全流程,使“1个店长+悟空”等于一个7×24小时在线的智能门店团队[13][14][15][17][19][21][22] - 在企业人才招聘场景中,“悟空”能化身全职猎头,自动完成岗位分析、简历智能匹配、生成人才画像与沟通策略,使“1个管理者+1个悟空”轻松闭环招聘流程[23][24][25][26][27][29][32] 公司战略与组织调整 - 阿里巴巴宣布正式成立Alibaba Token Hub事业群,千问事业部、悟空事业部等归入其中[67] - 悟空事业部的定位是“打造B端AI应用入口,将模型能力深度融入企业工作流”[67] - 千问提供底层模型能力,悟空承载上层应用场景,“模型+应用”的闭环已然成型,体现了阿里在AI toB赛道上从基础设施到应用层的完整布局[68][69]
0产品获苏妈投资!前腾讯AI大牛刘威视频创业,又融了8000万美元
量子位· 2026-03-18 08:21
田晏林 发自 凹非寺 量子位 | 公众号 QbitAI 刘威是前腾讯杰出科学家、IEEE/AAAS Fellow,曾担任腾讯混元大模型核心技术负责人,在计算机视觉与多模态AI领域拥有深厚积累。 2024年底离职创业后,他便聚焦AI视频生成赛道。 值得关注的是,Video Rebirth成立一年多,接连获得资本重金押注。 目前刘威正在带队自研工业级视频生成模型Bach,但尚未对外发布。 8000万美元新融资 量子位获悉,这笔8000万美元融资不仅汇聚了亚洲顶尖风投机构,更吸引了 AMD Ventures、现代汽车(Hyundai) 等跨界战略巨头联合 投资,泛娱乐、出行和科技领域的众多行业领军企业共同参与。 8000万美元 将用于Video Rebirth前沿视频生成产品线——Bach系列模型的商业化落地与全球市场扩张。 Video Rebirth总部设在新加坡,目前业务只涉及海外市场,客户群体主要面向企业和专业的个人用户。 量子位从消息人士处了解到, 这次融资于2025年11月启动,多家机构确定投资意向时,公司产品仍处于研发阶段。 量子位获悉,前腾讯AI大牛刘威的创业项目,又有新进展。 刚刚, AI视频初创公 ...
英伟达最强B200算力浪费60%!普林斯顿团队出手,利用率升至71%
量子位· 2026-03-18 08:21
文章核心观点 - 普林斯顿大学等机构的联合研究指出,英伟达Blackwell B200 GPU因软硬件适配问题,导致高达**60%**的计算资源被浪费[1] - 由Tri Dao领衔、Meta、Together AI及英伟达共同研发的**FlashAttention-4**算法,通过针对性优化,将GPU利用率从行业普遍的**20%-30%**提升至**71%**,有效解决了资源浪费问题[3][4][5][6] Blackwell B200 GPU的硬件瓶颈 - **算力大幅提升**:Blackwell B200的张量核心算力达到**2.25 PFLOPS**,是上一代Hopper H100的**2倍**[7][8] - **配套单元停滞**:负责指数运算的MUFU单元吞吐量与共享内存带宽均未升级,与算力翻倍的张量核心形成脱节[11][12] - **性能瓶颈反转**:在注意力计算中,共享内存读写和指数运算的耗时,反而比矩阵乘法多出**25%-60%**,导致张量核心长期处于等待状态,**超过六成**的计算资源被闲置[13][14][15] FlashAttention-4的三大优化策略 - **优化指数运算与内存读写**: - 通过**软件模拟指数函数**(使用多项式近似),让高速的FMA计算单元参与指数运算,提升吞吐量[18] - 采用**条件性softmax rescaling**策略,减少不必要的计算步骤[18] - 利用**2-CTA MMA**模式,将共享内存的读写量直接**砍半**,并减少后续原子操作[20][21] - **重构计算流水线**:深度适配Blackwell的**全异步MMA操作**和**张量内存TMEM**,让softmax计算与矩阵乘法实现完全的计算重叠,避免硬件算力空闲[23][24][26] - **前瞻性硬件适配**:考虑到下一代B300/GB300 GPU的指数运算单元吞吐量已翻倍至**32 ops/clock/SM**,算法方案将根据实际性能重新权衡,确保持续适配硬件迭代[27][28] FlashAttention-4的性能与开发优势 - **性能表现**:在B200 GPU上,前向传播算力最高达到**1613 TFLOPS/s**,实现了**71%**的理论峰值利用率[32] - **速度对比**:比英伟达官方的**cuDNN 9.13**快**1.1-1.3倍**,比常用的**Triton框架**快**2.1-2.7倍**,在长序列、因果掩码等场景优势更突出[34][37] - **开发效率跃升**:全部代码基于**Python的CuTe-DSL框架**编写,实现零C++代码开发[29] - **编译速度大幅提升**:前向传播内核编译时间从FlashAttention-3的**55秒**缩短至**2.5秒**,提速**22倍**;反向传播编译时间从**45秒**降至**1.4秒**,提速**32倍**,整体编译速度最高提升**30倍**[30][31][32] 行业影响与后续发展 - 英伟达官方的**cuDNN从9.13版本开始**,已经反向吸收了FlashAttention-4的核心技术[38]
百度龙虾全家桶火速上桌!出手就是全球最大搜索skill
量子位· 2026-03-17 19:59
文章核心观点 当行业多数参与者仍聚焦于AI智能体(文中隐喻为“龙虾”)的部署与基础搭建时,百度凭借其全栈AI布局,已率先构建并推出了覆盖云端、移动端、桌面端及丰富技能生态的完整AI智能体解决方案(即“龙虾全家桶”),将竞争焦点从“能养虾”推进至“能用虾、管虾、扩展虾”的应用与生态构建新阶段 [1][8][15][80] 根据相关目录分别进行总结 百度AI智能体(“龙虾”)产品矩阵与生态 - 公司推出“龙虾全家桶”,包括云端智能体、安全方案、手机端应用及一整套Skills能力 [1] - 产品矩阵迎来新成员:全新自研桌面AI智能体DuMate,以及小度全球首款家用AI智能体 [4][33] - 依托百度智能云、红手指Operator(后更名为RedClaw)及百度App,公司搭建了从云端极简部署、移动端开箱即用,到应用侧零部署的完整生态 [7] - 在1个多月内,公司快速实现了从智能体一键调用、零部署,到手机端应用上线等一系列动作落地 [6] 应用层突破:降低使用门槛,拓展使用场景 - 行业普遍面临部署后智能体如何实际使用、管理和持续运行的现实门槛 [12][13] - 公司通过百度App上线OpenClaw能力,用户通过搜索框一分钟即可唤起消息助手,实现一键使用 [20][21] - 公司推出面向零基础用户的DuClaw服务,实现“零部署”,内置百度搜索等Skills,做到开箱即用 [26][27] - 公司上线全球首款手机AI智能体应用“红手指Operator”,将体验延伸至移动端,用户可一句话指挥智能体完成打车、外卖等跨App操作 [29][30][31] - 桌面智能体DuMate定位为员工的第二大脑与执行助理,家用智能体则融入家庭场景,支持全家共享与跨设备任务执行 [33] Skills(技能)生态构建与核心能力 - 公司将自身AI能力封装成标准化Skills,推出了包括百度搜索、小度、秒哒、伐谋、客悦营销等在内的10余种能力组件 [38] - 针对智能体信息时效性问题,公司推出具备实时检索全网信息能力的“百度搜索”Skill,可与百度百科、百度学术等生态Skills协同 [40][41][42] - 百度搜索Skill在官方技能商店ClawHub下载量超4.5万次,是全球下载量最大的搜索引擎官方技能插件 [2][44] - 推出全球首个OpenClaw应用开发Skill“秒哒Skill”,用户可通过自然语言对话创建、修改与发布网页、小程序、游戏 [48] - 在企业侧,推出国内首个将OpenClaw智能体能力引入企业营销场景的标准化营销类Skills [49] - 发布新一代“伐谋Skill”,面向科研与算法场景,提供算法自演化、实验管理和可视化能力 [51][52] 开发者支持与全栈技术布局 - 针对智能体任务中的高消耗场景,公司通过千帆平台推出Coding Plan订阅服务,整合Kimi-K2.5、GLM-5等主流代码模型,以更低成本帮助开发者接入代码强模型能力 [54][55] - 公司通过“芯—云—模—体”的全栈AI布局支撑智能体生态快速落地,依托自研昆仑芯和百度智能云服务,提供从云端部署、模型调度到算力成本控制的能力 [65] - 通过轻量应用服务器LS提供全可视化部署界面,支持快速搭建并一键接入飞书、钉钉、企业微信等主流IM工具 [66][67][68] - 公司强调安全机制,通过官方托管的零部署服务、环境隔离、技能管控等措施保障数据安全与生态可持续性 [73][74][76] 行业趋势与公司战略定位 - 2026年初,AI圈热点围绕OpenClaw展开,从云厂商到硬件企业纷纷卷入“养虾”热潮 [9][10] - 行业初期竞争多停留在帮助用户完成基础部署的阶段 [12] - 随着第一波热度过去,行业开始比拼部署后智能体的实际应用能力,即如何将其转化为长期生产力系统 [78][80] - 公司通过打通应用侧、能力侧与扩展侧,使智能体演变为一个可不断生长的任务系统,并借助全链路生态在规模化落地期走在行业前面 [81][82][83][84] - 线下生态活跃,公司举办的开发者活动吸引了近1000名开发者到场,并获得OpenClaw创始人的公开赞赏与合作意向 [60][63]
北京养虾er!明晚19点,为你带来9+场养虾干货Talk,来创业大街见
量子位· 2026-03-17 19:59
行业活动概览 - 活动主题为“OpenClaw「养虾」经验交流沙龙”,旨在分享AI智能体(龙虾/OpenClaw)的实战应用经验,解决用户从安装到实际应用中的问题 [1][2][10] - 活动由量子位公众号组织,将于3月18日周三19:00-21:00在北京海淀中关村创业大街举行 [1][3] - 活动提供“替你装虾”服务,并有“虾农身份认证”贴纸等互动环节,以促进用户交流 [2][9] 核心议题与分享内容 - 议题涵盖AI智能体的技术原理、记忆管理、个性化调教及多场景落地应用 [5][6][7] - 技术议题包括解密“龙虾模型”的养成、OpenClaw记忆管理实战以解决会话中断问题 [5] - 应用实践议题包括将OpenClaw调教成私人助手、非技术背景下的Agent实战、以及探讨OpenClaw的本质与最佳实践 [5][6] - 特定行业应用案例包括用OpenClaw打造“永不休眠的律所”,该项目在领英吸引了超过5万人的关注 [6] - 生活化应用案例包括通过API集成实现自动点咖啡、培养AI成为长期协作的“外脑”伙伴 [6][7] 参与方与嘉宾背景 - 分享嘉宾来自多家行业相关公司,包括智谱、清昴智能、MiniMax、网易有道、Lovstudio.ai等 [5][6][10] - 嘉宾角色多样,涵盖技术员工、产品负责人、解决方案架构师、产品经理、创业者及法律专业人士 [5][6][10] - 包括美国加州律师分享法律科技应用,以及多位创始人分享其AI产品与实践经验 [6]
Kimi新架构让马斯克叹服!17岁高中生作者一战成名
量子位· 2026-03-17 14:10
文章核心观点 - 月之暗面(Kimi)团队提出了一种名为“注意力残差”(Attention Residuals)的新型神经网络架构技术,该技术通过将对序列的注意力机制“旋转90度”应用于网络深度维度,以解决传统残差连接中的“PreNorm稀释问题”,从而显著提升大模型的训练效率[1][11][12] - 该技术在其自研的Kimi Linear 48B大模型上得到验证,实现了约25%的训练效率提升,且推理延迟增加小于2%,并在多项下游任务中展现出持平或更优的性能[6][22][23][24] - 这项创新工作源于对“时间-深度对偶性”的理论洞察,并引发了包括马斯克、Andrej Karpathy在内的行业顶尖人物的关注[3][5][28][31] 技术创新与原理 - **核心问题**:在主流PreNorm范式下,传统残差连接将所有前序层的信息等权累加,导致早期信息被稀释、难以检索,并引发隐藏状态范数无界增长,造成训练不稳定,此现象被称为“PreNorm dilution problem”[9][10] - **解决方案**:受Transformer中注意力机制处理序列的启发,团队提出在深度维度上,让当前层通过注意力机制“选择性关注”之前的层,而非无差别累加,即“注意力残差”[11][12] - **工程挑战与优化**:直接应用会导致计算复杂度达到O(L²)(L为层数),无法承受。团队采用“分块注意力残差”(Block AttnRes)方法,将连续层打包成块并压缩为“摘要向量”,将复杂度降至O(L·B)(B为块数,通常为8-16),并辅以缓存式流水线通信等工程优化[14][15][19][20][21] 性能验证与效果 - **效率提升**:在Kimi Linear 48B模型(总参数量480亿,激活参数量30亿的MoE架构)上验证,在相同计算预算下可获得更好性能;达到相同性能所需训练计算量减少约20%,相当于获得1.25倍的效率优势[6][22][23] - **任务表现**:在多项基准测试中,采用注意力残差的模型表现持平或优于基线模型,特别是在数学推理(如MATH提升至57.1分 vs 基线53.5分)、代码生成(如MBPP提升至73.9分 vs 基线72.0分)及中文理解(如C-Eval提升至82.5分 vs 基线79.6分)方面有改善[24][25] - **部署优势**:该技术是一个“即插即用”的替代方案,可直接替换原有残差连接,无需修改网络其他部分[26] 行业影响与人物背景 - **行业关注**:此项研究引起了埃隆·马斯克和OpenAI前科学家Andrej Karpathy等业界领袖的关注与讨论,Karpathy更借此反思业界对Transformer原始论文的理解仍不充分[3][5] - **团队构成**:论文的共同第一作者之一是年仅17岁的高中生陈广宇(Nathan),其经历展现了非传统的技术人才成长路径[31][32][53] - **人才路径**:陈广宇从对底层技术产生兴趣开始,通过参与黑客松、加入青年计划、在硅谷AI初创实习(该公司于2025年初完成800万美元种子轮融资),最终加入月之暗面核心团队,专注于如Flash Linear Attention等高效注意力机制的底层研发工作[36][37][43][45][47][48][49][50][51]
卡帕西点赞Transformer内置计算机!每秒3万Token吞吐,拿下世界最难数独
量子位· 2026-03-17 14:10
闻乐 发自 凹非寺 量子位 | 公众号 QbitAI LLM推理已经顶尖,精确计算却跟不上。 这局怎么破? 卡帕西点赞的解决方法来了, 在大模型内部构建一台原生计算机 。 甚至有些还能挑战人类还未解决的数学问题与科学问题。 但有一个始终无法回避的现实是,这些模型在需要 多步骤、长上下文的精确计算任务 中,仍然表现惨淡。 为了弥补这个短板,现在行业上有两种主流的解决方案。 一是 工具调用 ,让模型生成脚本,由外部沙箱解释器执行后返回结果; 新方法不搞外包那一套 (不依赖任何外部工具) ,直接在Transformer权重里内嵌可执行程序。 并通过创新的2维注意力头设计,将大模型的推理效率提升至指数级。 能在普通CPU上实现每秒3万+Token的流式输出。 在Transformer内嵌原生计算机 咱都知道,当前最先进的大模型,拿下奥赛金牌已经不足为奇了。 二是 智能体调度 ,通过外部状态机拆分计算任务,循环调用模型处理上下文。 首先,他们在Transformer权重中实现了一套 现代化RAM计算机与WebAssembly解释器 。 WebAssembly可以理解成一种特别快、特别稳定的底层机器指令,C、C++这些编 ...
企业级靠谱龙虾升级,拒绝失控
量子位· 2026-03-17 12:13
行业背景与趋势 - 市场对AI的期待从追求通用模型的热度转向解决企业实际业务问题,模型发展呈现专业化、专长化趋势[18][19][21] - 通用大模型难以直接应用于企业复杂业务场景,存在技能单一、场景有限、成本高及数据安全合规风险等问题[2][3][22] - 企业级大模型赛道正迎来爆发式增长,正逐步替代传统软件,以数字员工形态成为企业数字化核心交付载体[49] 公司核心战略与定位 - 公司摒弃轻量化智能体路线,专注于打造能落地、创造价值的企业级AI数字员工[2][5][46][48] - 公司定位为业内唯一实现“规划-决策-执行”数字化闭环的企业级大模型产品提供商[46] - 公司核心优势在于对企业服务的理解深度,包括数据治理全链路能力和对复杂业务场景的精准把控[44] 产品体系:“三大件”与DeepexiOS - 公司核心产品体系由Deepexi企业大模型、FastAGI企业智能体平台和FastData Foil企业数据融合平台组成,合称“三大件”[6][8] - 三大件融合组成名为“DeepexiOS”的AI级企业操作系统,旨在系统化支撑企业AI建设[9] - DeepexiOS实现了数据治理的动态化重构,能自动生成贴合企业业务逻辑的知识体系,告别了传统人工梳理、流程固化的痛点[43] Deepexi企业大模型核心能力 - 模型专注于企业级应用,核心能力包括精准理解业务(吃透内部知识、流程、逻辑)和可靠的coding能力(自动写代码、查数据、跑流程)[23][24] - 模型能融合SQL/Python/前端/NC代码等能力,直接操作系统后台,实现自动生成SQL、写Python脚本、对接ERP等操作[25] - 模型基于企业本体数据集构建,认知精度远超同类产品,能做到回答可靠、推理严谨[23][29] 数据基础:Deepology企业本体数据集 - 公司自2018年起积累数据,已为超300家行业头部客户提供业务建模服务,沉淀形成Deepology企业本体数据集[26] - 该数据集是一套能真正理解企业业务的高质量数据体系,而非零散的原始数据集合,是模型持续进化的“核心养料”[26] - 以船舶行业为例,公司通过服务多家企业,沉淀了图纸、工程数据与全链路信息,构建了该行业的本体数据集[26] FastAGI企业智能体平台升级 - 平台重点升级了Agentic多项能力,实现自主规划Agent,并积累了工程设计、BOM分析、工艺优化、故障维修等企业级常用Skills[33] - 升级支持超长上下文机制和多层记忆架构,在高并发场景下,处理能力与稳定性大幅提升[33] - 平台作为AI员工的“协同workspace”,能对复杂任务进行端到端规划、拆解与分派执行[40] FastData Foil企业数据融合平台升级 - 平台在原有多模态数据治理能力基础上,重点升级了对语音、音视频及空间地理等多模态数据格式的解析能力[34] - 平台能动态扩展和更新企业本体模型,为企业沉淀高质量的Deepology企业本体数据集[34][35] - 平台负责将企业各类杂乱数据清洗、融合成AI-ready高质量数据,为模型提供可靠的数据支撑[37] 技术路径与协作流程 - 完整协作流程分为三层:数据层(FastData Foil处理数据)、模型层(Deepexi训练模型)、执行层(FastAGI调度执行)[37][39][40] - 模型训练与推理能力与数据平台的多模态数据处理能力相互支撑,形成闭环互补,支撑持续迭代[31] - 平台内置多层记忆与激励机制、Skill管理与自动化、企业知识库与安全机制,以保证任务执行的准确可靠[47] 公司财务与业务进展 - 公司最新财报预告显示亏损收窄,核心原因是营业收入增长带动毛利大幅提升,主营业务进入“收入增长带动毛利提升”的正循环[10] - 预计2025年营收同比增长65%~75%;FastAGI收入较2024年同期增幅达175%以上;全年净亏损同比收窄23%以上[15] - 公司已服务中国海诚、大族激光等众多行业头部企业,客户覆盖消费零售、制造、医疗、交通等多个领域[11][12] 未来规划与布局 - 下一代Deepexi企业大模型已在研发和规划中[32] - 公司考虑将核心的本体模型技术与智算单元结合,打造NOVA本体模型加速专用芯片(SOC)[50] - 公司规划“Deepexi企业大模型+具身机器人=AI具身员工”,并与天津大学成立“具身智能大脑联合实验室”以推动落地[50]